iOS11より、拡張現実(AR)の「ARKit」と機械学習に関する機能「Core ML」が搭載され、話題を呼びました。現在はそれぞれバージョンがあがり、AR Kit2・CoreML2となって、さらに機能豊かなアプリが実装可能となっております。
そこで、1日でこれら全てが丸わかりできる講習会を開催いたします。
iPhoneXよりカメラのレンズが2台搭載されることとなり、アプリで採寸できるようになりました。これにより家具のシミュレーションなどもより正確にできるようになっています。
また、ネイルや化粧のシミュレーションアプリも登場しており、試着シーンにも欠かさぬ存在になりそうです。
さらに、iPhoneだけで3Dスキャンができるアプリが登場しており、3Dそのものが一般人にとっても身近なものになりそうです。
GoogleGlassのようなヘッドセットが普及すれば、見たものをすぐに調べられる「ARで検索」も当たり前になるでしょうし、AR空間上に落書きメモや順路などを残すこともできます。今までのスクリーンがスマホ画面から、リアル空間全体に変わることになりますので、大きなビジネスチャンスがアプリ開発者のもとに訪れるといっても過言ではありません。
先日、ポケモンGOの運営元ナイアンティックが、開発中の拡張現実プラットフォーム Niantic Real World Platform をプレビュー公開しました。ゲームだけでなく様々な用途に利用される基盤技術と位置づけており、独自のゲームやアプリの展開を望むサードパーティー開発者を募っているとのことで、ますますAR市場は加速しそうです。
ARKitはiPhoneやiPad向けのARエクスペリエンスを開発するフレームワークで、カメラセンサーのデータと、Core Motionデータと総称されるデバイス内蔵の加速度計やジャイロスコープ、歩数記録計などと連携するフレームワークです。
Core MLは、モバイルデバイス上で直接、学習モデルを実行できる「基本的な機械学習フレームワーク」です。
顔追跡や顔検出、ランドマーク検出、テキスト検出、長方形検出、バーコード検出、オブジェクト追跡などを使用すると、開発者は視覚的な機械学習を作成しアプリに実装することができます。
Core MLは単体で使うことも可能ですが、他フレームワークとの併用もサポートされており、画像解析には「Vision」、ゲームに利用する場合は「GameplayKit」を使うことができます。
コンピュータビジョンの機械学習機能を容易にAppに組み込むことができます。フェイストラッキング、顔検出、ランドマーク、テキスト検出、矩形検出、バーコード検出、オブジェクトトラッキング、画像レジストレーションなどの機能に対応しています。
今回は、このARkitとCoreMLをベースにARアプリのサンプルをあますところなく解説していき、その複数のサンプルプログラムを参考にオリジナルのアプリ(プロトタイプ版)を実装していただきます。
また、これらを使って、どんなアプリができるのか、どんなARアプリが人気なのかを紹介しつつ、アプリ企画の講座も用意しております。
たった1日で、ARや機械学習のiOSの全てがわかる講座となっております。
Appleは2020年に、ARにも仮想現実(VR)にも対応する強力なヘッドセットを開発中と噂されております。
未来を先回りして、その可能性にかけたいエンジニアの皆さま、ぜひご参加ください。
サンプルアプリプログラムはAppleが配布しているものと、今回独自で用意したものを使い、それぞれについて解説していきます。
iOSアプリ開発初心者にはとっつきずらいSwiftですが、画面作成には欠かせないプログラミング言語です。ゼロからXCodeの使い方をレクチャーしていき、プログラムの構造を理解していただきます。
ネット上で無償配布されている3Dオブジェクトを取り込んで、ファインダー越しにあたかもその物体があるかのような体験をしていただきます。
3Dオブジェクトでオリジナルアプリを制作したい方はあらかじめ、3Dオブジェクト(usdzファイル、daeファイル)をご用意ください。
壁、屋根、テーブル、床などを判定して表示するアプリを作ります。
平面へ実際にサンプルオブジェクトを配置してみます。
例えば、同じ焚き火を囲むようなキャンプファイアーアプリを作ることができます。
緯度経度情報と紐付づけるようにすれば、上空に天空の城を配置したり皇居に江戸城を建てることもできます。
ARKitを使用して、カメラの画像からテクスチャを生成し、反射的な仮想オブジェクトをレンダリングします。
顔をリアルタイムで検出して追跡します。これを応用すれば笑顔などの表情をリアルタイム認識、みんなが笑顔になった瞬間に写真撮影するアプリを作ることができます。
inception-v3という物体認識の既存モデルを使ったリアルタイム検出アプリです。
Visionフレームワークを使用して写真を事前処理し、コアMLモデルで分類します。
机、椅子といった一般的な物体(1000種類)を認識して一般名称を表示、認識率を計測することができます。
表示するテキストを翻訳すれば「指差し単語帳」ができますし、
認識率が何パーセント以上になれば「写真をとる」というようなトリガーを発動するアプリが考えられます。
その物体が何なのかを認識し、その物体の上にテキストや3Dオブジェクトを表示します。
実際に画像を集めてモデルを作ります。例えば、「この人の画像は、オバマか、トランプか」といった機械学習のモデルを作っていただき、それを上記の「リアルタイム物体認識アプリ」に独自モデルを組み込んで試していただきます。
これを応用すると、「この花はなんていう名前なんだろう」という時に調べられるリアル検索アプリなどを作ることができます。(犬種、猫種、フォント名を教えるアプリなどが、すでに人気アプリとして出ています。)
また、ある看板や特定の人を見つけると反応するアプリや、スタンプラリーなども考えられます。
※)実装時間や参加者のスキルレベルを考慮して、スピード調整させていただきますので、全てを網羅できない場合がございます。ただ、iOSアプリの上級者でも、独自で進んでいただけるようなカリキュラムにしております。
・iPhoneアプリを作ってみたいという方(学生、初心者エンジニアも歓迎)
・機械学習のアプリを実際に作ってみたい方
・ARアプリを実際に作ってみたい方
・この分野で仕事をとっていきたいという方
初心者の方には、サンプルプログラムを動かして、ちょっとした改変を楽しんでいただき、
上級者の方には、複数のサンプルプログラムを応用し、独自のアプリを実装していただきます。
「その日の講習で理解ができなかった。みんながいるところで一緒に開発したい。」という方のために、今回の当講座の参加者に限り、次回以降(月1回の開催を予定)も無償参加できるようにいたします。(今は特に制限はございませんが、後になって回数制限や廃止になることがあります。)
開発実機:「OS Sierra 10.12.4」以上のアップルデバイス
・MacBook(Late 2009またはそれ以降)
・MacBook Pro(2010年半ば以降)
・MacBook Air(2010年後半以降)
・Mac mini(2010年半ば以降)
・iMac(2009年後半またはそれ以降)
・Mac Pro(2010年半ば以降)
検証端末:iPhone6S〜8,X,XSのいずれか
iOSのバージョンとMAXOSは最新版にしていただき、あらかじめXcodeをダウンロード、最新バージョンにしてください。
※貸し出しはございません。ARKitアプリはシミュレータで動かないため、iPhone6S以上をご用意ください。
Xcodeの使い方の説明と10個のサンプルプログラムの解説。講義中もサンプルプログラムを改変することでアプリの作り方を学んでいただきます。
実際にどんなARアプリが公開され、どんなARが人気なのかを学びます。その上でアプリ企画のポイントを詳しく解説します。午前で学んだサンプルアプリの、どのロジックをどのように使って、どんなアプリができるのかについても復習していただきます。
サンプルプログラムで学んだロジックを使い、新しくオリジナルアプリを制作していただきます。初心者はサンプルアプリに手を入れていく程度でも楽しいアプリケーションを作ることができますし、アプリ開発経験者は今までのスキルに今回学んでいただいたロジックを入れることで、さらに魅力的なアプリ開発体験ができることでしょう。
フリーランスのエンジニアとしてVR/ARアプリおよび画像認識アプリの開発に従事。
ゲームからBtoB向けアプリまで実績多数。
「テックジム方式」とは、基礎知識なしでも、座学なしでプログラミングに専念できるように設計されたプログラミングのカリキュラムメソッドです。 優れたエンジニアの多くは、職業訓練学校や研修スクールで学ぶような学び方をしません。 作りたいものを作っていたら、自然に習得できているのです。そして、優れた指導者(メンターや師匠)との出会いがエンジニアとしてのプロフェッショナル性を高めます。 この自発性...
メンバーになる