1口(1社3名まで受講可能)でのお申込は、           オンラインセミナー

 受講料 82,500円(1口3人まで)が格安となります。    Zoom



 導入可否を迅速に検討するための
 VSLAM
の概要と
 AR Foundation
を用いた実装演習



    ■ 「理論」 と 「プロトタイピング作成」 の両方を解説します。

    ■ 「Windows PC と Android スマホ」、または 「MacBook と iPhone」、2つの組み
      合わせに対応。
  <Windows PC と iPhone の組み合わせ等は不可>

   ■ Androidは以下のリストに掲載されたARCore対応のデバイスを対象とします。
         
      https://developers.google.com/ar/devices

     C / C++ / Python等のプログラミング言語を習ったことがある方に向けてのセミナーです。

     開発環境構築のためのダウンロードやインストールは、セミナー内で行うには時間がかかります
     ので事前に準備していただくことになります。関係する資料は1週間前頃にお送りする予定です。



 S240426NW

----------------------------------


本セミナーは Zoom を使用いたします。

開催日時:2024年4月26日(金) 10:00-16:00 (9:55受付開始)

受 講 料:1人様受講の場合 55,000円[税込] / 1名

     1口でお申込の場合 82,500円[税込] / 1口(3名まで受講可能)



 講 師


 内山 英昭 氏    奈良先端科学技術大学院大学 先端科学技術研究科 情報科学領域
                   サイバネティクス・リアリティ工学研究室(CAREラボ) 准教授

            < 略 歴 >
               2006年3月 慶應義塾大学 理工学部 情報工学科 卒業
               2007年9月 慶應義塾大学大学院 開放環境科学専攻 修士課程 修了
               2010年9月 慶應義塾大学大学院 開放環境科学専攻 博士課程 修了
               2010年10月-2012年6月 フランス国立情報学自動制御研究所 博士研究員
               2012年7月-2014年3月 株式会社 東芝 研究開発センター
               2014年4月 九州大学 大学院システム情報科学研究院 助教
               2018年4月 九州大学 附属図書館 准教授
               2021年4月 現職

               拡張現実感のためのコンピュータビジョン技術の研究に従事.2012年より3年間,拡張現実感に関する
               国際会議International Symposium on Mixed and Augmented Reality(ISMAR)の論文選定委員を歴
               任.2015年のISMAR及び2016年のVR学会で開催されたvisual SLAMの性能を競うトラッキングコンペ
               ティションを運営.visual SLAMのオープンソースのライブラリであるATAM(Abecedary Tracking and
               Mapping)を開発[1].拡張現実感に用いられる位置合わせ技術に関する本[2]や解説論文[3]を執筆.

                  [1] https://github.com/CVfAR/ATAM
                  [2] AR(拡張現実)技術の基礎・発展・実践 (設計技術シリーズ),科学情報出版(第一章担当)
                  [3] E.Marchand, H.Uchiyama and F. Spindler, “Pose Estimation for Augmented Reality:
                    A Hands-On Survey,” IEEE Transactions on Visualization and Computer Graphics,
                    vol.22, pp.2633-2651, 2016.

  

講義項目


      SLAMは,ドローン,ロボットや自動車の自動走行からスマートフォン向けAR/VRにいたるまで,多岐にわたるア
     プリケーションの基盤技術です.特に,カメラを用いたものはvisualSLAM(VSLAM),さらに,IMUを併用したもの
     はvisual-inertialSLAM(VIS)と呼ばれています.近年では,ARCoreやARKitに代表されるスマートフォン向けライブ
     ラリも登場しており,簡単なプログラミングでVSLAMを試すことができます.

      本セミナーは,VSLAMを手軽に試したい,VSLAMを用いたシステムのプロトタイプを簡単に作りたい,スマート
     フォンのVSLAMに基づくARアプリケーションを作ってみたい方を対象に,VSLAMの座学と実装演習を行います.
     初めに,座学としてVSLAMの基礎理論を解説します.VSLAMを理解する上で必要な画像処理技術とカメラ幾何を説
     明し,VSLAMの処理の流れまでを総合的に紹介します.次に,スマートフォンを用いた実装演習を行います.Unity
     とAR Foundationを利用し,VSLAMの性能を体験できるアプリケーションを開発します.AR Foundationは,ARKit
     やARCore等のVSLAMライブラリのラッパーであり,スマートフォンのOSに依存しないコーディングが可能です.

      今回,開発環境はWindowsPCとAndroid搭載のスマートフォン,またはMacBookとiPhone,の2つの組み合わせ
     に対応します(WindowsPCとiPhoneの組み合わせでは開発ができません).なお、ケーブルは少し長めに1m程度

      のものがお薦めです。




  1. VSLAMの歴史   
  
  2. VSLAMに用いられる画像処理
    2.1. 特徴点マッチング
    2.2. 画像検索


  3. VSLAMに用いられるカメラ幾何
    3.1. 透視投影モデル
    3.2. PnP問題
    3.3. 三角測量


  4. VSLAMの処理の流れ
    4.1. Initialization
    4.2. Localization
    4.3. Mapping
    4.4. Loop closure
    4.5. Relocalization


  5. AR Foundationを用いた実装演習
    5.1. Unityの設定
    5.2. Device Tracking
    5.3. Plane Tracking




お1人様      受講申込要領  1口(1社3名まで) 受講申込要領   セミナー 総合日程