No description, website, or topics provided.
Clone or download
Fetching latest commit…
Cannot retrieve the latest commit at this time.
Permalink
Type Name Latest commit message Commit time
Failed to load latest commit information.
01_FirstAR
02_PlaneDetection
03_VirtualObject
04_DevMisc
05_PlaneGeometry
06_ImageDetectionAndTracking
07_ObjectDetection
08_ARInteraction
09_WorldSaveAndLoad
10_FaceTracking
11_FeaturePoints
12_DepthWithARKit
13_VideoFormatConfiguration
14_ARMeasure
15_ARDrawing
16_ARObjectDetection
17-1_ARMetal1
17-2_ARMetal2
common
mlmodels
models.scnassets
.gitignore
LICENSE
README.md

README.md

ARKitBook

ARKitの実践入門書「実践ARKit」のサンプルコードです。

一部サンプルはモデルファイルのダウンロードが必要です。mlmodels/readme.md を参照してください。

書籍の概要

作りながら学ぶネイティブARKitアプリケーション開発の実践入門書です。はじめの一歩として3行で書ける最小実装のARから始めて、平面を検出する方法、その平面に仮想オブジェクトを設置する方法、そしてその仮想オブジェクトとインタラクションできるようにする方法・・・と、読み進めるにつれて「作りながら」引き出しが増えていき、最終的にはARKitを用いたメジャーや、空間に絵や文字を描くといった、ARKitならではのアプリケーションの実装ができるよう構成しています。

全119ページ。ARKit 2.0 (iOS 12), Xcode 10, Swift 4.2対応。

書籍の目次

第1章 入門編その1 - 最小実装で体験してみる

  • 1.1 手順1:プロジェクトの準備
  • 1.2 手順2:ViewControllerの実装
  • 1.3 基本クラスの解説

第2章 入門編その2 - 水平面を検出する

  • 2.1 水平面を検出するためのコンフィギュレーション
  • 2.2 平面検出に関するイベントをフックする - ARSessionDelegate
  • 2.3 平面検出に関するイベントをフックする - ARSCNViewDelegate
  • 2.4 検出した平面を可視化する

第3章 入門編その3 - 検出した水平面に仮想オブジェクトを置く

  • 3.1 3Dモデルを読み込む
  • 3.2 仮想オブジェクトとして検出した平面に置く

第4章 ARKit 開発に必須の機能

  • 4.1 トラッキング状態を監視する
  • 4.2 デバッグオプションを利用する
  • 4.3 トラッキング状態をリセットする / 検出済みアンカーを削除する

第5章 平面検出の基礎

  • 5.1 垂直平面の検出
  • 5.2 検出した平面のアラインメントを判別する
  • 5.3 平面ジオメトリの取得
  • ARPlaneGeometry と ARSCNPlaneGeometry

第6章 画像検出と画像トラッキング

  • 6.1 画像検出
  • 6.2 画像トラッキング
  • 6.3 画像検出と画像トラッキングのの違い

第7章 3D物体検出と3D物体スキャン

  • 7.1 3D物体検出
  • 7.2 3D物体スキャン

第8章 AR空間におけるインタラクションを実現する

  • 8.1 ヒットテスト(当たり判定)を行う
  • 8.2 デバイスの移動に対するインタラクション

第9章 AR体験の永続化と共有

  • 9.1 ARWorldMap
  • 9.2 ワールドマップを取得する
  • 9.3 ワールドマップを永続化・共有する
  • 9.4 ワールドマップからセッションを復元する
  • 9.5 ワールドマップ取得タイミング

第10章 フェイストラッキング

  • 10.1 フェイストラッキングを開始する - ARFaceTrackingConfiguration
  • 10.2 検出した顔のアンカーを取得する - ARFaceAnchor
  • 10.3 顔の動きを可視化する
  • ブレンドシェイプでアニ文字風3Dアバター

第11章 特徴点を利用する

  • 11.1 特徴点を可視化する
  • 11.2 フレームに含まれる特徴点群データ
  • 11.3 ワールドマップに含まれる特徴点群データ

第12章 デプスを利用する

  • 12.1 ARFrameからデプスデータを取得する
  • 12.2 制約

第13章 ビデオフォーマット

  • 13.1 ARConfiguration.VideoFormat
  • 13.2 ビデオフォーマットを指定する
  • 13.3 使用可能なビデオフォーマット
  • 現行デバイスで使用可能なビデオフォーマット一覧
  • ビデオフォーマットはどう使い分けるのか?

第14章 アプリケーション実装例1: 現実空間の長さを測る

  • 14.1 ARKitにおける座標と現実のスケール
  • 14.2 現実空間における二点間の距離

第15章 アプリケーション実装例2: 空中に絵や文字を描く

  • 15.1 スクリーンの中心座標をワールド座標に変換する
  • 15.2 頂点座標の配列から、線としてのカスタムジオメトリを構成する
  • 15.3 その他の実装のポイント

第16章 アプリケーション実装例3: Core ML + Vision + ARKit

  • 16.1 CoreML・Vision・ARKit連携のポイント

第17章 Metal + ARKit

  • 17.1 マテリアルをMetalで描画する
  • 17.2 他のSceneKitとMetalの連携機能
  • 17.3 Metalによるカスタムレンダリング