ARKit學習總結

weixin_33866037發表於2017-07-21

一、AR簡介:

擴增實境技術(Augmented Reality,簡稱 AR),是一種實時地計算攝影機影像的位置及角度並加上相應影象、視訊、3D模型的技術,這種技術的目標是在螢幕上把虛擬世界套在現實世界並進行互動.

一個最簡單地AR場景實現所需要的技術以及步驟包含如下:

  1. 多媒體捕捉現實影象:如攝像頭
  2. 三維建模:3D立體模型
  3. 感測器追蹤:主要追蹤現實世界動態物體的六軸變化,這六軸分別是X、Y、Z軸位移及旋轉。其中位移三軸決定物體的方位和大小,旋轉三週決定物體顯示的區域。
  4. 座標識別及轉換:3D模型顯示在現實影象中不是單純的frame座標點,而是一個三維的矩陣座標。這基本上也是學習AR最難的部分,好在ARKit幫助我們大大簡化了這一過程。
  5. 除此之外,AR還可以與虛擬物體進行一些互動。

二、 ARKit概述及特點介紹:

  1. ARKit是2017年6月6日,蘋果釋出iOS11系統所新增框架,它能夠幫助我們以最簡單快捷的方式實現AR技術功能。
  2. ARKit框架提供了兩種AR技術:
  3. 基於3D場景(SceneKit)實現的擴增實境,
  4. 基於2D場景(SpriktKit)實現的擴增實境
  5. AR效果必須要依賴於蘋果的遊戲引擎框架(3D引擎SceneKit,2D引擎SpriktKit),主要原因是遊戲引擎才可以載入物體模型。
  6. 雖然ARKit框架中檢視物件繼承於UIView,但是由於目前ARKit框架本身只包含相機追蹤,不能直接載入物體模型,所以只能依賴於遊戲引擎載入ARKit

<p> 開發環境:</p>

  1. Xcode版本:Xcode9及以上
  2. iOS系統:iOS11及以上
  3. iOS裝置要求:處理器A9及以上(iPhone6s 、iPhone6sPlus、iPhone7 iPhone7Plus、iPhoneSE、iPad Pro(9.7、10.5、12.9)、iPad(2017))
  4. MacOS系統:10.12.4及以上 (安裝Xcode9對Mac系統版本有要求)

三、ARKit框架簡介:

ARKit並不是一個獨立就能夠執行的框架,而是必須要SceneKit一起用才可以,換一句話說,如果只有ARKit,而沒有SceneKit,那麼ARKit和一般的相機沒有任何區別。</br>

相機捕捉現實世界影象,由ARKit來實現;在影象中顯示虛擬3D模型,由SceneKit來實現。</br>

繼承關係:ARKit框架中中顯示3D虛擬擴增實境的檢視ARSCNView繼承於SceneKit框架中的SCNView,而SCNView又繼承於UIKit框架中的UIView;</br>

UIView的作用是將檢視顯示在iOS裝置的window中,SCNView的作用是顯示一個3D場景,ARScnView的作用也是顯示一個3D場景,只不過這個3D場景是由攝像頭捕捉到的現實世界影象構成</br>

ARSCNView只是一個檢視容器,它的作用是管理一個ARSession</br>

在一個完整的虛擬擴增實境體驗中,ARKit框架只負責將真實世界畫面轉變為一個3D場景,這一個轉變的過程主要分為兩個環節:由ARCamera負責捕捉攝像頭畫面,由ARSession負責搭建3D場景。</br>

ARKit在3D現實場景中新增虛擬物體使用的是父類SCNView的功能,這個功能早在iOS8時就已經新增(SceneKit是iOS8新增),ARSCNView所有跟場景和虛擬物體相關的屬性及方法都是自己父類SCNView的。</br>

528413-c4a3aa3c74ea3c34.png
圖片 1.png

四、ARKit工作原理及工作流程

ARKit提供兩種虛擬擴增實境檢視,他們分別是3D效果的ARSCNView和2D效果的ARSKView。無論是使用哪一個檢視都是用了相機影象作為背景檢視,而這一個相機的影象就是由<ARKit>框架中的相機類ARCamera來捕捉的。</br>

ARSCNView與ARCamera兩者之間並沒有直接的關係,它們之間是通過AR會話,也就是ARKit框架中非常重量級的一個類ARSession來搭建溝通橋樑的。</br>

要想執行一個ARSession會話,你必須要指定一個稱之為ARSessionConfiguration(會話追蹤配置)的物件,ARSessionConfiguration的主要目的就是負責追蹤相機在3D世界中的位置以及一些特徵場景的捕捉(例如平面捕捉)。</br>

ARSessionConfiguration是一個父類,為了更好的看到擴增實境的效果,蘋果官方建議我們使用它的子類ARWorldTrackingSessionConfiguration,該類只支援A9晶片之後的機型,也就是iPhone6s之後的機型。</br>

528413-11640d0d4c6c3203.png
圖片 2.png

ARSession搭建溝通橋樑的參與者主要有兩個ARWorldTrackingSessionConfiguration與ARFrame。</br>

ARWorldTrackingSessionConfiguration(會話追蹤配置)的作用是跟蹤裝置的方向和位置,以及檢測裝置攝像頭看到的現實世界的表面。它的內部實現了一系列非常龐大的演算法計算以及呼叫了你的iPhone必要的感測器來檢測手機的移動及旋轉甚至是翻滾。</br>

當ARWorldTrackingSessionConfiguration計算出相機在3D世界中的位置時,它本身並不持有這個位置資料,而是將其計算出的位置資料交給ARSession去管理,而相機的位置資料對應的類就是ARFrame。</br>

ARSession類一個屬性叫做currentFrame,維護的就是ARFrame這個物件。</br>

ARCamera只負責捕捉影象,不參與資料的處理。它屬於3D場景中的一個環節,每一個3D Scene都會有一個Camera,它覺得了我們看物體的視野。</br>

528413-ca0558acae3455b0.png
圖片 3.png

ARKit框架工作流程:

  1. ARSCNView載入場景SCNScene
  2. SCNScene啟動相機ARCamera開始捕捉場景
  3. 捕捉場景後ARSCNView開始將場景資料交給Session
  4. Session通過管理ARSessionConfiguration實現場景的追蹤並且返回一個ARFrame
  5. 給ARSCNView的scene新增一個子節點(3D物體模型)
528413-28902ebacd3f5856.png
圖片 4.png

ARSessionConfiguration捕捉相機3D位置的意義就在於能夠在新增3D物體模型的時候計算出3D物體模型相對於相機的真實的矩陣位置,在3D座標系統中,有一個世界座標系和一個本地座標系。類似於UIView的Frame和Bounds的區別。

五、ARKit全框架API類圖介紹:

<ARKit>框架中所有的API

528413-1b612db7bf76f114.png
圖片 5.png
5.1、ARAnchor

ARAnchor表示一個物體在3D空間的位置和方向(ARAnchor通常稱為物體的3D錨點,有點像UIKit框架中CALayer的Anchor), ARFrame表示的也是物體的位置和方向,但是ARFrame通常表示的是AR相機的位置和方向以及追蹤相機的時間,還可以捕捉相機的幀圖片。也就是說ARFrame用於捕捉相機的移動,其他虛擬物體用ARAnchor

//識別符號
@property (nonatomic, readonly) NSUUID *identifier;

//錨點的旋轉變換矩陣,定義了錨點的旋轉、位置、縮放。是一個4x4的矩陣(讀者可以自行科普什麼叫4x4矩陣)
@property (nonatomic, readonly) matrix_float4x4 transform;

//構造方法,一般我們無需構造。因為新增一個3D物體時ARKit會有代理告知我們物體的錨點
- (instancetype)initWithTransform:(matrix_float4x4)transform;
5.2、ARCamera

ARCamera是一個相機,它是連線虛擬場景與現實場景之間的樞紐。在ARKit中,它是捕捉現實影象的相機,在SceneKit中它又是3D虛擬世界中的相機。
一般我們無需去建立一個相機,因為當我們初始化一個AR試圖時,他會為我們預設建立一個相機,而且這個相機就是攝像頭的位置,同時也是3D世界中的原點所在(x=0,y=0,z=0)

@interface ARCamera : NSObject <NSCopying>

/**
 4x4矩陣表示相機位置,同ARAnchor
 */
@property (nonatomic, readonly) matrix_float4x4 transform;

/**
相機方向(旋轉)的向量尤拉角
分別是x/y/z
 */
@property (nonatomic, readonly) vector_float3 eulerAngles;

/**
 相機追蹤狀態(在下方會有列舉值介紹)
 */
@property (nonatomic, readonly) ARTrackingState trackingState NS_REFINED_FOR_SWIFT;

/**
追蹤運動型別
 */
@property (nonatomic, readonly) ARTrackingStateReason trackingStateReason NS_REFINED_FOR_SWIFT;

/**
相機曲率(筆者有點費解,反覆揣摩應該是與焦距相關引數)
3x3矩陣
 fx 0   px
 0  fy  py
 0  0   1
 */
@property (nonatomic, readonly) matrix_float3x3 intrinsics;

/**
攝像頭解析度
 */
@property (nonatomic, readonly) CGSize imageResolution;

/**
投影矩陣
*/
@property (nonatomic, readonly) matrix_float4x4 projectionMatrix;

/**
建立相機投影矩陣
 */
- (matrix_float4x4)projectionMatrixWithViewportSize:(CGSize)viewportSize orientation:(UIInterfaceOrientation)orientation zNear:(CGFloat)zNear zFar:(CGFloat)zFar;

@end

//相機追蹤狀態列舉
typedef NS_ENUM(NSInteger, ARTrackingState) {

    /** 不被允許 */
    ARTrackingStateNotAvailable,

    /** 最小 */
    ARTrackingStateLimited,

    /** 正常. */
    ARTrackingStateNormal,
} NS_REFINED_FOR_SWIFT;

/**
 追蹤運動型別
 */
API_AVAILABLE(ios(11.0)) API_UNAVAILABLE(macos, watchos, tvos)
typedef NS_ENUM(NSInteger, ARTrackingStateReason) {
    /** 無. */
    ARTrackingStateReasonNone,

    /** 運動. */
    ARTrackingStateReasonExcessiveMotion,

    /** 臉部捕捉. */
    ARTrackingStateReasonInsufficientFeatures,
} NS_REFINED_FOR_SWIFT;
5.3、ARError

ARError是一個描述ARKit錯誤的類,這個錯誤來源於幾個方面,例如裝置不支援,或者當相機常駐後臺時ARSession會斷開等問題

//作用域,一般會表示是哪一個類出現問題
NSString *const ARErrorDomain;

//錯誤碼描述  100:不支援會話追蹤配置,主線由於A9晶片以下的機型會報錯   101:失活狀態 102:感測器故障  200:追蹤失敗
typedef NS_ERROR_ENUM(ARErrorDomain, ARErrorCode) {
    /** Unsupported session configuration. */
    ARErrorCodeUnsupportedConfiguration   = 100,

    /** A sensor required to run the session is not available. */
    ARErrorCodeSensorUnavailable          = 101,

    /** A sensor failed to provide the required input. */
    ARErrorCodeSensorFailed               = 102,

    /** World tracking has encountered a fatal error. */
    ARErrorCodeWorldTrackingFailed        = 200,
};

5.4、ARFrame

ARFrame主要是追蹤相機當前的狀態,這個狀態不僅僅只是位置,還有影象幀及時間等引數

@interface ARFrame : NSObject <NSCopying>

/**
時間戳.
 */
@property (nonatomic, readonly) NSTimeInterval timestamp;

/**
 緩衝區影象幀
 */
@property (nonatomic, readonly) CVPixelBufferRef capturedImage;

/**
相機(表示這個ARFrame是哪一個相機的,iPhone7plus有兩個攝像機)
 */
@property (nonatomic, copy, readonly) ARCamera *camera;

/**
 返回當前相機捕捉到的錨點資料(當一個3D虛擬模型加入到ARKit中時,錨點值得就是這個模型在AR中的位置)
 */
@property (nonatomic, copy, readonly) NSArray<ARAnchor *> *anchors;

/**
燈光,詳情可見本章節ARLightEstimate類介紹(指的是燈光強度 一般是0-2000,系統預設1000)
 */
@property (nonatomic, copy, nullable, readonly) ARLightEstimate *lightEstimate;

/**
特徵點(應該是捕捉平地或者人臉的,比較蘋果有自帶的人臉識別功能)
 */
@property (nonatomic, nullable, readonly) ARPointCloud *rawFeaturePoints;

/**
根據2D座標點搜尋3D模型,這個方法通常用於,當我們在手機螢幕點選某一個點的時候,可以捕捉到這一個點所在的3D模型的位置,至於為什麼是一個陣列非常好理解。手機螢幕一個是長方形,這是一個二維空間。而相機捕捉到的是一個由這個二維空間射出去的長方體,我們點選螢幕一個點可以理解為在這個長方體的邊緣射出一條線,這一條線上可能會有多個3D物體模型
point:2D座標點(手機螢幕某一點)
ARHitTestResultType:捕捉型別  點還是面
(NSArray<ARHitTestResult *> *):追蹤結果陣列  詳情見本章節ARHitTestResult類介紹

 */
- (NSArray<ARHitTestResult *> *)hitTest:(CGPoint)point types:(ARHitTestResultType)types;

/**
相機視窗的的座標變換(可用於相機橫豎屏的旋轉適配)
 */
- (CGAffineTransform)displayTransformWithViewportSize:(CGSize)viewportSize orientation:(UIInterfaceOrientation)orientation;

@end

5.5、ARHitTestResult

ARHitTestResult:點選回撥結果,這個類主要用於虛擬擴增實境技術(AR技術)中現實世界與3D場景中虛擬物體的互動。 比如我們在相機中移動。拖拽3D虛擬物體,都可以通過這個類來獲取ARKit所捕捉的結果。

//捕捉型別列舉
typedef NS_OPTIONS(NSUInteger, ARHitTestResultType) {
    /** 點. */
    ARHitTestResultTypeFeaturePoint              = (1 << 0),

    /** 水平面 y為0. */
    ARHitTestResultTypeEstimatedHorizontalPlane  = (1 << 1),

    /** 已結存在的平面. */
    ARHitTestResultTypeExistingPlane             = (1 << 3),

    /** 已結存在的錨點和平面. */
    ARHitTestResultTypeExistingPlaneUsingExtent  = (1 << 4),
} NS_SWIFT_NAME(ARHitTestResult.ResultType);

/**
捕捉型別
 */
@property (nonatomic, readonly) ARHitTestResultType type;

/**
 3D虛擬物體與相機的距離(單位:米)
 */
@property (nonatomic, readonly) CGFloat distance;

/**
本地座標矩陣(世界座標指的是相機為場景原點的座標,而每一個3D物體自身有一個場景,本地座標就是相對於這個場景的座標)類似於frame和bounds的區別
 */
@property (nonatomic, readonly) matrix_float4x4 localTransform;

/**
世界座標矩陣
 */
@property (nonatomic, readonly) matrix_float4x4 worldTransform;

/**
 錨點(3D虛擬物體,在虛擬世界有一個位置,這個位置引數是SceneKit中的SCNVector3:三維向量),而錨點anchor是這個物體在AR現實場景中的位置,是一個4x4的矩陣
 */
@property (nonatomic, strong, nullable, readonly) ARAnchor *anchor;

@end
5.6、ARLightEstimate

ARLightEstimate是一個燈光效果,它可以讓你的AR場景看起來更加的好

@interface ARLightEstimate : NSObject <NSCopying>

/**
燈光強度  範圍0-2000 預設1000
 */
@property (nonatomic, readonly) CGFloat ambientIntensity;

@end
5.7、ARPlaneAnchor

ARPlaneAnchor是ARAnchor的子類,筆者稱之為平地錨點。ARKit能夠自動識別平地,並且會預設新增一個錨點到場景中,當然要想看到真實世界中的平地效果,需要我們自己使用SCNNode來渲染這個錨點,錨點只是一個位置。

/**
平地型別,目前只有一個,就是水平面
 */
@property (nonatomic, readonly) ARPlaneAnchorAlignment alignment;

/**
3軸向量結構體,表示平地的中心點  x/y/z
 */
@property (nonatomic, readonly) vector_float3 center;

/**
3軸向量結構體,表示平地的大小(寬度和高度)  x/y/z
 */
@property (nonatomic, readonly) vector_float3 extent;

@end
5.8、ARPointCloud

ARPointCloud:點狀渲染雲,主要用於渲染場景

@interface ARPointCloud : NSObject <NSCopying>

/**
 點的數量
 */
@property (nonatomic, readonly) NSUInteger count;

/**
每一個點的位置的集合(結構體帶*表示的是結構體陣列)
 */
@property (nonatomic, readonly) const vector_float3 *points;

@end
5.9、 ARSCNView

AR檢視, ARKit支援3D的AR場景和2D的AR場景,ARSCNView是3D的AR場景檢視,該類是整個ARKit框架中唯一兩個有代理的類其中之一。該類非常重要,且API較多.

@interface ARSCNView : SCNView

/**
代理
 */
@property (nonatomic, weak, nullable) id<ARSCNViewDelegate> delegate;

/**
AR會話
 */
@property (nonatomic, strong) ARSession *session;

/**
場景
 */
@property(nonatomic, strong) SCNScene *scene;

/**
是否自動適應燈光
 */
@property(nonatomic) BOOL automaticallyUpdatesLighting;

/**
返回對應節點的錨點,節點是一個3D虛擬物體,它的座標是虛擬場景中的座標,而錨點ARAnchor是ARKit中現實世界的座標。
 */
- (nullable ARAnchor *)anchorForNode:(SCNNode *)node;

/**
返回對應錨點的物體
 */
- (nullable SCNNode *)nodeForAnchor:(ARAnchor *)anchor;

/**
根據2D座標點搜尋3D模型,這個方法通常用於,當我們在手機螢幕點選某一個點的時候,可以捕捉到這一個點所在的3D模型的位置,至於為什麼是一個陣列非常好理解。手機螢幕一個是長方形,這是一個二維空間。而相機捕捉到的是一個由這個二維空間射出去的長方體,我們點選螢幕一個點可以理解為在這個長方體的邊緣射出一條線,這一條線上可能會有多個3D物體模型
point:2D座標點(手機螢幕某一點)
ARHitTestResultType:捕捉型別  點還是面
(NSArray<ARHitTestResult *> *):追蹤結果陣列  詳情見本章節ARHitTestResult類介紹
陣列的結果排序是由近到遠
 */
- (NSArray<ARHitTestResult *> *)hitTest:(CGPoint)point types:(ARHitTestResultType)types;

@end

//代理
#pragma mark - ARSCNViewDelegate


//代理的內部實現了SCNSceneRendererDelegate:scenekit代理 和ARSessionObserver:ARSession監聽(KVO機制)
@protocol ARSCNViewDelegate <SCNSceneRendererDelegate, ARSessionObserver>
@optional

/**
自定義節點的錨點
 */
- (nullable SCNNode *)renderer:(id <SCNSceneRenderer>)renderer nodeForAnchor:(ARAnchor *)anchor;

/**
當新增節點是會呼叫,我們可以通過這個代理方法得知我們新增一個虛擬物體到AR場景下的錨點(AR現實世界中的座標)
 */
- (void)renderer:(id <SCNSceneRenderer>)renderer didAddNode:(SCNNode *)node forAnchor:(ARAnchor *)anchor;

/**
將要重新整理節點
 */
- (void)renderer:(id <SCNSceneRenderer>)renderer willUpdateNode:(SCNNode *)node forAnchor:(ARAnchor *)anchor;

/**
 已經重新整理節點
 */
- (void)renderer:(id <SCNSceneRenderer>)renderer didUpdateNode:(SCNNode *)node forAnchor:(ARAnchor *)anchor;

/**
 移除節點
 */
- (void)renderer:(id <SCNSceneRenderer>)renderer didRemoveNode:(SCNNode *)node forAnchor:(ARAnchor *)anchor;

@end
5.10、 ARSession

ARSession是一個連線底層與AR檢視之間的橋樑,其實ARSCNView內部所有的代理方法都是由ARSession來提供的。

ARSession獲取相機位置資料主要有兩種方式

  1. push。 實時不斷的獲取相機位置,由ARSession主動告知使用者。通過實現ARSession的代理- (void)session:(ARSession *)session didUpdateFrame:(ARFrame *)frame來獲取
  2. pull。 使用者想要時,主動去獲取。ARSession的屬性currentFrame來獲取
@interface ARSession : NSObject

/**
 代理
 */
@property (nonatomic, weak) id <ARSessionDelegate> delegate;

/**
指定代理執行的執行緒(主執行緒不會有延遲,子執行緒會有延遲),不指定的話預設主執行緒
 */
@property (nonatomic, strong, nullable) dispatch_queue_t delegateQueue;

/**
相機當前的位置(是由會話追蹤配置計算出來的)
 */
@property (nonatomic, copy, nullable, readonly) ARFrame *currentFrame;

/**
 會話追蹤配置
 */
@property (nonatomic, copy, nullable, readonly) ARSessionConfiguration *configuration;

/**
執行會話(這行程式碼就是開啟AR的關鍵所在)
 */
- (void)runWithConfiguration:(ARSessionConfiguration *)configuration NS_SWIFT_UNAVAILABLE("Use run(_:options:)");

/**
執行會話,只是多了一個引數ARSessionRunOptions:作用就是會話斷開重連時的行為。ARSessionRunOptionResetTracking:表示充值追蹤  ARSessionRunOptionRemoveExistingAnchors:移除現有錨點
 */
- (void)runWithConfiguration:(ARSessionConfiguration *)configuration options:(ARSessionRunOptions)options NS_SWIFT_NAME(run(_:options:));

/**
暫停會話
 */
- (void)pause;

/**
新增錨點
 */
- (void)addAnchor:(ARAnchor *)anchor NS_SWIFT_NAME(add(anchor:));

/**
移除錨點
 */
- (void)removeAnchor:(ARAnchor *)anchor NS_SWIFT_NAME(remove(anchor:));

@end

//session代理分類兩部分,一個是觀察者(KVO) 一個是委託者(代理)
#pragma mark - ARSessionObserver


//session KVO觀察者
@protocol ARSessionObserver <NSObject>

@optional

/**
 session失敗
 */
- (void)session:(ARSession *)session didFailWithError:(NSError *)error;

/**
相機改變追蹤狀態
 */
- (void)session:(ARSession *)session cameraDidChangeTrackingState:(ARCamera *)camera;

/**
 session意外斷開(如果開啟ARSession之後,APP退到後臺就有可能導致會話斷開)
 */
- (void)sessionWasInterrupted:(ARSession *)session;

/**
session會話斷開恢復(短時間退到後臺再進入APP會自動恢復)
 */
- (void)sessionInterruptionEnded:(ARSession *)session;

@end

#pragma mark - ARSessionDelegate



@protocol ARSessionDelegate <ARSessionObserver>

@optional

/**
 更新相機位置
 */
- (void)session:(ARSession *)session didUpdateFrame:(ARFrame *)frame;

/**
新增錨點
 */
- (void)session:(ARSession *)session didAddAnchors:(NSArray<ARAnchor*>*)anchors;

/**
重新整理錨點
 */
- (void)session:(ARSession *)session didUpdateAnchors:(NSArray<ARAnchor*>*)anchors;

/**
移除錨點
 */
- (void)session:(ARSession *)session didRemoveAnchors:(NSArray<ARAnchor*>*)anchors;

@end
5.11、ARSessionConfiguration

ARSessionConfiguration會話追蹤配置,主要就是追蹤相機的配置。注意:該類還有一個子類:ARWorldTrackingSessionConfiguration,它們在同一個API檔案中

//會話追蹤配置類
@interface ARSessionConfiguration : NSObject <NSCopying>

/**
當前裝置是否支援,一般A9晶片以下裝置不支援
 */
@property(class, nonatomic, readonly) BOOL isSupported;

/**
會話的對其方式,這裡的對其指的是3D世界的座標。列舉值見下方
 */
@property (nonatomic, readwrite) ARWorldAlignment worldAlignment;

/**
是否需要自適應燈光效果,預設是YES
 */
@property (nonatomic, readwrite, getter=isLightEstimationEnabled) BOOL lightEstimationEnabled;

@end


//世界會話追蹤配置,蘋果建議我們使用這個類,這個子類只有一個屬性,也就是可以幫助我們追蹤相機捕捉到的平地
@interface ARWorldTrackingSessionConfiguration : ARSessionConfiguration

/**
偵查型別。列舉值見下方(預設偵查平地)
 */
@property (nonatomic, readwrite) ARPlaneDetection planeDetection;

@end

追蹤對其方式,這個決定了參考座標系(參照物)

typedef NS_ENUM(NSInteger, ARWorldAlignment) {
      /* 相機位置 vector (0, -1, 0) /
      ARWorldAlignmentGravity,
      /** 相機位置及方向. vector (0, -1, 0)    heading :(0, 0, -1) */
      ARWorldAlignmentGravityAndHeading,
      /** 相機方向. */
      ARWorldAlignmentCamera
} 
/平面檢測型別*/
typedef NS_OPTIONS(NSUInteger, ARPlaneDetection) {
    / 不檢測. */
    ARPlaneDetectionNone = 0,
    /** 平地檢測 */
    ARPlaneDetectionHorizontal  = (1 << 0),
} 

參考資料:
1,https://developer.apple.com/arkit/

  1. https://developer.apple.com/documentation/arkit
    3,https://forums.developer.apple.com/community/graphics-and-games/arkit