LiveSenseDetection SDK をプロジェクトに追加します

Live Sense SDK は .framework ファイルとして提供されます。 これで、すぐに使用できる iOS ライブラリモジュールになります。

SDK を取得します

Live Sense SDK for iOS を取得するには、次の手順を実行します。

  1. https://developer.here.com で 'pro' アカウントに登録します。
  2. ログインしてプロジェクト名をクリックし、プロジェクトホームに移動します。
  3. HERE Live Sense SDK for iOS のセクションに移動し 、 [Generate アプリ ID and アプリ Code] をクリック して、アプリ資格情報および SDK のダウンロードリンクを取得します。
  4. リンクをクリックして、 SDK およびサンプルを ZIP パッケージでダウンロードします。

LiveSenseDetection SDK をプロジェクトに追加するには、次の手順に従います。

  1. iOS Swift または Objective-C ベースのプロジェクトを作成または開きます。
  2. 最小 iOS バージョンが iOS 12.4 以上に設定されていることを確認します。
  3. LiveSenseDetection プロジェクトにフレームワークを追加します。

    • で、 Xcode次の操作を行います。
      1. に移動 Targets し、ターゲットを選択します。
      2. 埋め込みバイナリの [+] アイコンをクリックします。
      3. LiveSenseDetection.framework からを選択 project-directoryします。
  4. openssl 次のいずれかの方法で、プロジェクトへの依存関係としてフレームワークを追加します。

    • openssl フレームワークをダウンロードし、で Xcode次の操作を行います。

      1. に移動 Targets し、ターゲットを選択します。
      2. 埋め込みバイナリの [+] アイコンをクリック し て、ダウンロードしたopensslフレームワークを追加します。
    • pod 'TensorFlowLiteSwift','2.6.0', :subspecs => ['Metal', 'CoreML'] TFLite に追加します

    • openssl 任意のサードパーティ cocoapods のライブラリから追加します。
  5. License KeyAPP IDおよびAPP SECRETを使用して、アプリケーションを認証します。

  6. SDK のコア機能を使用するには、次のキーが必要です。 Info.plist ファイルに説明を追加する必要があります。

NSCameraUsageDescription NSLocationWhenInUseUsageDescription NSLocationAlwaysAndWhenInUseUsageDescription NSLocationAlwaysUsageDescription (iOS 10 and earlier)

  1. アプリの [ ターゲットビルドの設定 ] で、 No[ 名前 ] Enable Bitcodeを選択します。

」に一致する結果は 件です

    」に一致する結果はありません