2D アイウェアプロジェクト
2D アイウェアプロジェクトでは、支援現実デバイスの 2D エクスペリエンスを作成できます。支援現実の頭部装着型デバイスは、ハンズフリー機能を使用して割り当てられたタスクを完了できる一方で、ユーザーの直接的な視線に影響を与えることなくデジタル情報を表示する機能に特化しています。
アセンブリの手順書、操作ビデオ、およびリアルタイムの接続機能を持つ IoT データなど、新規または既存のリソースを使用して独自の支援現実エクスペリエンスを作成します。その後、ハンズフリー、オンデマンド、およびリアルタイムの情報を提供する、2D グランサブルインタフェースをユーザーに表示します。
支援現実エクスペリエンスを作成することにより、以下の利点があります。
• 作業手順やワークフローに含まれている段階的な手順を実行する必要があるサービス技術者の作業の効率化
• ドキュメント、ビデオ、リンクなどの参照資料を、オンデマンドですばやく表示
• タスクの完了およびジョブのステータスをガイド、トラック、および記録するチェックリストが使用可能
• 組み込み音声コマンドを使用して、ハンズフリー動作で画面間を移動
サポートされるデバイス
次の支援現実デバイスがサポートされています。
2D アイウェアエクスペリエンスの一般的な最良事例
このセクションの最良事例は、すべての支援現実デバイスに適用されます。
• 音声コマンドとして使用されるウィジェットのテキストを使用する際には、以下の点に注意してください。
◦ 3 音節以上のコマンドを使用します (1-2 音節の 1 単語のコマンドは推奨されません)。
◦ T、K、硬子音の C、D など、硬子音の単語を使用します。
◦ 最適な結果を得るには、動作動詞と名詞で構成される音声コマンドを使用します。次に例を示します。
▪ 動詞 - 撮る、呼び出す、移動、選択、開始、中止、終了など。
▪ 名詞 - 写真、ページ、アイテム x、ビデオ、Expert など。
◦ 音声コマンドのいくつかの良い例を次に示します。
▪ "メインメニューに移動。"
▪ "ビデオを開始。"
▪ "ビデオを一時停止。"
• ウィジェットのバインディングを使用して、エクスペリエンス内にナビゲーションビューを組み込むことをお勧めします。
1. 「プロジェクト」枠で、 > に移動します。
2. 「ナビゲーションメニューを表示」ドロップダウンリストから「非表示」を選択します。
3. 「クリック」イベントを持つウィジェットをキャンバスにドラッグアンドドロップします (たとえば、ボタン)。
4. ウィジェットの「クリック」イベントを、移動するビュー上にドラッグアンドドロップし、「バインディングターゲットを選択」ウィンドウで「移動」を選択します。