Contents
ShapesXR の概要と対応デバイス要件(2026年版)
ShapesXR は Meta Quest と PC で動作する Web‑ベースの VR/AR プロトタイピングツールです。公式サイトが提示している推奨環境と最低要件を整理し、導入前に確認すべきポイントをまとめました。
- Meta Quest:Android 11 以上+最新 Oculus ソフトウェア
- Windows PC:Windows 10 (64bit) 1909 以降、DirectX 12 対応 GPU(例:RTX 2060 相当)
- macOS:macOS 12 Monterey 以降、Metal 対応 GPU
※「公式サイト」(https://shapesxr.com) の情報を元に作成しています。数値は公式が示す最小構成です。
ブラウザと Unity バージョン
- 対応ブラウザ:Chrome(最新版)・Edge(最新版)。Safari は一部機能が制限されます。
- Unity エクスポートプラグイン:Unity 2022.3 LTS 以降を推奨し、XR Plug‑in Management 経由で Quest ビルドが可能です。
インストール手順と初回セットアップ
本セクションでは Windows/macOS 用デスクトップクライアントと Meta Quest スタンドアロン版の取得から、起動直後に必要な設定までを段階的に解説します。
アカウント連携と権限設定
以下の手順で Meta アカウントと ShapesXR を紐付けます。権限が不足するとハンドトラッキングやマイク機能が正しく動作しません。
- インストーラ取得 – 公式ダウンロードページから OS に合ったファイルをダウンロード。
- アプリ起動 → サインイン – 「Meta アカウントでサインイン」ボタンをクリックし、ブラウザで認証画面に従う。
- 権限許可 – カメラ・マイク・トラッキングのすべてのチェックをオンにする。
ポイント:設定画面で「全項目を許可」しないと、Gaze や Pinch が検出されません。
初回起動時の基本設定
セットアップウィザードが表示されたら次の項目を確認してください。
- 言語選択 – デフォルトは OS 言語。日本語を明示的に指定可能。
- プロジェクト保存先 – ローカルディレクトリまたは ShapesXR Cloud のいずれかを選択。
- VR デバイス検出 – Quest が接続されている場合は自動認識、PC は XR 設定画面で手動選択。
結論:インストール後はアカウント連携と権限許可だけで開発環境が整い、すぐにプロトタイピングを開始できます。
基本操作とアセット管理
ShapesXR の UI はシンプルなツールバーと 3D ビューから構成されます。ここでは主要ボタンの配置と、ローカル/クラウドの素材取り込み手順を具体的に紹介します。
ツールバーとプリミティブ操作
ツールバーは画面上部に固定され、左側から「選択・移動・回転・スケール」の基本ボタンが並びます。その右側に配置されたアイコンの機能を以下にまとめました。
| アイコン | 機能 |
|---|---|
| ★(プリミティブ) | キューブ、スフィア、平面、テキストなどをワンクリックで配置 |
| 📂(インポート) | ローカルファイルまたは ShapesXR Cloud から素材を読み込み |
| 🎛️(コンポーネント) | Gaze・Pinch などのインタラクションコンポーネントを追加 |
要点:ツールバーは常に画面上部にあり、ショートカット(Ctrl+Z 等)でも操作できるため作業効率が高まります。
アセットのインポート手順
ローカルファイルからの取り込み
- 📂 アイコン → 「ローカルからインポート」
.glb/.fbx形式を選択し、シーンに自動配置。
ShapesXR Cloud ライブラリからの取得
- 同じ 📂 アイコン → 「クラウドライブラリ」タブを開く
- カテゴリ別に整理された無料アセットをドラッグ&ドロップでシーンへ追加。
AI 生成アセット(Learn.ShapesXR.com)
- Learn.ShapesXR.com の「AI アセット生成」ページでテキストプロンプトを入力。
- 生成された
.glbが自動的に Cloud ライブラリに保存され、上記と同様にインポート可能。
結論:ローカル・公式クラウド・AI 生成の3つの経路が統一 UI で扱えるため、素材調達に余計な手間はかかりません。
インタラクティブ要素の実装
プロトタイプにユーザー体験を付加する中心コンポーネントは Gaze(視線) と Pinch(ピンチ) です。ここでは設定項目と調整ポイントを解説します。
Gaze インタラクションの設定
対象オブジェクトに GazeTrigger コンポーネントを追加し、以下のパラメータを調整します。
- Distance Threshold(距離閾値):0.5 m〜3 m の範囲で設定(デフォルトは約1.2 m)。
- Dwell Time(注視時間):標準は 0.8 s。長めにすると誤作動が減少します。
- Feedback UI:ハイライトやカーソル変化の有無を切替。
ポイント:Quest の内蔵トラッキングと同期するため、距離閾値はユーザーの視界範囲に合わせて調整してください。
Pinch インタラクションの実装
PinchTrigger を追加した後に設定すべき主な項目を表にまとめました。
| パラメータ | 説明 | 推奨設定 |
|---|---|---|
| Pinch Threshold | ピンチが認識される最小距離(cm) | 約1.5 cm |
| Cooldown Time | 再トリガーまでの待機時間 | 0.3 s |
| Haptic Feedback | コントローラ振動のオン/オフ | ON 推奨 |
- イベントハンドラ:
OnPinchStart / OnPinchEndに Unity スクリプトや ShapesXR ビルトインアクション(例:拡大)を割り当てます。 - 精度について:2026 年版 API では指先レベルの座標が取得でき、数ミリ単位で感度調整が可能です。
結論:Gaze と Pinch を組み合わせることで、自然なハンドジェスチャーをプロトタイプに簡単に実装できます。
サウンドの追加方法
サウンドは AudioSource コンポーネントで管理し、インタラクションイベントと連動させます。
- 対象オブジェクトへ Add Component → AudioSource を追加。
.wav/.mp3ファイルをドラッグして「Audio Clip」に設定。- 再生タイミングは On GazeEnter / On PinchStart などから選択可能。
- ボリューム・ループ・空間音響は UI 上で直感的に調整できます。
要点:サウンドをインタラクションに紐付けるだけで、VR 空間の没入感が大幅に向上します。公式ガイド(ShapesXR ドキュメント)にサンプルプロジェクトがありますので参考にしてください。
テスト・デバッグフローとエクスポート
完成したプロトタイプは実機テスト、Unity 連携、WebAR エクスポートの3ステップで確認します。各工程のベストプラクティスをまとめました。
Play モードでの実機テスト手順
- シーン上部の Play ボタン(▶)をクリック → VR ビューが即座に起動。
- Quest が接続されている場合は自動的にデバイスへストリーミングし、ヘッドセットで確認できる。
- コンソールウィンドウに Debug Log がリアルタイム表示され、Gaze/Pinch のイベント名とパラメータが出力されます。
ポイント:
Log Levelを Verbose に設定すると微細な入力情報まで取得でき、トラブルシューティングが容易です。
Unity 連携と Meta Quest ビルド手順
- Export → Unity Package を選択し
ShapesXR_Export.unitypackageを保存。 - Unity Hub(2022.3 LTS 推奨)で新規プロジェクトを作成し、パッケージをインポート。
- File → Build Settings で「Android」プラットフォーム選択、XR Plug‑in Management の Oculus を有効化。
- ビルド設定で Quest App Bundle をオンにし、
adb経由でデバイスへビルド。
結論:Unity へのエクスポートはワンクリックで完了し、Meta Quest 用の APK/AB が自動生成されます。
WebAR エクスポート手順
- Export → WebXR を選択。
- 出力先フォルダに
index.htmlと必要アセットが生成されるので、GitHub Pages や Netlify 等の静的ホスティングへデプロイ。 - デプロイ後は Chrome/Edge で URL にアクセスすれば、ヘッドセットなしでも 6DoF ビューが体験可能。
要点:WebAR は軽量ビルドになるため、クライアントレビューやステークホルダーへのデモに最適です。
2026 年版アップデートポイントとトラブルシューティング
2025 年末の大型アップデートで追加された 新ハンドトラッキング API と クラウド同期機能 の活用方法、およびよくあるエラーへの対処法をまとめます。
新ハンドトラッキング API とクラウド同期
- HandTracking v2:指先座標が取得でき、PinchTrigger の感度を数ミリ単位で調整可能です。
ShapesXR.Hands.GetFingerPose()でスクリプトから呼び出せます。 - Cloud Sync:プロジェクトを ShapesXR Cloud に保存すると、複数デバイス間で自動的に最新状態が同期されます。同期はバックグラウンドで定期的に行われ、競合時は「マージダイアログ」が表示されます。
ポイント:チーム開発ではクラウド同期を有効化し、ハンドトラッキングの高精度化でサムアップ等の細かいジェスチャーも実装可能です。
よくあるエラーと対処法
| エラー | 主な原因 | 推奨対策 |
|---|---|---|
| インポート失敗(.glb が読み込めない) | ファイルサイズが大きすぎる、非対応マテリアル | 50 MB 未満に圧縮し、PBR マテリアルのみ使用。ShapesXR Optimizer でリサンプル |
| Gaze が反応しない | カメラ権限未許可または Distance Threshold が遠すぎる | 設定画面で権限を再確認し、閾値を 0.8 m〜2 m に調整 |
| Pinch の遅延 | ハンドトラッキング更新レートが低い(30 Hz) | Settings → Performance で「High Refresh Mode (90 Hz)」に切替 |
| Unity エクスポート時エラー | パッケージバージョン不一致、欠損スクリプト | Unity Package Manager で ShapesXR SDK を最新版に更新し、コンポーネント参照を再設定 |
まとめ:公式ドキュメントとデバッグログを併用すれば、ほとんどの問題は数分で解決できます。特に権限やデバイス設定はインストール直後に必ず確認してください。
まとめ
ShapesXR は Meta Quest と PC の最新環境さえ整えば、ブラウザだけで高速な VR/AR プロトタイピングが可能です。
- 導入のハードル:公式ダウンロードページからインストーラを取得し、Meta アカウントと権限を許可すれば完了。
- 操作性:シンプルなツールバーと統一 UI により、ローカル・クラウド・AI 生成の3種素材を簡単に取り込めます。
- インタラクション:Gaze と Pinch が標準コンポーネントとして用意されており、最新ハンドトラッキング API により高精度なジェスチャー実装が可能です。
- テスト・エクスポート:Play モードでの実機確認、Unity 連携による Quest ビルド、WebAR デプロイと多彩な出力先に対応しています。
公式情報は常に ShapesXR の公式サイト(https://shapesxr.com)をご参照ください。これらを踏まえて環境構築すれば、次世代 VR/AR 体験の試作がスムーズに進められます。