タッチミー, 拡張現実を利用したロボット制御のための新システム
日本の科学者のグループは、タッチミーを開発しました, 三人称視点からロボットを制御し、さまざまな難易度のタスクを実行させることができる拡張現実インターフェース.
科学技術振興機構の研究者チームがTouchMeを作成しました, ロボットを制御し、第三者で観察しながらリモートでタスクを実行させる拡張現実インターフェース. まるでビデオゲームのように, 画面がタッチされ、プログラムはロボットがそれを実行する前に行う動きを示します, 間違いを避ける.
このシステムにより、ユーザーは画面上で指で直接触れることで、ロボットの各部分とオブジェクトとの相互作用を操作できます。. ロボットがスクリーンに映る「世界」をある角度から撮影, ロボットとロボットが移動するコンテキストの両方を完全に制御できるようにします.
TouchMeには、ロボットを制御するための3つのタッチ操作方法があります. アフタータッチ動作は、ロボットに命令を与えることで構成されています, その後、ロボットを動かすために目的の方向に回転させる必要がある移動リングが表示されます. 動きを確認して実行する前に, 画面上の小さな画像は、アニメーションアクションを実行した後のロボットの最終的な位置を示しています, 未定, そして、ロボットが動き始めます。.
2番目のバリアントは、移動中タッチです. ロボットは即座に動き、画面上で指で動きを描画している間、わずかな遅延で移動します.
第3楽章はタッチ中とタッチ後, より流動的な動きを実現するが、その場で変更できる最初のアクションと2番目のアクションの組み合わせ.
このタイプの技術により、TouchMeは危険なオブジェクトを処理する際の非常に高度なツールになります, ポンプや、オペレーターが操作に関する詳細と特異性を失うことなく、直接伝染病の安全な治療に対処するなど.
[ユーチューブ]HTTP://www.youtube.com/watch?v=I_tmHLeKTkg[/ユーチューブ]
あなたはこの記事が好きでした?
私たちの購読 RSS フィード そして、あなたは何も見逃すことはありません.