Multi-touch Handle
Multi-touch steering wheel for in-car tertiary applications using infrared sensors
Shunsuke Koyama, Yuta Sugiura, Masa Ogata, Anusha Withana, Yuji Uema, Makoto Honda, Sayaka Yoshizu, Chihiro Sannomiya, Kazunari Nawa, and Masahiko Inami

本研究は、ドライバーの手の位置に依らないマルチタッチハンドル型インター フェースを提案するものである。既存の操作インターフェースであるボタンやタッ チディスプレイには操作位置が固定されておりドライバーが意識的に操作位置に 手を動かす必要があるという問題がある。そこで、ドライバーが入力操作位置を 意識することなく、「今触っている部分が操作インタフェースなるハンドル」の開 発を行った。 赤外線センサアレイを用いることで、ハンドルの全周囲で手の位置と形状を認 識する。それらの変化から「フリック」「クリック」「タップ」「ストローク」「ツ イスト」のジェスチャの認識を行う。加えて、ハンドルの物理的な回転入力イン ターフェースに与える影響について調べた。そこで得られた知見を基に、ジェス チャとアプリケーションによるインタラクションを構築した。こうした提案手法 により、ドライバーが自分の身体の延長であるかのように情報操作をすることを 期待する。

This paper proposes a multi-touch steering wheel for in-car tertiary applications. Existing interfaces for in-car applications such as buttons and touch displays have several operating problems. For example, drivers have to consciously move their hands to the interfaces as the interfaces are fixed on specific positions. Therefore, we developed a steering wheel where touch positions can correspond to different operating positions. This system can recognize hand gestures at any position on the steering wheel by utilizing 120 infrared (IR) sensors embedded in it. The sensors are lined up in an array surrounding the whole wheel. An Support Vector Machine (SVM) algorithm is used to learn and recognize the different gestures through the data obtained from the sensors. The gestures recognized are flick, click, tap, stroke and twist. Additionally, we implemented a navigation application and an audio application that utilizes the torus shape of the steering wheel. We conducted an experiment to observe the possibility of our proposed system to recognize flick gestures at three positions. Results show that an average of 92% of flick could be recognized.