ChatWork Creator's Note

ビジネスチャット「チャットワーク」のエンジニアとデザイナーのブログです。

アイトラッカーデバイス初体験

こんにちは、デザイナーの(@emim)です。チャットワークのUIデザインをおこなう傍ら、社内でのアクセシビリティ関連の対応・施策や啓蒙を進める係をしています。

先日、AccSell Meetup 013 『ユーザーと一緒に試してみよう! ~あの○○はどこまで使えるのか~』 | Peatixというアクセシビリティのイベントに参加しました。元々アクセシビリティの情報をメルマガ/ポッドキャストで配信されているAccSell(アクセル)というサイトが定期的に開催しているセミナー形式のイベントで、13回目は視覚障害者の普段のWebの使い方を見る(ユーザーテストの公開)、という回でした。

今回はそのイベントの導入セッションでおこなわれた、アイトラッカーデバイス「Tobii Eye Tracker 4C」の操作デモと、実際に私自身が体験させてもらった操作感が衝撃的だったので紹介します。

Tobiiってなに?

f:id:cw-moriya:20180327111639p:plain

出典:Eye Tracking + Windows 10 – Official Eye Tracking Blog

Tobiiとは、アイトラッキング(視線追跡操作)機能を使った端末のこと。

販売サイトを見ると、この端末自体はゲーム用に作られたもののようです。

細長いバー状の端末を磁石でパソコン画面の前面に配置。このバーが視線の動きを測って、マウスの代わりに画面を操作できるようになるという仕組みです。

f:id:cw-moriya:20180327120550p:plain

パソコンとの接続もものすごく簡単で、Tobii端末をUSB経由でマシンに挿せば即使えるとのこと。

前述しているとおり、動作しているこのアイトラッキング(視線追跡操作)機能自体はWindows 10の機能。筋萎縮性側索硬化症などの患者のための支援技術として開発された技術だそうです。

(Tobii自体の価格は2万円程度とのことだったので、弊社自慢の最新デバイス購入支援制度を活用して購入してみて、社員のみんなに使って貰うのも体験としてとても良いかも!とも思ったのですが、Macでは動かないそうで……Macメインの弊社的には宝の持ち腐れになりそうです。)

具体的な操作

Tobiiの目の前に座るとわかるのですが、バーの両端から赤いライトが光っていて(赤外線かなにか?)どうもその光が視線を捉えているらしい、です。

私は現地でセッションの合間にTobii体験をさせてもらったのですが、当日のデモはAccSellのスタッフがおこなっていました。飛び入りですので、もちろんTobii自体のセッティングはそのスタッフさんのもののまま。

普段誰も気にしていないけれど、おそらく視線や座り方にも個々人で癖があるのでしょうね。ふらりと来た私には、「ここ!」という顔(視線)の位置が定まるまでは上手く操作できませんでした。

裏を返せば、それだけ最初に個人に最適化できるということ。一度適切な設定をしてしまえば、手でマウスを扱うかのように使いこなすこともできそう、という印象を受けました。

ちなみに最初のセッティングも、数ステップですぐ完了するそうです。

また、デモではサングラスを掛けていても操作可能な様子も見せてもらえました。

一方で、私と同様に飛び入りで体験させてもらおうとしたメガネ着用の方は、上手く操作することができないようでした。おそらく先述の「赤いライト」がメガネに反射してしまったか何かのようでした。

原因がメガネ個体の所為か/セッティングの所為か/座り方の所為かはわかりませんでしたが、目で操作をしたいユーザーが必ずしもメガネを掛けていないとは言い切れない為、実際問題はどうなのだろう?と感じました。

f:id:cw-moriya:20180327201355p:plain

ところでTobiiとの距離については、そこそこ距離が開いていても問題なさそうです。離れすぎるとおそらくパソコンに表示されている方の文字なり、アイコンなりが見えなくなってしまうので、「自分がデスクトップを判別できる距離」が適正なのだろうと思います。

「視線」で何ができるのか?

Tobiiを使ってゲームも可能です。デモで使われたのは、選択したアイテムを入れ替えて並べてアイテムを消すパズルゲームでした。

眼力を使って、操作・選択をおこないます。

操作した感じでは、「確定」に時間が掛かるため時間を競うゲームは不向きな感じがしました。

f:id:cw-moriya:20180327202441p:plain

画面の中に視線操作のUIがオーバーレイします。「手でマウスを扱うかのように操作」とずっと書いているのは、見つめ(続け)ることでこのUI自体を選択操作ができる、ということです。

マウスの操作(クリック)モードでオーバーレイするUI自体は、センチで表現すると10cm×10cmくらいのサイズ。上下左右の三角を見つめることで細かい位置調整が可能ですが、そもそも視線自体があまり固定できないもの。慣れるまでは不要な部分までをクリックしてしまったりもありましたが、それでも数分で割と「使える」ようになりました。

会場でも紹介された動画がわかりやすいので、引用します。視線でパソコンを操作している様子は、1:14あたりから見られます。


Control your PC with your EYES with the Windows 10 Fall Creators Update

Tobiiを使ってみての感想

今回、「アクセシビリティ」のイベントに行ってその文脈の中でTobiiに出会ったので「四肢不自由な方の為の端末」と見てしまいましたが、よくよく考えると同じMicrosoftの開発したHoloLensの使用感にも少し似ている気がしました。

また、今回のTobiiの操作についてはいわゆる「コード的なアクセシビリティ対応」との関係は具体的にはなく、どちらかというとビジュアルのアクセシビリティ対応との濃密な関係を感じました。

  • 視線追跡操作では小さなものを操作することができない
  • 画面から遠いと文字が小さいと何が書いてあるのか読めなくなってしまうが、アイトラッキングをするためには一定の距離が必要そう
  • 隣のものと隣接していると意図したものを選択できなくなる(ボタンの隣接など)

というあたりで問題が出そうでした。

「障害者対応デバイス」から「支援技術」「未来デバイス」へのシフト期にある

Tobii自体の感想としては、ラーニングコストが異常に低い(ものの3分もあればある程度使えるようになる)のが魅力です。何より端末自体が小さく、軽いので持ち運びにも負担が掛からなそうなので、必要なシーンではとても有効な端末です。

一方で、具体的な「クリック」操作などを伴わない部分は音声デバイスを活用した方が効率的な予感もしました。

ただ一長一短で、音声を出せない場面(発話できない、障害のある場合を含む)では操作指示すらできないというケースも。そういった場合には視線で操作ができるのはよさそうです。

前述したHoloLensは、具体的に指を空に出してクリック動作をするなどの操作をして未来を感じていましたが、見つめればいいというのは画期的です。HoloLensが普通のメガネのようなサイズになったら手を出す必要すらなくなるという意味で、Tobiiを通してHoloLensの未来を感じました。

アクセシビリティというと「障害者対応」というイメージが強かったのですが、音声デバイスが出てきたり支援技術でできることの幅が急速に広がってきていて、昨今では技術側がアクセシビリティをカバーしているという印象が強くなってきました。

導入はどちらからでも良いですが、より簡易な世界になると良いなと思っています。