――SF映画に多く登場し、現実にもまだ残っているものとしては「CLI」(Command Line Interface)もありますね。今はGUIが一般的にはなりましたが、CLIも結構、あちらこちらで残っていますね。
安藤 ハッカーが登場するテレビドラマでもCLIはよく出てきますね。ただこの場合は「一般の人が分からない、何かスゴそうなことをしている」という演出として使われているケースが多いと思います。現実でも、CLIは「エキスパート向け」のものとして使われている印象です。
機械式のキーボードと似ていますが、CLIの良いところは「慣れ」によって、GUIなどの他の手段よりも素早く使えることでしょう。むしろ「人間側」の要因で使われ続けるUIだと思います。Linux、UNIX系のシステムがどこかに残っている限り、CLIというものも残っていくんじゃないかと思います。
テキスト表示による情報提示を行っている映画として本書に出てきた作品の一つは『アイアンマン』です。アイアンマンのバイザー内に文字で情報が表示されます。この辺りはすでに現実が追い付いてきていて、飛行機のコックピットにあるHUD(ヘッドアップディスプレイ)に飛行状態に関する情報を表示したり、同じような形でクルマのフロントガラスにカーナビ情報を出したりということは、すでに行われています。この辺りは技術的には可能で、直近の課題はコスト面と安全面でしょう。
――「文字による情報提示」は、旧来のCLIと同じですが、情報が表示される場所が変わることで、視線移動を少なくして、より便利に使えるようになりますね。自動車の運転などの場面では、安全性の面でも、優れている感じがします。
安藤 確かにそういう側面もあるのですが、限界はあるようですね。人間の根本的な認識力が問題になります。例えば、飛行機を操縦していて、滑走路に人や自動車などが入ってきた場合、人間はそうした「本来あり得ない」シチュエーションに遭遇すると、事態の認識に通常よりも時間がかかります。実は、この認識の遅延具合は、HUDを使っていても、使っていなくても、それほど変わらないそうなんです。
表示装置のテクノロジが向上して、人間が一度に多くの情報を把握しやすくなったとしても、それを処理する人間側の限界で、最終的な処理の効率や品質は劇的に上がらないこともあるということです。
――そうなると、例えば「事故を防いで安全性を高める」という観点であれば「自動運転」のようなテクノロジを使う方がいいとなりますね。ところで、HUD的なデバイスとして、最近は「Google Glass」などが話題に上がることも多いです。Google GlassのUIを実現しているのはHTMLベースの技術ですが、今後、こうしたデバイスに使われていく技術は、やはりHTMLがベースなんでしょうか。
安藤 HTMLをはじめ、既存の技術の延長線上や派生で進んでいくのではないでしょうか。これまでにない技術を使って実現しても、誰も使ってくれない可能性の方が高いですからね。HTMLも、何だかんだと形を変えながら、これからさらに20年先でも生き残っていそうな技術だと思います。
――HUDの流れから、ディスプレーのデザインについて続けましょう。SF映画の中では、現状の四角いディスプレーだけではなく、壁面全体や、球体の内面全体を使って、ユーザーの周囲に大量に情報を提示するといったディスプレーが数多く登場しています。こういったものは今後、より現実的になってくるんでしょうか。
安藤 こうした「大型の情報ディスプレー」は、「人間の潜在能力をできる限り引き出す」という観点で利用範囲が広がるのではないでしょうか。人間の認識のスタイルとして、集中している部分の情報だけではなく、その周囲の状況も同時に把握できるというのがあります。「全てに集中できなくても、できるだけたくさんの情報が、一度に出ていた方がいい」という利用状況は、実際にあると思います。株のトレーディングの現場などを含めて、今でも、すでに「マルチディスプレー」はプログラマの中でも使っている人が多いですよね。
ソフトウェアの分野では、ディスプレーが大型化、高精細化したときに、どのような情報提示手法を使えば、最も効果的に人間がそれを処理できるかというのを考える余地が出てくるはずです。
例えば、エンタープライズ分野だと、監視や管理の用途でビジュアルなダッシュボードに必要な情報を集約して出すといったことはすでに行われています。画面がさらに大型化、高精細化すれば、情報の網羅性が高まりますし、それぞれの情報の関連性も分かりやすくなります。それらの中からどこに注目すべきかを、全体との関係性の中で理解できるようになるはずです。
――その場合、ユーザー側から操作するためのUIは、やはり「タッチインターフェース」や「モーションインターフェース」でしょうか。
安藤 「タッチインターフェース」の良いところは、ユーザーが「そのものを直接操作している」という感覚を得られるところですね。画像やグラフ、データなどのオブジェクトの操作とは、とても親和性が高い。『マイノリティ・リポート』をはじめとして、大型の画面の前に立って、タッチインターフェースやモーションインターフェースで仕事しているというシーンが映画の中には多く登場します。
――SF映画を代表する「未来的」な絵面ですね。
安藤 ただ、あれ、実際にやると、きっと疲れますよね(笑)。ずっと立ちっぱなしで、腕全体を持ち上げてないといけない。
――確かに(笑)。身振り手振りを入力に使う「モーションインターフェース」にも同じことが言えそうです。
安藤 全部がああいう形になることはないと思います。きっと、それに向いている利用分野があるということでしょう。例えば、タッチやモーションのもう一つの問題点は、現状「正確な操作」を行うのに向いていないことです。その点では、マウスやタッチペンの方が、まだまだ上なんです。
モーションについては、さらに考えるべきことがあって、入力に使う動作が、日常的に行う動作とあまりにも違うものだと、ユーザーに受け入れてもらえないというのがあります。だからといって、普段やっている動作を入力として受け入れるようにしようとすると、今度は、誤認識の問題が出てくる。普段、普通にやっている動作であるが故に、ユーザーの意図しないところで、機械側がそれを「入力」として認識してしまうと困ったことになる。その辺りの切り分けをどうするかというのが課題になってきます。これは「音声入力」でも、同じことが言えますね。
――グーグルの音声認識では「OK Google」というトリガーを使って、入力をスタートするという方法を採っていますね。
安藤 そうですね。家電メーカーの製品でも「操作に入る前に手を何回叩く」といった形でのトリガーを取り入れています。ただ、こうした「トリガー」は、日常的に使わないものなので、それを採用した時点で、ユーザーに受け入れられにくくなるというのは、やはり課題として残っています。さらに、音声入力については、特に日本の場合「人の多い街中で突然機械に向かって声を出す」という行動が、社会的に受容されにくいという点も課題としてありますね。
――最近では、それほどでもありませんが、携帯電話の「イヤホンマイク」で通話のために突然しゃべり出す人というのも、ちょっと前まで違和感がありました。
安藤 海外だと、そもそも、あまり人が密集した場所がなかったり、メンタリティとして他人のことを気にしなかったりといった社会的な違いから、課題として認識されないケースも多いんですよ。ただ日本でも、パブリックではない、自宅や自家用車の中だったら問題はないはずです。「動作」や「音声」を入力インターフェースにする場合は、社会的に受け入れられるかどうか、受け入れられる利用シーンかどうかといった部分も考慮しておく必要があります。
また、「技術面でのブレイクスルーを考える」必要もあります。例えば「相手の声が聞こえづらい人混みの中での携帯通話」が抱える課題は、「骨伝導イヤホンマイク」「ノイズキャンセル」といった技術である程度緩和できています。そうした形での技術面でのブレイクスルーも必要になってくるはずです。
Copyright © ITmedia, Inc. All Rights Reserved.