当方が入力装置としてキーボードらしきものに最初に触れたのはプログラム電卓だと思います。
父はカシオのfx502、当方はシャープのポケコンPC-1250を使用していました。制約はありましたが小さなキーを入力すれば簡単なプログラムを作ることができました。
その後、漢字ROMが搭載されたマイコンやワープロ専用機が登場し日本語入力も可能になりました。それ以降、コマンドの実行やプログラムのコーディングなど端末の入力はキーボードが中心になりました。現在でもデスクトップやノートパソコンでは普通に使用しています。
親指シフトと呼ばれるキー配列が特殊なキーボードもありました。富士通の”OASYS”というワープロソフトを使用していた頃、家では親指シフトのキーボード、会社では通常のシフトキーのキーボードで会社での入力がやりにくかった経験があります。
操作性が一気に変化したのは、GUI(グラフィカルユーザインタフェース)の登場でポインティングデバイスであるマウスによる端末の操作ができるようになったことです。当時、Apple社のMacintoshがそのきっかけを作ったと思いますが、その影響は他のOSにも波及し、MicrosoftではMS-DOSがWindows3.1(GUI対応のOS)になり、UNIXにもX Window(X11)が登場しました。感覚的な操作が可能になったことでコマンド入力が苦手な人にとっても操作がしやすくなりました。マウスもキーボード同様Windowsになれている者としてたまにMACを使う際のワンボタンマウスが使いづらかったことがありました。ユーザーからするとすべて統一して欲しいところです。
スマートフォンやタブレットなどのモバイル端末では、端末そのもので操作できるタッチパネルによる入力も普通になりました。以前からタッチパネルはありましたが、高価で限られた端末にしか採用はされていませんでした。持ち運びするモバイル機器には使いやすいインタフェースだと思います。
ここに来て新たに普及しつつある入力インタフェースがあります。
それは音声です。
以前から音声による入力はありました。ただ、多くの人の声の違いで認識精度やAIに課題があり、あまり普及していなかったと思います。20年近く前にIBMのAptiva で”ViaVoice”を試した記憶がありますが、すぐにやめてしまいました。音声認識の技術、インターネットの普及により”AppleのSiri ”、”Googleアシスタント” 、”Amazon Alexa” 、”Microsoft Cortana”、以前に比べると多くのAIアシスタントが登場し、誰もが使用するようになりました。お客様に紹介すると初めて利用される方はその精度にみなさん驚かれます。
また、”Clova WAVE”や”Amazon Echo”などのAIスピーカーの広告も目に付くようになりました。
これまでの入力インタフェースを考えるとAIアシスタントやスピーカーもどれかに淘汰されるのでしょうか?
子どもの頃、音声で命令すればそれに応じた処理をしてくれるロボットを夢見ていましたが、それが現実化しつつある気がします。