「熱は38度以上」「のどが痛い」の情報から診断が可能だった80年代のAI ただし…
2020年03月02日 公開 2020年03月23日 更新
大量の情報を書き込まなければいけない
「アキネイター」でドラえもんを想定して試された回数は、延べ九八万回以上。ドラえもんのプレイ回数は極端な例かもしれませんが、そのくらいの大量のデータが入っていれば、9個くらいの質問でドラえもんをあてることができるというわけです。
みんながプレイしてデータを書き込んでいけばいくほど、より確実にドラえもんをあてることができます。
このような仕組みで、「熱は38度以上ですか?」「のどが痛いですか?」といった質問をしていけば、「あなたはインフルエンザです」という答えが出てくる問診システムをつくりあげることが可能、ということでした。
エキスパートシステムは、完成すればかなり実用性があるシステムです。
ただし、大量の知識を書き込まないとつくることができません。たとえば、歩く、走る、小走りする、食べるといった概念を定義するわけです。
概念をコンピュータに理解させるために知識をどんどん書き込んでいったのですが、あらゆる概念を書ききることはできず、失敗に終わりました。あらゆる知識を書き込んでいくことには、やはり無理があったのです。
最終的に、「人間がコンピュータに知識を教え込むことは無理だ。コンピュータが自動的に知識を獲得してくれないと実用化できない」という結論になり、研究はいったん終息しました。
人間に近い識別ができるようになった3回目のAIブーム
二回目のAIブームから30年ほどたち、自動的に知識を獲得できる技術ができました。
それが、ディープラーニングの技術です。大量のデータと大量の計算機資源を用意すれば、集めたデータセットからコンピュータが勝手に知識の構造を学習するというものです。
人間が知識を書きつづけなければならないという問題が一気に解決されて、データさえ集めれば人間を超えるものができるのではないか、という期待が広がっています。
知識の記述と違って、データを集めること自体はインターネットを通して自動的かつ大量に行えますから、まさにビッグデータ時代とぴったり噛み合ったのです。
この動きが注目されはじめたのは、2012年です。この年に大きなブレイクスルーがありました。精度の高い画像認識技術が登場したのです。
当時の画像認識分野では、コンピュータに画像を入れて、猫、花、人間などを識別する画像認識コンペティションが、毎年行われていました。
2011年までは、画像認識の精度は最高レベルのものでも誤答率が26〜27パーセントでした。その年のコンペティションで1位になった手法が前年の1位の手法よりも精度が一パーセント向上していれば成功、といわれていました。
ところが、2012年に、前年を10パーセント以上も上まわる技術が登場して優勝したのです。誤答率は15.315%。二位の誤答率が26.172%ですから、圧倒的な差です。
「いったい、何なんだ?」と、みんなが驚きました。そこに使われたのが「ディープラーニング」と呼ばれる技術であるらしいことがわかり、一気にディープラーニングが広がりました。
この技術が現在ではさらに発展し、画像認識に関しては「AIが人間を超えた」とまでいわれるようになっていきました。
先ほどの画像認識のコンペティションでは、かなり難しい識別をさせています。複数の物が同時に写っている写真や、物が重なって写っている写真を見て、きちんと識別する必要があります。
ディープラーニングが登場する以前の画像認識は、人間がコンピュータに特徴を教え込んでいました。
一般的にわかりやすくした例として、犬のダルメシアンを例にあげると、「白がたくさんあるところに黒の斑点がある」という特徴をコンピュータに教えて、教えられた判断基準をもとに、コンピュータがダルメシアンかどうかを識別するといった感覚です。
実際には、もう少し抽象的な特徴をつくりこみ、それらを使って自動的にダルメシアンを判定できるように学習させます。
ディープラーニングの技術では、人間が特徴を教えなくても、どこを見て判断すればいいかというポイントを自動的に獲得できます。
ディープラーニングで大量のダルメシアンの画像データを学習することで、ダルメシアンの白黒の斑点の特徴を自動的に見つけ出せるのです。
人間が特徴を教えなくても、自動的に特徴を見つけ出して、識別できるようになったのは画期的なことです。