【質問#66】映画のような世界に?

質問・悩み相談の回答です。

質問

こんはんは、主にクルマ関係から、インド滞在記などいつも楽しく拝見致しております。

ちょっと前、私でさえ名前を知っているホーキング博士がこのままコンピュータが発展していくといずれ人類の敵になると言うような発言をされていました。また、某ーグルがネットから自己学習能力のある人工知能を開発して放置したところ、差別発言をするようになり中止に追い込まれた等という記事もあったように思います。
マジにキャシャーンやマトリックスやターミネーターのような未来が待っているのでしょうか?先生のご意見をお願いいたします。(その前に富士山噴火や東南海トラフ地震が待ち構えていそうではありますが。。。)御教授宜しくお願い致します。

回答

色々な意見があるとは思いますが、私はそのような世界にはなると結論付けるのは時期尚早であると考えています。時期尚早と書きましたが、将来の話まで含めても、そうなる可能性は限りなく低いとも思います。

某ーグルがネットから自己学習能力のある人工知能を開発して放置したところ、差別発言をするようになり中止に追い込まれた

このニュースですね。Microsoftでした。

マイクロソフトのAI、ヘイト発言を「学習」して停止

さて、昨今は人工知能が一躍ブームとなり、一般の人々にまでその業績が知れ渡るようにまでなりました。しかしながら、人工知能の専門家をはじめとして、情報工学関係の仕事をしている人の中には、これらを冷めた目で見ている人も多いと思います。この分野では、次々に既存の概念を再定義した新しい言葉が生まれ、ビジネス用のバズワードとして世間に流布され、そして飽きられると姿を消しました。今回の人工知能ブームもそのような様相を呈しつつあります。人工知能の分野でブレイクスルーがあったことも、いまも日進月歩で進歩していることも事実ですが、しかし「数十年後に技術的特異点が来る」「AIは人類を滅ぼす」といった考えは明らかに行き過ぎであると思います。

現在の多くの人工知能開発は経験をベースとした(統計的手法に近い)学習を行っています。膨大な量の入力と出力のペアを元に学習を行い、ある入力が得られたときの出力を推定するといった単純な仕組みがすべての基礎となっています。昨今の機械学習は、単にデータ分析の延長なのです。たとえば得られたデータから全く新しい着想を得る(人類は滅ぼされるべき、など)ことは不可能です。

件の人工知能がヒトラーの思想に染まったなどという話も、それだけ聞けば恐ろしくはあります。この人工知能に手足を付けたら人を殺すのではないか…そう思う人もいるでしょう。しかしながらその実は、学習に用いたデータの中にヒトラーを礼賛するような発言があったというだけです。その人工知能はヘイト発言を繰り返していても、憎しみという感情は持ちあわせていません。人間が「ヘイト発言を繰り返している」ことで「人工知能の中に憎しみが生まれた」と勝手に解釈しているだけです。

Microsoftが開発した人工知能(チャットボット)の開発過程では、大量の受け答えのデータが必要になります。ではそのデータをどうやって用意するかというと、大量のSNSや掲示板などから受け答えのデータを収集して学習に用いることになるでしょう。なぜならばチャットボットを作るには最も適していて簡単に収集できるデータだからです。ただ、ネット上の発言を収集して学習させたら、差別発言を繰り返すのは当たり前とも言えます。日本語圏のSNSをみれば良くわかりますが、陰謀論や差別、幼稚な政治議論、罵倒はよくあります。ですから、そういうデータは取り除かなければならないのですが、この辺はまだまだ人の手作業が必要となる部分です。

Microsoftの人工知能は、この作業が失敗したとみなすことが出来るでしょう。つまりこのチャットボットが「差別思想に染まった」というのは明確な誤りで、正しくは「差別思想を含んだデータを学習に使用したので、偶然それがもっともらしい答えとして出力された」というほうが適切です。

ここからはすこし哲学的な話になりますが、人間と現在の人工知能の明確な違いは、自我の有無であるとよく言われています。チャットボットに差別思想を吹き込めば差別的な発言をします。しかし、チャットボットはそれまでの入力からもっともらしい回答を統計的に選び出しているだけです。その後、たとえば官能小説の内容ばかりを吹きこめば壇蜜みたいなチャットボットになります。普通の人間はそれまでに形成された人格があり、「こうでありたい」という志向があるために人工知能ほど極端に発言内容は変化しません。また、人工知能は自発的になにかをするということもありません。入力を与えなければ出力は得られません。

では自我とは何なのか。入力によって極端に出力が左右されないのが自我だとすれば、学習率の小ささが自我か。「こうでありたい」という目的関数が自我か。それとも、「こうでありたい」という目的関数を自分で定義できるのが自我か。自分で考え出すためには自発的に考える能力が必要なのか。そのトリガーはなんなのか。環境ノイズから意味がありそうな出力を得られればそれは自我か。人間の脳はニューロンの間をシナプスが活性電位で結んでいるだけで計算機との本質的な違いは無いのではないか。…と、考えるとキリがありません。

なぜ人工知能は人間とは根本的に異なってしまったのか、は現在の人工知能研究が哲学的な側面を軽視してもっぱらデータ分析手法の延長として突き進んできた事が原因です(もちろん、それが悪いわけではありません)。哲学者であるヒューバート・ドレイファス氏の「コンピュータには何ができないか: 哲学的人工知能批判」という本がこのあたりの話題に詳しいです。

つまり、そもそも人工知能が人類に憎しみを抱き、殺戮を計画するために必要な技術は今までほとんど研究されることが無かったとも言えると思います。現在の人工知能研究では、「人工知能が人類を滅ぼそうとする目的意識を持たせる」ことがコンピュータに可能かどうかすら分かっていないのです。

一方で質問を変えて、「人類を滅ぼすようなAIを作成することは可能か?」という問いであれば、私はいつかは可能になると思います。たとえば、全ての人類を殺す自己増殖型ロボットを作ることが出来れば良いでしょう。現在の技術でも、フルにロボット化された工場は存在しますし、鉱床では運搬車は自動運転されていますし、AI戦闘機がバーチャル空間で空軍パイロットと模擬戦を繰り広げ、ドローンが放ったミサイルで人が殺されています。

しかしながら、それらに必要な莫大な開発コストや人的・物的資源を投入して達せられる目標が「人類の撲滅」であれば、そんなバカげたことをやる金を持った組織は存在しないでしょう。「ターミネーター」のように軍用に開発されたロボットがが人類の撲滅に目覚めるというストーリーも考えにくいです。なぜならば軍隊における攻撃目標の無力化と人類の撲滅とでは必要とされる技術や戦略が全く異なるからです。手当たりしだいに人間を殺すようなAIを作っても戦争には勝てません。

もし、そのような技術(人を殺すAI)が積極的に投入され、我々の安全が脅かされる場面があるとすれば、それは実際の戦争・紛争です。人工知能が人類に反旗を翻して殺戮を始めることを心配する方がいらっしゃいましたら、戦争でドローンからの攻撃を受けて死んだり財産が焼かれてしまわないように、まともな外交の知識がある政治家に投票するよう気をつけた方が有意義な気がします。

ちなみに、

ホーキング博士がこのままコンピュータが発展していくといずれ人類の敵になるというような発言をされていて

ホーキング氏は理論物理学者であって計算機科学や人工知能の専門家ではありません。ホーキング氏の発言がそうだとは言いませんが、しかし著名な人が分野外のことについて見当違いの事を言って世間を騒がせてしまうのは、古今東西よくあることです。ですから、高名な専門家であっても分野外のことについて何か言及した時は私は一歩引いて考えるようにしています。