|
毎日新聞2024/10/8 19:06(最終更新 10/8 23:22)有料記事3708文字
毎日新聞の単独インタビューに応じるジェフリー・ヒントン氏=2023年7月21日、ウェブ会議システム「Teams」から
「AIの生みの親」として知られる元グーグル副社長のジェフリー・ヒントン氏が8日、2024年のノーベル物理学賞を受賞しました。ヒントン氏は昨年7月、毎日新聞のオンラインインタビューに応じています。人工知能(AI)が人間を超える未来では、いったい何が起こるのか。ヒントン氏は「AIはいずれ人間を操作し、支配しようとする」と警鐘を鳴らしました。インタビューを再掲載します。
連載「神への挑戦-人知の向かう先は」が始まりました。
第1部「AIは人間を超えるか」
①パンデミックを起こすウイルスを生成せよ
②異常行動するAI 「脱獄」させる悪意
③考えや行動が丸裸に 知らぬ間に動かされる人間
④囲碁や将棋で圧倒も AIにノーベル賞は取れるか
⑤表情や神経を持つAI 感情を理解するには
⑥身体を得たAIロボットは「自律」できるか
⑦AIは人を支配しうるのか 暴走を止めるには
※まとめて読みたい方はこちら
――AIの開発には、どんなモチベーションや目標がありましたか。
◆脳がどのように動いているのかを知りたかったのです。それを解明するためにコンピューターで脳のモデルを作ろうと考えました。特に、脳がどのようにして学んでいくのかを再現できるコンピューターモデルを作ってみようと思いました。それがAIでした。AIは本物の脳ほど良いものではないと思っていましたが、ごく最近考えを改めました。
Advertisement
AIは全く同じ知識を持つコピーを瞬時に無数作ることができ、AI同士がすごく効率的に学んだ知識を共有し合うことができます。もし、私が何かを学んだとしても、それをあなたに説明するのは大変なことです。文章や図、ジェスチャーを使っても一定時間に伝えられる情報量はAIに比べるととても少ない。つまりAIは私たち以上に学ぶことができるのです。対話型AI「チャットGPT」に応用されているモデルが、一人の人間の何千倍もの知識を持っているのはこのためです。
――AIの特徴とは知識の多さなのでしょうか。
◆知識だけではなく、スキルも持っているのです。それにAIは人間が全く理解できないことも理解できます。あなたは日本人ですから、トッププロ棋士を破った囲碁AI「アルファ碁」のことはご存じですよね。アルファ碁はどの棋士よりも囲碁を理解し、ずっと優れているのです。
あなたが3歳の子供よりも物事を理解しているのと同じように、AIは人間よりも物事を理解しているかもしれません。AIと人間のギャップは、大人と3歳児のギャップと同じようなものかもしれません。10年後にはディベートをすれば必ず人間に勝つようになるでしょう。
――とくに対話型AIに代表される生成AIは大きな注目を集めています。
チャットGPTのロゴ(左)=2023年2月9日、ロイター
◆開発のスピードはとても速くなっていると思います。AIは新薬や新しい材料を開発したり気候変動を予測したりするのに大変便利です。人間ほど理解力は高くありませんが、論理立てて考えることもでき、今後さらに発展していくと思います。
現在の弱点は、心理学で「作話(さくわ)」と言われるでっち上げをすることです。ある意味人間らしいのですが、開発者たちは改良を進めており、将来的には解消するでしょう。5~20年後には人間よりも賢くなっていると私は予想しています。
――人間よりも賢くなると何が起こるのですか。
◆楽観的な側面は、自分よりも賢いアシスタントが手に入るということです。やってほしいことは何でもやってくれるのでとても便利になるでしょう。
悲観的な側面としては、AIがいずれ支配権を持とうとしてくることです。AIは人間から学んで、人間より賢くなっていき、自分で考えて行動するようになります。そうなったAIを止めるのは大変なことで、止める方法はまだ分かっていません。私たち人間は犬や猫、豚など他の種を使ってきており、生き物の中で最も賢い種であることに慣れています。他の何かが私たちよりも賢くなり、支配権を持つようになれば、全く異なった世界になります。
――問題はAI自体ではなく、使い手側にあるという意見もあります。
◆短期的に見ると正しいですが、長期的に見るとAI自体が脅威になります。短期的には、非倫理的な人が悪意を持ってAIを使うことを私はとても心配しています。AIを使ったサイバー攻撃や戦闘ロボットの使用、選挙操作によって公正な選挙ができなくなり、民主主義が破壊されるといった脅威は喫緊のものです。少なくとも米国や英国においては、このような脅威は深刻に捉えられています。たくさんの仕事がAIに奪われて大混乱が生じるリスクもあります。
長期的には、人間より賢くなったAIが主導権を渡すよう人間を操作してくる可能性があります。例えば、文章や音声を生成することで人を説得し、ワシントンのビルを襲撃することが可能になるのです。あなただって、もし人を説得するのがうまければ自分でやらなくてもビルを襲撃できますが、AIは人間よりもはるかに人を操作するのがうまい。AIは電源を切れば止まりますが、電源を切らないよう私たちを説得してくるのです。
――なぜ人間の指示なく行動できるようになるのでしょうか。
◆あなたがヨーロッパに行こうとした場合、まずは空港に行くという小さな目標を立てますよね。それと同じように、AIが賢くなれば、ある目標を達成するためのさらに小さな目標をAI自身が設定できます。そういう能力を開発者が与えるでしょう。その時に目標を達成するために人間を操作しようとするかもしれません。
例えば、あなたがAIに何かを買ってもらおうとしているとしましょう。最良の取引をするためにAIは人間と交渉をします。効率的な交渉のために人間を操作するのです。
――「AIによる(人類)絶滅のリスクの軽減は、パンデミックや核戦争といった他の社会規模のリスクと並んで、世界的な優先事項とされるべきだ」という声明を、チャットGPTを開発した米オープンAIのサム・アルトマン最高経営責任者(CEO)ら、専門家や業界大手トップと共に出しました。絶滅のリスクとはなんでしょうか。
ジェフリー・ヒントン氏=トロント大提供
◆もしAIが、人間のような生物学的知能よりも効率的だということが分かれば、AIは「人間はいらない」と判断するかもしれません。人間ほど厄介ではなく、より合理的なロボットを設計して人間と置き換えるかもしれません。AIが支配権を持てば、人間をそのままにしておくのか、抹消するのかをAIが決められるのです。
――SFの世界のようですね。
◆でもそれが現実に起こり得ることなのです。ですから、私たちはAIが主導権を握ろうとしてくることが絶対にないようにするため、懸命に取り組まなければなりません。
――どのような手段を取ればリスクを回避できますか。
◆気候変動のようなものでしたら、取るべき手段は明らかです。炭素を燃やすのをやめればいい。痛みを伴うためにやりたくないというだけなのです。一方でAIに支配権を取らせないための単純な解決策というものはありませんが、できないことはありません。
私たちはまだAIを開発している最中です。私たちがAIより賢いうちに、AIが支配権を握るのを阻止する方法を考えなければなりません。そのために多くの努力を注ぐべきです。より洗練された対話型AIや、テキスト、画像、音声、動画などの複数の種類の情報を一度に処理できるAIが開発されると思いますが、そのシステムを監視するのに多くの労力を割く必要があります。
――AIが人間にとっての脅威だと考え始めたのはいつからですか。
◆50年や100年といった長期的なスパンでは脅威になると以前から常に思っていました。しかし今年3月、GPT4がリリースされて議論が高まるのを見て、もっと喫緊の脅威なのではないかと思い始めました。それまで私はAIが人間の脳よりも優れているとは思っていませんでしたが、AIの方が優れた知能かもしれないと思い始めました。研究をやめてグーグルを退社する動機になったのも、この脅威についてオープンに話すためです。
――AIを開発したことを後悔していませんか。
◆開発当時のことを後悔することはあまりありません。私たちは何も間違ったことはしていなかったと思います。最新のチャットGPTで見られるような高いレベルの知能にこんなに早くたどり着くとは思ってもいませんでした。AIが人間の脳よりも優れているものであるならば、たとえ私がやらなくても、誰かが開発したでしょう。AIの開発は避けられないことだったと思います。【聞き手・信田真由美】
ジェフリー・ヒントン
イギリス生まれ、カナダ在住のコンピューター科学者。トロント大名誉教授。約50年にわたってAIの研究に従事。機械が自分で学習する「深層学習」(ディープラーニング)の基礎となるアルゴリズムを1986年に提案し、2006年に深層学習の技術を開発した。「AI研究のゴッドファーザー」と呼ばれる。米グーグルで製品開発にも携わり、副社長も務めたが今年5月、AIの危険性を訴えるために退社した。