|
文章や画像などを自動的に作り出す「生成AI」が急速に進歩し、企業などは新技術に乗り遅れまいと利用方法を懸命に模索しています。しかし海外の研究者からは「AIは人類を滅亡させるほどのリスクがある」という意見も出ています。そのリスクとは何か、そして私達はどう対応したらいいのでしょうか。
この一年で、急速に進歩したのは、対話型AIと、画像生成AIです。対話型AIの代表格は、アメリカのベンチャー企業「オープンAI」が開発したChatGPTです。SNSを使うように質問や命令を入力すると、非常に自然な文章で答えてくれます。このAIは、インターネット上の何千億という文章をもとに、自然な文章を出力することに特化した仕組みが内蔵されています。企業の中には、資料の要約や広告のタイトル作成などに試験的に活用しはじめるところが出ています。時間のかかる作業をすぐに済ませ、浮いた時間を優先度の高い業務に割り振ることができるようになったといいます。
また、画像生成AIでは、去年公開された「Stable Diffusion」というAIが大きな話題となりました。作りたい画像を文章で入力すると、その意味をくみ取って複数の画像を生成してくれます。例えば、猫の王国を浮世絵風に書いてほしいと入力すると、このような画像が出てきます。ネット上では、AIを使ったイラストを公開する人が相次ぎ、AIで作った画像だけを集めた画集が出版されたり、コンテストが開かれたりするほどになっています。
急激に進歩するAIについて政府は、活用方法を検討するAI戦略会議を設立しました。人工知能の専門家や、ネットビジネスの経営者、弁護士などがメンバーとなっています。生成AIには大きな可能性があるとして、政府一体となって利用可能性を追求するとしています。
国内のIT企業や研究者の中には、世界のネットビジネスが、グーグルやアマゾンなどの巨大IT企業に独占されたという悔しさがあります。AI戦略会議の議論からは、AIを駆使して巻き返しを図ろうという強い意欲がうかがえます。
その一方で、海外のAI研究者からは、AIがもたらす負の面の発言が相次いでいます。先月、AIの権威など350人以上が「AIによる人類滅亡のリスクを軽減することは、パンデミックや核戦争などと同様に世界的な優先課題だ」とする声明に署名しました。ChatGPTを開発したオープンAIのサム・アルトマンCEOや、グーグルでAIの中核となる技術を研究してきたジェフリー・ヒントン博士も名を連ねています。
声明の中には、AIのシミュレーションによって、手軽に大量破壊兵器を開発できることや、政治的なリーダーが権力を拡大させるためにAIを独占する危険性などについて触れられています。
さらに、デマの拡散に悪用される危険性について、次のような趣旨のことが記されています。
悪意のある政党や組織が、巧妙なデマをAIに作らせ、政治的な目的のために拡散させるおそれがある。AIの文章や画像には説得力があるため、聞いた人は感情が揺さぶられて信じ込んでしまう。次第に過激な考えを持つ人が増え、道徳観も失われてしまうのです。
これについては、AIが説得力のある作文をするということだけでなく、人間が便利なツールに頼りすぎるようになり、だまされやすくなると専門家が指摘しています。
AIが専門の国立情報学研究所の新井紀子教授は「AIは質問を受け取るとすぐに答えを出すので、人間は手軽さに魅力を感じて使い続けるだろう。徐々に、AIの答えが正しいかどうか確認しないまま信じてしまうようになる。最後には、正確であることを追求している報道機関のニュースや行政の発表などに無関心になる」と話しています。
情報が正確かどうか確認するためには、情報源を調べることが必要で、手間と時間がかかります。AIによる時間短縮と効率化は楽なので、人間は情報を確認する手間を惜しむようになり、徐々にデマに弱く混乱しやすい社会が出来上がるというのです。
次に、リスクに関する声明の中の、人間の衰退という項目を見てみます。
AIは人間よりも多くの作業を早く、安くこなすため、企業などは労働をAIに頼むようになる。追い出された人間が再びその産業に参入するのは難しい。人間が知識やスキルを獲得する動機はほとんどなくなる、としています。これは、AIが多くの人の仕事を奪う危険性を記したものです。
今、日本では、AIが人手不足を解消するという期待があります。しかし、企業が利益を増やすために人件費を削ることは珍しくありません。文句も言わず休みなく働くAIの方が助かるとして、経営者がリストラや採用の削減に踏み切る可能性はないとは言い切れません。
さらに、生成型のAIは、労働者のうち、ホワイトカラーのさらに比較的収入が高い法務、設計、エンジニアなどの代わりをするという予想があります。新しいスキルを身につけ、転職すればいいという意見もありますが、希望する求人がどこまで残っているかわかりません。18世紀半ばに起きた産業革命など、技術の進歩によって需要が減る仕事があるため仕方がないという意見もあります。しかし、AIの急速な進歩を考えると、AIによる就業構造の変化は、急激にそして大規模に起きる可能性があります。
政府のAI戦略会議も、AIがデマの拡散や犯罪に悪用されたり、失業者が増えたりするリスクなどについて議論しています。対策については「まずはAI開発者・サービス提供者・利用者等が自らリスクを評価し、ガバナンス機能を発揮する」。その後で、既存の法律で対応し、それが無理ならば諸外国における検討なども参考に対応を検討すべき」だとしています。しかしリスク対策は、もっと具体的に議論を進めるべきではないでしょうか。
確かに、AIによる社会問題が、いつどの程度起きるかは予想できません。さらに、世界中がAIの利活用に躍起になっている今、利用を規制するのではなく、AIを使って色々なチャレンジをすることも大切でしょう。しかし同時に必要なのは、AIが浸透した社会の未来予想をすることです。そして弊害が起きる前に対策を考えておくことです。
たとえば、デマに振り回されないようにするには、小中学校の教科で学ぶ基礎的な知識に加え、情報をうのみにせず多様な角度から検証するというクリティカル・シンキングの訓練が欠かせません。雇用については、新しい産業の育成に加え、仕事が無くなった人に対する経済支援と財源を考える必要があります。AIという「道具を作る専門家」だけではなく労働、教育、社会学、哲学などの幅広い分野の識者を交えた議論が必要です。
日本はこれまで「人間中心のAI」と題して、AIを人間の尊厳のために利用するという原則を打ち出してきました。急速に進歩するAIを急いで活用しようというあまり、その原則が軽んじられてはなりません。急がなければならないのは、技術開発やもうかるサービスより、誰のために、そして何のためにAIを使うのか、どんな社会を目指すのかという根本的な議論なのです。
この委員の記事一覧はこちら