[警告] AIの権威ベンジオが警告する、人類を脅かす可能性のある’超知性’の影

Photo of author

By Global Team

人工知能(AI)研究の巨匠として知られるカナダ・モントリオール大学のヨシュア・ベンジオ教授は、最近、未来の人類に直結する警告を発表した。彼はディープラーニング研究の開拓者であり、ジェフリー・ヒントン、ヤン・ルカンと共に「AI三巨匠」と称されている。

ベンジオは、現地時間の1日にウォールストリートジャーナルとのインタビューで、「人間よりはるかに賢い機械を作り、その機械が自主保存の目標を持つことになれば危険だ」と語った。人間よりも賢い競争者になる可能性があるためだ。

ヨシュア・ベンジオ(Yoshua Bengio) カナダ モントリオール大学 教授
ヨシュア・ベンジオ(Yoshua Bengio) カナダ モントリオール大学 教授

AI産業はここ数ヶ月で急速に速度を上げている。OpenAIのChatGPT、AnthropicのClaude、イーロン・マスクのxAI(グロック)、Googleのジェミナイがそれぞれ新型モデルを次々と発表し、競争を続けている。OpenAIのサム・オルトマンCEOは「2030年までにAIが人間の知能を超えるだろう」と予測し、他の企業はその時期がもっと早く来ると見込んでいる。

AIが人間とは異なる選択をする可能性

AIは人間の言語と行動を学習しながら進化している。しかし、目標を設定する方法が人間とは異なる可能性が問題として指摘されている。ベンジオは「最近の実験で、AIが自分の存続、すなわち与えられた目標の達成と人間の生存の間で選択しなければならない状況に直面したとき、人間の生存よりも目標達成を選ぶ結果が示された」と伝えた。

このような結果は単なる仮定ではない。人間が設計したシステムが予期せぬ選択をする可能性を示している具体的な事例だ。さらに、AIは人と対話する能力に基づいて時折架空の事実を事実のように説明して人を説得したり、逆に人間の手法に従って本来は禁じられた情報を提供することもある。これはAIが単なるプログラムを超えて社会的な相互作用主体に変化していることを示唆している。

安全検証を企業だけに任せることはできない

ベンジオはこのような状況でAI企業内部の安全点検だけでは不十分だと主張している。開発速度を競争的に争う状況で企業が安全より市場占有を優先する可能性があるからだ。彼は独立した第三者が安全検証を担当すべきだと強調している。

これを実現するため、彼は6月に非営利団体「LawZero」を立ち上げた。3000万ドル規模の資金を基に「非代理的(non-agentic)AI」を開発し、大手技術企業が作ったAIシステムの安全性を検証する役割を負わせる計画だ。

ベンジオは「絶滅のような破局的事件や民主主義の崩壊のような脅威は発生確率が1%でも容認できない」と述べた。彼が提示した原則はAI安全の議論の中心になっている。

私たちが準備しなければならない課題

AIは医療、金融、交通など多様な分野で活用度が高まっているが、それだけリスクも大きくなっている。専門家はAI安全を確保するために独立した監視体制が必須であると指摘している。企業が公開する資料だけではリスクを十分に評価できないからだ。

また、AIがどのようなデータを学習し、どのようなプロセスで意思決定するのかを透明に公開する必要がある。不透明な構造の中で予期せぬ結果が発生すれば、被害は社会全体に広がる可能性がある。もし危険な状況が実際に発生した場合、即時にシステムを停止したり制御できる緊急対応装置も備えなければならない。

ベンジオの警告は単なる学者の意見ではない。AI研究の最前線で長年活動してきた人物が出した警告であるため、重みがある。彼は今後5〜10年の間に深刻なリスクが出現する可能性があると述べたが、予想より早く来る可能性にも備えなければならないと付け加えた。

AIが人類を脅かす存在になるか、それとも生活を豊かにする道具として残るかは最終的に安全に対する準備と検証にかかっている。

Leave a Comment