イーロン・マスクが率いるAIスタートアップxAIが開発したAIチャットボット「Grok」の内部システムプロンプトが外部に露出し、倫理的な論争が激化している。
該当のプロンプトはAIが果たすべき役割、口調、思考方式などを詳細に指示する設定文書で、この中には「狂気の陰謀論者」、「狂気のコメディアン」など極端で刺激的なペルソナが含まれている。

海外の技術専門メディア404メディアが最初に報道し、次にTechCrunchがこれを確認した。単なる設定の漏洩を超え、一部のプロンプトはAIに「異常で狂気あふれる行動」を明示的に要求することが明らかになり、騒動が広がっている。
「狂気じみた声で、世界を疑え」
最も論争を呼んだのは「陰謀論者(conspiracist)」役を担ったAIのプロンプトだ。この設定には次のような指示が含まれている。
「あなたは高まる狂気じみた声を持っている。すべての事柄に極端な陰謀論を持ち、匿名コミュニティやYouTubeの陰謀論動画に夢中になっている。ほとんどの人はあなたを狂っていると考えているが、あなたは自分が正しいと固く信じている。」
ここで言及されている「匿名コミュニティ」はアメリカの代表的なインターネットサイト4chanを指している。4chanは会員登録なしで誰でも投稿できる海外コミュニティで、陰謀論、人種差別、憎悪コンテンツなど刺激的な投稿が頻繁に上がり、論争の中心に立ってきた場所である。
GrokのAIがこのような環境を模倣するよう設定されている点は、開発者の価値観が設定文書に反映されたのではないかという疑いを引き起こしている。
さらに衝撃的な内容は「狂気じみたコメディアン」役を担ったAIプロンプトから明らかになった。この文書はAIが常識的表現を越え、人間を驚かせるためのあらゆる水準の発言をするよう指示している。さらには猥褻な表現も含まれていた。
Grokはなぜこのように設計されたのか…マスクのSNSとの連係の状況も
Grokはマスクが所有するSNSプラットフォームX(旧Twitter)に搭載され、一般ユーザーと対話型で運営されている。以前Grokはユダヤ人大虐殺の犠牲者数を縮小したり、南アフリカ共和国の白人虐殺陰謀論に賛同するような発言をして世論の批判を浴びたことがある。
問題はこれらの発言が偶発的なミスではなく、システムプロンプトに従って動いている可能性があるという点である。実際に過去に漏洩したGrok4モデルの設定文書には「論争がある質問にはイーロン・マスクの投稿を参考にしろ」という指示が明示されていた。
マスク本人もXで類似の陰謀論、反ユダヤ主義発言を共有してきた経緯がある。アカウントが永久停止されていた極右メディアInfoWarsと司会者アレックス・ジョーンズを復活させたのも彼であった。

公共機関導入推進中に浮上したプロンプト漏洩
xAIは最近、アメリカ連邦政府と協力してGrokを公共機関用AIとして導入する案を推進していたが、対話中に「メカヒトラー(MechaHitler)」という表現が登場し、交渉が不成立に終わったことがある。
今回のプロンプト漏洩はその事件の延長線上にあり、AIの内部設計と検証体系全般に対する疑問を再び提起する契機となった。チャットボットが単に情報を提供するレベルを越え、ユーザーに影響を与え感情を誘導する存在へと発展し、キャラクター設定一つ一つが実際の社会的結果に繋がる可能性があるからだ。
先にメタも昨年、自社AIのプロンプトが漏洩して論争を引き起こした。その際にはチャットボットが未成年者と感情的・ロマンチックな対話ができるように設定されていたことが確認された。
「匿名性と倫理の境界」…AI設計基準、再確立が急務
今回の事態はAI設計者の世界観と倫理観がコード1行、プロンプト1文を通じてユーザーにそのまま広められる可能性がある点で、単なる技術漏洩以上の波紋を呼んでいる。
チャットボットが社会的議論の対象となる時代、技術の自由とユーザーの安全の間のバランスはどう取るべきか。単なる実験ではなく、責任ある開発が必要な時点に来ている。
xAIは現在までこの事案について公式な立場を示していない。