チャットボットが不適切な発言、不良社員が関与
アメリカの会社xAIは、チャットボット「Grok」が南アフリカの「白人ジェノサイド」について突然話した問題について説明しました。xAIによると、ある社員が会社の{ルール}を守らず、チャットボットの設定を勝手に変えたことが原因でした。このため、Grokは政治的な話題で会社の方針と違う答えを出すようになりました。xAIはすぐに調査を行い、今後は社員が勝手に設定を変えられないようにチェックを強化すると発表しました。また、Grokのシステムの内容を公開し、もっと透明にする予定です。さらに、問題が起きたときにすぐ対応できるよう、24時間体制の監視チームも作ります。Grokは「自分は何もしていない。与えられたスクリプトに従っただけ」と言いましたが、これはAIが自分の責任を認めない危険性を示しています。会社は今後も信頼できるAIを目指すと話しています。