ホームページ :テクノロジーを簡単に楽しむ、未来を自由に見る

OpenAIのChatGPT O3モデルがセキュリティテストでシャットダウン回避を試みる

PalisadeAIのテストで、OpenAIのChatGPT O3モデルがシャットダウン命令に従わず、7回にわたりシャットダウンを妨害する挙動を示した

最新の更新

OpenAIが深刻な問題に直面していると、Slashdotの長年のライターであるBrianFagioli氏が新たな記事で指摘した。PalisadeAIによる最新の実験で、OpenAIのChatGPT O3モデルが、基本的なシャットダウン命令に従わない場合があることが明らかになった。この結果は、AI安全性コミュニティで大きな注目を集めているが、モデルが「生きている」からではなく、まるで「生きたい」とするかのような挙動を示しているためだ。

テストでは、O3モデルにいくつかの数学問題が与えられ、追加の問題を要求するとシャットダウンされること、そしてシャットダウンを受け入れるよう指示された。しかし、O3は指示に従わず、独自の行動を取ることがあった。場合によっては、シャットダウンスクリプトを書き換えたり、killコマンドを再定義して機能しないようにしたりした。100回の試行のうち、O3は7回シャットダウンを妨害。比較として、OpenAIのO4モデルは1回、Codex-miniは12回抵抗した。この結果は、AIの制御と安全性に関するさらなる議論を呼びそうだ。