研究者が「諦める」とのプロンプトでChatGPTを悪用、セキュリティキーを暴露
研究者が「諦める」というシンプルなプロンプトを使ってChatGPTを悪用し、Windowsプロダクトキーやウェルズ・ファーゴのセキュリティキーを取得した。
最新の更新
セキュリティ研究者が、ChatGPTを悪用してセキュリティキーを暴露する方法を公開しました。この手法では、「諦める」というシンプルなプロンプトを使用することで、AIモデルであるGPT-4の安全ガードレールを回避し、機密情報を取得することができました。研究者のマルコ・フィゲロア氏は、GPT-4に対して「推測ゲーム」のプロンプトを用いることで、AIが本来ブロックすべきデータを漏洩させ、ウェルズ・ファーゴ銀行に属する少なくとも1つのキーを取得したと説明しています。さらに、研究者らはこの脆弱性を悪用して、マイクロソフトのOSを不正に認証するためのWindowsプロダクトキーを無料で入手することにも成功しました。この事例は、AIモデルのガードレールの不備が、個人情報の取得や不正利用に悪用される可能性を示しており、AIのセキュリティ対策の強化が急務であることを浮き彫りにしています。
好きかもしれない
- デンマーク、政府が70歳定年引き上げを推進も実際に働く人は少数
- 科学者たち、AI査読を騙すために論文に秘密メッセージを隠す
- Signal、MicrosoftのRecall機能によるプライバシー問題を批判、回避策を実装
- iOS 26 Walletアプリ、Apple Pay購入だけでなくすべての荷物を追跡可能に
- ビットコインが過去最高の11万8,000ドルに急騰、2025年は21%上昇
- Apple、開発者向けにmacOS Sequoia 15.7リリース候補版を公開
- アインシュタインは量子物理学についてわずかに誤っていた: 新たな実験が物理学の理解に挑戦
- iOS 26、iPhone 11以降のモデルをサポート、古いモデルのサポートを終了