AIツールが誤ったウェブアドレスを提供、ユーザーをリスクにさらす可能性:研究
ChatGPTなどのAIツールが誤ったウェブアドレスを提供することで、ユーザーをフィッシングやマルウェアのリスクにさらす可能性があると研究が明らかに。
最新の更新
新しい研究によると、ChatGPTやその他のAIツールが誤ったウェブアドレスを提供することで、ユーザーをフィッシング攻撃やマルウェアなどのリスクにさらしている可能性があることが明らかになりました。ネットクラフトの報告によれば、GPT-4.1を含む大規模言語モデル(LLM)が提供するログインリンクの3分の1(34%)が、尋ねられたブランドが所有していないもので、29%が未登録、非アクティブ、または駐車中のドメインを指し、5%が関連のないが正規のドメインを指していると報告されています。正しいブランド関連のドメインにリンクしていたのはわずか66%でした。AIはURL生成が得意ではなく、存在しないURLやフィッシングサイトにつながる可能性があるものも含まれています。攻撃者は現在、GoogleではなくLLM向けにサイトを最適化しており、開発者でさえ誤ったURLを意図せず使用しているケースがあるとされています。この状況は、AIツールの利用者がサイバー攻撃のリスクにさらされる可能性を高めています。