Anthropic、安全性懸念の高まりでAI規則を強化、武器開発を禁止
Anthropicは、Claude AIチャットボットの使用規則を更新し、危険な武器開発を禁止するなど安全対策を強化した。
最新の更新
AI安全性への懸念が高まる中、AnthropicはClaude AIチャットボットの使用ポリシーを更新した。
今回の更新では、サイバーセキュリティ規則の強化に加え、Claudeを利用して開発すべきでない最も危険な武器の種類が明確に示された。
ポリシー変更をまとめた公式投稿では武器規則の詳細は強調されていないが、旧ポリシーと新ポリシーを比較すると大きな違いが確認できる。
好きかもしれない
- トランプ政権の公共放送攻撃を受け、PBSが予算を21%削減
- ランボルギーニ、史上最速のプラグインハイブリッド車を発表:価格は350万ドル
- ネットフリックス、AI検索機能とTikTok風縦型動画を導入
- Zoom、リアルなAIアバターとAIコンパニオン3.0を発表 クロスプラットフォーム対応拡大
- マイクロソフト、AIスタートアップ向けのAzureクレジットプログラムを終了
- Xbox Cloud Gaming、Game Pass CoreおよびStandardサブスクリプションでも利用可能に
- Bundlerの主要メンテナー、Ruby Centralとの紛争中にプロジェクトの商標を登録
- macOS Tahoeが示すIntel Mac時代の終焉、サポートは4モデルに限定