Anthropic、ユーザーチャットデータでAIモデルをトレーニング開始、ユーザーの選択によるオプトアウトが必要
Anthropicは、ユーザーがオプトアウトしない限り、ユーザーチャットデータを使用してAIモデルをトレーニングすることを発表。データの保存期間は最大5年間。
最新の更新
Anthropicは、ユーザーチャットデータを使用してAIモデルをトレーニングすることを発表しました。新しいチャットのトランスクリプトやコーディングセッションを含むデータは、ユーザーがオプトアウトしない限り、AIモデルの学習に利用されることになります。さらに、同社はデータ保存期間を最大5年間に延長する方針も示しており、これもユーザーがオプトアウトしない限り適用されます。すべてのユーザーは9月28日までにオプトアウトするかどうかを選択する必要があり、オプトアウトしない場合、同社は即座にユーザーデータをAIモデルのトレーニングに使用し、5年間保存することになります。Anthropicはこの新しい方針を木曜日に公開したブログポストで発表しました。
好きかもしれない
- NASA、2030年までに月面に原子炉設置を目指す
- NASAのデータが示す火星内部の不規則な構造、古代の衝突の痕跡を示唆
- Google、失われた文字を復元するAIツールを開発、古代ローマの碑文に対応
- OpenAI、チャットGPT安全性向上のための「ウェルネス」評議会を設立 自殺防止専門家は不在
- Uber、文字サイズを大きくし、シンプルなインターフェースを備えた高齢者向けアカウントを提供開始
- NASAとNOAA、太陽の影響を研究する3基の衛星を打ち上げ
- EU、英国に続きオンライン年齢認証アプリのテストを実施
- Windows Helloの顔認証、暗闇では利用不可に–マイクロソフトはセキュリティ強化と説明