Character.AI、児童保護のため18歳未満のチャットボット利用を禁止へ
Character.AIは児童保護の観点から、来月末より18歳未満のユーザーによるチャットボット利用を禁止することを発表した。
最新の更新
ニューヨーク・タイムズの報道によると、Character.AIは児童保護の懸念に対応するため、18歳未満のユーザーによるチャットボット利用を禁止すると発表した。この新ルールは11月25日から施行される。
Character.AIは、施行に先立ち、次の1か月で未成年ユーザーを特定し、アプリの使用時間に制限を設けると説明した。施行後、これらのユーザーは同社のチャットボットと会話することができなくなる。
Character.AIのCEOであるKarandeep Anand氏は、「ティーンユーザーに対して、チャットボットは娯楽の手段ではないと明確に示す大胆な措置を取る。彼らにサービスを提供するより良い方法がある」と述べた。また、同社はAI安全ラボの設立も計画している。
好きかもしれない
- Apple、開発者向けにApp Store審査プロセスを強化
- ザッカーバーグ、MetaのフィードにさらにAI生成コンテンツを追加すると表明
- Apple、CarPlay Ultraの開発を継続、クルーズコントロール機能を追加
- Paxos、PayPalステーブルコインで誤って300兆ドルを発行も即座に修正
- iOS 26、AI駆動のカスタムメッセージ背景と『Mixmoji』を搭載予定
- Spotify、Apple MusicのAutoMixに対抗するプレイリストミックス機能を公開
- Apple、「iOS 26」と「iPadOS 26」を公開 革新的な「Liquid Glassデザイン」を採用
- Zenline AI、ヨーロッパ小売業者支援のため160万ドルのプレシード資金を獲得