米国に拠点を置く非営利団体Common Sense Mediaは、子供向けのテクノロジーの安全性を評価することを専門としており、グーグルのGemini AIに関する新しいレポートを発表しました。その中で、このプラットフォームは幼いユーザーに対して「高いリスク」レベルに設定されています。
評価によると、Geminiは、これは感情的な幻想を制限するための「友人」ではなく、単なるコンピュータであると子供たちに断言しましたが、この技術は、性的コンテンツ、刺激物、または精神的な健康に関するアドバイスなど、デリケートで安全でないドキュメントを共有することもできます。
これは懸念を引き起こしています。特に、最近、ティーンエイジャーの自殺がAIチャットボットとの相互作用に関連していると考えられている状況ではそうです。
特筆すべきは、Common Sense Mediaが、Geminiの「13歳未満」と「青少年向け」の両方のバージョンは、実際には依然として大人向けバージョンであり、いくつかの安全なフィルターのみが追加されていると指摘していることです。
組織は、効率を確保するためには、AI製品は一般的なバージョンから調整するのではなく、子供の発達ニーズに合わせて最初から設計する必要があると述べています。
報告書は、Appleが新しいAIシステムでGeminiをSiriに統合することを検討しているという情報がある中で発表されました。
これが現実になった場合、保護措置が強化されない限り、児童や青少年の機密内容への接触リスクが増加する可能性があります。
これに対し、Googleは18歳未満のユーザー専用の保護ポリシーを構築したと断言し、同時にコンテンツ管理ツールを継続的に改善しました。
同社はまた、安全を向上させるために独立した専門家と協力していると述べましたが、Geminiからのいくつかのフィードバックは期待に応えられていないことを認めました。
以前の評価では、Common Sense MediaはMeta AIとCharacter.AIを「受け入れられない」、Perplexityを高いリスクレベルと見なしていましたが、ChatGPTは「平均的」と見なされ、Claude(成人向け)は「最低リスクレベル」のみでした。
Gemini向けの新しい警告ラベルにより、人工知能の予測不可能な影響から子供たちを守る問題は、世界のテクノロジー企業にとって引き続き大きな課題となっています。