子供やティーンエイジャーである何百万人ものユーザーを持つオンラインゲームプラットフォームであるRobloxは、インドで義務的な年齢確認を正式に開始しました。現在、この国のプレイヤーは、プラットフォーム上のチャット機能を使用したい場合、年齢チェックのステップを完了する必要があります。
Robloxの発表によると、インドの大規模なオンラインゲームプラットフォームが、コミュニケーション機能にアクセスするために、あらゆる年齢のユーザーに年齢確認を要求するのは今回が初めてです。
この動きは、特にオンラインプラットフォームが若いユーザーを保護するプレッシャーにますますさらされている状況において、子供たちの安全を強化するための強力なステップと見なされています。
インドに先立ち、ロブロックスは昨年11月からオーストラリア、ニュージーランド、オランダで段階的な年齢確認を開始しました。
同社によると、現在までにこれらの市場で毎日活動しているユーザーの50%以上が検証プロセスを完了しており、コミュニティの比較的高い受け入れ度を示しています。
年齢を確認した後、Robloxプレイヤーは、9歳未満、9〜12歳、13〜15歳、16〜17歳、18〜20歳、21歳以上の6つの年齢グループのいずれかに分類されます。
デフォルトでは、各グループのユーザーは、より大きくても小さくても、隣接する年齢層と対話できます。たとえば、9歳から12歳のグループは、9歳未満のプレイヤーと、13歳から15歳のグループと対話できます。
特筆すべきは、Robloxがリスクを軽減するために9歳未満のプレイヤー向けのチャット機能をオフにしたことです。ただし、保護者は年齢確認が完了した後、この機能を再オンにすることを許可する可能性があり、プラットフォームの安全性とユーザーエクスペリエンスのバランスを取る努力を示しています。
USAトゥデイによると、Robloxはユーザーの年齢を推定するために顔認証技術を使用しています。同社は、このシステムは5歳から25歳までのユーザーに対して約2年間の誤差で年齢を予測でき、幼い年齢層でより高い精度を提供すると主張しています。
アルゴリズムは、成長過程における生理学的変化に基づいて構築されており、若者は成人よりも変化速度が速いです。
年齢確認の強化は、Robloxが安全に関する批判に絶えず直面している状況下で行われています。昨年8月、このプラットフォームは、会話中のセクハラ言語を早期に検出することを目的としたオープンソースAIシステムを発表しました。
この動きは、アイオワ州(米国)での訴訟の後に現れ、13歳の少女がRobloxで性的虐待者に襲われたとして告発され、深刻な結果につながった。
インドでの必須の年齢確認要件により、Robloxはリスク管理とオンライン環境における子供の安全に関するますます厳しくなる要求への対応において、より強力な取り組みを見せています。