インド情報技術省はプレスリリースの中で、AIが生成したツールが「ユーザーに危害を与えたり、誤った情報を広めたり、選挙を操作したり、個人になりすましたりする目的で悪用される可能性が大幅に高まっている」とこの動きの根拠を説明した。
これを制限するために、インドは、YouTubeやInstagramなどのソーシャルメディアプラットフォーム上で人工知能またはAIが生成したコンテンツのラベル表示を義務付ける規制草案を提案した。ソーシャルメディアプラットフォームには、アップロードされたコンテンツが「集約された情報」であるかどうかを宣言するようユーザーに義務付けることが義務付けられる。
Meta や Google などの企業は、自社のプラットフォームにすでに何らかの形の AI ラベルを導入しており、コンテンツをアップロードする際に、そのコンテンツが AI を使用して作成されたかどうかを作成者に尋ねます。
YouTube は、AI で作成された動画に「改変または合成コンテンツ」というラベルを追加し、動画がどのように作成されたかの説明を追加し、コンテンツの出所と AI を使用して意味のある改変が行われたかどうかについての詳細を提供できます。
ただし、現時点では、これらの措置のほとんどはまだ事後対応的なものであり、クリエイターがコンテンツが AI で作成されたものであると宣言しないように、ビデオがプラットフォームに持ち込まれた後にラベルが表示されることがよくあります。
インドの修正案はこの問題をさらに一歩進めており、企業は適切な技術的措置を講じることにより、必ずしも情報を知らされずにプラットフォーム上のAIコンテンツを検証する必要がある。
遵守しない場合、ソーシャルメディアプラットフォームは規制上の制裁の対象となります。
9 億人を超えるインターネット ユーザーと多くの民族コミュニティと宗教コミュニティを抱えるインド政府が AI とディープフェイクに対する規制に積極的であることは理解できます。