Wikipediaのコミュニティポリシーは現在、人工知能(AI)によって作成されたテキストの使用を禁止しており、例外は2つしかありません。この見解は、AIが偏ったまたは不正確な情報を生成する可能性についての懸念から生じています。
以前の大規模言語モデル(LLM)の使用に関する包括的なガイドラインの提案は、AIを調整する際の洗練さと複雑さのために失敗しました。Wikipedia Chaotic Enbyの管理者によると、単一のコミュニティガイドラインでは、LLMに関連するすべての問題を完全に解決することはできません。
現在、AIはWikipediaで文法をテストし、下書きを翻訳するために使用することが許可されています。ただし、編集者はAIツールを使用して翻訳する場合、正確性と両言語の堪能さを確保するために最終的なコンテンツを確認する必要があります。このポリシーは、Wikipediaの英語版に具体的に適用されます。
なぜAIによって作成されたコンテンツの管理が重要なのでしょうか?
AIによって生成されたコンテンツは、技術が発展し続けるにつれて、より広範な懸念を引き起こしています。ChatGPTのような言語ベースの機械学習(LLM)システムは大きな進歩を遂げていますが、さまざまな文脈で一貫性と信頼性のある結果を作成することは依然として困難です。ウィキペディアは、人間の編集者が高い基準を維持するために行う慎重な検証プロセスを高く評価しています。
さらに、デジタル技術への依存度が高まるにつれて、誤った情報に対する保護対策がますます重要になっています。これは、AIがさまざまな分野に浸透し、セキュリティと乱用の可能性に関する疑問を引き起こしているときに特に当てはまります。
AIと電力網の関係は、別の複雑な問題です。AIはクリーンエネルギーシステムを最適化し、効率を向上させることができますが、エネルギーと水の消費量を増やし、周辺地域の住民の電気と水道料金を上昇させるなど、リスクも潜んでいます。
AIによって生成されたコンテンツを管理するためにどのような対策が講じられていますか?
WikipediaがAIによって作成されたコンテンツを禁止することは、産業を規制する上で正しい方向への一歩です。なぜなら、AIを「人間の仕事を完全に置き換える」のではなく、「有用で時間を節約するツール」の立場に保つからです。
ますます多くの人々が人工知能の乱用に関連する深刻な結果を認識するにつれて、立法府は世論と高まる懸念に注意を払う必要があります。