AI人工知能によって作成されるテキストがますます洗練されている状況において、多くの読者は、あるコンテンツが「AIの匂いがする」ものの、特定する方法がわからないという曖昧な感覚を抱いています。
AIの痕跡を露呈させるとされていた兆候、例えば特定の言葉を繰り返すことや「-」の使用は、生成モデルがますます洗練されるにつれて、もはや効果的ではありません。
しかし、毎日何百万もの編集を処理しているウィキペディアコミュニティは、AIが作成したテキストを最も正確に認識できるグループになりました。
2023年から、ウィキペディアの編集者は、プラットフォームに流入するAIの記事の量に対処するために、「AIクリーンアッププロジェクト」を実施しました。
処理プロセス中に、彼らは「AIテキストの兆候」という詳細なガイドラインを構築しました。これは、彼らの編集経験に基づいて、数千の実際の例をまとめ、言語を分析します。
資料によると、現在の自動検出ツールはほとんど効果がありません。代わりに、最も明確な兆候は表現スタイルにあります。
AIによって作成された記事は、しばしば「重要な瞬間」や「より広範な運動の一部」のような一般的なフレーズで、テーマの重要性を強調するために時間を費やしすぎます。
これらの説明は、情報、ソース、および中立性に焦点を当てた標準的なウィキペディアの記事にはめったに現れません。
もう1つの兆候は、AIが通常、「継続的な関連性を反映する」や「抽象的なアイデアの重要な役割を強調する」など、文末に一般的な肯定的な記号を追加することです。
それらは、テキストが特定のデータを提供する代わりに、何かを証明しようとしているような感覚を与えます。文法に精通した人は、この構造をAIが過剰に使用している「現在」と呼びます。
AIモデルは、すべての風景が「絵のように美しい」、すべての建物が「現代的で清潔」であるため、マーケティングカラーの言語を使用する傾向があり、記事は百科事典のドキュメントよりも広告に似ています。
ウィキペディアのガイドラインは、これらの習慣は、モデルの訓練データ構造を反映しているため、消えにくいことを示しています。
一般の人々が認識の兆候、AIテキストの区別を明確に理解すると、インターネット上の情報を受け入れ、評価する方法に大きな変化をもたらす可能性があります。