デジタル時代において、人工知能(AI)によるニュースの要約は、ユーザーが毎日ニュースの海の中でより迅速に情報にアクセスするのに役立つ一般的なツールになりつつあります。
多くの大手テクノロジー企業は、AIを検索エンジンとニュースリスニングプラットフォームに統合し、元の記事への直接アクセスの代わりに、簡潔な要約を提供しています。
しかし、専門家は、このアプローチは客観性の欠如した報道状況を排除するどころか、読者と報道機関の両方にとって多くのリスクを秘めていると警告しています。
今年初め、ガーディアン紙は、検索結果をAIによって作成された要約に置き換えることは、オンラインメディアに破壊的な影響を与える可能性があることを示す研究を発表しました。
この研究によると、ユーザーが記事の出典をクリックせずにAIの要約のみを読んだ場合、ニュースサイトへのアクセス数は最大80%減少しました。
これは報道機関の収益に影響を与えるだけでなく、完全で検証された情報を提供する上での編集部の役割を弱体化させます。
さらに重要なことに、メディア専門家は、AIによって作成された要約は正確性と中立性を保証できないと考えています。
最近のNo Spin News番組でのインタビューで、米国メディア研究センターのコミュニケーション分析ディレクターであるティム・グラハム氏は、Grok、ChatGPT、Geminiであろうと、AIプラットフォームはすべて、偏見を持つ可能性のある入力データソースに依存するという共通の問題に直面していると述べました。
AIがこれらのソースを信頼できると見なす場合、偏見は要約で再現および拡大されます。
メディア偏見はもともと一般的な現象であり、個々の視点、経済的利益、または各報道機関の編集方針から生じています。
インド大衆コミュニケーション研究所のミミナル・チャッタージー教授によると、現在のAIはこれらの偏見をフィルタリングするのに十分な能力を持っていません。
「人工知能は、偏見とバランスの取れた情報を認識するための一般的な理解と社会環境を欠いています。偏見をフィルタリングするメカニズムをAIに統合するには、非常に時間がかかります」とミミナル・チャッタージー氏は述べています。
チャッタージー博士はまた、最終的な責任は依然として人間にあると強調しました。読者は知識、経験、批判的思考を使用して情報を自己評価する必要があります。
彼によると、メディアにおける偏見は、意図的な支配または職業上の誤りという2つの原因から生じる可能性があります。すべての報道機関が偏っているわけではありませんが、この可能性は常に存在します。
リスクを軽減するために、読者はAllSidesのようなメディア偏見分析ツールを使用することができます。これは、世界中の多くの報道機関の政治的トレンドと偏見の程度を評価するプラットフォームを提供します。
最近、ホワイトハウスは米国におけるメディアの偏見を監視するポータルサイトも立ち上げ、誤った報道の事例と再犯者のリストを公開しました。
専門家は、AIはニュース速報をサポートするツールである可能性があるが、記事の出所や人間の批判的思考へのアクセスを完全に置き換えることはできないと述べています。
情報がますます複雑化する状況において、独立した分析能力は、大衆がメディアの偏見に導かれるのを避けるための最も重要な「盾」であり続けています。