欧州放送連合(EBU)がBBCと協力して発表した新たな調査結果によると、主要なAIアシスタントがニュース情報を提供する際にありがちな間違いを犯しており、従来の検索エンジンに代わってAIに依存する人が増えるにつれ、社会の信頼に対する懸念が高まっている。
この国際的な研究では、ChatGPT、Copilot、Gemini、Perplexity などの著名な人工知能アシスタントからの 3,000 件の回答を 14 の異なる言語で分析しました。
専門家は、AI の応答の精度、リソース、事実と意見を区別する能力を評価します。
その結果、回答の 45% に少なくとも 1 つの重要な問題が含まれており、81% で何らかのエラーが発生したことがわかりました。
未解決の問題の 1 つは、情報ソースのエラーです。
AI の回答の約 3 分の 1 には、情報の欠落、記録ミス、誤った情報の提供などの重大なエラーが含まれていました。
Google の Gemini では、回答者の 72% が供給に問題を抱えているのに対し、他のアシスタントでは 25% 未満でした。
正確さの観点から見ると、回答の 20% には、ジェミニが使い捨て電子タバコに関する法律を誤って報告していることや、ChatGPT が教皇フランシスコの死後数か月経っても依然として現教皇と呼んでいるなど、古い情報や誤解を招く情報が含まれていました。
一方、AI企業もこの問題に対応している。 Googleは、Geminiはプラットフォームを改善するためのフィードバックを歓迎すると述べている。
OpenAI と Microsoft は、AI が不正確な情報を作成するときの錯覚現象を課題として認識し、克服しようと取り組んでいます。
Perplexity によれば、同社の「深層研究」モードの 1 つでは、現実世界で 93.9% の精度が達成されています。
この調査には、フランス、ドイツ、スペイン、ウクライナ、英国、米国を含む18カ国の22の公共メディア組織が参加した。
EBU広報部長のジャン・フィリップ・ドゥ・テンダー氏は、「人々は何を信じればよいのか分からないときは何も信用しないことになり、民主的な参加が妨げられる可能性がある」と強調した。
ロイター研究所の 2025 年デジタル ニュース レポートによると、オンライン ニュース利用者の約 7%、25 歳未満の人の 15% が現在、情報を取得するために AI アシスタントを使用しています。
この現実に直面して、この調査ではAI企業に対し、デジタル時代における国民の信頼を守り、信頼できる情報を確保するために責任を負い、ニュース関連の対応の質を向上させるよう求めている。