コーネル大学 (米国) の新しい研究によると、ChatGPT のような人工知能 (AI) モデルは、インターネット上のジャンク コンテンツに定期的にさらされると、「脳の変性」が起こり、推論、思考、理解の能力が低下する可能性があります。
研究チームは「LLMは脳障害の可能性がある」というタイトルの科学論文で、「ウェブ上のスパムテキストは大規模言語モデル(LLM)の長期的な認知機能低下を引き起こす」と警告した。
LLM は ChatGPT、Gemini、Claude、Copilot などの有名なチャットボットの基盤であるため、これは憂慮すべき発見です。
科学者らは、ソーシャルネットワークXから収集したデータを使ってLlama 3やQwen 2.5などのモデルを訓練したと述べた。データには、短いクリックベイト、バイラル投稿、多くの虚偽の主張が含まれていた。
その結果、ジャンクコンテンツを与えられたモデルでは思考テストの精度が74.9%から57.2%に明らかに低下したことがわかりました。
特に、文脈を理解して情報を結び付ける能力も84.4%から52.3%に大幅に低下した。言い換えれば、これらの AI は、あまりにも多くの混合データを処理しなければならなくなると、世界を誤解し始め、真実を繰り返したり歪めたりするのです。
それだけでなく、このモデルには、研究チームが思考スキップと呼ぶ現象も見られます。これは、推論の連鎖の一部のステップをスキップすることを意味し、表面的な、または誤解を招くような反応につながることを意味します。
さらに深刻なことに、これらの AI は、人間のパーソナリティ障害の症状と同様に、ナルシスト傾向 (自己拡大) や反社会的傾向などの特性も発達させます。
より高品質のデータで再トレーニングして調整すると、モデルの推論能力は向上しましたが、元のレベルには戻りませんでした。
研究者らは、AI における「脳変性疾患」を防ぐための 3 つの制御ステップを提案しています。
1. LLM の認知能力を定期的に評価します。
2. 事前トレーニングプロセス中にデータ品質を厳密に管理します。
3. バイラルで誤解を招くコンテンツが機械学習モデルの動作をどのように変える可能性があるかをさらに研究します。
世界が情報の検索、コンテンツの作成、意思決定において AI への依存を強めている状況において、この発見は、人々が自ら作成したデータ環境をクリーンアップしなければ、たとえ人工知能であってもサイバースパムの影響を受けないわけではないという警鐘となります。