近年、AI(生成型言語モデル)を搭載したチャットボットの普及に伴い、私たちが日常的に利用する情報源としての役割が急速に拡大しています。
しかし、米国 NewsGuard の最新調査によれば、主要なチャットボットが提供する「ニュース」の 35% が誤情報であり、わずか1年前の 18% から激増していることが明らかになりました。
本記事では、Forbes Japan の報道をベースに、欧米の関連研究も交えながら、チャットボットの信頼性低下の背景と今後の対策について掘り下げます。
目次
調査結果:誤情報率が1年で倍増
NewsGuard の調査では、2025年8月時点で生成AIチャットボットが提供するニュース回答の約3分の1にあたる35%が誤情報を含んでいました。これは2024年の18%から大幅に悪化しています。
さらに注目すべきは、昨年は約31%の質問に対して「回答拒否」が行われていたのに対し、今年はほぼ0%になった点です。つまり、「誤情報を避けるために答えない」設計から、「できる限り答える」設計へと変化しているのです。
信頼性低下の象徴:Perplexityの例
かつて高精度で評価されていた「Perplexity」は、2024年には100%の正確性を誇っていました。しかし、2025年の調査ではその正確性が約半分に低下。これはAIモデルの進化と同時に、学習データや回答方針の変化が信頼性に影響していることを示しています。
欧米の研究が示す「AIと誤情報」
- GPT-3による誤情報生成(Spitale et al.)
GPT-3は人間が識別困難な「説得力のある誤情報」を生成することが確認されました。これはAIの出力が信頼性よりも「わかりやすさ」に寄ることを示しています。 - ソーシャルボットと誤情報拡散(Shao, Ciampaglia, Varol 他)
欧米の研究では、SNS上で自動化アカウントが低品質な記事を早期拡散することが誤情報の一因とされています。AIも同じ環境のデータを参照するため、誤情報が学習されやすい構造になっています。
AIの信頼性低下の背景
AIチャットボットが誤情報を増やしている背景には、いくつかの要因が考えられます。
- 学習データの質の低下(偽ニュース・虚偽広告の増加)
- 「答えない」より「必ず応える」ことを重視する設計変更
- AI市場での競争激化による精度より速度重視の傾向
信頼性向上への提案と対策
今後、AIチャットボットの信頼性を高めるためには以下の対策が求められます。
- 回答拒否の適切な運用(無理に答えず誤情報を避ける)
- 情報源や出典の明示
- 学習データのフィルタリングと質の向上
- ユーザー自身の情報リテラシー強化
- 欧米で進むような規制やガイドラインの整備
まとめ:AIの未来は「信頼性」が鍵
AIチャットボットは、情報収集やビジネスにおいて非常に便利なツールです。
しかし、その回答が誤情報を含むリスクは無視できません。今後は開発者、企業、そしてユーザーが協力して「信頼できるAI」を育てていくことが不可欠です。信頼性の確保は、AIの普及と社会的受容において最も重要な課題の一つとなるでしょう。