AIが情報を食べ続けると…大変なことになる!
みなさん、ちょっと想像してみてください。
あなたが作ったおいしいカレーのレシピをAIが読み取り、少し変えて「AIのカレーレシピ」として公開します。それを別のAIが読んで、さらに変えて公開…この繰り返しが100回続いたら、最後のレシピはどうなるでしょう?
おそらく、元のあなたのカレーとはまったく違う、奇妙な味のものになっているはずです。
これと同じことが、今、インターネット上のあらゆる情報で起きつつあります。 研究者たちはこれを「モデル崩壊」と呼んでいます。
「モデル崩壊」って何?簡単に説明します
モデル崩壊を超シンプルに説明すると
「AIが作った情報を別のAIが学習し、その学習したAIがまた情報を作り、それをさらに別のAIが学習する…という繰り返しの中で、情報がどんどん劣化していく現象」
です。
なぜこれが問題なのか?それは、AIが作る情報には「間違い」や「偏り」が含まれているから。 それが繰り返されると、間違いや偏りが雪だるま式に大きくなっていくんです。
わかりやすい例「全てのネコは黄色くなる」
ある研究でこんな例が出されています。
AIに90匹の黄色いネコと10匹の青いネコの写真を学習させたとします。このAIは「ネコは主に黄色い」と学習します。
このAIが「青いネコの絵」を描こうとすると、完全な青ではなく「黄色みがかった青いネコ」を描いてしまうでしょう。
この「黄色みがかった青いネコ」の絵を次のAIが学習すると、「青いネコはちょっと黄色い」と学習します。
この過程が何度も繰り返されると…最終的には「青いネコ」という概念が消え、全てのネコが黄色く描かれるようになるのです!
AIのウソが「事実」になっていく恐怖
AIには「ハルシネーション(幻覚)」という、事実ではない情報を作り出してしまう問題があります。
例えば、あるAIが「2023年にエベレストが噴火した」という存在しない出来事について書いたとします。これがネット上に公開され、次のAIがそれを学習すると…このAIは「エベレスト噴火は事実」として扱うようになります。
最新のAIモデルでも、このような誤情報を生み出す確率は完全にゼロではありません。 OpenAIの最新モデルでも1.4%の「幻覚率」があるそうです。
小さな数字に見えますが、インターネット上の膨大な情報の1.4%が誤情報になり、それがさらに拡散されていくと…想像してみてください。恐ろしいですよね。
これはSF映画の話じゃない!既に起きている現実
この問題は、既に私たちの周りで起きています
- Googleで何かを検索すると、AIが書いた内容が薄い記事が上位に表示される
- 2024年の能登半島地震では、実在しない住所を記載した偽の救助要請がSNSで拡散された
- 学術論文の中に、AIが作った「存在しない論文」が引用されるケースが増えている
インターネットが「AIによるAIのための情報」で満たされると、私たち人間にとっての真実や事実が見えにくくなります。
AI企業はこの問題に気づいているの?
OpenAI、Google、Anthropicなどの大手AI企業はこの問題を認識しています。 彼らはAIの「幻覚」を減らす努力をしていますが、根本的な解決策はまだ見つかっていません。
なぜなら、これは単にAIの精度の問題ではなく、インターネット上の情報の生態系全体に関わる問題だからです。
根本的な問題は、AIが成長していくための情報源自体の品質の問題です。
AIモデルは学習データの質以上に良くなることはできません(“garbage in, garbage out"の原則)。
AI企業だけでは解決できないんです。
私たちにできること→情報の「免疫力」をつける
私たち一人ひとりにもできることがあります
・情報の質と信頼性を評価する習慣をつける(情報源の種類を問わず)
・質の高いオリジナルコンテンツを作成する人々を支援する
・多様な情報源に触れ、クリティカルシンキングを養う
・情報を単に消費するだけでなく、自らも質の高い情報を発信する
情報リテラシーは、これからの時代を生きる上で最も重要なスキルになるでしょう。