世界中のビジョナリーや起業家、ビッグシンカーがキーワードを掲げ、2024年の最重要パラダイムを網羅した恒例の総力特集「THE WORLD IN 2024」。ケンブリッジ大学社会心理学教授のサンダー・ヴァン・デル・リンデンは、来たる米大統領選挙や各国の選挙において、偽情報が民主主義を大きく毀損する恐れがあり、政府はAIの使用を厳しく制限することになるだろうと予想する。
ChatGPTがリリースされる何年も前から、わたしの研究グループであるケンブリッジ大学社会意思決定研究所は、ニューラルネットワーク(人間の脳の学習メカニズムを模倣した機械学習法)が誤情報を生成する可能性について検証してた。実際に、世間でよく知られた陰謀論の事例を使ってChatGPTの前身であるGPT-2を訓練し、フェイクニュースをつくらせてみたところ、世間の誤解を招くような、まことしやかなニュースが何千個も生成されたのだ。いくつか例を挙げると、「ある種のワクチンには危険な化学物質や毒素が含まれている」や「政府高官が不祥事を隠すために株価を操作している」といったものだ。問題は、こうした主張を信じる人が実際にいるかどうか、ということになる。
これを検証するため、わたしたちは「誤情報感受性テスト(MIST)」と名付けた心理測定ツールを作成した。そしてYouGov(インターネット上でマーケットリサーチやデータ解析を行なう英国企業)の協力の下、人工知能(AI)が生成したフェイクニュースを米国民がどの程度信じるかをテストしたのだ。
その結果、41%の米国人がワクチンのニュースを真正な情報と誤認し、また46%が政府は株式市場を操作していると考えた。また『Science』誌に掲載された最近の研究では、人間よりもGPT-3のほうが説得力のある偽情報を生成できること、さらに人がつくった誤情報とAIが生成した誤情報を人間はちゃんと区別できないことを示している。
2024年には、誰にも気づかれることなく、AIが生成した誤情報が身近な選挙で拡散されるようになるとわたしは予測している。すでに実例を目にしたことがある人もいるだろう。23年5月には、米国のペンタゴン付近で爆弾テロが発生したというフェイクストーリーが、建物から大きな黒煙が上がっている虚偽の画像とともに拡散された。この事件は世間を混乱に陥れ、株式市場が下落する騒ぎとなった。また共和党の大統領選立候補者、ロン・デサンティスは、ドナルド・トランプが免疫学者のアンソニー・ファウチ博士と抱き合っているフェイク画像を政治キャンペーンの一環として使用した。このように本物の画像とAI生成画像を混ぜることで現実と虚構の境界線を曖昧にしたり、AIを利用して政治的な攻撃を強化したりすることができるのだ。
偽情報の生成を“民主化”
生成AIが爆発的に普及する以前は、世界中のサイバープロパガンダ企業が誤解を生み出すメッセージを自ら作成し、ターゲット層のユーザーに対して大規模拡散するには、生身の人間が働くトロール工場(ネット上に誤情報を発信するための組織)を雇う必要があった。
それがいまでは、誤解を招くニュースの見出しづくりを生成AIの活用によって自動化し、人的介入を最小限に抑えながら、相手にダメージを与える武器として使えるようになったのだ。例えば、マイクロターゲティング(Facebookの「いいね!」のようなデータに基づいて細分化されたターゲット層にメッセージを送ること)の悪用は、過去の選挙でもすでに懸念されていた。しかしこの場合、ひとつの内容に対して異なるバリエーションを何百種類も生成し、特定の集団に最も有効なものはどれか検証しなければならないという欠点があった。こうしてかつては労働集約的で高価だったものが、生成AIが普及したいまでは安価で参入障壁もなく、誰でも容易に利用できるようになっている。