研究が警告、AIはソーシャルメディアの極端化を助長する可能性
人工知能は、ソーシャルメディア上での極端な意見分かれを加速させる可能性があると、コンコーディア大学の研究者と学生たちは警告しています。これは、自由な発言と誤報道に対する懸念を高めています。
急いでいる方のために、ここに要点をまとめています:
- AIのアルゴリズムは、フォロワー数と最近の投稿だけを使って分裂を広げることができます。
- 強化学習型のボットは、ソーシャルメディアの脆弱性をすばやく利用するために適応します。
- 専門家たちは、プラットフォームが検閲またはチェックのない操作のリスクを冒す可能性があると警告しています。
ソーシャルメディアにおける極端化は新しい現象ではありませんが、コンコルディア大学の研究者と学生活動家たちは、人工知能がこの問題をさらに悪化させる可能性を警告しています。
「今、起こっている事象の映像やそれを報道するジャーナリストからの内容を見る代わりに、私たちが政治的に気にかけるべき事柄の、過度にドラマチックなAIアートを目にすることが多くなっています […] これは人々を遠ざけ、説明責任を無くしてしまいます」と、コンコルディア学生連盟の外部関係および動員コーディネーターであるダンナ・バラントインは述べました。これはThe Linkが報じたものです。
彼女の懸念は、コンコルディアの新たな研究と一致します。この研究では、ラストコ・R・セルミック教授と博士課程の学生モハメッド・N・ザリーアが、強化学習ボットがオンラインで分断を煽る方法を示しました。「私たちの目標は、人工知能が極端化およびソーシャルメディアネットワークにどの程度影響を及ぼすかを理解し、それをシミュレートすること […] この極端化と不一致がどのように生じるかを測定することでした」と、ザリーアはThe Linkに対し報告しています。
この調査結果は、アルゴリズムが分裂を引き起こすためにプライベートデータを必要とせず、フォロワーの数や最近の投稿のような基本的な信号だけで十分であることを示しています。「これは気になる問題です。なぜなら[…]それが単純なロボットではなくても、あなたが自分のパソコンで作成することができるアルゴリズムだからです」とZareer氏はThe Linkに説明しました。「そして、十分な計算能力があれば、より多くのネットワークに影響を及ぼすことができます」
これは、強化学習がコミュニティを分裂させるために武器化する方法を示すより広範な研究を反映しています。Concordiaによる研究は、Double-Deep Q-learningを使用し、敵対的なAIエージェントが「ネットワーク内の変化に柔軟に適応し、構造的な脆弱性を効果的に利用し、ユーザー間の分裂を増幅することが可能である」ということを実証しました。研究ではそのように述べられています。
実際、Double-Deep Q-learningは、ボットが試行錯誤を通じて最適な行動を学び取るAI技術です。この技術は、深層ニューラルネットワークを用いて複雑な問題を処理し、二つの価値見積もりを使って報酬の過大評価を避けます。ソーシャルメディアでは、最小限のデータで極化を増加させるためにコンテンツを戦略的に広めることが可能です。
Zareer氏は、政策立案者が難しいバランスを保つべきだと警告しました。「ネットワークの監視と検閲、そして制御を試みることの間には微妙な線が引かれています」と彼はThe Linkに語りました。監視が不足すれば、ボットが会話を操作する可能性がありますが、過度な監視は自由な発言を抑圧するリスクがあります。
一方、バランタインのような学生たちは、AIが体験した経験を消し去ってしまうのではないかと懸念しています。彼女はThe Linkに対して、「AIはそれを完全に無視してしまう」と語りました。