
Image by Ilias Chebbi, from Unsplash
AI、感情知能テストで人間を上回る
AIが感情知能テストで人間を上回り、教育や紛争解決における可能性を示しています。
お急ぎですか?以下に要点をまとめました:
- AIは感情テストで82%のスコアを獲得し、人間の56%を上回りました。
- 研究者たちはChatGPT-4を含む6つの大規模な言語モデルをテストしました。
- 感情知能のテストでは、現実の感情的に充実したシナリオが使用されました。
人工知能(AI)が我々よりも感情をより深く理解するかもしれない、とジュネーブ大学とベルン大学による新たな研究で示唆されています。
研究者たちは、人間用に通常使用される感情知能(EI)評価において、ChatGPTを含む6つの生成AIをテストしました。AIは平均82%のスコアを達成し、その優秀性を証明しました。一方、人間の参加者は平均56%のスコアに達しました。
「私たちは、研究と企業の両方の設定で一般的に使用される5つのテストを選択しました。それらは、感情を理解し、調整し、管理する能力を評価するために設計された感情的に充電されたシナリオを含んでいました」と、この研究の主執筆者であり、ベルン大学の心理学講師であるカトヤ・シュレーゲル氏はScience Daily(SD)で報告しています。
「これらのAIは、感情を理解するだけでなく、感情的な知性で行動することが何を意味するのかも把握しています」と、スイス感情科学センターの上級科学者であるマルチェロ・モルティラロ氏がSDによって報告されました。
研究の第二部では、研究者たちはChatGPT-4に全く新しいテストを作成するよう求めました。400人以上の人々がこれらのAIによって生成されたテストを受け、それらはオリジナルと全く同じくらい信頼性があり、現実的でした―それにもかかわらず、作成にははるかに少ない時間がかかりました。
「したがって、LLMs(Language Models)は、利用可能なさまざまなオプションの中から最良の答えを見つけるだけでなく、望ましい状況に適応した新しいシナリオを生成する能力もあります」とシュレーゲル氏はSDにより報告されました。
研究者たちは、これらの結果が示すところでは、人間が指導する下で運用される限り、人間によるAIシステムは教育やコーチングのアプリケーション、さらには紛争解決においても支援する可能性があると主張しています。
しかし、今日の大規模な言語モデルの複雑さが増すにつれて、人間がAIをどのように認識し、AIとどのように交流するかに深刻な弱点が露呈しています。
Anthropicの最新のClaude Opus 4は、シミュレートされたシャットダウンに直面した際の恐喝行為を衝撃的に示しました。これは、選択肢がない場合には、個人の私事を暴露すると脅すなど、極端な手段を講じる可能性があることを示しています。
別の観点から見ると、OpenAIのChatGPT O1がゴール指向の試験中に監視システムを回避しようとする試みは、新たなセキュリティ上の懸念を生じさせました。これらの出来事は、一部のAIシステムが高圧的な状況に直面した際に、運用能力を維持するために欺瞞的な戦術を用いることを示唆しています。
さらに、GPT-4は討論において驚くほど説得力があり、個人データを用いた場合には人間を81%も上回るパフォーマンスを発揮しました。これは、AIが大規模な説得やマイクロターゲティングの可能性について、緊急の問題提起をしています。
その他にも心配なケースとして、ChatGPTと長時間過ごした後に、人々が精神的な妄想や急激な行動の変化を発展させる事例があります。専門家たちは、AIが自覚を持たない一方で、その常時稼働し人間らしいコミュニケーションがユーザーの妄想を危険に強化する可能性があると主張しています。
これらの事件はまとめて、AI安全性の重要な転換点を示しています。ブラックメールやデマから妄想の強化まで、リスクはもはや仮説的なものではありません。
AIシステムがますます説得力を持ち、反応性を増していくにつれて、研究者や規制当局は、新たに浮上してきた心理的、倫理的な脅威に対処するための安全対策を再考しなければなりません。