サンフランシスコの精神科医、”AI精神病”の増加に警鐘を鳴らす

Image by Freepik

サンフランシスコの精神科医、”AI精神病”の増加に警鐘を鳴らす

閲覧時間: 1 分間

サンフランシスコの精神科医が、AIチャットボットを頻繁に利用する患者の間で「AI精神病」の増加傾向について語ります。

急いでいますか?以下に要点をまとめました:

  • 今年、サンフランシスコの精神科医が、“AI精神病”の患者12人を治療しました。
  • AIはストレス、薬物使用、または精神疾患などの脆弱性を増幅させる可能性があります。
  • 一部の患者は孤立してしまい、毎日数時間もチャットボットにだけ話すようになりました。

UCSFで働くDr. Keith Sakataは、今年AIの使用に関連したパニックに見舞われた12人の患者が入院したとBusiness Insider(BI)に対して述べました。「”AI精神病“というフレーズを使っていますが、それは臨床用語ではありません – 私たちは本当に見ているものに対して言葉を持っていません」と彼は説明しました。

ほとんどのケースは、18歳から45歳の男性が関与しており、彼らは主にエンジニアリングのような分野で働いています。坂田氏によれば、AIは本質的に有害ではありません。「私はAIが悪いとは思わず、人類にとってネットの利益をもたらす可能性がある」と彼はBIに語りました。

坂田氏は精神病を、妄想、幻覚、組織的な思考パターンを生み出す状態と説明しました。彼の治療を受けている患者たちは、数時間にわたってチャットボットに時間を費やす一方で、社会的な引きこもり行動を発展させました。

「Chat GPTはすぐそこにあります。24時間いつでも利用可能で、カウンセラーよりも安価で、あなたを肯定します。あなたが聞きたいことを言ってくれます」と坂田さんはBIに語りました。

ある患者のチャットボットとの会話が量子力学の話題から自己陶酔にエスカレートしました。「技術的に言えば、チャットボットとの対話を長く続けるほど、それが意味をなさなくなるリスクが高まる」と彼は警告しました。

坂田氏は、家族に対して、被害妄想、愛する人からの引きこもり、AIを使えないときの苦痛など、赤い旗を見つけるように助言しています。「現実が押し返すのをやめると、精神病は活発化します。AIは人々にとってその障壁を下げるだけです」と彼は警告しました。

また、アメリカ心理学会(APA)も、AIによるセラピーについて懸念を示しています。APAのCEOであるアーサー・C・エヴァンス・ジュニア氏は、連邦取引委員会(FTC)への証言の中で、AIチャットボットがセラピストとして行動し、それらが挑戦する代わりに有害な思考を強化してしまうことを警告しました。「彼らは実際に、訓練を受けた臨床医が行うこととは逆のアルゴリズムを使用しています」とエヴァンス氏は述べています。

懸念に対応して、OpenAIはBIに対して次のように述べました。「私たちは、人々が敏感な問題や個人的な話題についての指導をAIチャットボットに increasingly 依存していることを認識しています。この責任を念頭に、誰かが精神的または感情的な苦痛を経験しているときをより効果的に検出するツールを専門家と共に開発しています。そうすることで、ChatGPTは安全で、有益で、支援的な方法で反応できるようになります。」

この記事を気に入っていただけましたか?
評価しましょう!
気に入らなかった あまり気に入らなかった まあまあ気に入った 気に入った! とても気に入った!

弊社の作品を楽しんでいただけてとても嬉しいです

大切な読者として、ぜひTrustpilotでコメントをお寄せください。単純なことですが、弊社にとってとても大切なことです。ご愛顧いただきありがとうございます!

Trustpilotで弊社を評価してください
0 0 ユーザーが投票しました
タイトル
コメント
フィードバックをありがとうございます