プレスリリース

中国の一部の若者は、治療のためにAIチャンピオンのDeepseekに目を向けています

月の新年の休暇の3日後、アイビー・ドゥアンはブレークポイントに達しました。

中国中部の湖南省にある故郷のチャンデに戻って、29歳のジムの先生は、親relativeから遠く離れた親relativeから、彼女の人生に対するそれほど微妙ではない批判の弾幕に直面しました。

「彼らは私が家に戻って、上海での私の人生を見下ろすことを望んでいました」とドゥアン氏は言いました。 「私は呼吸できず、非常に不安を感じました。」

彼女の両親がテレビを見たとき、彼女は自分の部屋で叫び、失敗のように感じ、何をすべきかわからなかった。ソーシャルメディアのスクロール彼女は、1月下旬の新しいモデルのリリースがAI産業を覆し、中国に新しいテクノロジーレースで最初の真のチャンピオンを提供した中国の人工知能会社Deepseekについて多くの議論を見ました。

Duan氏はDeepseekのチャットボットをダウンロードし、質問をし始め、彼女の不安やストレスを解き放ち、最終的には中立的なオブザーバーであると感じました。彼女の電話を見つめて、彼女は彼女の上に落ち着いた洗浄の波を感じました。それはまるで彼女がセラピストと話しているかのようでした。

「その共感は、実際に誰も達成できないレベルにあります」と彼女は言いました。 「その目には、私は判断されるオブジェクトではなく、存在する理由を持つ個人です。」

多くの国でメンタルヘルスサービスへのアクセスにより、AIセラピストは、少なくとも理論的には、非常に必要なギャップを埋めることができます。これは特に中国で真実であり、最近2000年代には、何らかの形の精神障害と診断された人の90%以上が治療を求めていませんでした。特に若い中国人は、経済の鈍化からの激しい圧力に直面しており、結婚や家族に関する文化的規範を変え、人口統計上の危機があり、彼らには高齢の世代を支援するために重い負担をかけています。

状況は大幅に改善されており、政府の計画により、うつ病に苦しんでいる人の少なくとも80%が2030年までにケアにアクセスできるようになりますが、多くの人はまだ必要な助けを得ることができません。

デュアン氏は過去に治療を検討していましたが、それは高すぎると感じていました。彼女がメンタルヘルスについて読んだ本は、しばしば彼女の実際の問題から切り離されていると感じました。

「Deepseekは純粋なリスナーのようなものです」と彼女は言いました。 「私の快適ゾーン内で常に応答を提供するので、あなたはそれを理解することができます。」

AI療法の最初の選択肢ではありません。 1970年代には、Elizaに基づく脚本であるDoctorが初期のAIチャットボットでした。その基本的な自然言語処理能力により、医師はユーザーに質問を跳ね返すように設計されており、彼らが彼らの問題を通して働くのを助けました。 (今日、エリザの限界は非常に明白であり、応答は治療よりもガスライトのように感じることがあります。

ChatGpt、GoogleのGemini、Anthropic’s Claudeなどの最新のAIチャットボットのリリース以来、Duan氏と同じ発見をしてきました。

上海に拠点を置くセラピストのチェン・ファザンは、近年、心理的問題の助けを求めている若者の数に急増していると述べた。チェン氏は、親の精神的健康問題の理解と認識の向上にこれを部分的に置きましたが、若い世代へのより大きな圧力もありました。

心理療法の入手可能性は「10年前と比較して大幅に改善されました」とチェン氏は、分布は全国的に平等ではなく、中国のあまり開発されていないインテリアよりも上海のような大都市ではるかに多くのセラピストが働いています。

しかし、チェン氏は、Deepseekなどのチャットボットがギャップを埋める能力について懐疑的でした。

「一部のユーザーは、心理的な問題のためにDeepSeekからタイムリーなフィードバックを得ることができます」と彼は言いました。しかし、デュアンさんが恩恵であると説明したこと – チャットボットの中立性 – は、間に合わせることが障害であることを証明することができます。

「心理療法とカウンセリングでは、セラピストと患者との関係を形成することが非常に重要です」とチェン氏は言いました。 「知識とスキルは、感情的なコミュニケーション、認識、相互作用に比べて比較的軽微です。」

チャットボットはいくつかの有用な応答を提供できるかもしれませんが、これらは与えられた入力に依存します。 「ユーザーが自分の本当の内的ニーズや深い問題を認識することは難しいかもしれません」とチェン氏は言いました。 「問題を理解できない場合は、ターゲットを絞った質問をすることはできません。」

また、チャットボットがどのようにデータを保存して使用するかについてのプライバシーの懸念もあり、AIがユーザーの精神状態を誤解したり、人間のセラピストが決してしない倫理的ラインを介して段階的に誤って読む可能性があります。

チャットボット、特に仮想ロマンチックなパートナーとして機能することを目的としたものに、激しい感情的な愛着を開発する人々にアラームが提起されています。 1人のフロリダのティーンエイジャーの両親は、現在、AIが自殺を示唆しているように見えるチャットボットとの議論に続いて、息子が自分の命を奪った後、キャラクターを訴えています。 (Character.aiは、子どもたちがどのようにその製品とやり取りできるかについて、新しい安全対策と制限を導入することを約束しました。)

軽度の双極性障害に苦しんでいる四川とプロビンス市都市の24歳の大学院生であるZhang Shiqiは、セラピストとしてのDeepseekの限界をよく知っていると言いました。彼女は、チャットボットの応答を「むしろ機械的」と説明しました。

しかし、人間のカウンセラーを見ているチャンさんは、チャットボットはまだ発散する場所として役立つ可能性があると述べました。

「特に精神疾患を理解していない友人や家族と比較して、それは素晴らしい感情的な腹心です。それはより良いリスナーです」と彼女は言いました。 「しかし、癒しや治療などのより詳細な問題については、心理学者がより適切かもしれません。」

北京のアレクサンドラ・リーからの報告があります

(これはシンジケート ニュース フィードから自動生成された未編集の記事です。TechWire24 スタッフがコンテンツ本文を変更または編集していない可能性があります)

Related Articles

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

Back to top button