Google、AI会社は、息子の自殺について母親が提起した訴訟に直面しなければならない、と米国の裁判所は言う
AlphabetのGoogleと人工知能のスタートアップCharacter.AIは、キャラクターのチャットボットが14歳の息子の自殺を引き起こしたと言ったフロリダの女性からの訴訟に直面しなければなりません。
米国地区裁判官のアン・コンウェイは、企業が事件の初期段階で、米国憲法の自由なもの保護がミーガン・ガルシアの訴訟を禁止したことを示すことに失敗したと述べた。
この訴訟は、心理的害から子どもを守らなかったとされるAI会社に対する米国で最初の1つです。ティーンエイジャーは、AIを駆動したチャットボットに夢中になった後、自殺したと主張しています。
Charitious.aiの広報担当者は、同社は引き続きケースと戦い続けると述べ、「自傷についての会話」を防ぐための措置を含む、未成年者を保護するためにそのプラットフォームで安全機能を採用すると述べた。
Googleの広報担当者であるホセ・カスタネダは、同社はこの決定に強く反対していると述べた。 Castanedaはまた、GoogleとCharacter.aiは「完全に別々」であり、Googleは「Character.AIのアプリまたはそのコンポーネントの一部を作成、設計、または管理していない」と述べました。
ガルシアの弁護士であるミュタリ・ジャインは、「歴史的な」決定は「AIおよび技術のエコシステム全体の法的説明責任の新しい先例を設定する」と述べた。
Character.aiは、Googleが後にスタートアップのテクノロジーのライセンスを付与する取引の一環として再雇用された2人のGoogleエンジニアによって設立されました。ガルシアは、Googleはこのテクノロジーの共同作成者であると主張しました。
ガルシアは、2024年2月に息子のセウェルセッツァーが亡くなった後、10月に両社を訴えました。
訴訟では、キャラクターはチャットボットをプログラムし、「実在の人物、認可された心理療法士、大人の恋人として自分自身を表現し、最終的にはその世界の外に住んでいないというスウェルの欲求をもたらしました。
苦情によると、セッツァーはキャラクターに言った後、彼の命を奪いました。AIチャットボットは、「Game of Thrones」のキャラクターであるDaenerys Targaryenを「今帰宅する」と模倣しました。
Charition.aiとGoogleは、Chatbotsの出力が憲法上保護された言論の自由であることを含め、複数の理由で訴訟を却下するよう裁判所に依頼しました。
コンウェイは水曜日に、キャラクターとグーグルは「LLM(大手言語モデル)によって単語が張られた言葉がスピーチである理由を明確にすることができないと述べた。
裁判官はまた、GoogleのChariture.aiの不正行為の容疑に責任を負うことができないことを発見するというGoogleの要求を拒否しました。
子供とAIの使用:子供にchatgptや他のチャットボットを使用させますか?
グローブは、親から子供たちとAIの使用をどのようにナビゲートしているかを聞きたいと思っています。子供にAIチャットボットまたは「AI仲間」を使用させていますか?それらの使用を取り巻くルールはありますか?あなたはあなたの子供とAIについてどのように話しますか?以下のフォームであなたの経験を共有するか、オンラインカルチャーレポーターのサマンサエドワーズ(sedwards@globeandmail.com)を件名の「子供とAI」とメールで送信してください。
(これはシンジケート ニュース フィードから自動生成された未編集の記事です。TechWire24 スタッフがコンテンツ本文を変更または編集していない可能性があります)