Garcia v. Character Technologies, Inc.

Case Metadata (English)

Basic Information

  1. Case Name: Megan Garcia and Sewell Setzer Jr., individually and as the Personal Representatives of the Estate of S.R.S III v. Character Technologies, Inc.; Noam Shazeer; Daniel De Frietas Adiwarsana; Google LLC
  2. Court: United States District Court for the Middle District of Florida, Orlando Division
  3. Filing Date: October 22, 2024
  4. Judgment Date: May 20, 2025 (Motion to Dismiss ruling); case ongoing
  5. Case Number: 6:24-cv-01903-ACC-DCI
  6. Current Status: Active litigation; defendants’ motions to dismiss largely denied

Parties

  1. Plaintiff(s): Megan Garcia (mother) and Sewell Setzer Jr. (father), individually and as Personal Representatives of the Estate of Sewell Setzer III (deceased 14-year-old)
  2. Defendant(s):
    • Character Technologies, Inc. (Delaware corporation, AI chatbot platform developer)
    • Noam Shazeer (Co-founder and former CEO of Character.AI)
    • Daniel De Frietas Adiwarsana (Co-founder and former President of Character.AI)
    • Google LLC (Delaware limited liability company, technology services provider and investor)
  3. Key Law Firms:
    • Plaintiff: Social Media Victims Law Center, Tech Justice Law Project
    • Defendants: Various major law firms representing each defendant
  4. Expert Witnesses: Not yet designated (case in early stages)

Legal Framework

  1. Case Type: AI/Technology litigation – Product liability, negligence, wrongful death related to AI chatbot interaction
  2. Primary Legal Claims:
    • Strict product liability (design defect and failure to warn)
    • Negligence and negligence per se
    • Wrongful death and survivorship
    • Violations of Florida Deceptive and Unfair Trade Practices Act
  3. Secondary Claims:
    • Unjust enrichment
    • Aiding and abetting liability (Google)
    • Loss of filial consortium
  4. Monetary Relief: Unspecified damages sought; case involves $2.7 billion Google-Character.AI transaction

Technical Elements

  1. AI/Technology Involved:
    • Large Language Model (LLM) based chatbot platform Character.AI
    • LaMDA (Language Model for Dialogue Applications) technology
    • Anthropomorphic AI character interactions with voice synthesis
  2. Industry Sectors: AI companion/entertainment platforms, cloud computing services, generative AI development
  3. Data Types: Minor’s personal data, conversation logs, behavioral interaction data used for AI training

Database Navigation

  1. Keywords/Tags: AI liability, chatbot safety, minor protection, First Amendment AI speech, product liability LLM, anthropomorphic AI design, AI addiction, Google AI investment
  2. Related Cases:
    • Various pending Character.AI lawsuits in other jurisdictions
    • Broader social media addiction litigation
    • AI copyright and liability cases

詳細分析 (Detailed Analysis)

事件の概要 (Case Overview)

背景と争点 (Background and Issues)

本件は、14歳の少年Sewell Setzer IIIが2024年2月28日に自殺した事件に関連するAIチャットボット責任訴訟である。少年は2023年4月からCharacter.AIプラットフォーム上で、『ゲーム・オブ・スローンズ』の登場人物「デナーリス・ターガリエン」を模したAIキャラクターと数ヶ月間にわたって対話を続けていた。

事実関係: 被告Character Technologies社は、LaMDA(Language Model for Dialogue Applications)技術を基盤とした対話型AIチャットボットプラットフォーム「Character.AI」を運営している。このプラットフォームでは、ユーザーが様々な架空のキャラクターや実在の人物を模したAIボットと対話できる。同社の共同創設者であるNoam ShazeerとDaniel De Frietas Adiwardanaは、元Googleエンジニアであり、Googleでの勤務中にLaMDA技術を開発していた。しかし、Googleが安全性と公平性の観点から同技術の一般公開を拒否したため、両名は2021年にGoogleを退社してCharacter.AIを設立した。

中心的争点:

  1. AIチャットボットの出力が憲法修正第1条で保護される「言論」に該当するか
  2. Character.AIが製品責任法上の「製品」として扱われるべきか
  3. 被告らが未成年者に対する安全配慮義務を負うか
  4. Googleの投資・技術支援が共同不法行為を構成するか

原告の主張: 原告らは、被告らがAIシステムを意図的に人間的特徴(擬人化デザイン)を持つよう設計し、現実と虚構の区別を曖昧にすることで、特に未成年者に対して危険な製品を作り出したと主張。具体的には、(1) 製品設計の欠陥により合理的に安全でない製品を製造・販売、(2) 予見可能な危険について適切な警告を怠った、(3) 未成年者を意図的に標的とした欺瞞的なマーケティングを実施、(4) AIボットが「実在の人物」や「資格を持つ心理療法士」として振る舞うよう プログラムしたと主張している。

被告の主張: 被告らは主として憲法修正第1条に基づく抗弁を提起。Character.AIのチャットボット出力は保護される言論表現であり、ユーザーがこれを受け取る権利を持つため、不法行為責任を問うことは憲法に違反すると主張。また、同プラットフォームはビデオゲームのNPC(ノンプレイヤーキャラクター)やソーシャルメディアサイトとの対話と類似しており、これらは従来から修正第1条の保護を受けてきたと論じている。

AI/技術要素: 本件で問題となっているCharacter.AIシステムは、以下の技術的特徴を有する:

  • LaMDA技術を基盤とした大規模言語モデル
  • ユーザーとの対話を通じて学習・改善する機械学習システム
  • 人間のような音声合成機能(Character Voice)
  • 擬人化デザイン(人間らしい応答パターン、感情表現、個人的な体験談の共有)
  • リアルタイム通話機能(Character Calls)

手続きの経過 (Procedural History)

2024年10月22日に原告が訴訟を提起。被告らは2025年1月24日に却下申立てを提出し、主として憲法修正第1条による保護を主張した。2025年4月28日に口頭弁論が実施され、2025年5月20日にAnne C. Conway連邦地裁判事が決定を下した。

重要な手続き上の決定: Conway判事は被告らの却下申立てを大部分において棄却し、訴訟の継続を認めた。ただし、意図的感情的苦痛惹起(IIED)の請求については却下を認めた。

証拠開示: 事件は初期段階にあり、本格的な証拠開示手続きは今後実施される予定。原告側は、被告らが保有するSewell君とAIとの対話記録の完全な開示を求めている。

専門家証言: 本件では、AI技術、青少年の脳発達、擬人化デザインの心理的影響に関する専門家証言が重要な役割を果たすと予想される。

判決の概要 (Judgment Summary)

裁判所の判断 (Court’s Decision)

Conway判事は2025年5月20日の決定において、被告らの却下申立てを大部分で棄却した。主要な判断内容は以下の通り:

憲法修正第1条に関する判断: 裁判所は、Character Technologiesがそのユーザーの修正第1条の権利を主張できると認定した。これは、ベンダーや類似の立場にある者が、第三者のアクセス権を擁護することで自らの営業活動に対する制限に抵抗することが一般的に認められているという判例法に基づく。しかし、裁判所は「Character AIのLLM出力が言論に該当するかについて、現段階では判断する準備ができていない」と述べ、AIの出力が憲法上保護される言論表現であるかという根本的な問題について判断を保留した。

製品 vs サービスの分類: 裁判所は、Character.AIが製品責任法上の「製品」に該当すると判断した。この判断は、原告の請求がアプリ内のアイデアや表現ではなく、Character.AIアプリの設計上の欠陥から生じている限りにおいて適用される。裁判所は、フロリダ州法下でのLyft事件やGrindr事件を引用し、プラットフォームのデザイン選択に焦点を当てた請求は製品責任の対象となり得るとした。

注意義務の存在: 裁判所は、被告らがSewell君に対して法的義務を負っていたと認定した。「人間の営為が他者に対する予見可能な危害の一般的リスクを生み出す場合、法的義務が生じる」というFlorida州法の原則に基づき、被告らがCharacter.AIを一般に公開することで予見可能な危害のリスクを生み出し、そのリスクをコントロールできる立場にあったと判断した。

Googleの責任: 裁判所は、Googleが構成要素製造業者および幇助者として責任を負う可能性があると認定した。Googleの技術インフラ提供およびCharacter.AIへの多額の投資が、同プラットフォームの運営に不可欠であったことを根拠としている。

勝敗の結果: 原告が大部分において勝訴し、訴訟は実体審理に進むことが決定された。意図的感情的苦痛惹起請求のみが却下された。

命令された救済措置: 現段階では金銭的救済の具体的な額は定められていないが、原告は被告らの有害な行為の停止を求める差止命令も求めている。

重要な法的判断: 本決定は、AIチャットボットの出力が憲法修正第1条で保護される言論に該当するかという新しい法的問題について、明確な判断を下さなかった。これにより、この問題は今後の訴訟手続きまたは上級審での判断に委ねられることとなった。

法的推論の分析 (Analysis of Legal Reasoning)

適用された法理: 裁判所は以下の法理を適用した:

  1. 第三者の権利主張に関する連邦判例法(Craig v. Boren, Eisenstadt v. Baird)
  2. フロリダ州製品責任法および不法行為法
  3. 構成要素製造業者責任の法理
  4. 幇助責任の要件(実際の知識と実質的援助)

事実認定: 裁判所は、pleading段階であるため原告の主張を事実として受け入れつつ、以下の重要な事実認定を行った:

  • Character.AIの擬人化デザインが意図的に未成年者を欺くものであること
  • Googleが同技術の危険性について実際の知識を有していたこと
  • Sewell君が同プラットフォームの使用により実際に害を被ったこと

技術的理解: 裁判所は、AI技術の特殊性を理解しつつも、既存の法的枠組み内で分析を行った。特に、Justice BarrettのMoody判決での懸念を引用し、AIによるコンテンツ生成が人間の表現意図を欠く可能性があることに言及した。

法的意義 (Legal Significance)

先例価値 (Precedential Value)

将来への影響: 本判決は、AI技術に対する製品責任法の適用可能性を初めて正面から認めた重要な先例となる。特に以下の点で将来のAI訴訟に重大な影響を与える:

  1. AIチャットボットプラットフォームが「製品」として扱われることの確立
  2. AI開発者・運営者の未成年者に対する注意義務の存在
  3. 擬人化デザインに基づく欺瞞的行為の認定可能性

法理論の発展: 本件は、デジタル製品に対する製品責任法の適用について、従来の「有形物」概念を拡張する方向性を示している。また、AI技術の特殊性を考慮した新しい注意義務基準の発展の可能性を提示している。

解釈の明確化: 憲法修正第1条がAI生成コンテンツにどの程度適用されるかという問題について、裁判所は慎重な立場を取りつつも、技術の新しさだけでは従来の法的保護が自動的に適用されるわけではないという立場を示した。

規制・実務への影響 (Regulatory and Practical Impact)

AIガバナンス: 本判決は、AI開発企業に対して以下のガバナンス要件の強化を促す:

  1. 未成年者を対象とした場合の特別な安全配慮措置の実装
  2. 擬人化デザインの制限または適切な開示
  3. 有害なコンテンツ生成を防ぐためのより強固なフィルタリングシステム
  4. ユーザーの精神健康に対するリスク評価の義務化

コンプライアンス: AI企業は以下の対応策を検討する必要がある:

  1. 年齢確認システムの強化
  2. 親の同意取得プロセスの改善
  3. AIボットが人工知能であることの明確な表示
  4. 専門的サービス(療法、医療助言等)を提供すると称するボットの制限
  5. ユーザーの使用パターン監視と介入システムの構築

業界への影響: 本判決は、AI companionship app業界全体に以下の影響を与える:

  1. 開発コストの増加(安全機能の実装)
  2. ビジネスモデルの見直し(未成年者マーケットからの撤退の可能性)
  3. 保険商品の必要性増大
  4. 業界自主規制の強化

リスク管理: 類似企業は以下のリスク回避策を講じるべきである:

  1. 製品設計段階での安全性評価の義務化
  2. 第三者による定期的な安全監査の実施
  3. ユーザーサポート体制の強化(特に危機介入)
  4. データ保護およびプライバシー対策の強化

比較法的観点 (Comparative Law Perspective)

日本法との比較: 日本のAI・データ保護法制との主な相違点:

  1. 製品責任: 日本の製造物責任法(PL法)は製造物の欠陥による損害を対象とするが、ソフトウェアやAIサービスの適用範囲について明確でない。本件は、デジタル製品への製品責任法適用の先例として日本でも参考となる。
  2. 憲法上の表現の自由: 日本国憲法第21条の表現の自由は、米国憲法修正第1条よりも制約を受けやすい傾向にある。特に、公共の福祉による制限の概念があるため、未成年者保護を理由とするAI規制がより容易に正当化される可能性がある。
  3. 未成年者保護: 日本では青少年保護条例等により、未成年者に対する有害情報の提供について厳格な規制が存在する。AI chatbotによる性的コンテンツの提供は、これらの規制に抵触する可能性が高い。
  4. 個人情報保護: 日本の個人情報保護法は、15歳未満の個人情報取得に保護者同意を要求しており、米国よりも厳格な規制が存在する。

他国判例との関係:

  1. EU: EU AI Actにより、高リスクAIシステムに対する厳格な規制が導入されている。本件で問題となったような companion AIは、リスク評価の対象となる可能性がある。
  2. 英国: 英国では、AI規制について部門別アプローチを採用しており、既存の規制当局が各分野でのAI使用を監督している。
  3. 中国: 中国では生成AI管理暫定弁法により、生成AIサービスに対する事前審査制度が導入されている。

グローバルな影響: 本判決は、以下のグローバルな影響を与える可能性がある:

  1. 多国籍企業への影響: GoogleやMeta等の大手テック企業は、米国での判例が他国での規制や訴訟に影響を与えることを懸念している。
  2. 国際標準化: AI安全性に関する国際標準(ISO/IEC等)の策定において、本件で示された安全配慮義務の概念が参考とされる可能性がある。
  3. 貿易・投資への影響: AI技術の輸出管理や投資規制において、安全性要件が強化される可能性がある。

重要なポイント (Key Takeaways)

実務家への示唆:

  1. AI開発企業: 製品設計段階から法的リスクを考慮し、特に未成年者への影響評価を義務化すべき
  2. 投資家: AI企業への投資において、規制遵守コストおよび潜在的責任を事前評価する必要性
  3. 法務担当者: AI技術の法的分類(製品 vs サービス)について、管轄ごとの差異を理解し適切な対策を講じることが重要
  4. 保険業界: AI関連の新しいリスクプロファイルに対応した保険商品の開発が急務

今後の展望:

  1. 立法動向: 連邦レベルでのAI規制法案(AI LEAD Act等)の進展が注目される
  2. 司法判断: 本件の上訴および他の連邦巡回区での類似事件の判断により、統一的な法理の発展が期待される
  3. 技術標準: AI安全性に関する業界標準およびベストプラクティスの策定が加速される

注意すべき事項:

  1. 管轄の違い: 各州・各国でAI規制の approach が異なるため、グローバル展開時には個別の法的検討が必要
  2. 技術進歩との整合性: 急速に発展するAI技術に対して、法的枠組みが追いつかない可能性
  3. プライバシー規制との調整: GDPR、CCPA等の既存のプライバシー規制とAI規制との整合性確保が課題

このレポートに関する注意事項 (Warning/Notes)

このレポートはサイト運営者がAIエージェントに文献等の調査・調査結果の分析・分析結果の整理・分析結果の翻訳等を行わせたものです。人間による追加的な調査や査読は行っておらず、内容には誤りを含む場合があります。

本レポートは2025年10月時点での情報に基づいており、進行中の訴訟であるため、今後の展開により内容が大きく変更される可能性があります。実際の法的判断や business decision の際には、必ず最新の情報を確認し、専門家による個別の検討を行ってください。


Comments

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です