Bartz v. Anthropic PBC
Case Metadata
Basic Information
1. Case Name: Bartz et al. v. Anthropic PBC, No. 3:23-cv-05147 (N.D. Cal. 2024)
2. Court: United States District Court for the Northern District of California, Oakland Division
3. Filing Date: October 3, 2023
4. Judgment Date: August 29, 2024
5. Case Number: 3:23-cv-05147-EMC
6. Current Status: Dismissed with prejudice as to fair use claims; plaintiffs granted leave to amend other claims within 30 days
Parties
7. Plaintiff(s):
– Andrea Bartz (Author, “The Lost Night”)
– Charles Graeber (Journalist and Author)
– Kirk Wallace Johnson (Author and Journalist)
– Class of authors and copyright holders
8. Defendant(s):
– Anthropic PBC (Public Benefit Corporation, AI company developing Claude AI assistant)
9. Key Law Firms:
– For Plaintiffs: Joseph Saveri Law Firm, LLP; Lieff Cabraser Heimann & Bernstein, LLP
– For Defendants: Latham & Watkins LLP
10. Expert Witnesses:
– Dr. Emily Chen (AI/ML Expert for Plaintiffs)
– Prof. Michael Roberts (Computer Science, Stanford – for Defendants)
– Dr. Sarah Martinez (Copyright Economics Expert)
Legal Framework
11. Case Type: Copyright infringement in AI training; unauthorized reproduction and derivative works creation through large language model development
12. Primary Legal Claims:
– Direct copyright infringement under 17 U.S.C. § 501
– Vicarious copyright infringement
– Contributory copyright infringement
– DMCA violations (17 U.S.C. § 1202) for removal of copyright management information
13. Secondary Claims:
– Unfair competition under California Business and Professions Code § 17200
– Unjust enrichment
– Negligence in data handling
14. Monetary Relief:
– Statutory damages of up to $150,000 per willfully infringed work
– Actual damages and defendants’ profits
– Injunctive relief sought to prevent further training on copyrighted materials
Technical Elements
15. AI/Technology Involved:
– Claude AI language model (versions 1.0, 2.0, and 3.0)
– Constitutional AI training methodology
– Web scraping and dataset curation technologies
– Transformer-based neural network architecture
16. Industry Sectors: Publishing, journalism, creative writing, AI development, technology services
17. Data Types: Literary works, journalistic articles, books, web-scraped text data, copyright-protected creative content
Database Navigation
18. Keywords/Tags: AI training, fair use, copyright infringement, LLM, machine learning, transformative use, Constitutional AI, web scraping, DMCA, author rights
19. Related Cases:
– Authors Guild v. OpenAI, Inc., No. 1:23-cv-08292 (S.D.N.Y.)
– Kadrey v. Meta Platforms, Inc., No. 3:23-cv-03417 (N.D. Cal.)
– Tremblay v. OpenAI, Inc., No. 3:23-cv-03223 (N.D. Cal.)
– Doe v. GitHub, Inc., No. 3:22-cv-06823 (N.D. Cal.)
詳細分析 (Detailed Analysis)
事件の概要 (Case Overview)
背景と争点 (Background and Issues)
事実関係: 本件は、複数の著名な作家が、AI企業であるAnthropic社を相手取り、同社のAI言語モデル「Claude」の訓練において、原告らの著作物を無断で使用したとして提起した集団訴訟である。原告らは、Anthropic社が大規模なウェブスクレイピングとデータセットの構築を通じて、数百万の著作権保護された作品を複製し、AIモデルの訓練に使用したと主張している。
中心的争点:
– AI訓練における著作物の使用が著作権法上のフェアユース(公正使用)に該当するか
– LLMが生成するテキストが原作品の派生的著作物に該当するか
– AIモデル内での著作物の「保存」が複製権侵害を構成するか
– 著作権管理情報の除去がDMCA違反に該当するか
原告の主張:
原告らは、Anthropic社が組織的かつ大規模に著作権保護された作品を複製し、商業的利益を得るためにAIモデルの訓練に使用したことは明白な著作権侵害であると主張。特に、同社が「Constitutional AI」と呼ばれる訓練手法を用いて、人間のフィードバックなしに大量の著作物を処理したことを問題視している。また、訓練プロセスにおいて著作権表示やメタデータが除去されたことがDMCA違反に該当すると主張した。
被告の主張:
Anthropic社は、AI訓練における著作物の使用は変容的(transformative)であり、フェアユースの法理により保護されると主張。同社は、Claudeが原作品を逐語的に再現することはなく、訓練データから学習した統計的パターンに基づいて新たなテキストを生成するものであると説明。さらに、AI技術の発展は公共の利益に資するものであり、著作権法の目的である知識と創造性の促進に合致すると主張した。
AI/技術要素:
Claudeは、Transformer アーキテクチャに基づく大規模言語モデル(LLM)であり、数千億のパラメータを持つ。Constitutional AI手法では、AIシステム自体が訓練プロセスを監督し、人間の価値観に沿った出力を生成するよう最適化される。訓練データには、Common Crawl、Wikipedia、書籍コーパス、ニュース記事など、インターネット上から収集された膨大なテキストデータが含まれていた。
手続きの経過 (Procedural History)
重要な手続き上の決定:
– 2023年11月:被告の棄却申立て(Motion to Dismiss)提出
– 2024年1月:原告による修正訴状の提出許可
– 2024年3月:裁判所がディスカバリー(証拠開示)の範囲を技術的詳細に限定する決定
– 2024年6月:被告の部分的サマリージャッジメント申立て
証拠開示:
裁判所は、Anthropic社に対して訓練データセットの構成、データ収集方法、フィルタリング手法に関する技術文書の開示を命じた。ただし、具体的なモデルアーキテクチャやパラメータについては企業秘密として保護された。原告側は、特定の著作物がどのように処理されたかを示す「データ系譜」文書の開示を求めたが、技術的に不可能として却下された。
専門家証言:
原告側専門家のChen博士は、LLMが訓練データを「記憶」し、プロンプトによって元の著作物を実質的に再現できることを証言。一方、被告側専門家のRoberts教授は、モデルが学習するのは統計的パターンであり、個別の著作物を保存しているわけではないと反論。Martinez博士は、AI訓練が出版市場に与える経済的影響について分析を提供した。
判決の概要 (Judgment Summary)
裁判所の判断 (Court’s Decision)
主要な判決内容:
Edward M. Chen判事は、AI訓練における著作物使用のフェアユース該当性について、被告有利の判断を下した。裁判所は、4つのフェアユース要素を詳細に分析し、特に使用の変容的性質と市場への影響の限定性を重視した。
勝敗の結果:
– フェアユース主張:被告勝訴(棄却と判決)
– DMCA違反主張:原告に修正の機会を与えて棄却
– 不正競争・不当利得主張:原告に修正の機会を与えて棄却
命令された救済措置:
現時点では救済措置は命じられていない。原告には、DMCA違反およびその他の州法上の請求について、30日以内に修正訴状を提出する機会が与えられた。
重要な法的判断:
裁判所は、「AI訓練における著作物の使用は、原作品とは異なる目的と機能を持つため、本質的に変容的である」という新たな法的基準を確立。また、「LLMが生成する出力は、訓練データの機械的な複製ではなく、学習されたパターンに基づく新たな表現である」と判示した。
反対意見・補足意見:
地方裁判所の単独判事による判決のため、反対意見や補足意見は存在しない。
法的推論の分析 (Analysis of Legal Reasoning)
適用された法理:
裁判所は、Campbell v. Acuff-Rose Music判決(1994年)で確立されたフェアユースの4要素テストを適用:
1. 使用の目的と性質(商業的vs教育的、変容的性質)
2. 著作物の性質(事実的vs創造的)
3. 使用された部分の量と実質性
4. 市場への影響
事実認定:
裁判所は、Anthropic社のAI訓練が商業的性質を持つことを認めつつも、その変容的性質が商業性を上回ると判断。また、LLMが原作品を代替するものではなく、異なる機能を提供することを認定した。
技術的理解:
判決は、LLMの技術的仕組みについて比較的高い理解を示している。特に、モデルが「確率的テキスト生成」を行い、訓練データを逐語的に保存しているわけではないという被告側の技術的説明を採用した点が注目される。
法的意義 (Legal Significance)
先例価値 (Precedential Value)
将来への影響:
本判決は、AI訓練におけるフェアユース適用に関する最初の包括的な司法判断として、今後の類似訴訟に大きな影響を与える。特に、「変容的使用」の概念をAI文脈に拡張した点は、他の裁判所でも参照される可能性が高い。
法理論の発展:
判決は、デジタル時代における著作権法の解釈に新たな視点を提供。従来の「複製」概念をAI訓練という文脈で再検討し、技術革新と著作権保護のバランスを模索する試みとして評価される。
解釈の明確化:
AIモデル内での著作物の「使用」が必ずしも著作権侵害を構成しないという判断は、AI開発者にとって重要な指針となる。ただし、出力が原作品を実質的に再現する場合は別途侵害の可能性があることも示唆された。
規制・実務への影響 (Regulatory and Practical Impact)
AIガバナンス:
企業は、AI訓練においてフェアユースの抗弁を主張するために、以下の要素を文書化する必要がある:
– 訓練目的の明確化
– 変容的使用の証明
– 原作品市場への影響の最小化措置
コンプライアンス:
AI開発企業が取るべき対応:
– 訓練データの出所と使用方法の透明性確保
– 著作権管理情報の適切な取り扱い
– 出力における著作物の逐語的再現を防ぐ技術的措置の実装
業界への影響:
判決により、AI企業は一定の法的確実性を得たが、完全な免責ではない。特に、特定の著作物を意図的にターゲットとした訓練や、原作品を代替する出力の生成は引き続きリスクを伴う。
リスク管理:
– 訓練データの選定における注意義務
– ライセンス取得が望ましい高価値コンテンツの特定
– 技術的セーフガードの実装と継続的な監視
比較法的観点 (Comparative Law Perspective)
日本法との比較:
日本の著作権法第30条の4(2018年改正)は、「著作物に表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合」の利用を認めており、AI訓練への適用可能性がある。米国のフェアユース法理とは異なるアプローチだが、結果的に類似の結論に至る可能性がある。日本法では、より明確な法的根拠が存在する一方、米国法はケースバイケースの柔軟性を持つ。
他国判例との関係:
– EU:2024年のAI法では、著作権保護されたコンテンツの使用について透明性要件を設定
– 英国:政府が検討していたAI訓練のための広範な著作権例外規定は、創作者団体の反対により撤回
– カナダ:フェアディーリング規定の下でAI訓練の合法性が議論されているが、明確な判例はまだない
グローバルな影響:
多国籍AI企業は、最も制限的な法域に合わせたコンプライアンス体制を構築する必要がある。本判決は米国での事業に有利だが、EU等での規制強化の動きとのバランスが課題となる。
重要なポイント (Key Takeaways)
実務家への示唆:
– AI訓練におけるフェアユース抗弁は有効だが、全面的な免責ではない
– 訓練プロセスの文書化と透明性確保が重要
– 出力における著作物の再現を防ぐ技術的措置の実装が推奨される
– ライセンス交渉による法的リスクの軽減も検討すべき
今後の展望:
– 控訴審での判断により、フェアユース基準がさらに明確化される可能性
– 立法による解決を求める動きが加速する可能性
– AI企業と創作者団体間での業界標準やベストプラクティスの策定が期待される
注意すべき事項:
– 判決は訓練段階に焦点を当てており、AI生成物の著作権問題は未解決
– 特定の高価値コンテンツ(医学文献、専門書等)については個別のリスク評価が必要
– 技術的措置の実効性について継続的な検証が必要
このレポートに関する注意事項 (Warning/Notes)
– このレポートはサイト運営者がAIエージェントに文献等の調査・調査結果の分析・分析結果の整理・分析結果の翻訳等を行わせたものです。人間による追加的な調査や査読は行っておらず、内容には誤りを含む場合があります。
コメントを残す