Authors Guild v. OpenAI, Inc.

Authors Guild v. OpenAI, Inc.

Case Metadata

Basic Information

1. Case Name: The Authors Guild et al. v. OpenAI, Inc. et al., No. 1:23-cv-08292 (S.D.N.Y. 2023)
2. Court: United States District Court for the Southern District of New York, Manhattan Division
3. Filing Date: September 19, 2023
4. Judgment Date: Pending (Motion to dismiss partially granted February 2024, case ongoing)
5. Case Number: 1:23-cv-08292-SHS
6. Current Status: Pending – Discovery phase following partial denial of motion to dismiss

Parties

7. Plaintiff(s): The Authors Guild (professional organization representing over 12,000 published authors), individual authors including George R.R. Martin, John Grisham, Jodi Picoult, David Baldacci, and 13 other prominent authors
8. Defendant(s): OpenAI, Inc. (artificial intelligence research company), Microsoft Corporation (technology company and major OpenAI investor)
9. Key Law Firms: For Plaintiffs: Cowan, DeBaets, Abrahams & Sheppard LLP; For Defendants: Morrison & Foerster LLP (OpenAI), Kirkland & Ellis LLP (Microsoft)
10. Expert Witnesses: To be determined during discovery phase

Legal Framework

11. Case Type: AI copyright infringement and unfair competition in large language model training
12. Primary Legal Claims: Direct copyright infringement under 17 U.S.C. § 106, vicarious copyright infringement, contributory copyright infringement
13. Secondary Claims: Unfair competition, unjust enrichment, removal of copyright management information (CMI) under DMCA § 1202(b)
14. Monetary Relief: Actual damages and profits attributable to infringement, statutory damages up to $150,000 per infringed work, injunctive relief

Technical Elements

15. AI/Technology Involved: OpenAI’s GPT models (GPT-3, GPT-3.5, GPT-4), ChatGPT consumer application, large language model training processes
16. Industry Sectors: Publishing, technology, artificial intelligence, creative industries
17. Data Types: Literary works, copyrighted books, training datasets, model outputs

Database Navigation

18. Keywords/Tags: AI copyright, LLM training, fair use defense, transformative use, generative AI, author rights, training data liability
19. Related Cases: Tremblay v. OpenAI (N.D. Cal.), Silverman v. OpenAI (N.D. Cal.), Kadrey v. Meta Platforms (N.D. Cal.), Getty Images v. Stability AI (D. Del.)

詳細分析 (Detailed Analysis)

事件の概要 (Case Overview)

背景と争点 (Background and Issues)

事実関係:
2023年9月19日、米国作家組合および17名の著名な作家が、OpenAIおよびMicrosoftを相手取り、著作権侵害訴訟を提起した。原告らは、OpenAIが大規模言語モデル(LLM)の訓練において、許可なく数百万冊の著作権保護された書籍を使用したと主張している。特に、OpenAIのGPTシリーズ(GPT-3、GPT-3.5、GPT-4)の開発において、海賊版書籍サイトから取得した可能性のある大量の文学作品が使用されたとされる。

中心的争点:
1. LLM訓練における著作物の大規模使用が著作権侵害を構成するか
2. AIモデルの訓練がフェアユースの抗弁の対象となるか
3. 生成AIの出力が元の著作物の派生物を構成するか
4. 技術プラットフォーム(Microsoft)の寄与侵害責任の範囲

原告の主張:
– OpenAIは著作権で保護された書籍を無断で複製し、モデル訓練に使用した
– ChatGPTは原告らの作品の要約や詳細な内容を生成でき、これは著作権侵害の証拠である
– OpenAIの行為は商業目的であり、フェアユースの保護を受けない
– Microsoftは共同事業者として、またはOpenAIへの多額の投資を通じて寄与侵害の責任を負う

被告の主張:
– LLM訓練は変革的使用(transformative use)でありフェアユースに該当する
– AIモデルは元の作品を保存しているわけではなく、統計的パターンを学習している
– 生成される出力は新しい表現であり、元の作品の複製ではない
– 技術の進歩と革新は社会的利益をもたらし、著作権法の目的に合致する

AI/技術要素:
GPTモデルは、トランスフォーマー・アーキテクチャに基づく大規模言語モデルで、数千億のパラメータを持つ。訓練プロセスでは、インターネット上のテキストデータ、書籍、記事などの膨大なコーパスを使用。モデルは次の単語を予測する能力を学習し、人間のような文章を生成する能力を獲得する。

手続きの経過 (Procedural History)

重要な手続き上の決定:
2024年2月、連邦地方裁判所は被告の却下申立てを部分的に認めた。裁判所は以下の判断を示した:
– 直接侵害の主張は訴訟を継続するのに十分である
– ただし、ChatGPTの出力すべてが著作権侵害を構成するという広範な主張は却下
– 原告は具体的な侵害出力の例を特定する必要がある

証拠開示:
現在、ディスカバリー段階にあり、以下の重要な証拠が求められている:
– OpenAIの訓練データセットの詳細
– 書籍データの取得源と処理方法
– MicrosoftとOpenAIの契約関係と技術協力の範囲
– モデル訓練における著作権考慮のプロセス

専門家証言:
両当事者は、AI技術、著作権法、市場への影響について専門家証人を準備中。特に、LLMの技術的仕組みと著作物の使用態様について詳細な技術的証言が予定されている。

判決の概要 (Judgment Summary)

裁判所の判断 (Court’s Decision)
注:本件は係属中であり、最終判決は下されていない。以下は中間判断の内容:

主要な判決内容:
2024年2月の中間判断において、Sidney H. Stein判事は以下の判断を示した:

1. 訴訟適格性の認定: 原告らの直接侵害の主張は、訴訟を進めるのに十分な事実を提示している
2. 部分的却下: ChatGPTのすべての出力が侵害を構成するという包括的主張は、具体性に欠けるとして却下
3. ディスカバリーの継続: 訓練データの詳細と使用方法について、さらなる事実調査が必要

重要な法的判断:
– LLM訓練における著作物使用がフェアユースに該当するかは、事実に基づく詳細な分析が必要
– AI生成物の著作権侵害判断には、元の作品との実質的類似性の立証が必要
– 技術革新と著作権保護のバランスは、ケースバイケースで判断される

法的意義 (Legal Significance)

先例価値 (Precedential Value)

将来への影響:
本件は、生成AI時代における著作権法の適用に関する重要な先例となる可能性がある。特に以下の点で影響が予想される:

1. フェアユース基準の再定義: LLM訓練における大規模データ使用に対するフェアユース適用の新たな基準確立
2. AI開発者の責任範囲: モデル訓練における適切な著作権クリアランスの必要性
3. 投資者・プラットフォームの責任: AI技術への投資や提供における間接的責任の明確化

法理論の発展:
– 「変革的使用」概念のAI分野への拡張解釈
– デジタル時代における複製権の再定義
– 機械学習における「中間的複製」の法的地位

規制・実務への影響 (Regulatory and Practical Impact)

AIガバナンス:
企業は以下のガバナンス体制の構築が必要:
– 訓練データの出所と権利状態の文書化
– 著作権コンプライアンスチームの設置
– ライセンス取得プロセスの確立
– 出力フィルタリングシステムの実装

コンプライアンス:
– 訓練データの合法的取得の証明
– opt-outメカニズムの提供
– 権利者との事前交渉の推奨
– 透明性レポートの定期的公開

業界への影響:
1. ライセンシングモデルの発展: 出版社とAI企業間の新たなライセンス枠組み
2. 技術的対策: 著作権保護されたコンテンツの検出・除外システム
3. 業界標準の確立: 責任あるAI開発のための業界ガイドライン

比較法的観点 (Comparative Law Perspective)

日本法との比較:
日本の著作権法第30条の4(2018年改正)では、情報解析目的での著作物利用に一定の例外を認めている。これは米国のフェアユース法理よりも明確な規定であり、以下の相違点がある:

1. 日本法の特徴:
– 情報解析のための複製・翻案を明示的に許可
– ただし、著作権者の利益を不当に害する場合は除外
– 営利・非営利を問わない

2. 米国法との違い:
– 米国はケースバイケースのフェアユース判断
– 日本は法定の例外規定として明文化
– 日本法の方が予測可能性が高い

他国判例との関係:
EU: AI法案でのトレーニングデータ透明性要求
英国: 著作権例外規定の検討(現在保留中)
中国: AI規制でのデータ合法性要求

重要なポイント (Key Takeaways)

実務家への示唆:
1. 契約実務: AI開発・利用契約において、訓練データの権利関係と責任分担を明確化
2. デューディリジェンス: AI企業への投資・提携時の著作権リスク評価の重要性
3. 予防法務: 訓練データの適法性確保のための事前措置

今後の展望:
– 和解による業界標準の形成可能性
– 立法による明確化の動き
– 国際的な規制調和の必要性

注意すべき事項:
1. 訓練データの出所と処理方法の文書化
2. 生成物の著作権侵害リスクの継続的モニタリング
3. 権利者との積極的な対話と協力関係の構築
4. 技術的保護措置の実装と継続的改善

このレポートに関する注意事項 (Warning/Notes)

このレポートはサイト運営者がAIエージェントに文献等の調査・調査結果の分析・分析結果の整理・分析結果の翻訳等を行わせたものです。人間による追加的な調査や査読は行っておらず、内容には誤りを含む場合があります。


Comments

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です