Sancton v. OpenAI Inc. et al.
Case Metadata
Basic Information
1. Case Name: Julian Sancton, et al. v. OpenAI, Inc., et al.
2. Court: United States District Court for the Southern District of New York (S.D.N.Y.)
3. Filing Date: November 21, 2023
4. Judgment Date: Pending (case ongoing as of October 2025)
5. Case Number: 1:23-cv-10211; consolidated into MDL No. 1:25-md-03143 (In Re: OpenAI, Inc. Copyright Infringement Litigation)
6. Current Status: Active litigation; consolidated with other OpenAI copyright cases in multi-district litigation (MDL) proceedings before Judge Sidney H. Stein
Parties
7. Plaintiff(s):
– Lead Plaintiff: Julian Sancton (author, Madhouse at the End of the Earth: The Belgica’s Journey Into the Dark Antarctic, New York Times bestseller)
– Additional Named Plaintiffs (added December 19, 2023):
– Jonathan Alter (journalist, author)
– Kai Bird (historian, biographer, Pulitzer Prize winner)
– Taylor Branch (historian, author of Martin Luther King Jr. biography trilogy)
– Rich Cohen (author, journalist)
– Eugene Linden (science writer, author)
– Daniel Okrent (journalist, former New York Times Public Editor)
– James Shapiro (Columbia University professor, literary scholar, Authors Guild Council member)
– Stacy Schiff (Pulitzer Prize-winning biographer)
– Wade Hampton Sides (historian, journalist, Authors Guild Advisory Council member)
– Jia Tolentino (New Yorker staff writer, essayist, Authors Guild Council member)
– Simon Winchester (British-American author, journalist)
Class Representation: Proposed class action on behalf of all nonfiction authors whose copyrighted works were used to train OpenAI’s language models
8. Defendant(s):
– OpenAI, Inc. – Artificial intelligence research laboratory and developer of ChatGPT and GPT language models
– Microsoft Corporation – Technology company and strategic partner/investor in OpenAI, integrated ChatGPT into various Microsoft products
9. Key Law Firms:
– For Plaintiffs: Susman Godfrey L.L.P. (lead counsel: J. Craig Smyser, Justin Nelson, Alejandra Salinas, Rohit Nath)
– For Defendants: Multiple firms including Latham & Watkins LLP, Morrison & Foerster LLP, and Cooley LLP (OpenAI represented by over 50 attorneys across five law firms)
10. Expert Witnesses: Not yet disclosed in public filings (case in discovery phase)
Legal Framework
11. Case Type: AI copyright infringement class action – unauthorized use of copyrighted nonfiction works for large language model (LLM) training
12. Primary Legal Claims:
– Direct Copyright Infringement (17 U.S.C. § 501) – unauthorized reproduction and use of copyrighted nonfiction works
– Contributory Copyright Infringement – Microsoft’s alleged facilitation and support of OpenAI’s infringing activities
– Violation of Digital Millennium Copyright Act (DMCA) § 1202(b)(1) – removal of copyright management information
13. Secondary Claims:
– Unjust Enrichment (state law claims)
– Unfair Competition (state common law) – dismissed by court
– Vicarious Copyright Infringement theories
14. Monetary Relief:
– Statutory damages under 17 U.S.C. § 504(c)
– Actual damages and defendants’ profits under 17 U.S.C. § 504(b)
– Injunctive relief prohibiting future unauthorized use
– Declaratory judgment
– Attorney’s fees and costs
– Specific damage amounts not publicly disclosed
Technical Elements
15. AI/Technology Involved:
– OpenAI GPT Models: GPT-3, GPT-3.5, GPT-4, and subsequent iterations
– ChatGPT: Conversational AI chatbot powered by GPT models
– Training Datasets: Large-scale text corpora allegedly containing copyrighted nonfiction books without authorization
– Microsoft Integration: Azure OpenAI Service, Bing Chat (now Copilot), Microsoft 365 Copilot
– Training Methodology: Large Language Model (LLM) training through ingestion and processing of text data
16. Industry Sectors:
– Publishing and literary industries
– Artificial intelligence and machine learning
– Technology platforms and cloud services
– Professional writing and journalism
– Academic publishing
17. Data Types:
– Published nonfiction books (copyrighted literary works)
– Historical texts and biographies
– Journalistic works and essays
– Academic and scholarly publications
– Potentially pirated or unauthorized digital copies of copyrighted works
Database Navigation
18. Keywords/Tags:
– AI training data
– Copyright infringement
– Large language models (LLM)
– Fair use defense
– Generative AI
– ChatGPT
– OpenAI
– Nonfiction authors
– Class action litigation
– Multi-district litigation (MDL)
– Transformative use
– DMCA violations
– Literary copyright
– Book piracy
19. Related Cases:
– Authors Guild v. OpenAI Inc., No. 1:23-cv-08292 (S.D.N.Y. 2023) – fiction authors’ copyright claims
– The New York Times Co. v. Microsoft Corp. & OpenAI, Inc., No. 1:23-cv-11195 (S.D.N.Y. 2023) – news organization copyright claims
– Silverman v. OpenAI Inc., No. 3:23-cv-03416 (N.D. Cal. 2023) – authors’ copyright infringement claims
– Kadrey v. Meta Platforms, Inc., No. 3:23-cv-03417 (N.D. Cal. 2023) – similar claims against Meta’s LLaMA model
– Chabon v. OpenAI, No. 3:23-cv-04625 (N.D. Cal. 2023) – authors’ copyright claims
– Thomson Reuters Enterprise Centre GmbH v. Ross Intelligence Inc., No. 1:20-cv-00613 (D. Del. 2020) – first major AI training fair use decision (summary judgment for plaintiff)
– Concord Music Group, Inc. v. Anthropic PBC, No. 3:23-cv-01092 (M.D. Tenn. 2023) – music publishers’ copyright claims against AI company
– In Re: OpenAI, Inc. Copyright Infringement Litigation, MDL No. 1:25-md-03143 (S.D.N.Y. 2025) – consolidated MDL proceeding
—
詳細分析 (Detailed Analysis)
事件の概要 (Case Overview)
背景と争点 (Background and Issues)
事実関係: 訴訟に至った経緯と状況
本訴訟は、OpenAIとMicrosoftが開発・展開する大規模言語モデル(LLM)であるGPTシリーズ及びChatGPTの訓練に、ノンフィクション作家の著作権で保護された書籍を無断で使用したとして、2023年11月21日にニューヨーク南部地区連邦地方裁判所に提起されたクラスアクション訴訟である。
原告筆頭のJulian Sanctonは、ニューヨークタイムズのベストセラー作家であり、南極探検の歴史を描いた Madhouse at the End of the Earth の著者である。2023年12月19日の修正訴状では、ピューリッツァー賞受賞者を含む著名なノンフィクション作家12名が原告として追加された。これらの原告には、Authors Guild(全米作家組合)の理事会メンバーや顧問委員であるJia Tolentino(ニューヨーカー誌スタッフライター)、James Shapiro(コロンビア大学教授)、Daniel Okrent(元ニューヨークタイムズパブリックエディター)などが含まれる。
OpenAIは2015年に設立されたAI研究組織であり、GPT(Generative Pre-trained Transformer)シリーズの大規模言語モデルを開発してきた。2022年11月にリリースされたChatGPTは、自然言語での対話が可能なAIチャットボットとして世界的な注目を集めた。Microsoftは2019年以降OpenAIに総額130億ドル以上を投資し、戦略的パートナーとしてAzureクラウドインフラストラクチャの提供やBing検索エンジン、Microsoft 365製品へのChatGPT統合を行っている。
原告らは、OpenAIがこれらのAIモデルの訓練のために、インターネット上から大量の文章データを収集し、その中に原告らの著作権で保護されたノンフィクション書籍が無断で含まれていたと主張している。特に、海賊版サイトや不正な電子書籍ファイル共有ネットワークから入手されたコピーが訓練データに使用された可能性が指摘されている。
中心的争点: 主要な法的・事実上の争点
本訴訟の中心的な法的争点は以下の通りである:
1. 著作権侵害の成否: OpenAIによる原告らの著作物の複製・使用が17 U.S.C. § 501に基づく著作権侵害に該当するか
2. フェアユースの抗弁: AI訓練目的での著作物使用が17 U.S.C. § 107のフェアユース(公正使用)に該当するか
– 使用目的の性質(商業性・変容性)
– 著作物の性質
– 使用された部分の量と質
– 著作物の市場価値への影響
3. Microsoftの寄与侵害責任: MicrosoftがOpenAIの侵害行為を実質的に支援・促進したとして寄与侵害責任を負うか
4. DMCA違反: 著作権管理情報の除去または改変がDMCA § 1202(b)(1)に違反するか
5. 損害額の算定: 法定損害賠償と実損害・被告の利益のいずれを適用すべきか
6. クラス認証: ノンフィクション作家全体をカバーするクラスアクションとして認証されるべきか
原告の主張: 主要な論点と求める救済内容
原告らは、OpenAIとMicrosoftが「組織的な大量著作権侵害」(“rampant theft”)によって不当に利益を得ていると主張し、以下の法的理論を展開している:
1. 無断複製による直接侵害: 被告らは、原告の書籍を著作権者の許諾なく複製し、GPTモデルの訓練データセットに組み込んだ。この行為は著作権法が保護する複製権(reproduction right)の直接的侵害である。
2. 訓練プロセスにおける侵害: AIモデル訓練の過程で、著作物全体をコンピュータメモリに読み込み、処理することは、一時的複製であっても著作権侵害を構成する。
3. 出力における侵害の可能性: ChatGPTは時として原告の著作物の表現を再現・模倣した出力を生成する能力を有しており、これは派生的著作権侵害(derivative infringement)のリスクを示している。
4. フェアユースの不成立:
– 商業的使用: OpenAIとMicrosoftは営利企業として商業的利益のためにAIモデルを展開している
– 変容性の欠如: 訓練データとしての使用は著作物の本質的価値(言語表現、文体、知識内容)をそのまま利用しており、真に変容的(transformative)とは言えない
– 市場への悪影響: AIが生成するコンテンツは、原告の著作物と競合し、書籍販売やライセンス市場に悪影響を与える
– ライセンス市場の無視: 多くの著作権者がAI訓練用のライセンスを提供する意思があるにもかかわらず、被告はこれを回避している
5. Microsoftの積極的関与: Microsoftは単なる投資家ではなく、OpenAIの技術インフラを提供し、製品統合を通じて直接的に利益を得ており、寄与侵害責任を負う。
6. 海賊版利用の問題: 訓練データに海賊版サイトから入手した不正コピーが含まれていた場合、著作権侵害の悪質性は一層高まる。
原告が求める救済措置:
– 法定損害賠償または実損害賠償と被告の不当利得の返還
– 将来の無断使用を禁止する差止命令
– 侵害行為の確認を求める宣言的判決
– 弁護士費用と訴訟費用の負担
被告の主張: 主な抗弁と反訴内容
OpenAIとMicrosoftは、2024年初頭に棄却申立て(Motion to Dismiss)を提出し、以下の抗弁を主張している:
1. フェアユースの成立: AI訓練目的での著作物使用は変容的使用(transformative use)であり、フェアユースとして保護される。
– 目的の変容性: 原告の書籍は読者に思想や感情を伝える表現目的で作成されたが、AIモデル訓練では言語パターン、統計的関係、知識を抽出する情報分析目的で使用されており、目的が本質的に異なる
– 人間の学習との類似性: AIによる学習は人間が書籍を読んで学ぶプロセスと本質的に同じであり、人間の学習が著作権侵害とならないのと同様、AI訓練も侵害ではない
– 出力の独立性: GPTモデルは訓練データをそのまま記憶・再現するのではなく、学習した知識に基づいて新たな独創的コンテンツを生成する
2. 請求原因の不十分性(Failure to State a Claim): 原告は、自らの具体的な著作物がどのように使用され、どのような損害が生じたかを十分に特定していない。
3. 時効の抗弁: 一部の著作権侵害請求は、訴訟提起の3年以上前に発生したものであり、時効により制限される可能性がある。
4. DMCA請求の不成立: 訓練データの前処理過程で著作権管理情報が除去されたとしても、それは技術的必要性によるものであり、DMCA違反の故意性要件を満たさない。
5. 州法請求の連邦法優先(Preemption): 不当利得や不正競争などの州法に基づく請求は、著作権法によって優先され、連邦法に吸収される。
6. Microsoftの責任否認: Microsoftは単なるインフラプロバイダーであり、OpenAIの訓練データ選択や処理方法に直接的な関与や管理権限を持たないため、寄与侵害責任を負わない。
なお、被告からの反訴(counterclaim)は現時点で提起されていない。
AI/技術要素: 関与する具体的なAIシステム、アルゴリズム、技術の詳細
本訴訟で問題となっている技術的要素は以下の通りである:
1. GPT (Generative Pre-trained Transformer) アーキテクチャ
GPTは、Transformerと呼ばれるニューラルネットワークアーキテクチャに基づく大規模言語モデルである。Transformerは2017年にGoogle Brain研究チームが発表した「Attention is All You Need」論文で提案され、自然言語処理の分野を革新した。
– 事前訓練(Pre-training)フェーズ: 大量のテキストデータを用いて、単語やフレーズ間の統計的関係、文法構造、意味的関連性を学習する。この段階で、数百GB~数TB規模のテキストコーパスが使用される。
– 次単語予測タスク: モデルは、与えられたテキストの次に来る単語を予測するタスクを通じて学習する。この過程で、言語の構造、文脈、知識、さらには特定の文体や表現パターンまでを内部表現として獲得する。
– パラメータ数: GPT-3は1,750億個のパラメータを持ち、GPT-4はさらに大規模(正確な数値は非公開)とされる。これらのパラメータは、訓練データから抽出された情報を数値的に符号化している。
2. 訓練データセットの構成
OpenAIが使用した訓練データセットの正確な内容は企業秘密として公開されていないが、以下の情報源が含まれると推定される:
– Common Crawl: インターネット全体を定期的にクロールして収集した大規模Webテキストアーカイブ
– WebText/WebText2: Reddit上で高評価を得たリンク先の記事を収集したデータセット
– Books1/Books2: 大量の書籍テキストを含むデータセット(詳細は非公開)
– Wikipedia: 英語版および多言語版Wikipediaの全記事
– 学術論文・ニュース記事: 各種公開データベースから収集された文献
原告らは、Books1/Books2データセットに、海賊版電子書籍サイト(LibGen、Z-Libraryなど)や不正ファイル共有ネットワークから入手された著作権保護書籍が大量に含まれていると主張している。
3. ChatGPTの動作メカニズム
ChatGPTは、事前訓練されたGPTモデルに対して、さらに以下の技術を適用して対話能力を付与している:
– 教師あり微調整(Supervised Fine-Tuning): 人間が作成した対話例を用いた追加訓練
– 人間のフィードバックからの強化学習(RLHF: Reinforcement Learning from Human Feedback): 人間評価者の好みを反映させる最適化プロセス
4. 出力生成プロセス
ユーザーがChatGPTにプロンプト(質問や指示)を入力すると、モデルは訓練で獲得した知識と統計的パターンに基づいて、確率的に次の単語を順次生成していく。この過程で:
– モデルは訓練データを直接「記憶」して再生するわけではない(原則として)
– しかし、訓練データに含まれる表現、文体、特定の情報が出力に反映される可能性がある
– 特に訓練データ内で頻繁に現れる表現やフレーズは、出力に再現されるリスクが高い
5. 著作権侵害との関連性
技術的観点から、以下の点が著作権侵害の判断に関連する:
– 訓練段階での複製: 訓練プロセスでは、データセット内の全テキストがコンピュータメモリに読み込まれ、処理される。これ自体が著作権法上の「複製」に該当するか
– 内部表現の性質: モデルの内部パラメータは、元の著作物の「コピー」なのか、それとも抽象化された「知識」なのか
– 出力の独創性: モデルが生成する出力は、訓練データからの「派生物」なのか、それとも「新規の創作物」なのか
手続きの経過 (Procedural History)
重要な手続き上の決定: 主要な中間判断や手続き上の争点
2023年11月21日: Julian Sanctonがニューヨーク南部地区連邦地方裁判所にOpenAIとMicrosoftを相手取り、クラスアクション訴訟を提起。当初の訴状では、Sancton単独が原告として記載。
2023年11月6日: ディスカバリ(証拠開示)手続きが開始。裁判所は初期スケジュールを設定。
2023年12月4日: 裁判所命令により、原告は修正訴状を提出する期限を与えられた。
2023年12月19日: 原告が修正訴状(Amended Complaint)を提出。12名の著名ノンフィクション作家を原告として追加。提案されるクラスの定義を明確化し、請求原因の詳細を拡充。
2024年1月12日: 被告OpenAIとMicrosoftが修正訴状に対する応答(答弁または棄却申立て)を提出する期限。両被告は棄却申立て(Motion to Dismiss)を提出。
2024年1月29日: 実質的な文書開示(substantial production of documents)の開始期限。
2024年6月14日: 全RFP(Request for Production – 文書提出要求)に対する実質的な文書開示が完了する予定日。
2024年9月17日: 事実に関するディスカバリ(fact discovery)の完了予定日。
2024年10月18日: 原告側の専門家証人報告書の提出期限。
2024年11月18日: 被告側の反対専門家証人報告書の提出期限。
2024年12月9日: 専門家証人に関するディスカバリの完了予定日。
2025年1月7日: サマリージャッジメント申立て(略式判決申立て)およびダウバート申立て(専門家証人の証拠能力に関する申立て)の提出期限。
2025年4月11日: 司法パネル(Judicial Panel on Multidistrict Litigation)が、OpenAIに関する複数の著作権訴訟を統合し、ニューヨーク南部地区のSidney H. Stein判事の下でMDL(多地区訴訟)として審理することを命令。本件は In Re: OpenAI, Inc. Copyright Infringement Litigation, MDL No. 1:25-md-03143 に統合された。
2025年4月5日: Stein判事が、関連する別訴(Authors Guild事件および新聞社事件)におけるOpenAIの棄却申立てに対する重要な意見書を発行(詳細後述)。この意見書の法的判断は、MDL内の全関連訴訟に影響を与える。
2025年6月以降: MDL統合後、Stein判事の下で統一的な訴訟管理命令(Case Management Order)が発行され、統合ディスカバリスケジュール、クラス認証の審理、共通争点に関するサマリージャッジメント申立ての調整が行われている。
証拠開示: 重要な証拠や技術文書の開示状況
本訴訟では、以下の証拠開示が争点となっている:
1. 訓練データセットの詳細
原告側は、以下の情報を求めてRFPを提出:
– GPT-3、GPT-3.5、GPT-4の訓練に使用された全データソースのリスト
– Books1/Books2データセットの正確な内容と入手元
– データクリーニングおよび前処理プロセスの詳細
– 著作権保護された書籍が訓練データに含まれるかを確認した手続き
OpenAIは、これらの情報の多くを企業秘密(trade secret)として保護し、開示に抵抗している。裁判所は、一部の情報について保護命令(protective order)の下での限定的開示を命じる可能性がある。
2. ライセンス交渉の記録
原告側は、OpenAIとMicrosoftが出版社や作家団体とAI訓練用ライセンスについて交渉した(または交渉を拒否した)記録を要求。これは、フェアユース抗弁における「市場影響」分析に関連する。
実際、OpenAIは2024年以降、一部の大手出版社(Associated Press、Axel Springer、Financial Timesなど)とライセンス契約を締結しており、これらの契約の存在は、ライセンス市場が成立していることを示す証拠となり得る。
3. 財務記録と利益情報
原告側は、ChatGPT関連事業からの収益、サブスクリプション収入、API利用料、Microsoftとの収益分配契約などの財務情報を要求。これは損害額算定および被告の不当利得計算に関連する。
4. 技術文書
– モデル訓練のための内部技術マニュアル
– データ収集・処理パイプラインのソースコード(限定的に)
– モデルの出力生成メカニズムに関する技術文書
– 著作権侵害リスク評価に関する内部通信
5. 内部通信記録
– 訓練データ収集に関する社内メールや会議記録
– 著作権リスクについての法務部門との相談記録
– MicrosoftとOpenAI間の契約および協議記録
専門家証言: 技術専門家の証言内容と影響
本訴訟では、以下の専門家証人が関与すると予想される(一部は他のOpenAI関連訴訟で既に証言):
原告側の専門家候補:
1. 機械学習・AI技術専門家
– 役割: GPTモデルの訓練プロセスにおける著作物の複製と処理の技術的分析
– 証言内容:
– 訓練データが如何にモデルパラメータに符号化されるか
– 訓練データと出力の関係性(memorization vs. generalization)
– 特定の著作物がモデルの出力に影響を与える可能性の分析
– Extraction攻撃による訓練データ復元の実証
2. 著作権法・知的財産法学者
– 役割: フェアユースの法的基準のAI訓練への適用に関する意見
– 証言内容:
– 変容的使用の法的定義と本件への適用
– AI訓練とデータベース構築、検索エンジンなど他のフェアユース事例との比較
– 市場影響の評価基準
3. 出版業界経済専門家
– 役割: AI生成コンテンツが書籍市場に与える経済的影響の分析
– 証言内容:
– AI生成ノンフィクションコンテンツと人間作家の著作物との競合性
– ライセンス市場の存在と潜在的市場価値
– 原告らの損害額の経済的算定
被告側の専門家候補:
1. 機械学習研究者
– 役割: LLMの学習メカニズムがフェアユースに該当することの技術的根拠
– 証言内容:
– GPTモデルは訓練データの「コピー」ではなく「知識」を学習している
– 出力生成は統計的推論に基づく新規創作であり、訓練データの再現ではない
– AI学習と人間の学習プロセスの類似性
2. 著作権法専門家
– 役割: フェアユース成立の法的根拠
– 証言内容:
– AI訓練は情報分析目的であり、表現享受目的ではないため変容的
– 大規模データ分析を認めた過去の判例(Authors Guild v. Google Books、HathiTrust事件など)との類似性
– デジタル時代におけるフェアユースの柔軟な解釈の必要性
3. AI産業経済専門家
– 役割: AI技術の社会的便益と著作権制限の経済的影響分析
– 証言内容:
– AIによるイノベーションの経済的価値
– 訓練データライセンスの義務化が研究開発に与える負の影響
– 原告書籍の市場価値がAIによって減少していないとの実証分析
これらの専門家証言は、サマリージャッジメント段階および将来の陪審裁判において、フェアユース判断および損害額算定に重要な影響を与える。
判決の概要 (Judgment Summary)
裁判所の判断 (Court’s Decision)
本件(Sancton訴訟)自体はMDLに統合されたばかりで、まだ実質的判決は下されていない。しかし、2025年4月5日にSidney H. Stein判事が関連訴訟で発行した棄却申立てに関する意見書(Authors Guild v. OpenAI事件および新聞社訴訟における意見)は、本訴訟を含む全てのOpenAI著作権訴訟の今後の審理に決定的影響を与える先例的価値を持つ。以下、そのStein判事意見を詳述する。
主要な判決内容: 各争点に対する裁判所の判断と法的推論
1. 著作権侵害請求の時効に関する判断 – 原告勝訴
争点: OpenAIは、訴訟提起の3年以上前に発生した著作権侵害請求は時効により排除されるべきだと主張した。
判断: Stein判事は、この主張を却下し、原告の請求を維持した。
理由:
– 著作権法における時効は、「継続的侵害理論」(continuing violation doctrine)が適用される場合がある
– OpenAIのAIモデルは継続的に運用され、訓練データは持続的に利用されている
– 各出力生成行為が新たな侵害を構成する可能性があり、時効の起算点は最初の訓練時点ではなく、各使用時点である
– したがって、訴訟提起から3年以内に発生した侵害行為が存在する限り、請求は時効により排除されない
意義: この判断により、原告は古い著作物についても請求を維持できることが確定した。
2. 寄与著作権侵害請求 – 原告勝訴
争点: Microsoftは、自社は単なるインフラ提供者であり、OpenAIの侵害行為に対する寄与侵害責任を負わないと主張し、請求の棄却を求めた。
判断: Stein判事は、Microsoftの棄却申立てを却下し、寄与侵害請求を維持した。
理由:
– 寄与著作権侵害の成立要件は、(1)直接侵害行為の存在、(2)被告がその侵害を知っていた、または知るべきであったこと、(3)被告が侵害を実質的に支援または誘引したこと
– 訴状の記載から、MicrosoftはOpenAIに対して:
– 巨額の資金投資を行った
– 訓練に必要な膨大な計算インフラ(Azure)を提供した
– ChatGPTを自社製品に統合し、商業化を推進した
– OpenAIの取締役会に代表者を派遣し、経営に関与した
– これらの事実が真実であれば、Microsoftは単なる「中立的ツール提供者」ではなく、侵害行為の実質的支援者である可能性がある
– 棄却段階では原告の主張を真実と推定するため、寄与侵害の可能性を排除できない
意義: この判断により、Microsoftは訴訟から離脱できず、本案審理まで進むことが確定した。AI産業において、技術インフラ提供者やプラットフォーム事業者も著作権侵害責任を負う可能性があることを示した重要な判断である。
3. 州法および連邦商標希釈化請求(Daily News訴訟) – 一部原告勝訴
争点: 新聞社原告が提起していた州法不正競争請求および連邦商標希釈化請求の可否。
判断:
– 州法不正競争請求: 棄却認容 – 著作権法による優先(preemption)により排除
– 連邦商標希釈化請求: 棄却却下 – 請求は維持される
理由:
– 州法不正競争請求は、実質的に著作権侵害と同じ行為を対象としており、著作権法によって優先される
– しかし、商標希釈化請求は、著作権保護とは別の利益(商標の識別力とブランド価値の保護)を対象としており、独立した請求として存続し得る
4. DMCA § 1202(b)(1)違反請求 – 一部原告勝訴
争点: 訓練データから著作権管理情報(Copyright Management Information, CMI)を除去した行為がDMCA違反に該当するか。
判断:
– Microsoftに対するDMCA請求: 全て棄却認容
– OpenAIに対するDMCA請求:
– New York Times訴訟: 棄却認容
– Center for Investigative Reporting訴訟: 棄却却下(請求維持)
– Daily News訴訟: 棄却却下(請求維持)
理由:
– DMCA § 1202(b)(1)は、「故意に」(with intent)著作権管理情報を除去または改変し、かつその行為が侵害を誘引・促進・隠蔽する意図で行われた場合に違反を構成する
– Microsoftについては、訴状からMicrosoftが直接CMIを除去したとの十分な主張が認められないため、請求は棄却された
– OpenAIについては、訴状の記載の程度によって判断が分かれた:
– New York Times訴訟では、CMI除去の具体的状況が十分に主張されていなかったため棄却
– 他の訴訟では、訓練データ前処理過程でCMI(著者名、出版情報など)が意図的に除去された可能性が十分に主張されていたため、請求は維持された
意義: DMCA請求の維持は、原告にとって重要な意味を持つ。DMCA違反が認定されれば、フェアユース抗弁とは独立して法定損害賠償が認められるためである。
勝敗の結果: どちらの当事者が勝訴し、その根拠
2025年4月のStein判事意見は、OpenAIの棄却申立てを主要な争点においてほぼ全面的に却下し、原告側の大幅な勝利となった。
原告の勝利点:
– 著作権侵害請求の時効抗弁が排除され、古い著作物についても請求が維持された
– Microsoftの寄与侵害責任が認められ、訴訟から離脱できなくなった
– DMCA請求が一部維持された
被告の勝利点(限定的):
– 州法不正競争請求は排除された(ただし、これは主要請求ではない)
– DMCA請求の一部が棄却された
根拠:
裁判所は、棄却段階においては原告の主張を真実と推定し、原告に有利に解釈する原則(notice pleading standard)に基づき、OpenAIとMicrosoftが提起したほぼ全ての棄却理由を退けた。これは、原告が主張する事実関係が、仮に真実であれば著作権侵害を構成し得ると裁判所が判断したことを意味する。
命令された救済措置: 損害賠償、差止命令、その他の救済措置
本訴訟はまだ棄却申立て段階を終えたばかりで、実体判決には至っていないため、具体的な救済措置はまだ命じられていない。今後の審理で認められる可能性がある救済措置は以下の通りである:
1. 損害賠償
– 法定損害賠償: 著作権法§ 504(c)に基づき、侵害された著作物1点あたり750ドル~3万ドル(故意侵害の場合は最大15万ドル)
– 実損害と被告の利益: 著作権法§ 504(b)に基づき、原告の実際の損害額と被告が侵害により得た利益の返還
クラスアクションが認証され、数千点のノンフィクション書籍が対象となった場合、法定損害賠償の総額は数億ドルから数十億ドルに達する可能性がある。
2. 差止命令(Injunction)
原告は、以下の差止命令を求めている:
– 許諾なく訓練された既存のGPTモデルの使用停止
– 将来のモデル訓練における原告書籍の無断使用禁止
– 侵害を継続する場合の罰則的強制(contempt)
ただし、差止命令の発令は:
– 公共の利益(AIの社会的便益)とのバランス
– 既に広く展開されたAIモデルの停止が現実的か
– 代替的救済措置(金銭賠償やライセンス契約の強制)の十分性
などの要素を考慮して判断されるため、全面的な差止めが認められる可能性は限定的である。
3. 宣言的判決(Declaratory Judgment)
裁判所が、被告の行為が著作権侵害に該当し、フェアユースが成立しないことを宣言する判決を求めている。
4. 弁護士費用と訴訟費用
著作権法§ 505は、勝訴当事者への弁護士費用の裁量的付与を認めている。
重要な法的判断: 新しい法原則や解釈の確立
Stein判事の2025年4月意見は、以下の点で重要な法的判断を示した:
1. AI訓練における継続的侵害理論の適用
従来、継続的侵害理論は主に雇用差別事件などで適用されてきたが、Stein判事はこれをAI訓練文脈に適用した。これにより、AI企業は「訓練は過去に終わった」との主張で時効を援用することが困難になる。
2. 技術インフラ提供者の寄与侵害責任
クラウドインフラ提供者や投資家が、単なる「中立的ツール提供」を超えて積極的に侵害事業に関与した場合、寄与侵害責任を負う可能性があることを明確にした。これは、AI産業のサプライチェーン全体に影響を与える判断である。
3. DMCAのAI訓練への適用
訓練データの前処理過程での著作権管理情報除去がDMCA違反を構成し得るとの判断は、AI企業に新たなコンプライアンス義務を課す可能性がある。
反対意見・補足意見: 該当する場合の記載
Stein判事の意見は地方裁判所レベルの単独裁判官による判断であり、反対意見や補足意見は存在しない。ただし、被告は今後、控訴審でこれらの判断を争う可能性がある。
法的推論の分析 (Analysis of Legal Reasoning)
適用された法理: 裁判所が依拠した法的原則
Stein判事の判断は、以下の確立された法的原則に基づいている:
1. 著作権侵害の成立要件
著作権侵害の成立には、(1)原告が有効な著作権を有すること、(2)被告が原告の排他的権利(複製権、翻案権など)を侵害したこと、の2要素が必要である(Feist Publications, Inc. v. Rural Telephone Service Co., 499 U.S. 340 (1991))。
本件では、原告らが著作権登録済みのノンフィクション書籍を有することは争いがなく、争点は被告の行為が「侵害」に該当するかである。
2. 直接侵害と間接侵害の区別
– 直接侵害(Direct Infringement): 自ら著作権者の排他的権利を侵害する行為
– 寄与侵害(Contributory Infringement): 他者の直接侵害を知りながら実質的に支援する行為(Sony Corp. of America v. Universal City Studios, Inc., 464 U.S. 417 (1984))
– 代位侵害(Vicarious Infringement): 直接侵害者を監督する権利と能力を有し、その侵害から直接的財務利益を得る行為
Stein判事は、OpenAIの行為が直接侵害に該当し得ること、Microsoftの行為が寄与侵害に該当し得ることを認めた。
3. フェアユースの4要素テスト(17 U.S.C. § 107)
フェアユース抗弁の判断には、以下の4要素を総合的に考慮する:
(1) 使用の目的と性質 – 商業性と変容性
– 商業的使用は通常フェアユースに不利(Harper & Row Publishers, Inc. v. Nation Enterprises, 471 U.S. 539 (1985))
– 変容的使用(新たな目的や意味を付加する使用)はフェアユースに有利(Campbell v. Acuff-Rose Music, Inc., 510 U.S. 569 (1994))
(2) 著作物の性質 – 創作的か事実的か
– 創作的著作物はより強い保護を受ける
– 事実的著作物は比較的弱い保護(Feist, 499 U.S. 340)
(3) 使用された部分の量と質
– 著作物全体の使用はフェアユースに不利
(4) 潜在的市場への影響
– 著作物の市場価値や潜在的派生市場への悪影響はフェアユースに不利
4. 変容的使用の法理
Campbell v. Acuff-Rose Music判決(1994年)以降、「変容的使用」がフェアユース判断の中心的要素となった。変容的使用とは、元の著作物を新たな目的や文脈で使用し、新しい表現、意味、メッセージを創出する使用である。
AI訓練文脈では、以下の2つの重要な先例がある:
Authors Guild v. Google, Inc. (Google Books事件), 804 F.3d 202 (2d Cir. 2015):
– Googleによる書籍全文のスキャンとデジタル化、検索インデックス構築がフェアユースと認定
– 理由: 検索目的での使用は、元の書籍の「読書体験」という目的とは異なる「情報検索」という変容的目的に資する
Authors Guild v. HathiTrust, 755 F.3d 87 (2d Cir. 2014):
– 大学図書館による書籍デジタル化とテキストマイニングがフェアユースと認定
– 理由: 研究目的でのテキスト・データマイニングは、元の表現享受とは異なる情報分析目的である
被告OpenAIは、これらの判例を援用し、AI訓練も同様に「情報分析」目的であり変容的だと主張している。
事実認定: 重要な事実認定とその根拠
Stein判事の2025年4月意見は、棄却申立て段階の判断であるため、本格的な事実認定は行われていない。棄却段階では、訴状に記載された事実を真実と推定し、それらの事実が法的請求を支持し得るかを判断する。
Stein判事が真実と推定した重要な事実(原告の主張):
– OpenAIは大量の書籍を含むデータセットでGPTモデルを訓練した
– その中には原告の著作権保護書籍が含まれていた
– OpenAIは著作権者の許諾を得ていなかった
– 訓練データには海賊版サイトから入手された不正コピーが含まれていた可能性がある
– Microsoftは資金、インフラ、商業化支援を通じてOpenAIの事業を実質的に支援した
– ChatGPTは商業製品として大規模に展開され、多額の収益を生んでいる
– ChatGPTは時として原告の著作物と類似した表現を出力する能力を持つ
これらの事実が実際に真実かは、今後のディスカバリと裁判で証明されることになる。
技術的理解: 裁判所のAI/技術に対する理解度と判断
Stein判事の意見からは、裁判所がLLMの技術的メカニズムについて基本的な理解を示している:
理解している点:
– AI訓練には大量のテキストデータが必要である
– 訓練データはモデルのパラメータに数値的に符号化される
– モデルは統計的パターンを学習し、新しい出力を生成する
– 出力は訓練データの直接コピーではない(通常は)
技術的に重要だが判断が保留されている点:
– 訓練されたモデルのパラメータは、元の著作物の「コピー」なのか「変容」なのか
– AI学習と人間の学習は法的に同等に扱われるべきか
– モデルの出力が訓練データの「派生物」(derivative work)に該当するか
これらの技術的・法的争点は、今後の専門家証人の証言と本案審理で詳細に検討されることになる。
法的意義 (Legal Significance)
先例価値 (Precedential Value)
将来への影響: この判例が将来のAI訴訟に与える影響
Stein判事の2025年4月意見および本訴訟の進展は、生成AIと著作権に関する法的枠組み形成において極めて重要な先例価値を持つ。
1. AI訓練データの著作権保護明確化
本訴訟とStein判事の判断により、「AI訓練目的での著作物使用は自動的にフェアユースとして許される」という被告側の主張が否定されつつある。裁判所は、フェアユース判断を事案ごとの個別的・総合的分析として位置づけ、AI企業に対して著作権リスクを真剣に検討することを要求している。
2. 技術インフラ提供者の責任範囲の拡大
Microsoftに対する寄与侵害請求が維持されたことは、クラウドサービス提供者、投資家、プラットフォーム事業者などが、単にインフラを提供するだけでなく、ユーザー(この場合OpenAI)の行為の適法性を監視し、必要に応じて侵害行為への協力を拒否する義務を負う可能性を示唆している。
これは、AI産業全体のサプライチェーンに影響を与える。Amazon Web Services、Google Cloud、その他のクラウドプロバイダーは、顧客がAI訓練に使用するデータの適法性を確認する新たな義務を負う可能性がある。
3. DMCAのAI分野への適用拡大
訓練データ前処理過程での著作権管理情報除去がDMCA違反を構成し得るとの判断は、新たなコンプライアンス義務を創出する。AI企業は、訓練データに含まれる著作権表示や著者情報を保持し、モデルの出力に適切な帰属情報を含める技術的措置を検討する必要が生じる。
4. クラスアクション訴訟の実効性確立
本訴訟がクラスアクションとして認証されれば、個々の作家が訴訟を提起する負担なく、集団として権利行使できる先例となる。これは、AI企業に対する著作権執行の実効性を大幅に高める。
5. 国際的影響
米国での判決は、EU、英国、日本、カナダなど他国のAI規制政策にも影響を与える。特に、米国裁判所がフェアユースの適用を制限的に解釈した場合、各国でもAI訓練用の特別立法(日本の著作権法30条の4のような例外規定)の見直し議論が活発化する可能性がある。
法理論の発展: 新興AI法原則への貢献
本訴訟は、以下の新興法理論の発展に寄与している:
1. 「計算的使用」(Computational Use)理論
AI訓練のような大規模データ分析を「計算的使用」として特別に扱うべきかという理論的議論が進行中である。この理論によれば:
– 計算的使用は、人間が表現を享受する伝統的使用とは根本的に異なる
– 計算的使用は情報の統計的分析であり、表現の複製・伝達ではない
– したがって、著作権法の本来の保護範囲外である(または少なくとも広範なフェアユースが認められるべき)
本訴訟での裁判所の判断は、この理論の妥当性を検証する試金石となる。
2. 「生成的フェアユース」(Generative Fair Use)概念
従来のフェアユース理論は、既存著作物の引用、批評、パロディなどを想定していた。しかし、AIは既存著作物を「生成」の基盤として使用する。このような使用形態に対する新たなフェアユース理論の必要性が議論されている。
3. 「市場代替性」(Market Substitution)テストの再定義
フェアユース第4要素(市場影響)において、AI生成コンテンツが元の著作物の「市場代替物」となるかが争点である。本訴訟は、以下の問いに答えを提供する可能性がある:
– AI生成ノンフィクションは、人間が書いたノンフィクションの市場を奪うか?
– ライセンス市場が成立している場合、無許諾使用は常に市場を害するか?
– 訓練データとしての使用と出力における使用を別々に評価すべきか?
解釈の明確化: 既存法のAI分野への適用に関する明確化
1. 「複製」(Reproduction)概念のデジタル時代における解釈
著作権法上の「複製」が、RAM上の一時的複製、データベースへの組み込み、機械学習モデルパラメータへの符号化なども含むかが明確化される。
従来の判例(MAI Systems Corp. v. Peak Computer, Inc., 991 F.2d 511 (9th Cir. 1993))は、RAMへの一時的ロードも複製に該当すると判示しているが、AI訓練文脈でこれがどう適用されるかは未確定である。
2. 「派生的著作物」(Derivative Work)の定義
AI生成出力が、訓練データの「派生的著作物」に該当するかの判断基準が明確化される。
著作権法§ 101は派生的著作物を「既存著作物に基づいて作成された著作物」と定義している。AI生成出力は、訓練データに「基づいて」いるのか、それとも統計的に学習した知識から「独立して」創作されたのか、が争点である。
3. フェアユース判断における「変容性」の限界
Google Books事件以降、「変容的使用」がフェアユース判断を支配するようになったが、どの程度変容すればフェアユースが成立するのかの明確な基準は存在しない。
本訴訟は、以下の点を明確化する可能性がある:
– 使用「目的」の変容だけで十分か、それとも使用「結果」(出力)も変容している必要があるか
– 商業的利益を得ている場合でも変容性は認められるか
– 元の著作物の「表現」が出力に反映される可能性がある場合、変容性は否定されるか
規制・実務への影響 (Regulatory and Practical Impact)
AIガバナンス: AI開発・運用におけるガバナンス要件への示唆
本訴訟は、AI企業に以下のガバナンス体制の構築を促している:
1. 訓練データ管理体制
– データソース記録: 訓練データの全ソースを記録し、監査可能にする
– 著作権デューデリジェンス: データセット構築時に著作権保護状況を確認する手続き
– 海賊版排除プロセス: 不正入手データを排除するフィルタリングシステム
– 権利者通知対応: 著作権者からの削除要請に応じる手続き
2. ライセンス戦略
– プロアクティブライセンシング: 主要な出版社、新聞社、作家団体と事前にライセンス契約を締結
– オプトアウト制度: 著作権者が自らの作品を訓練データから除外できる仕組み(ただし、デフォルト無許諾使用を前提とするオプトアウトは法的に不十分との批判がある)
– 補償メカニズム: 訓練データに使用された著作物の権利者への適切な補償
3. 技術的保護措置
– 著作権管理情報の保持: CMIを訓練プロセス全体で保持する技術設計
– 出力フィルタリング: 訓練データの直接再現を検知・防止するシステム
– 帰属表示機能: AI生成コンテンツに影響を与えた訓練データソースの表示(技術的に困難だが研究が進行中)
4. 内部コンプライアンス体制
– AI倫理委員会: 著作権、プライバシー、バイアスなどの倫理的・法的問題を審査する組織
– 法務レビュー: 新たなモデルリリース前の著作権リスク評価
– 継続的監視: デプロイ後のモデル出力の著作権侵害リスク監視
コンプライアンス: 企業が取るべき対応策
AI開発企業向け:
1. 訓練データの適法性確認
– 既存モデルの訓練データソースの全面監査
– 今後のモデル訓練における著作権クリアランス手続きの確立
– 海賊版サイトからのデータ使用の完全排除
2. ライセンス契約の締結
– 主要コンテンツプロバイダーとの包括的ライセンス契約
– 適正な対価の支払いメカニズムの構築
3. フェアユース依拠のリスク評価
– 訴訟リスクの財務的評価
– フェアユース抗弁が認められない場合の代替戦略
4. 透明性の向上
– 訓練データソースの公開(競争上の秘密との両立が課題)
– 研究コミュニティとの協力
技術インフラ提供企業(クラウドプロバイダー等)向け:
1. 利用規約の明確化
– 顧客が訓練データの適法性を保証する条項
– 侵害通知を受けた場合のサービス停止権限の明記
2. 寄与侵害リスク管理
– 顧客のデータ使用状況の監視(プライバシーとのバランスが課題)
– 著作権侵害の蓋然性が高い利用の制限
出版社・コンテンツ権利者向け:
1. 権利行使戦略
– クラスアクション訴訟への参加検討
– 個別ライセンス交渉の推進
2. 技術的保護措置
– ウェブサイトでのAIクローラーブロック(robots.txtの設定など)
– 電子透かし(watermarking)による著作権管理情報の埋め込み
3. 新ビジネスモデルの検討
– AI訓練用ライセンスの積極的提供
– AI企業との戦略的パートナーシップ
業界への影響: AI開発・展開実務への具体的効果
1. AI開発コストの増加
訓練データのライセンスコストが発生することにより:
– 大規模モデル開発の総コストが数千万ドル~数億ドル増加する可能性
– 資金力のあるビッグテック企業のみが最先端モデルを開発できる状況が加速(競争への悪影響)
– オープンソースAIモデルの開発が困難化
2. 合成データ・代替データソースへのシフト
著作権リスクを回避するため:
– AI生成コンテンツを訓練データとする「合成データ」の利用拡大(ただし品質劣化の懸念)
– パブリックドメイン作品、クリエイティブコモンズライセンス作品への依存
– 独自データ収集への投資増加
3. 国際的開発拠点の移転
著作権規制の厳しい米国・EU以外への開発拠点移転:
– 日本(著作権法30条の4による比較的寛容な規制)への注目
– シンガポール、中国などAI振興政策を持つ国への移転
– 規制アービトラージ(規制裁定取引)による法執行の困難化
4. 業界標準・自主規制の形成
訴訟リスクを軽減するため、AI業界全体での自主規制枠組み構築:
– 訓練データ管理のベストプラクティスガイドライン
– 業界団体による著作権者との包括的ライセンス契約
– AI生成コンテンツの透明性表示標準(C2PA(Coalition for Content Provenance and Authenticity)など)
リスク管理: 類似リスクを回避するための考慮事項
AI企業および関連事業者が今後留意すべき点:
1. プロアクティブな権利処理
– 「許諾を求めるより後で許しを乞う方が容易」という姿勢は通用しない
– 訓練データ収集前の権利クリアランスが不可欠
2. 判例動向の継続的監視
– 本訴訟を含む複数のAI著作権訴訟が今後2-3年で判決に至る
– これらの判決は急速に法的環境を変化させる可能性があり、継続的監視が必要
3. 保険の検討
– AI著作権侵害リスクをカバーする専門保険商品の検討
– 訴訟費用と潜在的損害賠償の財務的準備
4. 代替的紛争解決(ADR)の活用
– 長期訴訟のコストとリスクを回避するため、早期の和解交渉
– 業界全体での包括的ライセンス枠組み構築への参加
5. 技術革新による対応
– 著作権保護と技術革新を両立する新技術の開発(federated learning、differential privacyなど)
– 権利者が利益を共有できるビジネスモデルの構築
比較法的観点 (Comparative Law Perspective)
日本法との比較: 日本のAI・データ保護法制との相違点
日本と米国では、AI訓練における著作権の扱いが大きく異なる。
1. 日本著作権法30条の4(平成30年改正)
日本は2018年の著作権法改正により、第30条の4として「著作物に表現された思想又は感情の享受を目的としない利用」を包括的に許容する規定を導入した。
条文(要旨):
> 著作物は、次に掲げる場合その他の当該著作物に表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合には、その必要と認められる限度において、いずれの方法によるかを問わず、利用することができる。
> 一 著作物の録音、録画その他の利用に係る技術の開発又は実用化のための試験の用に供する場合
> 二 情報解析(多数の著作物その他の大量の情報から、当該情報を構成する言語、音、影像その他の要素に係る情報を抽出し、比較、分類その他の解析を行うことをいう。第47条の5第1項第2号において同じ。)の用に供する場合
AI訓練への適用:
AI訓練は「情報解析」に該当するため、原則として著作権者の許諾なく著作物を利用できる。ただし、以下の制限がある:
– 「享受目的」の除外: AI訓練が「情報解析」目的ではなく、著作物の表現を享受する目的(例:特定作家の文体を模倣する目的)で行われる場合は、30条の4の適用外となる
– 著作権者の利益を不当に害する場合: 30条の4ただし書きにより、著作権者の利益を不当に害する場合は適用されない
文化庁の2024年解釈指針:
2024年2月に文化庁が発表した「AIと著作権に関する考え方」では:
– 権利者が明示的にAI訓練用ライセンスを提供している場合、それを無視して30条の4に依拠することは「著作権者の利益を不当に害する」と解釈される可能性がある
– 海賊版サイトから入手したデータの使用は、適法な情報源からの入手が容易である限り、30条の4の「必要と認められる限度」を超えるとされる可能性がある
米国法との比較:
| 要素 | 日本(著作権法30条の4) | 米国(フェアユース) |
|——|———————|——————|
| 法的構造 | 明文の例外規定 | 裁判所による個別判断 |
| 適用の予測可能性 | 比較的高い | 低い(判例による) |
| AI訓練の扱い | 原則として許容 | ケースバイケース(現在訴訟中) |
| 商業利用の可否 | 原則として許容 | フェアユース判断で不利要素 |
| 海賊版利用 | 制限される方向 | 明確に不利(Anthropic判決) |
| ライセンス市場の考慮 | 2024年指針で考慮要素化 | フェアユース第4要素で重視 |
2. 個人情報保護法との関係
日本では、AI訓練データに個人情報が含まれる場合、個人情報保護法の適用も問題となる。ただし、学術研究目的での利用には例外規定がある(個人情報保護法第57条の2)。米国では、著作権とプライバシーは別個の法的問題として扱われる。
3. 不正競争防止法
日本では、著作権で保護されないデータベースやAIモデル自体の不正取得・使用が不正競争防止法によって保護される可能性がある(同法第2条第1項第4号以下)。
実務上の示唆:
– 日本で開発されたAIモデルを米国市場に展開する場合、日本では適法だった訓練データ使用が米国で著作権侵害と判断されるリスクがある
– グローバル展開を目指すAI企業は、最も厳格な法域(米国・EU)の基準に合わせた訓練データ管理が必要
他国判例との関係: 類似事案の国際的動向
1. 英国
The Newspaper Licensing Agency Ltd v Meltwater Holding BV [2011] EWCA Civ 890:
– ニュース記事のスクレイピングとデータベース化がフェアディーリング(英国版フェアユース)に該当しないと判断
– ただし、2014年著作権法改正により、テキスト・データマイニングのための例外規定が導入された(Section 29A)
– この例外は「非商業的研究目的」に限定されており、商業的AI開発には適用されない可能性が高い
– 2022年、英国政府はAI訓練のための包括的例外を導入する案を提示したが、著作権者の反対により保留中
2. EU
デジタル単一市場における著作権指令(DSM指令)第3条・第4条(2019年):
– テキスト・データマイニングのための例外規定を導入
– 第3条:科学研究目的のマイニング
– 第4条:一般的なマイニング(ただし権利者がオプトアウトした場合は適用外)
実務上の課題:
– オプトアウト方式の技術的実装方法が不明確
– 権利者の明示的反対表明があった場合の扱い
EU AI Act(2024年施行):
– AI開発者に対して訓練データの透明性を要求
– 高リスクAIシステムには厳格なデータガバナンス要件
– 著作権法との調整が課題
3. カナダ
現在、明確なAI訓練用の著作権例外規定はなく、フェアディーリング(米国のフェアユースに類似)の法理に依拠することになる。
Society of Composers, Authors and Music Publishers of Canada v. Bell Canada [2012] SCC 36:
– カナダ最高裁は、フェアディーリングを比較的広く解釈する姿勢を示した
– この判例がAI訓練に適用されるかは未確定
4. オーストラリア
2023年著作権法改正案:
– AI訓練を含む計算的利用のための限定的例外を検討中
– 権利者団体の反対により法制化は保留
5. 中国
中国では、著作権法上の明確な規定はないが、「三段階テスト」(ベルヌ条約、TRIPS協定)に基づく制限的解釈が採用される傾向にある。
2023年深圳互聯網法院の判決:
– AI生成画像の著作権が認められた事例があるが、訓練データの著作権侵害については未判断
グローバルな影響: 多国籍企業への影響
1. 法的リスクの地域差
グローバルに展開するAI企業(OpenAI、Google、Meta、Anthropicなど)は、国ごとに異なる著作権規制に直面する:
– 最も厳格: 米国(現在訴訟中、フェアユース不成立のリスク)、EU(オプトアウト制度)
– 比較的寛容: 日本(30条の4)、シンガポール
– 不明確: 中国、インド、ブラジルなど新興市場
2. データローカライゼーション戦略
多国籍企業は、各国の法的環境に応じて訓練データとモデル開発拠点を分散させる戦略を取る可能性がある:
– 米国/EUの厳格な著作権規制を回避するため、日本やシンガポールで訓練
– ただし、GDPRなどのデータ越境移転規制との調整が必要
3. 国際条約との整合性
ベルヌ条約三段階テスト(第9条(2)):
> 著作物の複製を認める場合は、(i)特定の特別な場合に限定され、(ii)著作物の通常の利用を妨げず、(iii)著作者の正当な利益を不当に害しないことを条件とする
AI訓練が三段階テストを満たすかについて、国際的な解釈の統一が求められている。
WIPO(世界知的所有権機関)の動向:
– WIPOは2019年以降、AI訓練と著作権に関する国際対話を開催
– しかし、加盟国間で見解が大きく分かれており、国際条約による統一は当面困難
4. 企業戦略への示唆
– 最小公倍数的アプローチ: 最も厳格な法域(米国)の基準に合わせて全世界で統一的な訓練データ管理を行う(コストは高いが法的リスクは最小)
– 地域別最適化アプローチ: 各国の法規制に応じて異なるモデル・データセットを開発(コスト効率的だが管理が複雑)
– ロビイング戦略: 各国政府・議会に対して、AI開発を促進する法制度(日本の30条の4のような例外規定)の導入を働きかける
重要なポイント (Key Takeaways)
実務家への示唆: 弁護士・企業法務担当者が知るべき要点
1. AI訓練データの著作権リスクは現実のものである
「AI訓練はフェアユース」という楽観的前提は成立しない可能性が高まっている。Stein判事の2025年4月判断は、OpenAIの棄却申立てをほぼ全面的に退け、原告の請求を本案審理に進めることを認めた。これは、AI訓練が著作権侵害を構成する可能性を裁判所が真剣に検討していることを示す。
実務対応:
– 既存AIモデルの訓練データ監査を至急実施
– 訴訟リスクの財務的評価と引当金の検討
– 訴訟対応体制(外部法律事務所との連携)の構築
2. 技術インフラ提供者も責任を負う可能性がある
Microsoftに対する寄与侵害請求が維持されたことは、クラウドプロバイダー、投資家、流通プラットフォームなども著作権侵害責任を負うリスクがあることを示す。「単なるインフラ提供者」との抗弁は、積極的関与の証拠がある場合には認められない。
実務対応:
– サービス利用規約に顧客の著作権遵守義務を明記
– 侵害通知(DMCA takedown notice)への対応プロセスの整備
– 顧客のリスク評価と高リスク利用の制限
3. DMCAコンプライアンスの重要性
訓練データ前処理での著作権管理情報除去がDMCA違反を構成し得るとの判断は、新たなコンプライアンス義務を創出する。DMCA違反は、フェアユース抗弁とは独立して損害賠償を生じさせる。
実務対応:
– データ処理パイプラインでのCMI保持プロセスの見直し
– メタデータ管理システムの強化
– DMCA専門弁護士によるレビュー
4. ライセンス戦略の重要性
フェアユース第4要素(市場影響)の判断において、ライセンス市場の存在は重要である。実際に複数の出版社・新聞社がAI企業とライセンス契約を締結しており、「ライセンスを求めても得られない」との抗弁は通用しにくくなっている。
実務対応:
– 主要コンテンツプロバイダーとのライセンス交渉の開始
– 業界団体を通じた包括的ライセンス枠組みへの参加
– ライセンス予算の確保
5. クラスアクション訴訟のインパクト
本訴訟がクラスアクションとして認証されれば、潜在的損害賠償額は数億ドルから数十億ドルに達する可能性がある。和解交渉も視野に入れるべきである。
実務対応:
– クラスアクション訴訟の動向監視
– 早期和解の戦略的検討
– 財務的準備(保険、引当金)
今後の展望: 関連する法的論点の発展予測
1. 2025-2026年: 地方裁判所判決の集積期
Sancton訴訟を含む複数のAI著作権訴訟が、今後1-2年で地方裁判所レベルの実体判決(サマリージャッジメントまたは陪審評決)に至ると予想される。これらの判決により、以下の争点が明確化される:
– AI訓練がフェアユースに該当するかの具体的判断基準
– 損害額の算定方法(法定損害賠償 vs. 実損害)
– 差止命令の適用範囲
2. 2026-2028年: 控訴審による法理の確立
地方裁判所判決に対する控訴により、巡回控訴裁判所レベルでの判断が示される。特に、第2巡回区(ニューヨーク)は著作権法の権威的法域であり、その判断は全米に影響を与える。
巡回区間で判断が分かれた場合、連邦最高裁判所による最終判断の可能性もある。
3. 立法的対応の可能性
訴訟の進展と判決内容によっては、議会が立法的解決を図る可能性がある:
– AI訓練用の明文の例外規定: 日本の30条の4のような規定の導入
– 強制ライセンス制度: 著作権者が拒否できない代わりに適正対価を保証する制度
– オプトアウト制度の法定化: EU型のアプローチ
ただし、米国議会は著作権者(出版業界、エンタメ業界)とテック業界の間で激しいロビー合戦が展開されるため、合意形成は容易ではない。
4. AI生成物の著作権保護
本訴訟は「入力」(訓練データ)の著作権に関するものだが、今後は「出力」(AI生成物)の著作権保護も重要な論点となる:
– AI生成物は著作権保護の対象となるか?
– 「人間の著者性」(human authorship)要件をどう解釈するか?
米国著作権局は、2023年のガイダンスで「AI生成物は原則として著作権保護されないが、人間の創作的関与があれば保護され得る」との立場を示している。
5. 国際的調和の試み
各国の法制度が乱立する現状に対して、国際的な調和を図る動きが出る可能性がある:
– WIPO主導の国際的ガイドライン策定
– G7などでのAI規制協調の枠組み
– 二国間・多国間条約による統一ルール形成
注意すべき事項: 類似案件における留意点
1. 訴訟提起を検討する権利者(原告側)の留意点
– 訴訟適格: 著作権登録が米国での訴訟提起の前提条件である(17 U.S.C. § 411)
– クラスアクションへの参加: 既存のクラスアクション訴訟への参加(opt-in)と独自訴訟提起のメリット・デメリット比較
– 証拠収集: 自らの著作物が訓練データに使用されたことの立証方法(プロンプト注入による抽出実験、内部文書の証拠開示など)
– 損害額の算定: 法定損害賠償を選択するか、実損害立証に挑戦するか
– 和解交渉: 訴訟と並行してライセンス契約交渉を進める戦略
2. AI企業(被告側)の留意点
– 訴訟対応体制: 複数の訴訟が同時並行するため、統一的な訴訟戦略と弁護団の調整が必要
– 証拠保全: 訓練データ、内部通信、技術文書の保全義務(spoliation制裁のリスク)
– PRとの調整: 訴訟対応と同時に、メディア・投資家・顧客への説明が必要
– ビジネス継続計画: 敗訴または不利な和解の場合のビジネスモデル調整
– 国際展開戦略: 米国での不利な判決を前提とした国際展開戦略の見直し
3. 関連業界事業者の留意点
– 出版社・新聞社: AI企業とのライセンス交渉における対価設定、独占的ライセンスの可否
– 作家・ジャーナリスト: 個人として権利行使するか、団体(Authors Guildなど)を通じて集団的に行使するか
– 図書館・アーカイブ: 保有データの第三者への提供がAI訓練に利用されるリスク
– 学術機関: 研究目的でのAI訓練と商業的AI訓練の区別
4. 日本企業の特別な留意点
– 越境的法適用: 日本で適法に開発したAIモデルを米国で展開する際の法的リスク
– 米国訴訟への対応: ディスカバリの広範性、陪審裁判の予測困難性、懲罰的損害賠償のリスク
– 著作権法30条の4への過信の危険: 日本法では適法でも、グローバル展開では法的リスクがある
– 文化庁ガイドラインの変化: 2024年指針は30条の4の適用を従来より制限的に解釈しており、今後も変化する可能性
—
このレポートに関する注意事項 (Warning/Notes)
– このレポートはサイト運営者がAIエージェントに文献等の調査・調査結果の分析・分析結果の整理・分析結果の翻訳等を行わせたものです。人間による追加的な調査や査読は行っておらず、内容には誤りを含む場合があります。
– 本訴訟(Sancton v. OpenAI Inc. et al.)は現在も係属中であり、本レポート作成時点(2025年10月2日)以降に重要な訴訟上の進展が生じている可能性があります。最新の訴訟状況については、公式の裁判所記録(PACER)または専門法律データベース(Westlaw、LexisNexisなど)をご確認ください。
– 本レポートは法的助言を構成するものではありません。具体的な法的問題については、専門の弁護士にご相談ください。
– 本レポートで引用した判例、法令、ガイドライン等は、レポート作成時点のものであり、その後改正・変更されている可能性があります。
– 日本語訳部分は、米国法の概念を日本の法律実務家向けに翻訳したものであり、法的に確立した訳語ではない場合があります。原語の意味を優先してご理解ください。
– 訴訟における技術的事実関係(GPTモデルの訓練方法、データセットの具体的内容など)については、当事者間で争いがあり、最終的な事実認定は裁判所の判断を待つ必要があります。
– 本レポートの内容は、サイト運営者またはレポート作成に関与したAIの見解を示すものではなく、客観的な情報提供を目的としています。
—
出典・参考文献 (Sources and References)
1. PACER (Public Access to Court Electronic Records) – Case No. 1:23-cv-10211 (S.D.N.Y.)
2. Justia Dockets & Filings – Sancton v. OpenAI Inc. et al.
3. Susman Godfrey L.L.P. Press Releases
4. Authors Guild Official Statements
5. U.S. Copyright Office, “Copyright and Artificial Intelligence Report” (May 2025)
6. Various law firm analyses (Skadden, Reed Smith, Mayer Brown, Wiley)
7. Court opinions in related cases (Thomson Reuters v. Ross Intelligence, Meta v. Authors, Anthropic v. Authors)
8. 文化庁「AIと著作権に関する考え方について」(令和6年3月)
9. Legal news sources (Bloomberg Law, Law360, etc.)
—
レポート作成情報:
– 作成日: 2025年10月2日
– 調査対象期間: 2023年11月(訴訟提起)~2025年10月
– 主要情報源: 公開法廷文書、法律事務所分析、法律ニュースメディア
– 分析手法: AI支援による情報収集・整理・翻訳
コメントを残す