Alter, et al. v. OpenAI, et al. (formerly Sancton v. OpenAI Inc.)

Alter, et al. v. OpenAI, et al. (formerly Sancton v. OpenAI Inc.)

Case Metadata

Basic Information

Case Name: Alter, et al. v. OpenAI, Inc., et al. (originally filed as Sancton v. OpenAI Inc., et al.)

Court: United States District Court for the Southern District of New York (S.D.N.Y.), subsequently consolidated into Multidistrict Litigation (MDL) No. 3143 – In Re: OpenAI, Inc. Copyright Infringement Litigation

Filing Date: November 21, 2023

Judgment Date: Case ongoing; no final judgment issued as of October 2025

Case Number: 1:23-cv-10211 (S.D.N.Y.), consolidated into MDL 3143

Current Status: Active litigation. Consolidated into MDL 3143 on April 3, 2025. Currently in summary judgment phase with motions filed January 7, 2025, and replies due February 28, 2025. In-person discovery status conference scheduled for May 27, 2025.

Parties

Plaintiff(s):
Lead Plaintiff: Julian Sancton – New York Times bestselling author of “Madhouse at the End of the Earth: The Belgica’s Journey into the Dark Antarctic Night”
Additional Named Plaintiffs (added December 19, 2023): Jonathan Alter, Kai Bird, Taylor Branch, Rich Cohen, Eugene Linden, Daniel Okrent, Stacy Schiff, James Shapiro, Wade Hampton Sides, Jia Tolentino, Simon Winchester (all members or council members of The Authors Guild)
Collective Achievements: The plaintiff group includes three Pulitzer Prize winners and authors of over 30 New York Times bestsellers
Proposed Class: Representing “at least tens of thousands of nonfiction authors” whose copyrighted works were allegedly used without authorization in training large language models

Defendant(s):
OpenAI Inc. – Artificial intelligence research and development company, creator of ChatGPT and the GPT series of large language models
Microsoft Corporation – Technology company alleged to be “deeply involved in the training, development, and commercialization” of OpenAI’s GPT-based products, providing specialized computing infrastructure for model training

Key Law Firms:
Plaintiffs’ Counsel: Susman Godfrey LLP (Lead Counsel) – Justin A. Nelson (Partner), Rohit Nath (Partner), Alejandra C. Salinas (Partner)
Defendants’ Counsel: Not publicly disclosed in available sources

Expert Witnesses:
Expert reports submitted October 18, 2024 (burden of proof parties) and November 18, 2024 (opposing parties); specific expert identities not publicly disclosed in available sources.

Legal Framework

Case Type: Copyright infringement class action lawsuit involving generative artificial intelligence, specifically addressing unauthorized use of copyrighted nonfiction works in training large language models (LLMs)

Primary Legal Claims:
– Direct Copyright Infringement (17 U.S.C. § 501 et seq.) – Unauthorized reproduction of copyrighted works in AI training datasets
– Contributory Copyright Infringement – Against both OpenAI and Microsoft for facilitation and support of infringement activities

Secondary Claims:
– Allegations of market harm and competitive injury through creation of AI systems that generate content similar to plaintiffs’ copyrighted works
– Claims based on commercial exploitation of copyrighted materials without compensation or licensing

Monetary Relief:
Specific damages amounts not disclosed in publicly available documents. Plaintiffs seek:
– Statutory damages for copyright infringement
– Actual damages including lost book sales and licensing revenues
– Injunctive relief to prevent future unauthorized use
– Class-wide compensation for all affected nonfiction authors

Technical Elements

AI/Technology Involved:
GPT Series Language Models: Including GPT-3, GPT-3.5, GPT-4, and subsequent versions
ChatGPT: Commercial conversational AI product built on GPT models
Training Infrastructure: Microsoft-provided specialized computing systems for model training
Training Dataset: Alleged to include “millions, possibly billions” of copyrighted works, including books, articles, and other nonfiction content
Training Process: LLMs trained on “trillions of words” to “calibrate the GPT models to produce human-like expression”

Industry Sectors:
– Publishing and literary works (nonfiction books, journalism, academic writing)
– Artificial intelligence research and development
– Cloud computing and technology infrastructure
– Digital content platforms

Data Types:
– Copyrighted nonfiction literary works (books, articles, academic papers)
– Text data from published authors and journalists
– Training datasets compiled without explicit authorization or licensing
– Specific confirmed inclusion: Julian Sancton’s “Madhouse at the End of the Earth” acknowledged by ChatGPT as part of training data

Database Navigation

Keywords/Tags:
AI copyright infringement, generative AI, large language models, LLM, ChatGPT, GPT, OpenAI, Microsoft, training data, fair use, transformative use, nonfiction authors, Authors Guild, class action, copyright litigation, AI training datasets, computational copyright, machine learning, natural language processing, literary works, digital copyright, DMCA, multidistrict litigation, MDL

Related Cases:
– Authors Guild v. OpenAI Inc., Case No. 1:23-cv-08292 (S.D.N.Y.) – Parallel class action by The Authors Guild
– The New York Times Co. v. OpenAI Inc. (S.D.N.Y., March 2025) – Copyright suit by major newspaper
– Thomson Reuters Enterprise Centre GmbH v. ROSS Intelligence Inc. – AI legal research tool copyright case with summary judgment for plaintiff
– Anthropic AI case (June 2025) – Federal court ruling recognizing LLM training as transformative
– Daily News LP cases (consolidated into MDL 3143)
– Multiple journalist and publisher cases consolidated into MDL 3143
– Google LLC v. Oracle America, Inc., 593 U.S. 1 (2021) – Supreme Court fair use precedent cited by defendants

詳細分析 (Detailed Analysis)

事件の概要 (Case Overview)

背景と争点 (Background and Issues)

事実関係:

本件は、OpenAI社が開発した大規模言語モデル(LLM)であるGPTシリーズおよびその商用製品ChatGPTの訓練に、著作権で保護されたノンフィクション作品を無断で使用したとして、複数の著名作家が提起した集団訴訟である。

2023年11月21日、ニューヨーク・タイムズ紙のベストセラー作家ジュリアン・サンクトン氏が、ニューヨーク南部地区連邦地方裁判所にOpenAI社を相手取り訴訟を提起した。サンクトン氏の著書「Madhouse at the End of the Earth: The Belgica’s Journey into the Dark Antarctic Night」がChatGPTの訓練データセットに含まれていたことをChatGPT自身が認めたことが、訴訟提起の直接的契機となった。

同年12月19日、訴状が修正され、著作家協会(Authors Guild)のメンバーおよび理事を含む12名の共同原告が追加された。これらの原告には、3名のピューリッツァー賞受賞者が含まれ、総計で30冊以上のニューヨーク・タイムズ紙ベストセラーの著者が名を連ねている。また、Microsoft社が共同被告として追加され、同社がOpenAIのGPTモデルの「訓練、開発、商業化に深く関与」し、モデル訓練のための特殊な計算システムを提供していたとされる。

原告らは、OpenAI社とMicrosoft社が「数百万、おそらく数十億」の著作権保護作品を許諾なく複製し、これらを用いて「数百億ドルの価値を持つ事業」を構築したと主張している。原告側は、この行為を「著作権作品の横行する窃盗」と特徴づけ、著作者に一切の補償を行わずに商業的に作品を複製したことが、潜在的な書籍販売およびライセンス収入を奪ったと訴えている。

中心的争点:

本件の中核的な法的争点は、AI言語モデルの訓練目的での著作権保護作品の無断使用が、米国著作権法上の侵害に該当するか、それとも公正使用(fair use)の抗弁により正当化されるかという点である。

具体的には以下の論点が争われている:

1. 直接著作権侵害の成否: OpenAI社とMicrosoft社による訓練データセットへの作品組み込みが、著作権者の複製権を侵害するか

2. 寄与的侵害の成否: Microsoft社の計算インフラ提供および商業的関与が、寄与的侵害を構成するか

3. 公正使用の抗弁: 被告の行為が、変容的使用(transformative use)として公正使用に該当するか

4. 市場への影響: ChatGPTの出力が原告作品の市場を代替し、経済的損害をもたらしているか

5. 予備的段階の法理: Google v. Oracle最高裁判例に基づく「予備的段階」の法理が、LLM訓練に適用されるか

原告の主張:

原告らは、被告による作品使用が著作権侵害を構成し、公正使用の抗弁は認められないと主張している。主要な論点は以下の通り:

1. 商業目的の無断複製: OpenAI社は著作権保護作品を「人間に似た表現を生成する」ようGPTモデルを調整する目的で使用したが、一切の対価を支払っていない

2. 市場代替効果: 「OpenAIは、著作者が通常報酬を得る種類のコンテンツを生成するために構築された機械を作成する目的で、著作者のコンテンツを横領した」

3. 非変容的使用: 訓練プロセスは単なる複製であり、新たな意味や表現を創出する変容的使用ではない

4. 公正使用の否定: 商業目的での著作権保護作品の複製は「明白に不公正な使用」である

5. 経済的損害: ChatGPTの商業的成功は「ノンフィクション作家の犠牲の上に成り立っており、作家は一銭も得ていない」

原告らは、OpenAI社の元CEO サム・アルトマン氏の「創作者は自らの創作物がどのように使用されるかについて管理する権利がある」との発言を引用し、被告自身が創作者の権利を認めていると主張している。

被告の主張:

被告OpenAI社とMicrosoft社は、LLM訓練目的での著作権保護作品の使用は変容的公正使用に該当すると抗弁している。主要な反論は以下の通り:

1. 変容的使用の主張: 原告作品の複製は変容的公正使用に該当し、ChatGPT製品は原作との「著しい類似性を持たない」新しい形式に作品を「変容」させる

2. 予備的段階の法理: Google v. Oracle最高裁判例を援用し、新製品開発の「予備的段階」として作品を複製することは侵害ではないと主張

3. 教育目的: モデルに「知性と言語を教える」ために書籍が使用された場合、これは「典型的な変容的公正使用」である

4. 市場代替の不存在: 原告は損害を被っていない。なぜなら、ChatGPTは市場において原告作品を代替していないからである

5. 技術的不具合としての複製: コンテンツの正確な複製は、開発者が解決を意図している「バグ」である

6. DMCA セーフハーバー: Microsoft社とOpenAI社は、デジタルミレニアム著作権法(DMCA)のセーフハーバー条項を援用する可能性がある(具体的主張は公開情報では詳細不明)

AI/技術要素:

本件の中心となる技術は、OpenAI社が開発したGPTシリーズの大規模言語モデル(Large Language Models, LLMs)である。

GPTモデルの構造: GPT(Generative Pre-trained Transformer)は、膨大なテキストデータで事前訓練された深層学習モデルで、自然言語の理解と生成能力を持つ。GPT-3、GPT-3.5、GPT-4と進化し、パラメータ数は数千億に達する。

訓練プロセス: モデルは「数兆の単語」を含む大規模データセットで訓練され、言語のパターン、文法、事実関係、推論能力を学習する。この訓練により「人間に似た表現を生成する」能力が獲得される。

訓練データの範囲: 原告側は、訓練データセットに「数百万、おそらく数十億」の著作権保護作品が含まれていると主張。OpenAIは訓練データの詳細を公開していないが、ChatGPT自身がサンクトン氏の著書が訓練データに含まれていることを認めた。

Microsoft社の役割: Microsoft社は、OpenAIのモデル訓練に必要な「特殊な計算システム」を提供。大規模言語モデルの訓練には、膨大な計算資源(GPU/TPUクラスター)が必要であり、Microsoft社のクラウドインフラ(Azure)がこれを支えている。

出力生成メカニズム: 訓練されたモデルは、入力プロンプトに基づき確率的に次の単語を予測することで文章を生成。訓練データから直接コピーするのではなく、学習したパターンに基づき新しいテキストを生成するとされる。

業界慣行の問題点: ワシントン・ポスト紙の調査によれば、AI企業は著作権侵害の恐れから、訓練データの内部記録を保持しない傾向がある。600以上のAI訓練データ関連法案が米国全土で提案されており、2024年4月には「GenAI著作権開示法」が導入され、訓練に使用された著作権保護データの開示を義務付ける動きがある。

手続きの経過 (Procedural History)

2023年11月21日: ジュリアン・サンクトン氏がニューヨーク南部地区連邦地方裁判所にOpenAI社を相手取り訴訟提起(事件番号1:23-cv-10211)

2023年12月4日: 原告が修正訴状を提出

2023年12月19日: 12名の共同原告を追加した第二次修正訴状を提出。事件名が「Alter, et al. v. OpenAI, et al.」に変更

2024年1月12日: 被告の答弁書または却下申立ての期限

2024年2月: OpenAI社が修正訴状に対する答弁書を提出し、変容的公正使用の抗弁を主張

2024年のディスカバリー日程:
– ディスカバリー開始:2023年11月6日
– 事実関係ディスカバリー完了:2024年9月17日
– 立証責任側の専門家報告書:2024年10月18日
– 反対側の専門家報告書:2024年11月18日
– 専門家ディスカバリー完了:2024年12月9日

2024年9月: 裁判所は、原告側弁護士に対し、OpenAI社の訓練データへのアクセスを許可。ただし、インターネット接続のない安全なコンピュータを備えた安全な部屋でのみ閲覧可能という厳格な条件付き

2025年のサマリー・ジャッジメント段階:
– サマリー・ジャッジメント申立およびDaubert申立:2025年1月7日
– 反対意見書:2025年2月7日
– 返答書期限:2025年2月28日

2025年4月3日: 多地区訴訟(MDL)パネルが、本件をMDL 3143(In Re: OpenAI, Inc. Copyright Infringement Litigation)に統合する移送命令に署名。シドニー・H・スタイン判事に配属され、調整された訴訟前手続きのため、関連するOpenAI著作権訴訟と統合。オナ・T・ワン治安判事も担当に指名

2025年5月27日: MDL 3143下のすべての訴訟について対面式ディスカバリー状況協議が予定

重要な手続き上の決定:

1. 訓練データへのアクセス(2024年9月): 裁判所は、原告側弁護士に対し厳格なセキュリティプロトコルの下でOpenAI社の訓練データへのアクセスを許可。これは、AI企業の訓練慣行に関する前例のない洞察を提供し、著作権保護素材の使用範囲を明らかにする可能性がある。

2. MDL統合(2025年4月): MDLパネルは、複数のOpenAI著作権訴訟の統合を認め、調整された訴訟前手続きのためニューヨーク南部地区に移送。パネルは、請求間の統一性の欠如に関する懸念を退け、「被告のLLM訓練に関する事実問題およびディスカバリーにおける実質的な重複」を認定。訓練請求、出力請求、DMCA請求の相違は、「集中化への重大な障害」ではないと判断。

3. 関連事件との統合: 原告は、本件を「Authors Guild v. OpenAI」(別の集団訴訟)と関連付けることを申立。MDL 3143統合により、以下を含む複数の著作権訴訟と統合:
– Authors Guild v. OpenAI Inc.(1:23-cv-08292)
– The New York Times Co. v. OpenAI
– Daily News LP関連訴訟
– その他のジャーナリストおよび著作者訴訟

証拠開示:

– OpenAI社の訓練データへの限定的アクセスが原告側弁護士に許可されたが、厳格なセキュリティ制約の下に置かれている
– 専門家証人の報告書が2024年10月および11月に提出されたが、具体的内容は公開されていない
– 事実関係および専門家ディスカバリーは2024年12月に完了
– 訓練データの詳細、使用された著作権保護作品のリスト、訓練プロセスの技術的詳細が争点となる証拠の中心

専門家証言:

具体的な専門家証人の氏名や証言内容は公開情報では詳細不明であるが、以下の分野における専門家証言が予想される:

– 著作権法および公正使用の法理
– 大規模言語モデルの技術的仕組み
– AI訓練における著作権保護作品の使用実態
– 文学市場および出版業界への経済的影響
– 損害額の算定

判決の概要 (Judgment Summary)

裁判所の判断 (Court’s Decision)

本件は現在も係属中であり、本案についての最終判決は下されていない(2025年10月時点)。しかし、手続き上の重要な決定がいくつか下されている。

主要な中間決定:

1. MDL統合命令(2025年4月3日):

多地区訴訟パネルは、本件を含む複数のOpenAI関連著作権訴訟をMDL 3143に統合することを命じた。パネルの判断理由は以下の通り:

– 「被告のLLMの訓練に関する事実問題およびディスカバリーにおける実質的な重複」が存在する
– 訓練請求、出力請求、DMCA請求の相違は、「集中化への重大な障害」とはならない
– 効率的な訴訟前手続きの調整のため、ニューヨーク南部地区のシドニー・H・スタイン判事への統合配属が適切

この決定により、関連する複数の訴訟が一元的に管理されることとなり、矛盾する判断を回避し、ディスカバリーの効率化が図られることとなった。

2. 訓練データアクセス命令(2024年9月):

裁判所は、原告側弁護士に対し、厳格なセキュリティプロトコルの下でOpenAI社の訓練データへのアクセスを許可した:

– アクセスは、インターネット接続のない安全なコンピュータを備えた安全な部屋でのみ可能
– この決定は、AI企業の訓練慣行に関する前例のない透明性を提供する
– 著作権保護素材の使用範囲を検証する機会を原告に与える

勝敗の結果:

現時点では、本案についての判決が下されていないため、勝敗は確定していない。サマリー・ジャッジメントの申立が2025年1月に提出され、裁判所の判断待ちの状態にある。

命令された救済措置:

最終判決前であるため、具体的な救済措置は命令されていない。原告が求める救済措置は以下の通り:

– 著作権侵害に対する法定損害賠償
– 逸失した書籍販売およびライセンス収入に対する実損害賠償
– 将来の無断使用を防止する差止命令
– 集団全体の被害を受けたノンフィクション著作者に対する補償

重要な法的判断:

本件自体からはまだ重要な法的判断は出ていないが、本件が置かれた法的文脈において、関連判例が重要な示唆を与えている:

1. Thomson Reuters v. ROSS Intelligence(2024年):
ビバス判事は、原告に対するサマリー・ジャッジメントを認め、侵害の成立と公正使用の不成立の両方を認定した。これは、以前に「もっともらしい変容的公正使用」を認めた意見からの「驚くべき逆転」を示し、司法のアプローチの転換の可能性を示唆している。

2. Anthropic事件(2025年6月):
連邦判事は、AI企業Anthropic社に有利な判決を下し、LLMの訓練を「変容的である-極めて」と認定した。これは、生成AIシステムの公正使用に関する最初の実質的決定である。

3. The New York Times v. OpenAI(2025年3月):
判事は、著作権訴訟の続行を認め、OpenAI社の却下申立の一部を退けた。

反対意見・補足意見:

現時点では、最終判決が下されていないため、反対意見や補足意見は存在しない。

法的推論の分析 (Analysis of Legal Reasoning)

本件の最終判決はまだ下されていないが、原告と被告の法的論理、および関連判例から、裁判所が直面する法的推論の枠組みを分析できる。

適用される法理:

1. 著作権侵害の成立要件:

米国著作権法(17 U.S.C. § 501以下)に基づき、著作権侵害が成立するには以下が必要:

– 原告が有効な著作権を有すること
– 被告が著作権者の排他的権利(複製、頒布、展示等)を侵害したこと

本件では、原告らが著名なノンフィクション作家であり、その著作物が著作権で保護されていることは争いがない。争点は、被告による訓練データセットへの組み込みが「複製」に該当するか、そして公正使用の抗弁が認められるかである。

2. 公正使用の法理(17 U.S.C. § 107):

公正使用は、著作権侵害の抗弁として機能し、以下の4要素を総合的に考慮して判断される:

(1) 使用の目的および性質(商業的か、教育的か、変容的か)
(2) 著作物の性質
(3) 使用された部分の量および実質性
(4) 著作物の潜在的市場または価値への影響

被告の公正使用の主張:

被告OpenAI社は、LLM訓練が「変容的公正使用」に該当すると主張している。変容的使用とは、原作品を新しい意味、表現、メッセージ、または目的で使用することを指し、公正使用の第1要素で重視される(Campbell v. Acuff-Rose Music, Inc., 510 U.S. 569 (1994))。

被告の論理は以下の通り:

変容性の主張: 訓練プロセスは、原作品から言語パターンを抽出し、新しいテキストを生成する能力を構築する。出力は原作品の「著しい類似性を持たない」新しい形式である。

予備的段階の法理: Google v. Oracle最高裁判例(593 U.S. 1 (2021))を援用し、新製品開発の「予備的段階」として作品を複製することは公正使用に該当すると主張。Googleケースでは、Javaのソフトウェアコードをコピーして新しいプラットフォームを作成することが認められた。

教育目的: モデルに「知性と言語を教える」ことは、教育目的であり、典型的な公正使用である。

市場への影響の否定: ChatGPTは原作品の代替物ではなく、原告の市場を侵食していない。正確な複製が生じる場合は「バグ」であり、意図的な侵害ではない。

原告の反論:

原告は、被告の使用は公正使用に該当しないと反論している:

商業目的: OpenAI社とMicrosoft社は、「数百億ドルの価値を持つ事業」を構築しており、使用は明白に商業的である。第1要素は原告に有利に働く。

非変容的使用: 訓練プロセスは、作品を単に複製し、パターンを抽出するだけであり、新しい意味やメッセージを創出していない。出力が原作品と異なることは、訓練時の複製の変容性を意味しない。

全体の複製: 作品全体が訓練データセットに組み込まれており、第3要素は原告に有利に働く。

市場代替効果: ChatGPTは、「著作者が通常報酬を得る種類のコンテンツを生成する」ために構築されており、原告の市場と直接競合する。将来の書籍販売およびライセンス機会を奪う。第4要素は原告に有利に働く。

Google v. Oracle判例の適用可能性:

被告はGoogle v. Oracle判例を援用するが、著作権専門家は、同判例が「機能的なコンピュータコード」に狭く限定されていることを指摘している。文学作品は機能的ではなく表現的であり、同判例の射程外である可能性がある。

事実認定:

重要な事実認定は、最終判決でなされるが、争点となる事実は以下の通り:

1. 訓練データの範囲: OpenAI社の訓練データセットに含まれる著作権保護作品の正確な範囲と数
2. 複製の性質: 訓練プロセスにおける作品の複製の技術的性質
3. 出力の類似性: ChatGPTの出力が原作品と実質的に類似しているか
4. 市場への影響: ChatGPTが原告の書籍販売やライセンス機会に与えた実際の影響
5. 被告の意図: 被告が著作権保護作品を意図的に使用したか、無断使用を避ける措置を講じたか

技術的理解:

裁判所のAI技術に対する理解が、判決に重大な影響を与える。以下が争点:

訓練プロセスの性質: 訓練が単なる複製なのか、それとも抽象化・変容なのか
出力生成メカニズム: モデルが訓練データから直接コピーするのか、学習したパターンから新しいテキストを生成するのか
「バグ」の主張: 正確な複製が偶発的なバグなのか、システムの本質的特性なのか

裁判所が技術的仕組みを深く理解すればするほど、公正使用の判断はより精緻になる。訓練データアクセスの許可は、裁判所が技術的事実を詳細に検討する意図を示唆している。

法的意義 (Legal Significance)

先例価値 (Precedential Value)

本件は、生成AI時代における著作権法の適用に関する重要な先例となる可能性がある。その意義は以下の通り:

将来への影響:

1. AI訓練の法的基準確立:

本件の判決は、AI言語モデルの訓練目的での著作権保護作品の無断使用が公正使用に該当するか否かについて、初めて包括的な法的基準を確立する可能性がある。これまで、生成AIシステムの公正使用に関する実質的な判決は限られており(Anthropic事件が初の実質的決定)、本件の結果は業界全体に波及する。

2. 集団訴訟としての影響:

本件は「少なくとも数万人のノンフィクション著作者」を代表する集団訴訟であるため、判決は個別事案を超えた広範な影響を持つ。集団認証が認められれば、同様の立場にある無数の著作者が救済を受ける道が開かれる。

3. MDL統合の意義:

MDL 3143への統合により、本件はThe New York Times訴訟、Authors Guild訴訟、ジャーナリスト訴訟など、複数の関連訴訟と一体的に扱われる。これにより、OpenAIの訓練慣行に関する統一的な法的判断が形成され、矛盾する判決のリスクが軽減される。

4. テクノロジー企業への影響:

OpenAI社とMicrosoft社に対する判決は、Google、Meta、Anthropic、その他の大規模言語モデルを開発するすべてのテクノロジー企業に直接影響する。これらの企業は、類似の訓練手法を用いており、本件の判決は彼らのビジネスモデルの法的正当性を左右する。

法理論の発展:

1. 変容的使用の再定義:

本件は、デジタル時代における「変容的使用」の意味を再定義する機会を提供する。従来、変容的使用はパロディ、批評、引用などの文脈で議論されてきたが、AI訓練という新しい文脈での適用は未開拓の領域である。

裁判所が被告の主張を認めれば、訓練目的での大規模な複製が変容的使用として認められる先例となる。逆に、原告に有利な判決が出れば、商業目的の大規模複製は変容的とは認められないという原則が確立される。

2. 「予備的段階」の法理の範囲:

Google v. Oracle判例の「予備的段階」の法理が、機能的コードから表現的文学作品に拡張されるか否かが問われる。裁判所が拡張を認めれば、AI開発における広範な複製が正当化される道が開かれる。逆に、拡張を否定すれば、同法理の適用範囲が明確化される。

3. 著作権保護の範囲:

本件は、著作権保護が「表現」のみを保護し「アイデア」は保護しないという表現・アイデア二分論(idea-expression dichotomy)の適用を問う。AI訓練が作品から「パターン」や「知識」を抽出する行為が、保護されない「アイデア」の抽出なのか、保護される「表現」の複製なのかが争点となる。

解釈の明確化:

1. デジタル時代の複製概念:

訓練データセットへの組み込みが「複製」に該当するか、そして一時的な複製(訓練後にデータセットが削除される場合)が侵害を構成するかについて、明確化される可能性がある。

2. 市場代替の判断基準:

公正使用の第4要素である「市場への影響」が、直接的な代替(同一コンテンツの販売)のみを意味するのか、間接的な競合(同種コンテンツの生成能力)を含むのかが明確化される。

3. 商業的使用の重み:

営利企業による大規模な商業的使用が、公正使用の認定にどの程度の負の影響を与えるかが明確化される。

規制・実務への影響 (Regulatory and Practical Impact)

本件の結果は、AI産業の規制環境と実務慣行に重大な影響を与える。

AIガバナンス:

1. 訓練データの透明性要件:

本件で裁判所が訓練データへのアクセスを命じたことは、AI企業に対する透明性要件の先駆けとなる可能性がある。2024年4月に導入された「GenAI著作権開示法」は、訓練に使用された著作権保護データの開示を義務付けることを提案しており、本件の結果が立法の推進力となる可能性がある。

2. データソーシングのベストプラクティス:

原告に有利な判決が出れば、AI企業は訓練データのソーシング慣行を根本的に見直す必要が生じる。これには以下が含まれる:

– 著作権保護作品の使用に関する事前許諾の取得
– ライセンス契約の締結
– パブリックドメインまたはクリエイティブ・コモンズライセンス作品への依存
– 著作権フリーのデータセットの開発

3. 監査とコンプライアンスメカニズム:

企業は、訓練データの出所を追跡し、著作権侵害リスクを評価するための内部監査システムを構築する必要が生じる。

コンプライアンス:

1. ライセンス契約の必要性:

原告勝訴の場合、AI企業は著作権者とライセンス契約を締結する必要が生じる。OpenAI社は既に、Axel Springer社やFinancial Times社とコンテンツライセンス契約を締結しており、これが業界標準となる可能性がある。

2. 損害賠償リスクの管理:

集団訴訟として数万人の著作者が関与する場合、潜在的な損害賠償額は数十億ドルに達する可能性がある。企業は、このリスクを評価し、保険、準備金、または和解を通じて管理する必要がある。

3. 差止命令のリスク:

裁判所が将来の無断使用を禁止する差止命令を発令すれば、既存のモデルの運用停止または再訓練が必要となる可能性がある。これは企業にとって壊滅的な影響を持つ。

業界への影響:

1. ビジネスモデルの変革:

原告勝訴の場合、生成AI業界のビジネスモデルが根本的に変革される。無料で入手可能な大規模データセットに依存する現在のモデルから、ライセンス料を支払う持続可能なモデルへの移行が必要となる。

2. イノベーションへの影響:

ライセンス要件が課されれば、AI開発のコストが大幅に増加し、小規模企業やスタートアップの参入障壁が高まる可能性がある。これは、イノベーションの速度に影響を与える可能性がある。

3. 産業構造の変化:

大手企業(OpenAI、Google、Microsoft)は、コンテンツ企業とのライセンス契約を締結する資金力を持つが、小規模企業は競争が困難になる。これにより、AI業界の集中化が進む可能性がある。

4. 国際競争への影響:

米国で厳格な著作権執行が行われる一方、他国(例:中国)で緩い規制が維持されれば、国際的な競争力に影響が生じる可能性がある。

リスク管理:

企業が類似リスクを回避するために考慮すべき事項:

1. デューデリジェンス:
– 訓練データの出所を徹底的に調査
– 著作権ステータスを確認
– パブリックドメインまたは許諾済みデータを優先

2. 法的助言:
– 著作権専門弁護士との協議
– 公正使用の適用可能性を事前評価
– リスク評価とリスク軽減戦略の策定

3. 商業的代替手段:
– コンテンツ企業とのライセンス契約の締結
– 合成データまたは自社生成データの使用
– オプトインモデルの採用(著作者が明示的に許可した作品のみ使用)

4. 技術的対策:
– 訓練データのフィルタリングメカニズムの実装
– 著作権保護作品の偶発的な複製を防ぐ技術の開発
– 出力の検証システムの構築

5. 業界協力:
– 業界団体を通じた標準の策定
– 著作者団体との対話
– 政府および規制機関との協力

比較法的観点 (Comparative Law Perspective)

日本法との比較:

日本の著作権法は、AI開発に関して米国とは異なるアプローチを採用している。

1. 著作権法第30条の4(平成30年改正):

日本の著作権法は、2018年改正により、「情報解析の用に供する場合」における著作物の利用を権利制限の対象とした(著作権法第30条の4)。この規定により、AI・機械学習目的での著作物の利用は、一定の条件下で著作権者の許諾なく可能となっている。

具体的には、「電子計算機による情報解析(多数の著作物その他の大量の情報から、当該情報を構成する言語、音、影像その他の要素に係る情報を抽出し、比較、分類その他の解析を行うことをいう。)を行うことを目的とする場合」における複製等が認められる。

米国法との相違:
– 米国では、公正使用の抗弁(第107条)により個別事例ごとに4要素を考慮して判断されるのに対し、日本では法定の権利制限として明示的に認められている
– 日本の規定は、商業目的・非商業目的を問わず適用される(ただし、「著作権者の利益を不当に害することとなる場合」は除外)
– 米国の公正使用は柔軟性が高い反面、予測可能性が低い。日本の規定は明確性が高いが、柔軟性に欠ける側面がある

2. 適用範囲の差異:

日本の第30条の4は、「情報解析」目的であれば広く適用されるが、以下の制約がある:

– 「著作権者の利益を不当に害することとなる場合」は適用除外
– 「情報解析」の定義が重要であり、生成AIの出力が「情報解析」の範囲内か否かが議論の余地がある

米国の本件では、訓練(入力)段階だけでなく、生成(出力)段階での著作権保護作品の類似性も争点となっているが、日本法の適用では、出力が元の著作物と実質的に類似している場合は別途侵害の問題が生じる。

3. 実務への示唆:

日本企業が米国市場でAIサービスを提供する場合、日本法の第30条の4に依拠するだけでは不十分であり、米国著作権法の公正使用の要件を満たす必要がある。逆に、米国企業が日本市場で展開する場合、日本の明示的な権利制限規定の恩恵を受けられる可能性がある。

他国判例との関係:

1. 欧州連合(EU):

EUのデジタル単一市場著作権指令(DSM指令、2019年)第3条および第4条は、テキスト・データマイニング(TDM)に関する権利制限を規定している。

第3条: 科学研究目的のTDMについて、権利制限を認める
第4条: 一般的なTDM(商業目的を含む)について、著作権者がオプトアウトしない限り、権利制限を認める

EU加盟国の国内法実施により、AI訓練目的での著作物利用が一定範囲で認められているが、著作権者のオプトアウト権が重要な役割を果たす。

米国の本件では、オプトアウトの仕組みは争点となっておらず、著作権者の事前許諾の必要性が焦点となっている点で相違がある。

2. 英国:

英国著作権法は、2014年改正により、非商業目的の研究のためのテキスト・データマイニングを権利制限の対象とした(第29A条)。ただし、商業目的のTDMは権利制限の対象外であり、本件と類似の争点が生じる可能性がある。

英国政府は、AI産業の競争力強化のため、商業目的のTDMにも権利制限を拡大する提案を行ったが、著作権者団体の強い反対により見送られた経緯がある。

3. 中国:

中国では、AI訓練目的での著作物利用に関する明確な法的枠組みが確立されていないが、実務上は比較的自由に行われているとされる。ただし、近年、著作権保護の強化傾向があり、今後の法的発展が注目される。

グローバルな影響:

1. 多国籍企業への影響:

OpenAI社やMicrosoft社のような多国籍企業は、各国の異なる著作権法制に対応する必要がある。本件の結果が米国で厳格な基準を確立すれば、企業はグローバルに統一された保守的なアプローチを採用する可能性がある。

2. 法的調和の必要性:

AI技術はグローバルに展開されるため、各国の法制度の相違は企業にとって大きな負担となる。本件をきっかけに、国際的な法的調和(harmonization)の議論が加速する可能性がある。

3. 規制競争(Regulatory Competition):

各国が異なる規制アプローチを採用することで、企業は最も有利な法域を選択する「規制アービトラージ」を行う可能性がある。これは、AI産業の立地や投資決定に影響を与える。

4. 日本企業への示唆:

日本企業は、国内では第30条の4の恩恵を受けられるが、米国市場での展開には慎重な法的検討が必要である。本件の結果を注視し、必要に応じてライセンス契約の締結やデータソーシング戦略の見直しを行うべきである。

重要なポイント (Key Takeaways)

実務家への示唆:

1. AI開発における著作権リスクの認識:

弁護士および企業法務担当者は、AI言語モデルの訓練に著作権保護作品を使用することが、米国法上、重大な侵害リスクを伴うことを認識する必要がある。日本の著作権法第30条の4のような明示的な権利制限が米国には存在せず、公正使用の抗弁の成否は不確実である。

2. デューデリジェンスの重要性:

AI開発プロジェクトにおいては、訓練データの出所、著作権ステータス、ライセンス状況を徹底的に調査するデューデリジェンスが不可欠である。特に、商業目的のAIサービスを展開する場合、無断使用のリスクは極めて高い。

3. ライセンス戦略の構築:

OpenAI社がAxel Springer社やFinancial Times社とライセンス契約を締結している例に見られるように、コンテンツ企業との事前ライセンス契約が、リスク軽減の有効な手段となる。法務担当者は、ライセンス交渉の戦略を構築し、適切な契約条項を確保する必要がある。

4. 訴訟リスクの評価:

集団訴訟の潜在的な損害賠償額は数十億ドルに達する可能性があり、企業は訴訟リスクを財務的に評価し、適切な準備金または保険を確保する必要がある。また、差止命令のリスクは事業継続に直接影響するため、最優先で対処すべきである。

5. 日米の法制度の相違への対応:

日本企業が米国市場でAIサービスを提供する場合、日本の第30条の4に依拠するだけでは不十分であり、米国著作権法の要件を満たす必要がある。多国籍企業は、各国の法制度の相違を理解し、グローバルなコンプライアンス戦略を構築する必要がある。

今後の展望:

1. 2025-2026年の重要な判決:

本件を含むMDL 3143の訴訟群は、2025年から2026年にかけて、サマリー・ジャッジメントまたは本案判決が下される見込みである。これらの判決は、生成AI産業の法的基盤を形成する重要な先例となる。

2. 立法による解決の可能性:

司法判断が混乱している現状を踏まえ、米国議会が立法により明確な基準を設ける可能性がある。2024年4月の「GenAI著作権開示法」提案は、その第一歩である。日本の第30条の4のような明示的な権利制限規定が米国でも導入される可能性がある一方、著作権者保護を強化する立法も検討されている。

3. 業界標準の形成:

AI業界団体と著作者団体の対話を通じて、自主的な業界標準が形成される可能性がある。これには、オプトイン/オプトアウトのメカニズム、公正な報酬の支払い、透明性の確保などが含まれる。

4. 技術的解決策の発展:

著作権保護作品の偶発的な複製を防ぐ技術(フィルタリング、透かし、出力検証など)の開発が進む可能性がある。技術的対策と法的枠組みの組み合わせにより、持続可能なAI開発環境が構築される可能性がある。

5. 国際的調和の進展:

AI技術のグローバルな性質を踏まえ、WIPO(世界知的所有権機関)やOECD(経済協力開発機構)などの国際機関を通じて、法的調和の議論が進む可能性がある。各国の異なるアプローチ(米国の公正使用、日本の明示的権利制限、EUのオプトアウト制)の長短を比較し、最適なモデルが模索される。

注意すべき事項:

1. 訴訟継続中の不確実性:

本件は現在も係属中であり、最終判決が下されていない。サマリー・ジャッジメントの申立が審理中であり、その結果により法的状況が大きく変化する可能性がある。実務家は、継続的に訴訟の進展を監視する必要がある。

2. 判例の変動性:

Thomson Reuters v. ROSS Intelligence事件における「驚くべき逆転」に見られるように、裁判所のAI著作権問題に対するアプローチは流動的である。一つの判決に過度に依拠することは危険であり、複数の判例の動向を総合的に評価する必要がある。

3. 技術的理解の重要性:

裁判所および弁護士が、大規模言語モデルの技術的仕組みを正確に理解することが、適切な法的判断の前提となる。法務担当者は、技術専門家と協力し、AI技術の本質を深く理解する必要がある。

4. 和解の可能性:

集団訴訟の多くは和解により解決される。本件も、最終判決前に和解に至る可能性があり、その場合、和解条項が事実上の業界基準となる可能性がある。

5. 国際展開のリスク:

米国での判決が、他国の法制度に直接影響するわけではないが、多国籍企業は評判リスクおよび国際的な訴訟リスクを考慮し、グローバルに一貫したアプローチを採用する傾向がある。日本企業も、米国判例の動向を注視し、先手を打った対応を行うべきである。

このレポートに関する注意事項 (Warning/Notes)

このレポートはサイト運営者がAIエージェントに文献等の調査・調査結果の分析・分析結果の整理・分析結果の翻訳等を行わせたものです。人間による追加的な調査や査読は行っておらず、内容には誤りを含む場合があります。

本件は現在も係属中の訴訟であり、最終判決は下されていません(2025年10月時点)。本レポートの情報は2025年5月までの公開情報に基づいており、その後の展開は反映されていない可能性があります。

訴訟記録の一部はPACER等の有料データベースでのみ入手可能であり、本レポートは公開情報のみに基づいて作成されています。詳細な訴訟戦略、証拠、専門家証言の内容は、公開されていない部分があります。

本レポートは法的助言を構成するものではありません。個別の法的問題については、資格を有する弁護士に相談してください。

AI技術および関連法制度は急速に発展しており、本レポート作成後に重要な判例、立法、技術的発展が生じる可能性があります。最新の情報を確認することを強くお勧めします。

比較法分析(日本法、EU法等)は、各国の法制度の概要を示すものであり、詳細な法的分析には各国の専門家との協議が必要です。

レポート作成日: 2025年10月5日
情報源の最終確認日: 2025年5月27日(MDL 3143のディスカバリー状況協議予定日)
ケース番号: 1:23-cv-10211 (S.D.N.Y.), MDL 3143
作成者: AI Legal Research Agent


Comments

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です