Lehrman v. Lovo, Inc.
Case Metadata
Basic Information
1. Case Name: Paul Skye Lehrman and Linnea Sage v. Lovo, Inc., No. 1:24-cv-03770 (S.D.N.Y. 2024)
2. Court: United States District Court for the Southern District of New York
3. Filing Date: May 16, 2024
4. Judgment Date: July 10, 2024 (Partial Motion to Dismiss Ruling); Case remains pending
5. Case Number: 1:24-cv-03770-JPO
6. Current Status: Pending – Fact discovery scheduled through June 30, 2025
Parties
7. Plaintiff(s):
– Paul Skye Lehrman (Voice actor, individual performer in commercials and audiobook narration)
– Linnea Sage (Voice actor, individual performer in commercials and video game narration)
– Proposed class of voice actors whose voices were allegedly misappropriated
8. Defendant(s):
– Lovo, Inc. (Berkeley-based AI startup specializing in AI voice generation software)
9. Key Law Firms:
– For Plaintiffs: Pollock Cohen LLP
– For Defendant: [Information not readily available in search results]
10. Expert Witnesses: Not yet disclosed (case in discovery phase)
Legal Framework
11. Case Type: AI voice cloning misappropriation, unauthorized commercial use of biometric data
12. Primary Legal Claims:
– Violation of right of publicity under New York Civil Rights Law §§ 50-51
– Breach of contract
– Consumer protection violations under New York General Business Law §§ 349-350
13. Secondary Claims:
– False advertising and false association under Lanham Act (dismissed)
– Copyright infringement (largely dismissed)
– Common law fraud, conversion, unjust enrichment, unfair competition
14. Monetary Relief: At least $5 million in damages sought for the class
Technical Elements
15. AI/Technology Involved:
– Lovo’s “Genny” AI voice generator platform
– Voice cloning and synthesis technology
– Machine learning models trained on voice recordings
16. Industry Sectors: Entertainment, media production, advertising, audiobook publishing, video game development
17. Data Types: Voice recordings, biometric voice data, audio samples for training data
Database Navigation
18. Keywords/Tags: AI voice cloning, right of publicity, biometric data, voice actors, synthetic voices, deepfake audio, Lanham Act, New York Civil Rights Law, AI training data, unauthorized voice replication
19. Related Cases:
– Scarlett Johansson v. OpenAI (potential case regarding ChatGPT voice similarity)
– Various ongoing AI training data cases including New York Times v. OpenAI
– Authors Guild v. OpenAI (similar issues regarding unauthorized use of creative works)
詳細分析 (Detailed Analysis)
事件の概要 (Case Overview)
背景と争点 (Background and Issues)
事実関係:
2019年から2020年にかけて、声優のポール・スカイ・レーマン氏とリネア・セージ氏は、オンラインプラットフォーム「Fiverr」を通じて音声録音の依頼を受けた。依頼者は「内部研究目的のみ」での使用を明言し、録音は「内部目的専用で、決して外部向けには使用しない」との書面保証を提供した。しかし、実際の依頼者はLOVO社の従業員であり、偽名を使用して声優たちを欺いていた。
2年後、レーマン氏は自身が録音したことのないYouTube動画やポッドキャストで自分の声が使用されているのを発見した。調査の結果、LOVO社は収集した音声録音を同社のAI音声生成ソフトウェア「Genny」の訓練に使用し、「Kyle Snow」や「Sally Coleman」という名前で音声クローンを作成・販売していたことが判明した。
中心的争点:
1. AI企業が声優の音声を無断で複製・商業利用することは、パブリシティ権の侵害に該当するか
2. 「研究目的のみ」という虚偽の説明で取得した音声データを商業目的で使用することは契約違反および詐欺に該当するか
3. 音声の特徴そのものが著作権保護の対象となるか
4. AI音声クローンはニューヨーク州民事権利法における「デジタル複製」に該当するか
原告の主張:
原告は、LOVO社が詐欺的手段により音声録音を取得し、許可なく商業目的でAI音声クローンを作成・販売したと主張。少なくとも500万ドルの損害賠償を求め、同様の被害を受けた他の声優を代表する集団訴訟として提起した。具体的には、パブリシティ権侵害、契約違反、消費者保護法違反、著作権侵害、不当利得、詐欺などを訴因として挙げた。
被告の主張:
LOVO社は訴訟の却下を申し立て、原告の音声は著作権保護の対象とならず、また音声クローンの使用は原告による推奨や承認を示唆するものではないため、ランハム法違反には該当しないと主張した。
AI/技術要素:
LOVO社の「Genny」プラットフォームは、機械学習技術を使用して人間の音声を分析・学習し、リアルな合成音声を生成する。このシステムは、数分間の音声録音から話者の音声特性を抽出し、任意のテキストをその話者の声で読み上げることができる音声クローンを作成する能力を持つ。
手続きの経過 (Procedural History)
重要な手続き上の決定:
2024年7月10日、ポール・エトケン判事はLOVO社の訴訟却下申立てを部分的に認め、部分的に却下する決定を下した。この決定により、パブリシティ権侵害、契約違反、消費者保護法違反の訴因は審理継続となったが、連邦商標法および著作権法に基づく請求の大部分は却下された。
証拠開示:
現在、事実認定のための証拠開示手続きが進行中であり、2025年6月30日まで継続予定。この過程で、LOVO社のAI訓練プロセス、音声データの取得方法、商業利用の範囲などに関する詳細な情報が明らかになることが期待される。
専門家証言:
現段階では専門家証人は指名されていないが、AI音声技術、音声認識、知的財産権に関する専門家の証言が今後重要な役割を果たすことが予想される。
判決の概要 (Judgment Summary)
裁判所の判断 (Court’s Decision)
主要な判決内容:
エトケン判事は2024年7月10日の決定で、以下の判断を示した:
1. パブリシティ権請求の継続を認定: ニューヨーク州民事権利法第50条および第51条に基づくパブリシティ権侵害の主張について、裁判所は原告の請求に十分な根拠があると判断。特に、最近改正された同法の「デジタル複製」条項がAI生成音声クローンに適用される可能性を認めた。
2. 契約違反請求の継続を認定: Fiverrプラットフォームを通じて締結された契約について、「内部研究目的のみ」という条件違反の主張に妥当性を認めた。
3. 消費者保護法違反請求の継続を認定: ニューヨーク州一般事業法第349条および第350条に基づく請求について、LOVO社の行為が公衆に対する誤導的慣行に該当する可能性を認めた。
4. 連邦商標法請求の却下: 音声クローンの使用が原告による推奨や承認を示唆するものではないとして、虚偽の推奨に関する請求を却下。
5. 著作権侵害請求の大部分を却下: 音声そのものは著作権保護の対象とならないと判断。また、AI訓練における音声録音の使用方法について、原告の説明が不十分であるとした。
勝敗の結果:
部分的勝訴・部分的敗訴。原告は州法に基づく主要請求について訴訟継続の権利を獲得したが、連邦法に基づく請求の多くは却下された。
命令された救済措置:
現段階では最終的な救済措置は決定されていない。訴訟は証拠開示段階にあり、2025年6月30日まで継続予定。
重要な法的判断:
裁判所は、本件が「声優だけでなく、急成長するAI産業、その他の知的財産権保有者および利用者、さらには一般市民にとって潜在的に重大な結果をもたらす」と述べ、AI時代における人格権保護の重要性を強調した。
法的推論の分析 (Analysis of Legal Reasoning)
適用された法理:
裁判所は、ニューヨーク州のパブリシティ権法が音声のデジタル複製にも適用される可能性があるという新しい解釈を示した。これは、視覚的類似性を伴わないAI生成音声クローンにも人格権保護が及ぶ可能性を示唆する画期的な判断である。
事実認定:
裁判所は、原告がFiverrを通じて「内部研究目的のみ」という条件で音声録音を提供したという主張を事実として認定し、この条件違反が契約違反および詐欺的行為を構成する可能性があると判断した。
技術的理解:
判事は、AI音声クローン技術の複雑性を認識しつつ、この技術が個人の音声という人格的要素を無断で商業利用することの法的・倫理的問題を重視した。
法的意義 (Legal Significance)
先例価値 (Precedential Value)
将来への影響:
本判決は、AI音声クローン技術に関する初の重要な司法判断として、今後の類似訴訟に大きな影響を与える可能性がある。特に、州法レベルでのパブリシティ権保護がAI技術による人格権侵害に対する有効な救済手段となり得ることを示した点で重要である。
法理論の発展:
AI生成コンテンツに対する既存法の適用可能性について、裁判所は柔軟な解釈を示した。これは、技術の急速な発展に法制度が対応していく必要性を反映している。
解釈の明確化:
音声の著作権保護可能性については否定的な判断を示したが、パブリシティ権による保護の可能性を認めたことで、人格的要素の法的保護に関する新たな枠組みが形成されつつある。
規制・実務への影響 (Regulatory and Practical Impact)
AIガバナンス:
本件は、AI開発企業に対して以下のガバナンス要件を示唆している:
– 訓練データ取得における透明性の確保
– データ提供者への明確な説明と同意取得
– 商業利用に関する適切なライセンス取得
コンプライアンス:
AI音声技術を利用する企業は、以下の対応が必要:
– 音声データの取得源と使用許諾の明確な文書化
– パブリシティ権侵害リスクの評価と管理
– データ提供者との契約条件の厳格な遵守
業界への影響:
音声合成技術業界全体に対して、倫理的なデータ収集と利用の重要性を再認識させる判例となった。特に、「研究目的」を装った商業目的でのデータ収集は重大な法的リスクを伴うことが明確になった。
リスク管理:
– 音声データ収集時の完全な透明性確保
– 使用目的の明確な開示と制限
– 適切な補償メカニズムの構築
– 継続的な法規制動向のモニタリング
比較法的観点 (Comparative Law Perspective)
日本法との比較:
日本においても、人格権(肖像権・パブリシティ権)の保護は判例法により認められているが、音声に対する保護は明文化されていない。本件は、日本でのAI音声技術規制を考える上で重要な参考事例となる。特に、個人情報保護法における「個人識別符号」として音声データが該当する可能性があり、同意なき商業利用は日本でも法的問題となり得る。
他国判例との関係:
EUのGDPRでは音声データは生体認証データとして特別カテゴリの個人データに分類され、厳格な保護が求められる。本件は、米国においても音声データの保護が重要視されていることを示し、国際的な規制調和の必要性を示唆している。
グローバルな影響:
多国籍AI企業にとって、各国の人格権・プライバシー権保護法制の違いを理解し、最も厳格な基準に合わせたコンプライアンス体制の構築が必要となる。
重要なポイント (Key Takeaways)
実務家への示唆:
1. AI開発における法的リスク評価の重要性: 訓練データの取得から商業利用まで、全プロセスにおける法的コンプライアンスの確保が不可欠
2. 契約条項の厳格な遵守: 「研究目的」等の使用制限を設けた場合、その条件を厳守する必要がある
3. 州法による救済の可能性: 連邦法での保護が困難な場合でも、州法による人格権保護が有効な手段となり得る
今後の展望:
– AI音声技術に関する専門的な法規制の制定が予想される
– 業界自主規制やベストプラクティスの確立が進む可能性
– 国際的な規制調和に向けた議論の活発化
注意すべき事項:
– 音声データを含むあらゆる生体データの収集・利用には慎重な法的検討が必要
– 「同意」の範囲と有効性について明確な文書化が重要
– 技術的可能性と法的許容性は必ずしも一致しない
– レピュテーションリスクも含めた総合的なリスク管理が必要
このレポートに関する注意事項 (Warning/Notes)
– このレポートはサイト運営者がAIエージェントに文献等の調査・調査結果の分析・分析結果の整理・分析結果の翻訳等を行わせたものです。人間による追加的な調査や査読は行っておらず、内容には誤りを含む場合があります。
コメントを残す