Mobley v. Workday Inc.

Mobley v. Workday Inc.

Case Metadata

Basic Information

1. Case Name: Derek Mobley, et al. v. Workday, Inc., No. 3:23-cv-00770-RFL (N.D. Cal.)
2. Court: United States District Court for the Northern District of California, Oakland Division
3. Filing Date: February 21, 2023
4. Judgment Date: Not yet decided (ongoing litigation)
5. Case Number: 3:23-cv-00770-RFL
6. Current Status: Active litigation; preliminary collective action certification granted (May 16, 2025); discovery ongoing

Parties

7. Plaintiff(s): Derek Mobley (lead plaintiff), African American male over 40 with disability; joined by four additional opt-in plaintiffs over 40 years of age pursuing age discrimination claims
8. Defendant(s): Workday, Inc., a leading provider of enterprise cloud applications for finance, HR, and planning with over 11,000 organizational customers worldwide
9. Key Law Firms: Plaintiff represented by Outten & Golden LLP; Defendant represented by Gibson, Dunn & Crutcher LLP
10. Expert Witnesses: Not yet disclosed (case in discovery phase)

Legal Framework

11. Case Type: Algorithmic discrimination in employment; AI hiring bias; automated applicant screening discrimination
12. Primary Legal Claims: Title VII of the Civil Rights Act of 1964 (race discrimination), Age Discrimination in Employment Act of 1967 (ADEA), Americans with Disabilities Act (ADA), 42 U.S.C. § 1981 (racial discrimination in contracts)
13. Secondary Claims: State law claims under California Fair Employment and Housing Act (FEHA); agent liability theory under federal anti-discrimination statutes
14. Monetary Relief: Class-wide injunctive relief, compensatory damages, punitive damages (amounts not specified); potential class includes hundreds of millions of applicants

Technical Elements

15. AI/Technology Involved: Workday Human Capital Management (HCM) platform; HiredScore AI features for automated resume screening, scoring, sorting, ranking of job applicants; machine learning algorithms for applicant recommendation
16. Industry Sectors: Human resources technology; recruiting and talent acquisition; affects all industries using Workday’s platform
17. Data Types: Employment application data, resume information, educational background, work history, demographic proxies

Database Navigation

18. Keywords/Tags: AI discrimination, algorithmic bias, employment discrimination, automated hiring, resume screening, age discrimination, racial bias, disability discrimination, agent liability, disparate impact, Workday, HiredScore
19. Related Cases: EEOC v. iTutorGroup (2022) – age discrimination in AI hiring; Schutte v. BNSF Railway Co. (2023) – disability discrimination in algorithmic screening

詳細分析 (Detailed Analysis)

事件の概要 (Case Overview)

背景と争点 (Background and Issues)

事実関係:
本件は、Workday社のAI採用ツールによる差別を主張する、米国における初の大規模な連邦訴訟である。原告Derek Mobley氏は、アフリカ系アメリカ人で40歳以上、障害を有する個人として、2016年から2023年までの7年間にわたり、Workday社のプラットフォームを通じて100以上の求人に応募したが、全て自動的に拒否されたと主張している。特に注目すべきは、ある応募では午前12時55分に提出し、わずか55分後の午前1時50分に拒否通知を受け取ったという事実である。これは人間による審査が行われていないことを示唆する強力な証拠とされた。

その後、同様の経験を持つ40歳以上の4名の原告が訴訟に参加した。これらの原告らも、Workdayシステムを通じて数百の求人に応募したが、ほぼ全てのケースで面接の機会すら得られず拒否されたと主張している。Workday社は世界中で11,000以上の組織に採用プラットフォームを提供しており、毎月数百万の求人がこの技術を通じて掲載されている。

中心的争点:
1. Workday社のAIアルゴリズムが、人種、年齢、障害の有無に基づいて応募者を差別的に選別しているか
2. Workday社が雇用主の「代理人」として、連邦反差別法の下で直接的な責任を負うか
3. AIシステムの「ブラックボックス」的性質と、バイアスのあるトレーニングデータの使用が違法な差別を構成するか
4. 自動化された意思決定プロセスにおいて、意図的でない差別的影響(disparate impact)が発生しているか

原告の主張:
原告らは、Workdayの自動履歴書スクリーニングツールが「雇用主のバイアスを反映し、偏ったトレーニングデータに依存する方法で設計されている」と主張。具体的には:
– AIツールが出身校などの代理指標を使用し、これが人種、年齢、障害と相関関係を持つ
– アルゴリズムが「資格」以外の要因に基づいて応募者を不均衡に拒否している
– 関連期間中に11億件の求人応募が拒否されたという事実
– 精神保健上の問題や認知障害を持つ応募者がAIテストで不利になる設計

被告の主張:
Workday社は以下の点を主張:
– 同社の技術は差別的ではなく、採用決定を行わない
– 顧客のために従業員をスクリーニングしているわけではない
– 単に雇用主が設定した基準を実行するツールを提供しているだけ
– HiredScoreの技術は訴訟開始後に買収したものである

AI/技術要素:
問題となっているのは、WorkdayのHCMプラットフォームに組み込まれたHiredScore AIの機能である。このシステムは:
– 機械学習アルゴリズムを使用して応募者をスコアリング、ソート、ランキング、スクリーニング
– 自動的に候補者を「disposition」(処理)し、採用プロセスで前進させるか拒否するかを決定
– 深夜や早朝などの営業時間外に自動的に拒否通知を送信
– 雇用主が設定した基準を単純に実行するだけでなく、独自の意思決定プロセスに参加

手続きの経過 (Procedural History)

重要な手続き上の決定:

1. 初回却下(2024年1月19日): 裁判所は被告の却下申立てを認容し、原告に訴状修正の機会を与えた。当初の訴訟では、Workdayを反差別法の責任対象となる「雇用機関」として分類するための十分な証拠が提供されていなかった。

2. 修正訴状提出(2024年2月20日): 原告は修正訴状を提出し、Workdayの役割を再定義。同社が雇用機関、間接雇用主、および代理人として機能していると主張。

3. 画期的判決(2024年7月12日): 裁判所は混合判決を下し、Workdayが「雇用機関」として機能したという主張は却下したが、雇用主の「代理人」として機能したという主張については証拠開示段階への進行を認めた。

4. 集団訴訟認証(2025年5月16日): Rita Lin判事は、ADEAに基づく予備的集団訴訟認証を付与。40歳以上の全国の求職者を代表する集団訴訟として進行することを許可。

証拠開示:
裁判所は、2025年8月20日までにWorkdayがHiredScore AI機能を使用した全ての雇用主のリストを開示するよう命じた。これは、影響を受けた可能性のある応募者への通知計画を策定するために必要とされた。

専門家証言:
現在、証拠開示段階にあるため、専門家証言はまだ提出されていない。しかし、EEOC(雇用機会均等委員会)は2024年4月に法廷助言者意見書を提出し、アルゴリズム採用ツールが明示的な意図なしに反差別法に違反する可能性があると述べた。

判決の概要 (Judgment Summary)

裁判所の判断 (Court’s Decision)

本件はまだ最終判決に至っていないが、これまでの重要な中間判断は以下の通り:

主要な判決内容:
2024年7月12日の判決において、裁判所は以下の判断を示した:

1. 雇用機関理論の却下: Workdayが「雇用機関」として機能したという主張を却下。裁判所は、Workdayが応募者を直接募集したり、雇用主に推薦したりしていないと判断。

2. 代理人理論の承認: 雇用主の「代理人」として機能したという新しい法理論については、証拠開示段階への進行を認めた。これは反差別法の適用における画期的な拡大解釈となる。

3. 自動化された意思決定の認定: 裁判所は、Workdayのソフトウェアが「雇用主が設定した基準を機械的に実行しているだけではなく、候補者を推薦したり拒否したりすることで意思決定プロセスに参加している」と認定。

命令された救済措置:
– 現時点では最終的な救済措置は決定されていない
– 原告は差止命令による救済、補償的損害賠償、懲罰的損害賠償を求めている
– 潜在的な集団には数億人の応募者が含まれる可能性

重要な法的判断:
裁判所は、AIサービスプロバイダーが「代理人」理論の下で雇用差別について直接的な責任を負う可能性があるという前例のない判断を示した。これは、第三者AIベンダーの責任に関する重要な先例となる。

法的推論の分析 (Analysis of Legal Reasoning)

適用された法理:
裁判所は、伝統的な雇用差別法の枠組みをAI時代に適応させる必要性を認識した。特に:
– 「代理人」関係の概念を、AIプラットフォームプロバイダーに拡大適用
– 差別的影響(disparate impact)理論の適用により、意図的でない差別も違法となる可能性
– 自動化されたシステムによる決定も、人間による決定と同様に反差別法の対象となる

事実認定:
裁判所が重視した事実:
– 深夜・早朝の自動拒否通知(人間による審査の不在を示唆)
– 11億件という膨大な数の応募拒否
– 原告らの数百件に及ぶ応募がほぼ全て拒否された事実
– AIシステムが独自の判断基準を適用している可能性

技術的理解:
裁判所は、AIシステムの複雑性とブラックボックス的性質を認識しつつも、その不透明性が差別の免責事由にはならないことを明確にした。

法的意義 (Legal Significance)

先例価値 (Precedential Value)

将来への影響:
本件は、AI採用ツールに関する連邦レベルでの初の大規模訴訟として、以下の点で重要な先例となる:

1. 第三者AIベンダーの責任: AIサービスプロバイダーが、単なるツール提供者ではなく、雇用主の代理人として直接的な法的責任を負う可能性を確立

2. アルゴリズム差別の立証基準: 差別的影響を示すために必要な証拠の種類と量に関する指針を提供

3. 自動化された意思決定の法的扱い: AIによる決定も人間による決定と同様に反差別法の完全な適用を受けることを明確化

法理論の発展:
– 「代理人」理論の新しい適用により、AI時代における責任の所在を明確化
– 意図的でないアルゴリズムバイアスも違法な差別を構成する可能性
– プロキシ変数の使用による間接的差別の認識

解釈の明確化:
– 既存の雇用差別法がAI採用ツールに完全に適用されることを確認
– 技術的複雑性や「ブラックボックス」の性質が法的責任の免責事由にならないことを明確化

規制・実務への影響 (Regulatory and Practical Impact)

AIガバナンス:
企業は以下の対応が必要となる:
1. AI採用ツールの定期的な監査とバイアステストの実施
2. アルゴリズムの透明性と説明可能性の確保
3. 人間による監督と介入メカニズムの導入
4. トレーニングデータの多様性と代表性の確保

コンプライアンス:
– AI採用ツールを使用する企業は、ベンダー選定時により厳格なデューデリジェンスが必要
– ベンダーとの契約において、差別リスクに関する責任分担を明確化
– 定期的なアルゴリズム監査の実施と文書化
– 差別的影響の継続的モニタリング

業界への影響:
1. HRテック企業: より厳格な製品設計基準と継続的なバイアステストの必要性
2. 採用企業: AIツール使用時の最終的責任は依然として雇用主にあることの再認識
3. AIベンダー: 責任あるAI原則の採用と実装の必須化
4. 保険業界: AI関連の雇用差別リスクに対する新しい保険商品の開発

リスク管理:
– AIツールの導入前に包括的な影響評価を実施
– 多様なテストグループでのパイロットプログラムの実施
– 苦情処理と救済メカニズムの確立
– 継続的な法規制動向のモニタリング

比較法的観点 (Comparative Law Perspective)

日本法との比較:

1. 法的枠組みの違い:
– 日本:雇用対策法、男女雇用機会均等法などが主要な規制だが、AIによる差別を明示的に扱う法律はまだ存在しない
– 米国:Title VII、ADEA、ADAなど確立された反差別法の枠組みをAIに適用
– 日本では、AI採用ツールの使用は主に個人情報保護法の観点から規制される傾向

2. 責任の所在:
– 米国:本件により、AIベンダーも直接的責任を負う可能性
– 日本:現状では採用企業が主要な責任主体となる可能性が高い
– 日本の民法の使用者責任や不法行為責任の枠組みでの対応が想定される

3. 救済メカニズム:
– 米国:集団訴訟による大規模な救済が可能
– 日本:個別労働紛争解決制度や労働審判制度での対応が中心
– 日本では集団的救済の仕組みが限定的

他国判例との関係:
EU: GDPR第22条により、完全自動化された意思決定に対する権利を保障。より厳格な規制アプローチ
英国: 2021年のDeliveroo事件で、アルゴリズムによる労働者管理の問題が議論された
カナダ: 2021年のCanadian Human Rights Commissionのガイダンスで、AI採用ツールのバイアスリスクを警告

グローバルな影響:
1. 多国籍企業への影響:
– グローバルで統一されたAI採用基準の策定の必要性
– 最も厳格な法域の基準に合わせた運用の検討
– 各国の規制要件に対応した柔軟なシステム設計

2. 国際的な規制動向:
– EUのAI規制案における「高リスクAI」としての採用システムの分類
– 各国での類似訴訟の増加可能性
– 国際的な規制協調の必要性の高まり

3. 技術標準の発展:
– ISO/IEC 23894(AI risk management)などの国際標準の重要性増大
– 業界団体による自主規制ガイドラインの策定
– クロスボーダーでのベストプラクティスの共有

重要なポイント (Key Takeaways)

実務家への示唆:

1. 予防的措置の重要性:
– AI採用ツール導入前の徹底的なデューデリジェンス
– ベンダー選定時の差別リスク評価の実施
– 契約条項での責任分担の明確化

2. 継続的なモニタリング:
– 採用結果の定期的な統計分析
– 保護属性グループへの影響の継続的評価
– 苦情や懸念事項への迅速な対応体制の構築

3. 文書化と透明性:
– AIツールの使用方法と決定プロセスの文書化
– 応募者への適切な情報開示
– 監査証跡の保持

4. 人間の関与の確保:
– 完全自動化ではなく、人間による最終決定の仕組み
– 異議申立てと再審査のプロセス
– AIの推奨を覆す権限と基準の明確化

今後の展望:

1. 法規制の発展:
– 連邦レベルでのAI規制法の制定可能性
– 州レベルでの追加的な規制(ニューヨーク市のLocal Law 144のような)
– 業界特有のガイドラインの策定

2. 技術的進歩:
– より説明可能なAI(XAI)の開発と実装
– バイアス検出と軽減技術の向上
– プライバシー保護技術との統合

3. 市場への影響:
– 「責任あるAI」認証の需要増加
– AI監査サービス市場の拡大
– 代替的な採用評価方法への関心の高まり

注意すべき事項:

1. 即時対応事項:
– 現在使用中のAI採用ツールの緊急レビュー
– 差別的影響の可能性がある機能の特定と対処
– 必要に応じた一時的な使用停止の検討

2. 中期的対策:
– AI倫理委員会の設置
– 定期的な第三者監査の実施
– 従業員教育プログラムの開発

3. 長期的戦略:
– AIガバナンスフレームワークの構築
– ステークホルダーエンゲージメントの強化
– 業界標準への積極的な貢献

4. リーガルリスク管理:
– 保険カバレッジの見直しと拡充
– 訴訟リスクに備えた証拠保全体制
– 危機管理プロトコルの策定

本件は、AI技術と雇用法の交差点における重要な試金石となっており、その結果は今後のAI採用ツールの設計、実装、規制に大きな影響を与えることが予想される。企業は、技術革新と法的コンプライアンスのバランスを慎重に取りながら、責任あるAIの実践に向けて積極的な措置を講じる必要がある。

このレポートに関する注意事項 (Warning/Notes)

このレポートはサイト運営者がAIエージェントに文献等の調査・調査結果の分析・分析結果の整理・分析結果の翻訳等を行わせたものです。人間による追加的な調査や査読は行っておらず、内容には誤りを含む場合があります。


Comments

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です