金曜日, 4月 25, 2025

自動化される差別 採用におけるAI活用のリスク(佐久間弘明)

佐久間弘明 (さくま ひろあき)
一般社団法人AIガバナンス協会 業務執行理事

▶経済産業省、Bain&Coを経て、2023年にAIリスク管理の米スタートアップ・Robust Intelligenceに参画。同社買収まで、日本でのAIガバナンス普及に取り組む。現在はAIガバナンス協会理事として標準化活動や政策形成に関わるほか、スマートガバナンス社にて企業向けアドバイザリーも行う。東京大学学際情報学府にてAIリスクの研究にも取り組む。

■HR×AI リスクとチャンス

連載第2回からは、HR領域のAI活用で実際にリスクが顕在化した事例を概観し、そこからの教訓を「技術」「コミュニケーション」の視点で振り返りたい。今回は、典型的なユースケース「採用」を扱う。

採用判断は、候補者の人生を左右する重大な決定である。人間の採用担当者が抱く「無意識のバイアス(偏見)」を防ぐために、AIの判断を部分的に組み込むことが効果的な場合もあるが、潜在するリスクも大きい。

■Workday訴訟

米国のHRテック企業であるWorkdayにおける訴訟事例を見てみよう。WorkdayはAIを活用し、履歴書や性格診断テストの結果などをもとに応募者をふるい分ける採用スクリーニングを行うAIツールを多数の企業に提供していた。

しかし2023年に米国において、同社のツールが人種や障がいの有無、年齢といった要素から候補者を不当に差別していると主張する訴訟が提起される。

アフリカ系アメリカ人の原告は、求人に対して十分な学歴と職歴を持つにも関わらず、Workdayを活用する企業の100件近い選考においていずれも不採用となった。応募後ほぼ即時に不採用が通知された事例もあり、自動化された差別的な決定が疑われている。現在この訴訟は、求職者による集団訴訟に発展して係争中だが、状況から学べることは多い。

まず技術的には、AIの出力に反映される差別の問題が重要である。AIツールは過去の同業界や同企業のデータを用いて学習されることが通常のため、データに含まれる属性上の偏りなどを反映した出力を行いやすい。たとえば過去に男性の比率が大きい職場では、AIは性別自体や関連する経歴をもとに、男性に有利な判断を下しやすくなる場合がある。

しかし、特に採用選考のような人の権利・利益に重大な影響を及ぼす決定にAIの出力を活用する際には、その目的と関連するデータによって判断を行うことが要請される(OECDの「データ内容の原則」など)。たとえば、職務能力を判断する上で、それと直接関連しない人種や年齢などの属性に基づき決定を下すことは、不当な差別とみなされうるのである。

■責任の所在は

コミュニケーションの視点では、責任の所在が注目される。本件では、裁判所がツールベンダー(販売業者)を雇用主の「代理人」とみなせると判断したため、直接の雇用主ではなくWorkdayの責任が問われている。

しかし逆にいえば、企業の人事課が第三者の採用AIツールを用いてその結果差別が発生した場合、雇用主自身も当然に責任を問われうることになる。特にAIツールでは、個々の判断理由の説明が難しいため、関係者のいずれも説明責任を果たせないことが多い。問い合わせや異議申し立てプロセスの不備もこうした問題を悪化させる。

この情報へのアクセスはメンバーに限定されています。ログインしてください。メンバー登録は下記リンクをクリックしてください。

既存ユーザのログイン

3 − three =

   

「労基旬報」メールマガジン

*厳選されたニュースで労働行政の動きをチェック
*人事・労務の実務テーマで記事ピックアップ
*先進企業事例と業界トレンドの今が分かる
*注目の裁判やイベント情報なども随時掲載
(月3回配信、無料)

「労基旬報」紙面のご案内

*月3回、実務に必須の最新情報を厳選した紙面が届く
*法改正から判例、賃金動向までポイント解説
*第一線の専門家によるトレンド解説や先進企業事例
*職場でのよくある疑問にも丁寧に回答
*電子版・オンライン版でオフィス外でも閲覧可能

購読者Web会員登録

「労基旬報」本紙ご購読者の方は、こちらからご登録ください。

人気記事