金曜日, 12月 5, 2025

ブラックボックス化する人事評価 日本IBMの事例から考えるAIと透明性(佐久間弘明)

佐久間弘明 (さくま ひろあき)
一般社団法人AIガバナンス協会 業務執行理事

▶経済産業省、Bain&Coを経て、米スタートアップ・Robust Intelligenceで日本でのAIガバナンス普及に取り組んだ後、現職。現在はAIガバナンス協会理事として標準化活動や政策形成に関わるほか、企業のAIガバナンス構築支援の経験も多数持つ。社会学の視点からのAIリスクの研究にも取り組む。修士(社会情報学)。

■HR×AI リスクとチャンス

連載第4回は、社員を対象とした人事評価などの業務にAIを活用する際のリスクを検討する。特に重要になる論点が「透明性」だ。AIによる人事評価が労使間の対立に繋がった日本IBMの事例を参考に、どのような考慮点があるかを考えてみたい。

2019年8月、IBMはAIを人事評価・賃金査定に導入すると発表した。同AIは、40項目の評価要素をもとに社員の賃金査定に用いられるとされた。

これに対して同社労働組合は、プライバシー侵害、差別、評価のブラックボックス化、そして自動化バイアスのおそれなどを問題視し、団体交渉にて、AIが評価で考慮する項目や評価者への提案内容の開示などを要求することになる。

この問題は東京都労働委員会において争われ、最終的には5年の係争ののち、2024年8月に労使間の和解が成立することとなった。

■評価理由を説明できない

まず技術的な視点では、AIの説明可能性に関する問題が重要だ。

AIは確率的な推論によって出力を行うが、個々の出力の理由について詳細な説明を加えることはできず、AIを活用した意思決定は「ブラックボックス」となりやすい。加えて労組の指摘にもあった通り、自動化バイアスと呼ばれる傾向により、最終的な意思決定を行う人間は他の情報よりもAIの出力を過度に信用してしまいがちだ。

こうした事情が積み重なると、評価自体の適正感が失われたり、評価を受けた社員の改善の余地が奪われてしまうおそれがある。実際にIBMの事例でも、評価者がAIの考慮する評価項目を十分に認識していないなどの問題が指摘されている。

また、採用などの場合と同じように、評価のプロセスで不当なバイアスが反映される可能性や、職務と直接関係しない社員のパーソナルデータの過度な収集が行われるおそれも排除できない。

こうした他の問題についても、ブラックボックス性によって覆い隠されてしまう可能性がある。

■労使和解で基準開示へ

この情報へのアクセスはメンバーに限定されています。ログインしてください。メンバー登録は下記リンクをクリックしてください。

既存ユーザのログイン

fourteen − 3 =

   

「労基旬報」メールマガジン

*厳選されたニュースで労働行政の動きをチェック
*人事・労務の実務テーマで記事ピックアップ
*先進企業事例と業界トレンドの今が分かる
*注目の裁判やイベント情報なども随時掲載
(月3回配信、無料)

「労基旬報」紙面のご案内

*月3回、実務に必須の最新情報を厳選した紙面が届く
*法改正から判例、賃金動向までポイント解説
*第一線の専門家によるトレンド解説や先進企業事例
*職場でのよくある疑問にも丁寧に回答
*電子版・オンライン版でオフィス外でも閲覧可能

購読者Web会員登録

「労基旬報」本紙ご購読者の方は、こちらからご登録ください。

人気記事