
一般社団法人AIガバナンス協会 業務執行理事
▶経済産業省、Bain&Coを経て、米スタートアップ・Robust Intelligenceで日本でのAIガバナンス普及に取り組んだ後、現職。現在はAIガバナンス協会理事として標準化活動や政策形成に関わるほか、企業のAIガバナンス構築支援の経験も多数持つ。社会学の視点からのAIリスクの研究にも取り組む。修士(社会情報学)。
■HR×AI リスクとチャンス④
連載第4回は、社員を対象とした人事評価などの業務にAIを活用する際のリスクを検討する。特に重要になる論点が「透明性」だ。AIによる人事評価が労使間の対立に繋がった日本IBMの事例を参考に、どのような考慮点があるかを考えてみたい。
2019年8月、IBMはAIを人事評価・賃金査定に導入すると発表した。同AIは、40項目の評価要素をもとに社員の賃金査定に用いられるとされた。
これに対して同社労働組合は、プライバシー侵害、差別、評価のブラックボックス化、そして自動化バイアスのおそれなどを問題視し、団体交渉にて、AIが評価で考慮する項目や評価者への提案内容の開示などを要求することになる。
この問題は東京都労働委員会において争われ、最終的には5年の係争ののち、2024年8月に労使間の和解が成立することとなった。
■評価理由を説明できない
まず技術的な視点では、AIの説明可能性に関する問題が重要だ。
AIは確率的な推論によって出力を行うが、個々の出力の理由について詳細な説明を加えることはできず、AIを活用した意思決定は「ブラックボックス」となりやすい。加えて労組の指摘にもあった通り、自動化バイアスと呼ばれる傾向により、最終的な意思決定を行う人間は他の情報よりもAIの出力を過度に信用してしまいがちだ。
こうした事情が積み重なると、評価自体の適正感が失われたり、評価を受けた社員の改善の余地が奪われてしまうおそれがある。実際にIBMの事例でも、評価者がAIの考慮する評価項目を十分に認識していないなどの問題が指摘されている。
また、採用などの場合と同じように、評価のプロセスで不当なバイアスが反映される可能性や、職務と直接関係しない社員のパーソナルデータの過度な収集が行われるおそれも排除できない。
こうした他の問題についても、ブラックボックス性によって覆い隠されてしまう可能性がある。
■労使和解で基準開示へ
この情報へのアクセスはメンバーに限定されています。ログインしてください。メンバー登録は下記リンクをクリックしてください。


