
一般社団法人AIガバナンス協会 業務執行理事
経経済産業省、Bain&Coを経て、米スタートアップ・Robust Intelligenceで日本でのAIガバナンス普及に取り組んだ後、現職。現在はAIガバナンス協会理事として標準化活動や政策形成に関わるほか、企業のAIガバナンス構築支援の経験も多数持つ。社会学の視点からのAIリスクの研究にも取り組む。修士(社会情報学)。
■HR×AI リスクとチャンス⑧
今回は、技術的なAIリスク対策(前回参照)と対になるコミュニケーションの視点、つまりステークホルダーとの情報のやり取りや契約、それらを規定していくプロセスにおけるリスク対策のポイントを述べていきたい。
全体の考え方に通底するのはリスクベースアプローチである。特にここで重要なのは、リスクの大きさだけでなくそのステークホルダーを網羅的に特定することだ。「誰に対して」リスクが発生するのかを特定することは、そのままコミュニケーションの対象者を規定することになる。
本連載で扱った「リクナビ事件」のケースでいえば、サービスで内定辞退率を推定された就活生はもちろん、それらのデータを受領した企業(これらの企業にもガバナンス上の問題があった可能性が高い)も含めた幅広いステークホルダーに影響があったといえるだろう。
コミュニケーションの視点でのリスク対策は、大きくは社内のリスク評価プロセスの整備、契約や利用規約による法的な対応、より広い範囲での情報開示や透明性確保、の3点がポイントになる。
■採用選考や人事評価などHR領域での活用のためにも
まず社内のリスク評価プロセスの整備とは、新たなAIユースケースを推進する際に、事前にリスク評価を行うプロセスを社内で構築することを指す。
できるだけ多様な観点の意見を事前に聴取するプロセスが重要だ。AI活用の推進部門(HR領域の場合は人事部など)だけでは、思わぬリスクや影響を見落とす可能性がある。ITセキュリティ、法務やコンプライアンスなどの部門も含め、様々な観点からチェックを行い必要なリスク管理策を検討することが望ましい。また、事前にステークホルダーや外部有識者の見解を確認することも有効である。
次に契約や利用規約による対応では、ユーザや関連するステークホルダーとの間の法的責任を整理することが目的となる。具体的には、たとえばサービスを活用するユーザから事前に個人情報の利活用に関する合意を取ることや、AIの出力によって問題が生じた際の責任所在の明確化といったことが考えられる。
最後に情報開示や透明性確保では、法的責任に限らず、ユーザやステークホルダーがAIのもたらす影響に対して納得感を持てるように適切な情報を提供することが必要だ。
自社のサービスでAIを活用している事実やその性能の限界、ユーザに求められる基礎知識といったことを、わかりやすく説明することが求められる。たとえばAI採用ツールであれば、選考のどの範囲にAIを活用し、具体的に入力しているデータは何かといったことが問題になるし、人事評価ツールであれば、評価される社員だけでなく、AIツールを活用して評価を実施する側の社員向けのリテラシー向上策も必要になるだろう。
AIは統計的な出力を行う性質上、「100%」の解答を出すことはできず、そこには常に情報の誤りをはじめとする様々なリスクが伴う。その際、「リスクがあるためAI活用を避ける」という後ろ向きの対応ではなく、リスクをうまく軽減して前向きに導入を進めていくためには、責任関係の整理を含むコミュニケーションの施策が必須となるのである。


