
一般社団法人AIガバナンス協会 業務執行理事
▶経済産業省、Bain&Coを経て、2023年にAIリスク管理の米スタートアップ・Robust Intelligenceに参画。同社買収まで、日本でのAIガバナンス普及に取り組む。現在はAIガバナンス協会理事として標準化活動や政策形成に関わるほか、スマートガバナンス社にて企業向けアドバイザリーも行う。東京大学学際情報学府にてAIリスクの研究にも取り組む。
■HR×AI リスクとチャンス①
生成AIを中心としたAI技術の発展と社会実装が、かつてないスピードで進行している。2022年末にリリースされた“ChatGPT”以降、生成AIは様々なユースケースで生産性の向上や新規ビジネスの創出に寄与しつつある。
HR(人事)領域に絞っても、AI活用は数多くのチャンスをもたらす。たとえば採用活動では、AIによる応募者データのスクリーニングや面接により、候補者選定のスピードが飛躍的に向上している。
また従業員のスキルデータや業務成績をAIで分析すれば、適材適所の配置やキャリアプランの設計が容易になる。さらに生成AIを用いて社内の問い合わせなどを自動化することで、従業員の生産性を向上させている例もある。
後に述べるバイアスなどの課題と表裏一体だが、AIの活用で人間がもつ偏見を排除したり、より個人に最適な対応ができるようになる側面もある。企業側だけでなく従業員や消費者にも、AI活用により大きなメリットがもたらされる。
しかし、AI活用には「リスク」、つまり何かしらの損害の可能性も伴うということが近年よく取り沙汰される。たとえば、AIの技術的な性質に起因する問題だ。AIの予測や生成する情報に誤りが含まれることや、学習データのバイアスに起因する不公平な出力といった問題、また悪意のある者から攻撃を受けるセキュリティホールなどが大きな課題である。
また、AI技術が人間のタスクを高度に代替できるがゆえの社会的問題もある。たとえばAIのアウトプットに人間が依存してしまう問題や、大量のデータから個人情報を復元できるといったプライバシー侵害、さらにAIにより人の雇用が代替され失業が発生するといったマクロ的な課題もある。
最後に、上記に横断して関わる課題として、責任に関する問題がある。AIは自動でデータを学習し、継続的にその性能や挙動を変化させる上、そのメカニズムを外から検証することが難しい。このような「ブラックボックス性」ゆえに、何か問題が起きた際に、その責任をどの主体が負うべきかを特定しにくくなるという懸念がある。
■技術とコミュニケーション
AIをビジネス活用する際には、以上のようなリスクが複合的に存在することを前提に設計を検討する必要がある。本連載の内容を先取すれば、特に重要なのは「技術」と「コミュニケーション」という視点である。
まず、日々アップデートされるAI技術の動向にキャッチアップし、柔軟に対応していく必要がある。そのためのツールも、データの加工に関するものからモデル自体を保護するものまで様々だ。また、AIの与える影響が様々なステークホルダーによって別様に捉えられる可能性を踏まえ、対外的な説明を工夫する必要もある。
こうした対策さえ取れれば、冒頭で述べたようなAIのメリットを引き出すことができるだろう。
本連載では、HR領域を中心に、AIのもたらす機会とリスクについて考察する。適切なAIガバナンスの実践は、企業や組織にとって喫緊の課題だ。本連載が、読者のみなさまがAIの可能性と課題を正しく理解し、次の一手を考える一助となることを願う。