
一般社団法人AIガバナンス協会 業務執行理事
経経済産業省、Bain&Coを経て、米スタートアップ・Robust Intelligenceで日本でのAIガバナンス普及に取り組んだ後、現職。現在はAIガバナンス協会理事として標準化活動や政策形成に関わるほか、企業のAIガバナンス構築支援の経験も多数持つ。社会学の視点からのAIリスクの研究にも取り組む。修士(社会情報学)。
■HR×AI リスクとチャンス⑤
これまでの連載では、HR領域でAIを活用する場合の具体的なリスクについて検討してきた。そうしたリスクの対策を検討する上で必ず重要な論点となるのが、規制への対応である。
■個人情報保護法や男女雇用機会均等法、職業安定法も
AIと関わる規制を確認する際に重要な大前提は、「AI」を具体的に名指していなくとも関連する規制が数多く存在するということである。
人間の行為について既存法で規律がなされている場合、AIを活用してその行為がなされる時も基本的には同様の規律が課されることになる。
連載で触れてきた個人情報保護法や男女雇用機会均等法、職業安定法などが典型例だ。特に個人情報保護法については、現在3年ごと見直しの議論が進められており今後の動向に注意が必要である。
その上で、生成AIの流行に伴って整備が進む日本のAI規制は、そのような既存法による規律は継続しつつ、AIを対象としたソフトロー類を中心に規律するアプローチをとっている。ここでは特に、後者について深掘りしていく。
■自社でのリスク基に
まず法律のレイヤーでは、2025年5月に成立した「人工知能関連技術の研究開発及び活用の推進に関する法律」(AI法)が注目される。同法は、ソフトローを基調とした改善サイクルを継続的に回すことでAIのリスク対応を進めていくという政策方針を明確化したものと評価できる。
政府の「AI戦略本部」設置による体制強化と「AI基本計画」の策定、国際的な規範と整合した指針の整備、人権侵害などの状況に関する政府調査といった点が規定されたが、厳格な行為規制などは盛り込まれていない。
政府が指針などのソフトローで定める大方針を事業者が実践し、その状況をモニタリングして継続的に改善を図るという姿勢がうかがえる。今後、AI基本計画や指針でどのような内容が規定されるかが注目される。
この情報へのアクセスはメンバーに限定されています。ログインしてください。メンバー登録は下記リンクをクリックしてください。


