
一般社団法人AIガバナンス協会 業務執行理事
経経済産業省、Bain&Coを経て、米スタートアップ・Robust Intelligenceで日本でのAIガバナンス普及に取り組んだ後、現職。現在はAIガバナンス協会理事として標準化活動や政策形成に関わるほか、企業のAIガバナンス構築支援の経験も多数持つ。社会学の視点からのAIリスクの研究にも取り組む。修士(社会情報学)。
■HR×AI リスクとチャンス⑦
前回までは、HR領域でのAI活用に関連する規制やガイドライン類を確認してきた。しかし、ユースケースを実装する際に、多様な要求事項のどこから手をつけ、実装していくべきかは難しい問題である。今回は、特に技術的なAIリスク対策の実装にあたって有効な考え方や取組事項の例を議論していく。
■まずリスクの見極めを
リスク対策の大前提として、リスクベースアプローチの徹底が重要だ。リスク対策の程度をリスクの性質や蓋然性の高さに対応させるという考え方であり、AI事業者ガイドラインでも推奨されている。最低限のリスク対策はどのようなユースケースにも必要だが、一方で自社の活用するすべてのAIモデルに高いレベルのリスク対策を適用することは過剰なコストとなり、AI活用を妨げてしまう。ユースケースごとに、リスクの大きさを見極めて対策を議論していくことが肝要となる。
その上で、AIのライフサイクルを通じた対策を検討することが必要になる。AIサービスの活用までには、データの収集・加工、AIモデルの構築、システムへの組み込みと運用といった多様なプロセスが存在し、それぞれで異なる技術的な対策が想定される。以下では、HR領域を念頭に各プロセスでの代表的な対策に触れていこう。
■検証、再学習、人の関与も
この情報へのアクセスはメンバーに限定されています。ログインしてください。メンバー登録は下記リンクをクリックしてください。


