AIガバナンスの取り組み
本ページは、リクルートが別途定める「リクルートAI活用指針」に基づき実践しているAIガバナンスの取り組みの一部を記載しています。
「新しい価値の創造を通じ、社会からの期待に応え、一人ひとりが輝く豊かな世界の実現を目指す」ために、適切なガバナンスを講じるとともに、社内の取り組みについての透明性も高めていくために、本ページにて公開・更新してまいります。
責任あるAIガバナンスへの向き合い方
- 私たちは「リクルートAI活用指針」第一条に掲げるとおり、AI活用を通じて、ユーザーの利便性の向上、機会拡大や可能性の向上、そして社会の健全な発展を目指しています。
- AIをはじめとするテクノロジーは、私たちがユーザーに提供したい価値として掲げる、「まだ、ここにない、出会い。」を、桁違いに速く、驚くほどシンプルに、もっと身近にしていくために有用である一方で、現在もまだ発展途上であるテクノロジーの活用によるリスクには、既に顕在化しているリスクもあれば、まだ顕在化していないリスクもあると認識しています。
- だからこそ、AIガバナンスは、法規制を遵守する従来型のコンプライアンス対応では足りず、ユーザーやクライアントを含む社会からの信頼を得ながら、安全なソリューションの提供を行うためのものでなければならないと考えております。
- これを達成するために、AI活用によるメリットとリスクに向き合い、ステークホルダーとの対話を通じて、日々変化する社会からの期待に真摯に向き合っていく必要があると考えています。
社内外での議論を踏まえ、ユーザーの不利益につながらないように、ユーザーの機会拡大や社会発展といった価値を最大化するためのアプローチを、責任あるAIガバナンスとして捉え、日々取り組んでいます。
責任あるAI活用を実現するための取り組み
組織を横断した推進体制
- 責任のあるAI活用を実現するために、私たちは、さまざまな専門知識や、異なるバックグラウンドを持つ多様な人材 (弁護士、公共政策の専門家、データサイエンティストなど)で構成されたAIガバナンスの専門組織を設置しています。
- この組織が中心となり、私たちがAIを活用することで社会に提供したい価値や、AI活用によるリスクなどを多角的な視点から議論し、あるべきガバナンスのルールを検討、整備しています。それを元に、各サービスの開発を担当する事業、法務、品質管理、ITセキュリティの担当部署といった関係組織と連携し、またユーザー調査や有識者との意見交換などを通じて外部の声も取り入れながら、継続的に見直すアジャイル・ガバナンスを実践し、各サービスの特性に応じた安全なAI活用のための取り組みを推進しています。
リスクベースアプローチ
- AIは、その種類や利用用途、場面によってそのメリットもリスクも異なるため、全てのサービスに一様のリスク対策を講じることは難しく、またそうした対応によって、AI活用により本来ユーザーが享受できる利益を損なう可能性もあります。そのため私たちは、リスクベースのアプローチを採用し、AIの利用ケースに応じて、安全性評価基準の策定、並びにモニタリングの仕組みを構築し、継続的にリスクを特定、評価、軽減するために、AIを活用したサービスのライフサイクルを通じて、適切な措置を講じています。
サービスのライフサイクル全体に渡るレビュー
- サービスの企画・設計段階からリリースまでのそれぞれの段階において、各種観点での検討が抜け漏れなく実施される仕組み(「標準プロセスレビュー」)を運用しています。AI活用においても、この枠組みに則りレビューを行っており、その中で事業との議論を重ね、人間中心の設計や公平性・公正性を含むさまざまなAIのリスクに関する確認も行っています。
- 特に雇用領域におけるAI活用にあたっては、求職者のスキルや仕事を遂行する能力とは関係のない事由による不当な差別の助長が行われないよう、公平性・公正性を追求しています。
AIリスクモニタリング
- AIの特性上、AIのアウトプットやアルゴリズムは日々変化していく可能性があるため、リリース前の標準プロセスレビューの段階で見つかっていなかった人権侵害、差別の助長、多様性の排除が、実際のアルゴリズムやサービスにおいて生じていないか、サービスがリリースされた後においても、モニタリングを実施しています。
- モニタリングの結果は、関係役員で構成するフェアネスモニタリング会議で確認し、リスクがあると疑われた場合には、事業と迅速に改善方針を検討します。
- フェアネスモニタリング会議は、議長であるAIガバナンス担当執行役員、サステナビリティ担当執行役員、プロダクト担当執行役員が参加し、定期的に開催されています。
- また、AIの利用目的、インプットとアウトプットのデータ項目、アルゴリズム、レビュー結果などをモデルカードに記録し、継続的に見直しが行えるように運用しています。
AIを活用したサービスに対するレビュー観点の一例
- レビュープロセスや観点については、技術そのものや社会環境の変化、並びにユーザーの声や第三者の専門家との議論を通じて、常にアップデートし続けています。
- AIを活用したサービスのレビューを実施する際の観点の例は以下です。
- そのサービスにAIを活用することによって、現在のサービスよりもユーザーの機会拡大や可能性の向上が見込めるか、その他どのような便益が提供できるか
- AIの学習・推論に用いるデータに、人権侵害や差別の助長が生じる可能性のある項目が含まれていないか
- AIにおいて、ユーザーが予期しない形でユーザーのデータを活用していないか
- ユーザーの意図に反してセンシティブなデータを用いるなど、ユーザーのプライバシーに不利益を与える可能性のあるデータ活用や施策になっていないか
- ユーザーにとって予想外の不利益につながらないように、サービスにAIを活用している事実や、AIの特性として生じる可能性のあるリスクについて、その影響を適切に説明できているか
- AIの活用目的が、ユーザーのデータの取得経路や取得時の利用目的の範囲を超えていないか
- サービスにおけるユーザー体験を通じて、フェーズに応じた公平性・公正性に関する指標が、AIを活用したことによって変化していないか
- さらに公平・公正な結果を追求するために技術的な改善ができないか
ステークホルダーとの対話
- 技術の進展度合いによってAIの利用の方法やもたらされる影響や効果も変化し続けます。そうした技術をめぐるガバナンスには、一定の答えや完成形はなく、技術の進化に伴い社会からの受容の程度や、求められるガバナンスのあり方は変化し続けると考えています。
- そのため、私たちは、ユーザー調査、有識者会議の開催、外部のAIガバナンスに関するワーキンググループなどへ参加し、ステークホルダーとの対話を続けながら、ガバナンスの手法や要件をブラッシュアップするアジャイル・ガバナンスのアプローチを大切にしています。
よくあるご質問・お問い合わせ
よくあるご質問では、ユーザーから多くいただいた疑問や不安に回答しています。
リクナビにおけるデータの利用に関しては、以下のページで詳しく説明しております。
免責事項:
・プライバシーセンターに掲載している情報は2023年7月21日時点の情報です。最新の状況については逐一反映を行っていきますが、記載内容と齟齬がある場合、現状を優先します。