AIガバナンスの取り組み
本ページは、株式会社リクルートおよびその子会社(以下「当社グループ」という)が別途定める「リクルートAI活用指針」に基づき実践しているAIガバナンスの取り組みの一部を記載しています。
「新しい価値の創造を通じ、社会からの期待に応え、一人ひとりが輝く豊かな世界の実現を目指す」ために、適切なガバナンスに取り組みながら、指針と共に、取り組みも随時アップデートし、本ページにて公開してまいります。
施策レビューにおける取り組み
- サービスの企画・設計段階からリリースまでのそれぞれの段階において、各種観点での検討が抜け漏れなく実施される仕組み(「標準プロセスレビュー」)を、リクルート全体で統一しています。AIの活用においても、この枠組みに則りレビューを行っており、その中で公平性・公正性に関する確認も行っています。
- 特に雇用領域におけるAIの活用にあたっては、求職者のスキルや仕事を遂行する能力とは関係のない事由による不当な差別の助長が行われないよう、公平性・公正性を追求しています。
- 主なレビュー観点
- 人権侵害、差別の助長につながる可能性を有するデータが用いられていないか
AIの学習・推論に用いるデータに、人権侵害や差別の助長が生じる可能性のある項目が含まれていないかを確認しています。 - ユーザーのプライバシー懸念があるようなデータが含まれていないか
AIにおいて、ユーザーが予期しない形でユーザーのデータを活用していないか、ユーザーの意図に反してセンシティブなデータを用いるなど、不利益を与える可能性のあるデータ活用や施策になっていないかを確認しています。 -
AIを用いたサービスをユーザーが利用する際、AIが持つリスクを適切に把握した上で利用できるように説明されているか
ユーザーにとって予想外の不利益に繋がらないように、サービスにAIを活用している事実やAIの特性として生じる可能性のあるリスクについて、その影響に鑑み適切に説明できているかを確認しています。 -
AIに用いるデータは適法に取得されているか、また、その利用は利用目的の範囲内か
AIの活用目的が、ユーザーからデータを取得した際にお約束している利用目的の範囲を超えることのないよう、その取得経路や取得時の利用目的の確認をしています。
- 人権侵害、差別の助長につながる可能性を有するデータが用いられていないか
- なお、標準プロセスレビューのフローや観点については、技術そのものや社会環境の変化などを踏まえ、随時アップデートを重ねながら運用しております。
※標準審査プロセスのレビューにおいて懸念が明示された場合、担当者やプライバシー責任者は、次のフェーズ(要件定義、開発・テスト、リリースなど)へ進めることができません。商品やサービスの内容・施策の見直しや、場合によっては実施を取りやめることもあります。
フェアネスモニタリング
- 施策レビューを経て、サービスがリリースされた後においても、人権侵害、差別の助長、多様性の排除が、実際のアルゴリズムやサービスにおいて生じていないか、さまざまな段階で検査を実施しています。
- モニタリングの設計は、第三者の専門家と議論しながら、常にアップデートし続けています。
- モニタリングの結果は、関係役員で構成するフェアネスモニタリング会議で確認しており、リスクがあると疑われた場合には、迅速に対応方針を検討します。
リクルートAI活用指針に則ったガバナンス構造
- リクルートAI活用指針に則り、以下のガバナンス構造で施策レビューやフェアネスモニタリングを実施しています。
- フェアネスモニタリング会議は、議長であるリスクマネジメント担当執行役員のもと、サステナビリティ統括担当執行役員・プロダクト本部執行役員が参加し、定期的に開催されています。
よくあるご質問・お問い合わせ
よくあるご質問では、ユーザーから多くいただいた疑問や不安に回答しています。
リクナビにおけるデータの利用に関しては、以下のページで詳しく説明しております。
免責事項:
・プライバシーセンターに掲載している情報は2023年7月21日時点の情報です。最新の状況については逐一反映を行っていきますが、記載内容と齟齬がある場合、現状を優先します。