リクルートの「内定辞退予測データ問題」が企業に問うたこと

リクルートの「内定辞退予測データ問題」が企業に問うたこと

 後で見る

日本で個人情報保護法が全面施行されたのは2005年。その後本格的な改正法をも施行されています。

2019年8月就職情報サイト「リクナビ」を運営するリクルートキャリアが、AIを使って就活生の内定辞退確率を予測し、本人の同意が不十分なままそのデータを企業38社に販売していたという日本経済新聞の報道から、事態が発覚しました。

Web上ではすぐさま「合否判定の材料にされたのではないか」などとの声が上がり、SNSは炎上。リクルートキャリアは同日、「合否判定に活用しないと同意した企業にのみ、サービスを提供した」というコメントを発表しました。

まさに個人情報保護法に抵触するものではないのか。これが日本の世の中に与えた衝撃について、考えてみたいと思います。

そもそも個人情報とは何

そもそも個人情報とは何

個人情報保護法では、個人情報を次の通り定義しています:

「個人情報とは、生存する個人に関する情報であって、当該情報に含まれる氏名、生年月日その他の記述等により特定の個人を識別することができるもの(他の情報と容易に照合することができ、それにより特定の個人を識別することができることとなるものを含む。)をいう」(個人情報保護法第2条より)。

つまり一人一人に関する情報で、なおかつそれが誰であるか明確にできる情報のことです。例をあげてみましょう。

  1. 氏名、生年月日、住所など連絡先
  2. 本人を特定できるメールアドレス
  3. 個人を特定できる写真、ビデオ画像、電話録音など
  4. 企業における従業員の評価情報や従業員名簿
  5. NTT電話帳などで公開されている個人に関する情報
  6. その他氏名と関連付けられている全ての情報

特に6)に関しては判断が難しいですね。そこで個人情報かどうか見極める上で忘れていけないポイントを共有します:
1) 氏名や住所だけが個人情報であるという考えは間違いです。どんなささいな購入データであったとしても、個人情報に当たる場合があることを忘れないで下さい。

2) 同じデータであっても、A社にとっては個人情報でなくても、B社にとっては個人情報であることがあります。それが個人情報にあたるかどうかは、企業の状況によって変わってくるからです。

100%理解するには、なかなか手強い感じですね。特に企業では個人情報の専門家が企業内にいる必要性が、先端技術向上とともに高まっています。まだ非職業資格である個人情報保護士個人情報検定などは、近い将来職業資格に昇格となる可能性が高いのは当然でしょう。

個人情報保護法制定の背景

個人情報保護法は、「個人情報の有用性に配慮しつつ個人の権利利益を保護すること」を目的に2005年に全面施行され、2015年9月には本格的な改正法が成立して施行されています。

個人情報の保護の必要性が急上昇した理由は、急速な情報化の進展といっても間違いではありません。多くの個人情報で電子化が進み、大量の個人情報の保存し利用が楽に行えるようになりました。

しかしその一方で、大量の個人情報を不法に外部へ持ち出すことや、改ざん行為が誰でもできるようになったために、個人情報に関連する事件や事故が多発するようになってしまいました。そこで個人情報保護法の制定が必然となったわけです。

個人情報保護法の元では、個人情報に関連する事件や事故を起こすと、企業、個人とも社会的な信用を失ってしまうかもしれませんし、多額の損害賠償請求がなされる場合もあるので、企業や団体ではリスク回避のために様々な施策を行うようになりました。そのおかげもあり個人情報保護法は短期間に認識されました。

現在では欧米を参考に規制を強化する一方、企業が抱える多種多様なビッグデータを安全に活用することを後押ししている法律であるともいえるでしょう。

内定辞退予測データの何が問題だったのか

内定辞退予測データの何が問題だったのか

就職情報サイトのリクナビを利用するのは年間約80万人の就活生と、企業3万社超。2018年3月から内定辞退率予測データの「リクナビDMPフォロー」を、1社当たり年400万円-500万円で販売していました。

そのでーた抽出手順は次の通りです。

  1. 前年の内定辞退者のデータを、企業が委託契約という形でリクナビに共有
  2. その辞退者のリクナビ上での過去の行動履歴データをAI解析。例えば内定後も別の企業ページを照会していた、あるいは内定後に他社を応募したなど、どのような行動パターンや属性が、内定辞退をした者に見られるかを解析
  3. 本年の選考者リストを企業側から受け取り、上記2. で抽出した属性やウェブ上での行動パターンと類似する行動を取っている人物をピックアップ
  4. 企業側に5段階予測値という形で、選考者の「内定辞退率」を販売

上記4. の予測値データが個人情報に当たるため、外部提供には原則学生本人の同意が必須になります。

個人情報保護法第23条では、本人の同意を得ないで情報を第三者に提供することを禁止しており、今回リクルートは対象となった8,000人以上の学生の同意を得ないで、この内定辞退予測値データを企業に提供していたとされます。

リクナビではサイトの利用規約に「行動履歴を分析し、採用活動補助のために企業へ提供する」と記しているので、それを同意した人が利用しているから問題ないと主張していますが、学生側からすれば、就活に不利になりかねないデータの提供だと十分に理解して同意したとは考えにくいため、同意の確認は不十分だと言わざるを得ないのです。

最終的にリクナビでは内定辞退予測サービスの休止を発表し、就活生7,983名について同意が不十分だったと認めました。

買う側にも問題が

採用判断に使わないという約束の元で、内定辞退予測データを企業に売ったことを、リクナビは表明していますが、企業がそのデータを買う目的は、内定を辞退する可能性が高い就活生をby nameで把握するためであったのは間違いないでしょう。

売り手市場の新卒採用で、確実に良い人材を採用するためにこのデータを買っているので、内定辞退の傾向分析をするだけなら大金を払いません。

もちろん今回のことでは購入した企業側の責任も問われます。職業安定法では労働者募集の際に、企業が第三者から個人情報を取得することを原則禁じています。内定辞退予測データの購入はこれに抵触する可能性が大なのです。

加えて今回リクナビが内定辞退予測データを抽出するために、企業はあらかじめ前年および今年の自社就活生データを提供しましたが、内定辞退者各人の同意がなければ、その行為も個人情報保護法違反になります。

AIには罪はない:企業のAI倫理

内定辞退予測データの抽出に使われたAIには無限の可能性があります。使う側のモラルにより、善玉にも悪玉にもなるのです。

ここで米シリコンバレーでの有名な実話を共有しましょう。米グーグル社が受注したアメリカ国防総省(ペンタゴン)のAIと画像認識技術をドローン映像の解析に活用するという、AIプロジェクトの一つであったProject MavenのためのAIが、グーグルが大量のクラウドワーカーを雇用して開発された自社製であることが報道され、しかもその活用がドローンなどの軍用武器に使われる可能性があることに意義を唱えた3,000名以上のグーグル社員が、嘆願書に署名を行い会社に提出。

その嘆願書には、「グーグルは戦争目的の事業に加担すべきでないと我々は考えている」、「ペンタゴンへの協力はやめるべき」と記載されていました。さらに10名以上の主力メンバーの開発者が同社を退社という事態に。

これは多額の契約金がペンタゴンからグーグルに約束されていたビックプロジェクトでしたが、結果的にグーグルCEO自らが「AI技術を兵器開発に使わない」と宣言し、「AI開発の原則」を発表。ペンタゴンとの契約を更新せず、Project Maven自体が開発中止になりました。

  • 技術的に可能でも、倫理的に考えて開発をすべきなのか?
  • 自分たちが開発したAIがその後どのような意思決定のツールとして、どんな人に使われるのか?
  • 社会における影響はあるのかないのか?

今やこのような議論を、AI開発をする者が主体的に行わなければいけない状況になったのです。

グーグルでは、相手が誰であっても本質的な問題点は変わりなく、もはや依頼内容通りにAIを開発しただけだから、その先どう使われようとも自分は無関係では、済まされないムードがあります。

日本でもこのグーグル社員のアクションについて、右にならえの立場を取るべきです。AIの存在には罪はないのですから。

内定辞退予測データの安全な抽出へ

内定辞退予測データの安全な抽出へ

リクナビの競合他社の一社であるマイナビでも、2016年から内定辞退率を予測できるサービスPRaiO(プライオ)を販売しています。その内容は企業が保有する過去のエントリーシートをAIに学習させて、応募学生の内定辞退の確率を5段階に分析するもので、早期離職者や役員候補などの予測も可能であり、導入企業は80社ほど。

マイナビのサービスがリクナビのそれと違う点は、企業に提出されたエントリーシートの情報のみで分析し、マイナビサイト内にある学生の個人情報を使わない点です。

企業が共有するエントリーシートでは個人を特定できないので、マイナビと企業間にも個人情報がないのです。 分析データは最終的に企業内で完結するべきものなので、その先のことはマイナビは関知せず。よく考えられたサービスですね。

少子高齢化で良い人材を一人でも多く採用したいのはどの企業でも同じです。データ分析が肝になることは必須ですが、そのために個人情報保護法に抵触しては、元も子もありません。

分析作業にAIを活用するもの当然の行為です。間違った使い方にならないためには、使う人間の倫理観がすべてなのです。

個人情報を使った新規ビジネスも続々誕生しつつありますので、これからはさらに色々な観点で注意し、世の中に役立つ活用を推進したいですね。

 後で見る
OFFCOMPANY スタッフ

この記事のライター

OFFCOMPANY スタッフ

 JOIN US
OFFCOMPANYへ参加する


もっと表示する