ここでは、それらのポイントを整理してみましょう。
まず大きな懸念は、誰がどこまでの個人情報をどのように扱うのか、そしてその管理体制は本当に安全なのかという点です。
今回のプロジェクトでは、犯罪歴や家庭内暴力のデータだけでなく、メンタルヘルス、依存症や自傷行為の履歴など、非常にセンシティブな情報までもが統合される可能性があります。
従来であれば医療機関や福祉機関の守秘範囲にあったようなプライベートな内容を、警察や司法当局がどの程度まで入手し、アルゴリズムに投入するのかは明らかになっていません。
また、一度集められたデータが今後どのように保管・二次利用されるのかも問題です。
仮に「研究目的だ」として集められた情報が、いつの間にか警察やその他の機関で常用されるようになる可能性も否定できません。
こうしたケースは「情報の目的外利用」と呼ばれ、本人の同意を得ることなくデータが流用される危険性があります。
しかも、不正アクセスや情報漏えいといったセキュリティ事故のリスクもつきまとうため、プライバシー面でのリスクは決して小さくありません。
次に、アルゴリズムやデータ自体が持つ偏見(バイアス)の問題が挙げられます。
実際、イギリスの警察は「制度的な人種差別を内包している」との批判を長年受けてきました。
たとえば全く同じ条件にある人物が白人と黒人の場合、裁判官や捜査当局が黒人のほうを高リスクと判断する傾向があったという報告もあります。
こうした背景のある警察データをそのまま学習データとして使えば、既存の偏見や差別が機械学習モデルに“焼き付く”危険性があるわけです。
これは人間の判断基準がそのままAIへ移行し、機械によって再生産されるという意味で、非常に深刻な問題をはらみます。
たとえば、特定の人種や所得の低い地域、あるいは一定の社会的立場にある人々ばかりが“リスクが高い”とされてしまうかもしれません。