想定される3つの人権侵害分野
AIの活用による人権侵害としては、大きく3つの分野があるという。
第1の懸念は、プライバシー情報の収集問題だ。
「AIは学習のためにプライバシー情報、個人情報を幅広く収集するという問題がまず第1点です。第2は、監視・追跡システムへの応用による懸念です。AIと監視カメラを組み合わせることで、例えば個人が特定されて追跡される懸念や、収集した情報を使ってプロファイリングが行われる懸念があります。
実際にアメリカの一部の裁判所では、AIによるプロファイリングが刑事事件の量刑判断に活用されています。有罪か無罪かは陪審員が決めますが、懲役10年にするのか20年にするのかという量刑は裁判官が決めます。その時にAIで、被告人が再犯する確率を出すわけです。それだけに基づくわけではないですが、それも材料にして裁判官が判断するかたちになっています。
そして第3には、AI生成による違法コンテンツの問題です」
個別法での対応が日本のアプローチ
日本では、AI新法に具体的な規制を盛り込まず、個別法で対応するというアプローチが取られているという
「EUのAI法には、リスクに応じて“こういう使い方をしてはならない”“こういう使い方をする時には本人の同意を取らないといけない”といったかたちで、個別の使い方に対する規制が定められています。これに対して日本のAI新法には罰則を伴う規制が定められておらず、個別領域に規制できる法律で対応していくというのが日本のアプローチです」
「学習天国」と呼ばれる著作権法の課題
著作権保護との兼ね合いという面でも問題があるという。
「日本の著作権法は非常にAIに甘い規定になっており、学習のためなら事実上、著作物を利用し放題といえる状況です。一部では“学習天国““学習パラダイス”という言葉があるほどで、一部の例外を除きAIの学習のためには著作権者の許諾なく著作物を利用できます。営利・非営利を問わないなど、諸外国に比べてもかなり甘い規定になっているにもかかわらず、日本のAI開発は遅れているわけなので、AI開発と著作権保護のバランスをどう取るかというところは、もう1回考え直す必要があるかもしれません」
今、AIで“ジブリっぽいイラスト”や“声優さんのような声”を生成することが流行っていますが、こうした“●●っぽい”ものを生成するということは規制されていません。こうしたものがAIでどんどん作られてしまうと、クリエイターやアニメ会社などが成り立たなくなる恐れがあり、作風や声をAIによって模倣するという行為をどう考えるかというのは、クリエイターの業界にとっては死活問題です」
政治・選挙への影響についても湯淺氏は警鐘を鳴らす。
「将来的にSNSの力で選挙の結果が大きく左右されるようになると、SNS上でAIを使った特定の情報や偽情報の拡散、拡散が、ますます激しくなっていくと予測されます。そのため、AIによって選挙や政治に影響が出るということが明らかになった場合、それにどう対処するのかということは、非常に大きな問題になってくるかもしれません」
日本のAI新法は、技術開発の促進と人権保護のバランスを取ろうとする法律だが、具体的な規制力に欠けるという課題を抱えている。今後、個別法の整備や運用の強化とともに、AI時代に適応した新たな法的枠組みの構築が求められることになりそうだ。
(文=BUSINESS JOURNAL編集部)