●この記事のポイント ・日本のAI法は努力義務のみでEUと比べ規制が弱く、開発促進と人権保護の中間的立場 ・AIによる人権侵害は大きく3つの分野で懸念され、現行法では対応が不十分 ・著作権保護、クリエイター保護、選挙・政治への影響が今後の重要課題
政府はAI(人工知能)による人権侵害リスクについて実態調査を開始する。7月3日付日本経済新聞記事によれば、6月に施行されたAI関連技術の研究開発・活用推進法(AI新法)に基づき、企業の人材採用における差別の実態などを調査するという。日本企業の間でも採用におけるAI活用が広がるなか、見直しの動きが生じる可能性がある。海外企業ではAI活用により採用面で男女差別が生まれている事例が明らかになっている。
また、生成AIによってつくられたコンテンツが、クリエイターの著作権を侵害したり、フェイク画像・動画がそこで使用された人物の人権を侵害するケースも想定され、そうした行為に一定の歯止めがかかる可能性もある。日本のAI新法の現状と課題、そして今後必要となる取り組みについて、識者への取材をもとに追ってみたい。
●目次
「規制がない」日本のAI新法の実情
政府がAI活用による人権侵害の実態調査に乗り出した背景について、明治大学専門職大学院ガバナンス研究科教授の湯淺墾道氏は次のように解説する。
「直接的な要因は、6月に施行されたAI新法ですが、AI新法はEUのAI法と異なり、AIの開発をする側、あるいはそのAIを利活用する側両方に対して、特に規制がありません。要するに努力義務しかないんです」
EUのAI法には、リスクベースなアプローチにより、非常にリスクの高い使い方については禁止規定があり、リスクに応じて慎重な使用を求める罰則を伴った規制が設けられている。これに対し日本のAI新法には罰則規定がないという。
「EUのような厳しい罰則付きの規制を求めていた人たちからすると、人権を守るということについて不十分だということになります。日本政府としては日本がAI技術の開発で遅れをとっている現状を踏まえ、できるだけ開発者に対する規制は入れたくなかったのではないでしょうか。EUのように厳しい罰則も伴ったAI規制を求める声と、逆にAI開発をできるだけ促進したいという声の、いわば真ん中を取るかたちで、政府がAIによる権利侵害を調査して場合によっては指導・助言を行うというかたちで落ち着いたという印象です」