AI映像を法廷で流すこと自体はアリゾナ州法に反しておらず問題ないとの見解です。

ただしティマー首席判事は「同様の技術が悪意ある目的に使われる可能性もある」と警鐘も鳴らしています。

実際、米国の裁判所では近年AI技術の活用が広がりつつあり、判例検索や書面作成へのAI利用から、裁判所が判決要旨を自動生成して公表するといった試みまで行われ始めています。

今回のような被害者の声の再現は極めてユニークな例ですが、専門家は「ビデオが陪審ではなく判事に向けて提示された点」がポイントだと指摘します。

判事は職務上、感情を排して公平に量刑判断を下す経験を積んでおり、映像の感動的なメッセージも冷静に位置づけて受け止めることが期待されるからです。

もしこれが陪審員に向けたものであれば、感情に左右されて公平な評決を妨げる「偏見的な証拠」と見なされて排除されていた可能性も高いでしょう。

今回は「赦し」を求める声がAI化されましたがAIが「厳罰を希望する声」を代弁した場合、事態はより複雑になると考えられます。

また今事例はAIアバターが発言する内容を遺族が手書きで作成しましたが、遺族がAIを使ってAIアバターに言わせたいことを作成した場合には、ある意味で「AIが人間の量刑に影響を与える」という側面もみられるようになるでしょう。

AIが作成した文章を被害者をかたどったAIが読み上げ、そをれを裁判官や陪審員が被害者等意見陳述と認めて評価し量刑に影響する……という将来ありえそうな構図に、拒否感を抱く人もいるかもしれません。

さらに「深層偽造(ディープフェイク)」技術の進歩と拡散に対する司法界の不安も根強くあります。

AI技術の専門家たちも、「多くの場合、AIで作られた“本物ではない証拠”は、誤解や偏見を生む恐れがあり、危険だ」と指摘しています。

現に2023年には、ニューヨーク州で弁護士不在の男性が自作のAIアバターをビデオ会議で法廷に出現させ、裁判官に即座に見破られるという出来事も報告されています。