1月18日のNature誌のニュース欄に「Fingertip oxygen sensors can fail on dark skin — now a physician is suing」と「Medical AI could be ‘dangerous’ for poorer nations, WHO warns」という記事が掲載されている。

metamorworks/iStock

前者はコロナ感染症の流行で一般でも広く知られるようになった「指先につける血液の酸素飽和度を測定する装置が有色人種では正確でない」ことに対する訴訟だ。有色人種では数値が高い傾向となり、診断や処置が遅れることを問題視したものだ。この人種間差は数十年前から指摘されていたそうだが、何の対策も練られないままに今日に至ったとのことだ。

白人を対象として開発された医療機器の測定値が、有色人種では正確でないよう2020年1212月のNew England Journal of Medicine誌の「Racial Bias in Pulse Oximetry Measurement」というタイトルの論文によると、動脈血で測定した酸素飽和度が88%を切っていたにもかかわらず、オキシメー92ー96ー96%となっていたケースが、黒人では11.7%もあったそうだ(白人では3.6%)。皮膚疾患のAI診断の精度が黒人では低かったという報告もある。

二つ目の論文は、医療用AIが低所得国では危険なものとなるとWHOが警告したとの主旨だ。しかし、低所得国という表現は間違いだと私は思う。所得の問題ではなくて、科学的には人種間差、民族間差のはずだ。白人のゲノム情報を利用した疾患リスク診断は日本人では通用しない。日本も貧しい国になりつつあるが、やはり、どう考えても国の貧富の問題ではなく、民族間の差が不正確さの原因だ。