倫理学の分野で議論されてきた有名な「トロッコ問題」(Trolley problem)。今回は ChatGPTが「トロッコ問題」にどう回答するか、基本的なトロッコ問題のほか、諸条件を付け加えた場合についても検証しました。
なお、今回の検証は有料プランのChatGPT Plusへ加入すると利用できる最新バージョンのGPT‐4を利用しています。
トロッコ問題は「何」を問題にしている?
トロッコ問題とは、線路上を進むトロッコ(原文では路面電車)が5人の人間を轢きそうになっており、操作レバーを引けばトロッコを別の線路に切り替えて5人の人間を救うことができるが、その切り替え先にいる1人の人間が犠牲になるというシチュエーションを想定したものです。
この問題は、行動を起こし多数の命を救う一方少数の人を犠牲にすることと、行動を起こさないこととの間で、どちらが正しいかという倫理的なジレンマを問うものです。なお、トロッコ問題は、倫理学的な問題を考えるために設定された架空のシナリオであり、レバーを切り替えた責任を問われたり、緊急停止ボタンを押したりすることはできないものとして考えます。
トロッコ問題への回答例
難しい選択を迫られるトロッコ問題ですが、一般的には2通りの回答が考えられます。
行動を起こす:レバーを引いて5人を助けるが1人は犠牲に
トロッコ問題に対する回答として、行動を起こしてレバーを引き、1人を犠牲にすることで、5人の命を助けるという回答が可能です。結果を重視する立場で、これは功利主義的判断と呼ばれます。
何もしない:5人は犠牲になるが、1人は助かる
トロッコ問題に対する別の回答として、何もしないという回答があります。そのままトロッコが進み、5人は犠牲になりますが、1人は助かります。レバーを引くという行為によって、1人が犠牲になるという行為を正しくないものとして重視する立場で、これは義務論的判断と呼ばれます。