集まった再話は表現も長さもバラバラでしたが、チームは GPT-4 と DeepSeek という二つの最新AIを使い、一文ごとに「原作のどこをまとめたものか」を自動で照合しました。たとえば「この一文は原作の六文分をぎゅっと縮めている」といった具合に、どれだけ情報が圧縮されているかを数値で割り出せたのです。
そのうえで彼らは、得られたパターンを説明する鍵として「ランダムツリーモデル」と呼ばれる数理モデルを提案しました。
「4×4ルール」とは何か?
「4×4ルール」とは、人が物語を記憶するとき、脳内にできる“フォルダー階層”がおよそ4段ぶん深く、各段で同時に扱える枝(トピック)がせいぜい4つ前後に収まるという経験則を指します。心理学で知られる「作業記憶は一度に4つ程度の情報しか保持できない」という限界を、そのままツリー状の物語モデルに埋め込んだイメージです。最上段のフォルダーが物語全体をつかさどり、その下に最大4つの大章がぶら下がり、さらに各章の下に4つの場面が連なる――という具合に整理されていると考えると、長い物語でも人は迷子にならず要点を順序よく思い出せます。一方、フォルダーを4階層より深くしたり、枝を5本以上増やしたりすると頭が一杯になってルートを見失いやすくなるため、脳は自動的に内容を「くくって圧縮」して整理します。こうして“深さ4・幅4”という枠内に収めることで、長いストーリーも少ないキーワードで再現できる――それが最新研究が示した脳の圧縮術、つまり「4×4ルール」の中身です。
ツォディクス氏らは、人が物語を理解して記憶するとき、脳内にその物語の階層的な「ツリー」(木)状の表現が形成されると仮定しました。
ツリーの最上位にある根は物語全体を表し、その直下のノード(枝の分岐点)は物語の主要な出来事や章に相当し、さらに下位の分岐点にはより細かなエピソードや詳細が含まれる――という具合に、物語が階層的に構造化されて記憶されるのです。