やじうまWatch

生成AIに大学入試共通テストの問題を解かせる実験、5教科7科目すべてでGPT-4が圧勝

 生成AIに大学入試共通テストの問題を解かせた結果が興味深いと話題だ。

 これは株式会社LifePromptが行った実験によるもので、OpenAIの「ChatGPT(GPT-4)」、Googleの「Bard」、Anthropicの「Claude2」という3つの生成AIを用意。先日実施されたばかりの2024年の大学入試共通テスト5教科7科目を入力し、その正答率を競うというもの。結論としてはGPT-4が他を圧倒する高スコアで、受験生平均が60%前後の正答率のところ、80%台の正解となる科目も。数学1Aおよび数学2Bのみ受験生平均を下回る結果となったが、それでも3つの生成AIの中で全科目にわたって最も高いスコアを叩き出すなど、文字通りの一人勝ちという結果になった。一方で、複数の処理を同時に求められると急激にパフォーマンスが悪くなるなどの傾向も露見しており、今後どう改善されるか興味を抱かせる内容となっている。同社による詳細な考察などはリンク先を参照されたい。