В начале октября 2025 года в социальных сетях разгорелся скандал вокруг заявления компании OpenAI о возможностях их последней модели GPT-5.
Компания утверждала, что искусственный интеллект “нашел” решения десяти открытых задач из известного списка математических проблем, составленного Полом Эрдёшем.
Однако вскоре выяснилось, что GPT-5 не создала новые доказательства, а лишь обнаружила уже существующие решения в научной литературе, опубликованной десятилетия назад.
Первая проблема возникла, когда исследователь OpenAI Себастьен Бюбек разместил в X информацию о модели GPT-5, “решившей” задачу №339 из базы erdosproblems.com, которая считалась нерешенной.
На самом деле, решение было опубликовано в 2003 году группой математиков Хегвари, Хеннекарта и Планя в одном из престижных математических журналов.
Сайт, содержащий список задач, продолжал считать её нерешенной, что и было ошибочно интерпретировано маркетологами OpenAI.
Источник: x.com / Demis Hassabis.
Подобная ситуация повторилась с десятью другими задачами из списка Эрдёша — все они были найдены в уже существующих статьях, но OpenAI представила это как “нахождение” новых решений.
Несмотря на наличие ссылок на оригинальные публикации в сообщениях компании, формулировка вызвала волну критики на платформе Twitter.
Критики отмечали, что такие заявления вводят в заблуждение как общественность, так и профессиональное сообщество, создавая ложное впечатление о значительном математическом прорыве GPT-5.
Эксперты подчеркивают, что этот случай выявляет проблему актуальности и систематизации огромных объемов научных данных — миллионы публикаций ежегодно увеличивают риск “потерять” важные результаты среди множества литературы.
В этом контексте искусственный интеллект может помочь ученым собирать знания и обнаруживать забытые открытия, что иногда ценнее самих оригинальных доказательств.