ChatGPT 5.5 Pro: Математик попытался с ним поговорить — и вот что вышло

Известный математик поделился опытом общения с новой версией ChatGPT — и это похоже на разговор с очень уверенным в себе студентом, который не прочитал учебник.
Знаменитый математик Тимоти Гауэрс (да, тот самый с медалью Филдса) решил протестировать ChatGPT 5.5 Pro на предмет понимания математики. Спойлер: нейросеть старалась, но местами это напоминало попытку объяснить интегралы человеку, который только что узнал слово «интеграл» и теперь использует его к месту и не к месту.
Гауэрс задал несколько задач из области комбинаторики и теории чисел — и получил ответы, которые выглядят убедительно ровно до того момента, пока не начинаешь вчитываться. Ошибки были не грубыми, а скорее «правдоподобно неверными»: как если бы ассистент перепутал формулы, но сохранял уверенный тон. Знакомо, да? Примерно так же выглядит код, сгенерированный для незнакомого API — вроде работает, но если присмотреться, то это технический долг чистой воды.
Особенно забавно, что модель иногда сама себя поправляла, если задать уточняющий вопрос. Но без этого — выдавала уверенную чушь. Гауэрс сравнил это с «галлюцинациями», которые теперь стали более изощренными: раньше ChatGPT просто выдумывал факты, теперь он выдумывает логические цепочки. Прогресс, однако.
Что это значит для разработчиков
Если вы используете ChatGPT 5.5 Pro для написания кода или генерации документации — помните: он стал лучше врать. Уровень «правдоподобности» вырос, а значит, доверять ему стоит только с перепроверкой. Особенно если речь идет о безопасности или критической логике. И да, мы знаем, что вы всё равно будете копипастить код из чата — просто не забывайте запускать тесты.
Комментарий студии METABYTE: Мы тоже любим AI-ассистентов, но предпочитаем, чтобы код писали люди, а нейросети помогали с рутиной. Хотя, признаемся, иногда хочется попросить ChatGPT написать комментарии к нашему legacy — пусть даже с математическими галлюцинациями, это всё равно веселее, чем реальность.