24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна.
Подробности случившегося. Мы призываем всех неравнодушных
помочь нам с восстановлением утраченного контента!
Бубек задал ИИ задачу, связанную с тем, как работают кривые оптимизации для гладких выпуклых функций. Он хотел узнать, при каком шаге градиентного спуска кривая оптимизации не начнет резко обрываться и превращаться в плато, что может мешать нормальной оптимизации.
GPT-5-Pro быстро, за 17 минут, разобрался с задачей и доказал, что выпуклость сохраняется, если шаг не больше 1.5/L. Здесь L - это константа Липшица, которая помогает понять, насколько быстро функция меняется. Это улучшило предыдущие результаты, где доказывалась выпуклость только до 1/L. Бубек проверил доказательство и убедился, что оно правильное.
Статья изначально показала, что при слишком больших шагах выпуклость нарушается, а при малых - сохраняется. Вопрос о промежуточных интервалах оставался открытым. Эксперимент Бубека с GPT-5-Pro дал ответ.
На фоне этой истории энтузиасты ставят "исследования под управлением модели" на системные рельсы: появился открытый репозиторий с инструментами и демонстрациями для постановки математических задач ИИ и анализа полученных идей: https://github.com/Dicklesworthstone/model_guided_research
Этот эксперимент показывает, что современные нейросети могут быть не только «повторяшками».
https://ai-news.ru/2025/08/ii_gpt_5_pro_vpervye_samostoyatelno_dokazal_matematicheskuu_teoriu.html