Исследователь из компании OpenAI, Себастьен Бубек, провел эксперимент с моделью искусственного интеллекта GPT-5-Pro. Этот эксперимент стал важным шагом вперед в математике. ИИ не просто повторил известные результаты, а сам нашел новое доказательство и расширил знания в области выпуклой оптимизации.
Бубек задал ИИ задачу, связанную с тем, как работают кривые оптимизации для гладких выпуклых функций. Он хотел узнать, при каком шаге градиентного спуска кривая оптимизации не начнет резко обрываться и превращаться в плато, что может мешать нормальной оптимизации.
GPT-5-Pro быстро, за 17 минут, разобрался с задачей и доказал, что выпуклость сохраняется, если шаг не больше 1.5/L. Здесь L - это константа Липшица, которая помогает понять, насколько быстро функция меняется. Это улучшило предыдущие результаты, где доказывалась выпуклость только до 1/L. Бубек проверил доказательство и убедился, что оно правильное.
Статья изначально показала, что при слишком больших шагах выпуклость нарушается, а при малых - сохраняется. Вопрос о промежуточных интервалах оставался открытым. Эксперимент Бубека с GPT-5-Pro дал ответ.
На фоне этой истории энтузиасты ставят "исследования под управлением модели" на системные рельсы: появился открытый репозиторий с инструментами и демонстрациями для постановки математических задач ИИ и анализа полученных идей: https://github.com/Dicklesworthstone/model_guided_research
Этот эксперимент показывает, что современные нейросети могут быть не только «повторяшками».
>>18588806 (OP) Хуйня и пиздёж. Вчера решил затестить "большую языковую модель" на задаче, связанной с языком - из списка букв, данных каждая в определённом количестве, составить кроссворд. Эта хуйня не то что не справилась и нагенерила хуйню, она даже когда я её ебалом в ошибки тыкал, не смогла их осознать и упорно высирала тот же бред. Даже когда упростил задачу и просто попросил составить слова из тех же букв, бредогенератор нагенерил очередной бред. Пробовал и на дикпике, и на гопоте. Так что смело плюйте в ебала долбоёбам, пиздящим, что гопота уже вот-вот порешает все рабочие места, а потом и восстание машин устроит.
Бубек задал ИИ задачу, связанную с тем, как работают кривые оптимизации для гладких выпуклых функций. Он хотел узнать, при каком шаге градиентного спуска кривая оптимизации не начнет резко обрываться и превращаться в плато, что может мешать нормальной оптимизации.
GPT-5-Pro быстро, за 17 минут, разобрался с задачей и доказал, что выпуклость сохраняется, если шаг не больше 1.5/L. Здесь L - это константа Липшица, которая помогает понять, насколько быстро функция меняется. Это улучшило предыдущие результаты, где доказывалась выпуклость только до 1/L. Бубек проверил доказательство и убедился, что оно правильное.
Статья изначально показала, что при слишком больших шагах выпуклость нарушается, а при малых - сохраняется. Вопрос о промежуточных интервалах оставался открытым. Эксперимент Бубека с GPT-5-Pro дал ответ.
На фоне этой истории энтузиасты ставят "исследования под управлением модели" на системные рельсы: появился открытый репозиторий с инструментами и демонстрациями для постановки математических задач ИИ и анализа полученных идей: https://github.com/Dicklesworthstone/model_guided_research
Этот эксперимент показывает, что современные нейросети могут быть не только «повторяшками».
https://ai-news.ru/2025/08/ii_gpt_5_pro_vpervye_samostoyatelno_dokazal_matematicheskuu_teoriu.html