23-летний математик-любитель без профильного образования смог решить задачу, над которой математики бились десятилетиями с помощью ChatGPT. Речь идет о гипотезе из числа задач Пола Эрдеша, которые оставались нерешенными более 60 лет.
Просто задал вопрос модели GPT-5.4 Pro и получил решение, которое позже опубликовал на сайте, посвященном таким задачам. Сначала он не придал этому большого значения, но после проверки оказалось, что ответ действительно может быть верным.
Эксперты отмечают, что дело не только в самом решении, но и в подходе. ИИ использовал метод, который раньше никто не применял к задачам такого типа. Люди долго шли по одному и тому же пути и поэтому упускали более простой вариант.
При этом «сырой» ответ от ChatGPT оказался неидеальным и его пришлось дорабатывать и перепроверять специалистам. Но ключевая идея оказалась рабочей, и сейчас ученые уже обсуждают, можно ли применить этот подход к другим задачам.
Сама задача связана с так называемыми «примитивными множествами» чисел — это такие наборы, где ни одно число не делится на другое. Еще в XX веке Пол Эрдеш выдвинул гипотезу о свойствах таких множеств, но доказать ее до сих пор не удавалось.
>>19443210 (OP) ИИ AlphaGeometry и AlphaProof - вместе решили 83% исторических задач по геометрии Международной математической олимпиады за 25 лет, решает задачи на уровне золотых медалистов
А прикиньте ща кто-то сидит литкод решает. Ахаахх сука
>>19443210 (OP) Но, получается, решил не он, а ИИ. Вообще, в последнее время стали раздражать фразы типа "решил с помощью ИИ", "сделал с помощью ИИ" и так далее. Все стали просто операторами ИИ, а значит - дают ИИ команду решить за них, дают ИИ команду сделать что-то за них. Иначе это похоже на шизу, когда родители делают за детей всякие поделки типа скворечников в школу, а потом дети говорят, что сами сделали, хотя все всё прекрасно понимают - и одноклассники, и родители одноклассников, и учителя. Но все подыгрывают друг другу.
Вот формула единого поля S = ∫ d⁴x √(-g) [ (1/(16G)) R + _материи + _n a_n O_n + ... ]
А вот пояснение к ней, тоже обычным текстом.
S — это действие, фундаментальная величина, из которой через принцип наименьшего действия выводятся все уравнения физики. Интеграл ∫ d⁴x обозначает суммирование вкладов по всему четырехмерному пространству-времени. √(-g) — это квадратный корень из определителя метрического тензора, который учитывает геометрию искривленного пространства-времени в каждой точке.
R — это скаляр кривизны, центральный элемент Общей теории относительности Эйнштейна. Он описывает гравитацию как искривление пространства-времени. G — это гравитационная постоянная Ньютона.
_материи — это лагранжиан материи и полей. Это огромный и сложный математический объект, который внутри себя содержит Стандартную модель физики элементарных частиц. Он отвечает за все известные частицы (кварки, лептоны, бозоны) и три фундаментальных взаимодействия: электромагнитное, сильное и слабое.
_n a_n O_n — это сумма по всем возможным дополнительным, пока неизвестным, членам, которые могут существовать в природе. В теориях типа струн их может быть очень много. a_n — это константы связи, которые определяют силу вклада каждого такого члена, а O_n — это сами математические операторы, построенные из полей и их производных.
>>19443210 (OP) Полная хуета. Так называемый «ИИ» неспособен думать, только шерудить в языковых моделях и извлекать усреднённый вариант. Скриньте, скоро появится какой нибудь прыщавый гик, который выложил это решение на профильном форуме 15 лет назад и маститые корифеи закидали его говном. А тут — ИИ решил! Срочно формируем научный институт! Тратим охулиард далларов, изучаем пук компьютерного скрипта!
>>19443210 (OP) >который раньше никто не применял к задачам такого типа это получается просто долбоебы обычные а не ученые. как всегда воздуханы ебаные делают вид что работают
>>19443221 > Но, получается, решил не он, а ИИ. Получается ты - слепошарый дегенерат. Потому что: «сырой» ответ от ChatGPT оказался неидеальным и его пришлось дорабатывать и перепроверять специалистам.
Похуй какая там идея, она не решила сама нихуя. пришлось людям всё перепроверять и дорабатывать. Это значит что спецы нужны и будут нужны и далее, чтобы возвращать тот бред, что нахуярит нейронка, в трезвое русло математики.
>>19443370 >ИИ это просто инструмент ИИ - это как ручка, которая пишет за тебя сочинение или судебный иск или само судебное решение. А так, да, самый обычный инструмент.
>>19443573 В научной сфере, где необходимо совершать открытия, т.е. делать то, что не делал еще ни один человек, возможности ИИ ограничены. Но в других сферах, где требуется решение уже отработанных рутинных задач, например, в программировании, ИИ уже сейчас делает нахуй не нужными заносчивых мясных мешков, в своей несостоятельной гордыне решивших, что их не заменит никакая машина. Заменит, еще как, ибо 99% программистов не являются неибаццо крутыми специалистами, способными создать что-то концептуально новое. Они лишь способны на том или ином уровне воспроизводить уже имеющиеся знания, в чем машина всегда будет впереди человека. И это касается вообще любой сферы, от медицины до юриспруденции. Непросто так на Западе уже никто не обсуждает возможности ИИ в плане замещения человеческого труда - вопросом для обсуждения сейчас является сглаживание социальных последствий этого замещения. Человеческий труд если и останется в странах, владеющих передовыми системами ИИ, то только в виде труда ученых или визионеров с интеллектом и глубиной научных познаний уровня нобелевских лауреатов и всяких "художников", рисующих говном на голых стенах шедевры абстрактного искусства.
>>19443661 > Но в других сферах, где требуется решение уже отработанных рутинных задач, Лямпиады бесполезные решать общего характера, типа Hello World? Да, пойдёт. А когда оно сталкивается с конкретикой, российской например, то очень часто оно сосёт и будет сосать дальше. Ибо НЕ ЧЕЛОВЕК, НЕ ДУМАЕТ, и НЕ ПОНИМАЕТ чё надо делать в конкретной ситуации сейчас, а не раньше.
>>19443701 >А когда оно сталкивается с конкретикой, российской например, то очень часто оно сосёт и будет сосать дальше. Ибо НЕ ЧЕЛОВЕК, НЕ ДУМАЕТ, и НЕ ПОНИМАЕТ чё надо делать в конкретной ситуации сейчас, а не раньше. Тебе и человек ничего не слабает, если ты не в состоянии ясно сформулировать задачу, которую необходимо решить или вообще не знаешь, чего хочешь.
>>19443714 Долбаёб. Ты мне напоминаешь тех восторженных идиотов, которые в 80-х думали что персональные компьютеры решат все проблемы. Ну-ну, решили? Может бумажки теперь оформлять никакие вообще не надо и мы на 100% верим репозитариям что хранит наши персоналии и никуда не сливают? Лол ваще. Ты несёшь хуиту, ибо у тебя детство в жопе и ты веришь Чмаску, Хуянгу, Хуяльтману, что кибер-будущее как в кино уже «вот-вот». Так вот нихуя, довен. Это сказки для доверчивых идиотов. Которых в мире дохуя, да.
>>19443764 > Ты несёшь хуиту, ибо у тебя детство в жопе и ты веришь Чмаску, Хуянгу, Хуяльтману, что кибер-будущее как в кино уже «вот-вот». Ты без пяти минут луддит, но только еще не осознал этого в должной мере.
>>19443291 > В потом уж тот ИИ Вот на картинке всего 14 слов, всего четыре фразы. Блядь, неужели трудно было блядь проверить, вычитать все это перед тем, как публиковать? Как сука можно при таком количестве слов допустить ошибку? Что дальше нахуй? В трех словах ошибки будут?
>>19443772 > без пяти минут луддит Нет долбаёб, я реалист, а ты - придурок, верящий в идеальных гоботов. Я не случайно упомянул компы и 80/90-е. Тогда тоже дохуя придурков типа тебя скакало. И что? Что наскакали? Ах, нихуя.. Но ты ж мимо пропускаешь. Тебе хоть ссы в глаза, всё кибер-роса.
>>19443271 Может, но у меня он решил одну задачу связанную с раскладкой кирпича по криволинейным поверхностям для стандартизации строительного процесса. Я уверен на 99.9% что такую задачу именно аналитически никто никогда не ставил, потому что это нужно только с точки зрения разработки ограничений для проектировщиков и подсчета материала на фасад. Практически задача элементарная - просто берешь режешь из фанеры профиль и по нему стенку поднимаешь, думать не надо, а аналитически очень дрочная. Решение дал Джемини, запрос он понял только с 3-й попытки, но в итоге выдал идеальное для меня общее решение. Сказать что я охуел это ничего не сказать
>>19443883 Уверен, в свое время луддиты также считали, что никакая бездушная машина не способна столь же искусно выполнить их работу. Но затем им ничего не осталось, кроме как крушить заменившие их машины в бессильной злобе. Ты - долбоеб, которому не хватает духа признать необратимость повсеместного вытеснения ИИ человека. Всем людям, не являющимся профессионалами экстра высокого уровня в своей сфере, придется адаптироваться к новым реалиям и сменить работу. В твоем случае - стать гей-шлюхой. Или ты уже, поэтому такой злой?
>>19443898 >Всем людям, не являющимся профессионалами экстра высокого уровня в своей сфере, придется адаптироваться к новым реалиям и сменить работу. Ты же понимаешь, что это невозможно. А кроме всего прочего, противоречит твоему посылу.
>>19443898 > не хватает духа признать необратимость повсеместного вытеснения ИИ человека. Неа, это ты примитивный и тупой. Дворник Магомет или Джон дешевле и залезет туда, куда гоботам хода нет. Это лишь один пример, идиотина. Второй пример - тупорылые кодеры, что пишут проги, требующие обнов 24/7. Пример в том что электричество пропало. Ну? Сосут твои гоботы без него и валяются мёртвым хламом. А знаешь почему пропало электричество? Потому что ошибка накопления в твоём ИИ сработала. И хороше если без очередного Чернобыля, хотя в открытых кранах резервуаров с дизелем или газом тоже нихуя хорошего.
В любимой многими долбаёбами Японии не везде дороги ровные и пиздатые. А значит гобот обязательно тупанёт при проезде или уборке. Вопрос времени. И если человека можно наказать, то робота ты как наказывать собрался? У кодеров же отказ от ответственности и прочее бла-бла-бла. Ты не знал, маня? Так почитай мелкие шрифты особенно. Пидорасы ни за что не хотят отвечать.
Проблема во многом именно в этом, еблан. В ответственности и компенсациях за проёб. И чётких критерях этого всего. А не как сейчас. Ой, у твоего же гобота логика нечёткая, ай-яй-яй.. Ну обнову накати, лол. А то что гобот башку кому-то снёс.. ну, дерьмо случается. Только вот случатся оно будет в РАЗЫ больше.
>>19443898 > такой злой? Злой, потому что мир заполнили тупые долбаёбы типа тебя. Есть некоторая разница, придурок, между понятием «инструмент для работы» или «хуйня-нейм-что-делает-все-за-тебя». Так вот нейра - это первое, а не второе, как думаешь ты и куча ебанутых кибер-детей.
>>19443951 Это вообще был полный сюр, «комплюхтер - каждому». Каждому он нахуй не нужен. По резалту мы имеем толпу полуграмотных дегенератов, допускающих утечки памяти и какие-то уязвимости в 2026. Какое ИИ нахуй? В нём тоже будут эти самые утечки и прочее говнищще. Плюсом само ИИ, которое имеет нечёткую логику. Т.е. ошибка - фича системы, а не баг. Ну охуеть теперь.
>>19443924 Не противоречит. Любое массовое внедрение машинного труда не исключает полностью человека из производственного процесса. Однако оно значительно его уменьшает. Внедрение ИИ в этом отношении идет гораздо дальше, чем индустриализация. Если за станком все также должен был работать человек, то к чему нужен человек, когда есть ИИ? В качестве проверяющего субъекта, который по мере совершенствования ИИ уже превратился для большинства задач в бесполезного болванчика? Зачем мне врач, если ИИ сам проведет обследование, поставит диагноз и назначит лечение? Зачем мне юрист, если ИИ сам составит нужные документы? Зачем мне бухгалтер, если ИИ сам сведет баланс? Все это ИИ сделает за секунды, ему не нужно платить зарплату. В этом коренное отличие внедрения ИИ от индустриальной революции: внедрение ИИ в несравнимо большей, качественно иной мере исключает человека из производственного процесса. Внедрение ИИ оставит в каждой отрасли только специалистов высочайшего уровня, которые будут способны двигать эту отрасль вперед. Не получится, как в начале 19 века, обычному кузнецу сменить кузнечный молот на работу за ударным прессом.
>>19443970 > Зачем мне врач, если ИИ сам Затем, что врач мотивирован работать баблом. А чем ИИ мотивирован? Ах, ничем. Он даже не знает что такое мотивация, лол, ибо тупая программа без личности и интеллекта.
>>19443989 Ещё раз тупня. Человек мотивирован. Нейра - тупая хуита без никто. И если она тебе вместо аппендикса ногу отрежет по жопу, то соси, дерьмо случается. Врача можно наказать. В случае ошибки нейры кого наказывать? Ведь она всё сама-сама, хули.
>>19443984 В контексте спора - вообще не аргумент. Если государство управляется кучкой жуликов, то ИИ для них будет лишь еще одним орудием преступления.
>>19443992 Это не достоинство, придурок. Отсутствие мотивации - это хуерга ебучая. Это значит что нейре похуй. Даже не так, она не знает и не понимает что такое похуй. Обнова скачалась хуёвая и резать она будет другое, понял? Вместо нужного. «Дерьмо случается» тебя утешит после операции?
>>19443977 >врач мотивирован Если нейросеть обучена на врачах, то она и их специфику может перенять, в том числе мотивацию, предвзятость и т. п., нацеленность на сохранение своей нужности. То есть надо и обучать ИИ на супер-объективном материале. Ну как я предполаггаю.
>>19443995 > В контексте спора - вообще не аргумент. Ещё какой аргумент. Вся твоя фентазийная кибер-панковская хуита может работать только при надлежащей инфраструктуре, дебил, блять.
>>19443994 Тупая хуйня, вопрос ответственности здесь решается следующим образом. В случае, если вред был причинен из-за недостатков программного кода ИИ - ответственность на его разработчике. В случае, если вред был причинен из-за нарушения условий эксплуатации ИИ - ответственность на владельце/лицензиате ИИ.
>>19444011 Никто не будет делать шаурму, по которой сам не знаешь, посадят тебя или нет, если купившие ее люди отравятся. Но, сука, делают в каждом переулке.
>>19444000 > Если нейросеть обучена на врачах.. Начались виляния жопой. Нейрокод пишут долбаёбы. Обучается она на коде долбаёбов. Да у неё в самой природе ошибка внутри, ёпт твою. Ты можешь уже понять? Независимо ни от чего у нейры внутри ошибка, природа такая её, нечёткая нихуя. И вопрос лишь времени когда ёбнет. И ты такой хочешь поменять спеца, который если трезвый и мотивированный, нормально работает и не склонен к ошибкам, на хуиту у которой ошибка 100% часть нутра блять. Ты сознательно идёшь на то что повышаешь вероятность проёба, я тебя правильно понял? Ты идиот что-ли? Ты про жизнь людей говоришь, ебаклак, а не про новые эмозди.
>>19444004 > ответственность на его разработчике. Ха-ха-ха, мелкие шрифты читай, маня. Всё юзание на ваш страх и риск, лол. Как ты заставить хочешь гига-кабанов типа Хуянга принимать на себя лишнее? Они этого очень не любят. Никто не смог их заставить.
>>19444037 Хуянгу про это расскажи, лол. Или Альтману. Лолище, на них целый табун юристов работает. Не ИИ-шных, что характерно. Хотя, конечно они что-то лабать могут и с ИИ-помощью. И они тебя на хуй пошлют.
>>19444040 Это не проблема ИИ, это проблема институтов государства. Если у государства нет институтов, ограничивающих власть корпораций, то потребитель будет насасывать в спорах о качестве товара в случае с любым товаром, производимым корпорацией, не важно ИИ это или что-то другое. Маня, хватит уводить разговор в русло других проблем, которые не имеют прямой связи с ИИ.
>>19444047 Долбаёб, связь прямая. Человека можно наказать. ИИ наказать НЕЛЬЗЯ. Такая щасс ситуация. Ты в системе живёшь, довен, а не в вакууме где только ИИ или нихуя. И если на Ваньку или Джона можно посрать, то гос.структуры хотят предсказуемости. А ИИ 100% содержит в себе элемент непредсказуемости. И отдавать ей полный руль - это быть долбаёбом, там наверху это понимают. Но ты можешь лечь под нож автомата, хуле. Или парацетамол запить этиловым, ну раз нейронка сказала, лол.
Лол, вообще вы, довены, как совецкие люди, что верили телевизору, только вместо него нейра.
Если вкратце, то врачи скорой помощи и кардиологи соснули у ии в интерпритации экг в определении инфаркта миокарда с подъемом st сегмента. Да и неплохо так: врачи - 65,6%, ии - 88,9%.
А уж определение всяких аритмий за ии уже очень давно - твердо и четко.
Не получается. Если ты хоть немного понимаешь, что такое современная нейросеть, а ты явно не понимаешь, то писать такое ты не станешь. Без постоянной проверки ответов от ИИ и корректировки исполнения задачу он не решит.
Я к егэ по инфе готовлюсь (мне 20 я впл) с помощью ии режима гугла и даже на этих типичных задачах из учебника он способен только высирать готовый код, когда я пытаюсь скормить ему свой, он вы выдумывает ошибки которых там нет и не видит тех, которые там есть.
>>19443970 >Если за станком все также должен был работать человек, За станком с ЧПУ человек нестоит. >то к чему нужен человек, когда есть ИИ? Чтобы формулировать задачи и проверять их на адекватность.
>>19443970 >Любое массовое внедрение машинного труда не исключает полностью человека из производственного процесса. Однако оно значительно его уменьшает. >Внедрение ИИ оставит в каждой отрасли только специалистов высочайшего уровня >Не противоречит. >Любое массовое внедрение машинного труда не исключает полностью человека из производственного процесса. Однако оно значительно его уменьшает. >Внедрение ИИ оставит в каждой отрасли только специалистов высочайшего уровня >Не противоречит. Ты невнимательно читал. Перечитай ещё раз >>19443924 и сопоставь с тем, что ты писал ранее. Тогда тебе станет яснее почему не так.
>>19443970 Прикол в том, что для ИИ нужно электричество, а врач может починить челика даже в сугробе в Певеке без нихуя (ну хорошо, имея укладку из скорой).
Просто задал вопрос модели GPT-5.4 Pro и получил решение, которое позже опубликовал на сайте, посвященном таким задачам. Сначала он не придал этому большого значения, но после проверки оказалось, что ответ действительно может быть верным.
Эксперты отмечают, что дело не только в самом решении, но и в подходе. ИИ использовал метод, который раньше никто не применял к задачам такого типа. Люди долго шли по одному и тому же пути и поэтому упускали более простой вариант.
При этом «сырой» ответ от ChatGPT оказался неидеальным и его пришлось дорабатывать и перепроверять специалистам. Но ключевая идея оказалась рабочей, и сейчас ученые уже обсуждают, можно ли применить этот подход к другим задачам.
Сама задача связана с так называемыми «примитивными множествами» чисел — это такие наборы, где ни одно число не делится на другое. Еще в XX веке Пол Эрдеш выдвинул гипотезу о свойствах таких множеств, но доказать ее до сих пор не удавалось.
https://kz.kursiv.media/2026-04-28/assm-student-lyubitel-smog-reshit-60-letnyuyu-matematicheskuyu-zadachu-s-pomoschyu-chatgpt/