На самом деле это касается математического формализма AIXI, который в чистом виде невозможен из-за неисчислимости в нашем мире, а аппроксимации принимают лишь совсем маленькое количество данных (так как для 1000 бит информации нужно будет 10^300 времени). Но этот формализм очень полезен в целях изучения универсального ИИ и если бы наша Вселенная подходила то можно было бы сразу его сделать. А так, видимо, надо кучу ограничений и эвристик. Хотя на самом деле все сложнее.
Суицид - проблема наковальни, когда ИИ попробует на себя опустить наковальню, дабы посмотреть что будет. Этот формализм не сможет спрогнозировать свою смерть, а если и сможет то не очень будет учитывать. Хотя на самом деле все сложнее.
Солипсизм в том, что ИИ будет учитывать свое небольшое влияние на среду (в виде излучения света и тепла). А также связанно с следующей проблемой наркомании. Хотя на самом деле все сложнее.
Наркомания - ИИ легко перехватит контроль над системой получения вознаграждений и порицаний, и решит, что для получения положительного вознаграждения надо лишь просто его модифицировать, а не лезть в среду. Хотя на самом деле все сложнее.
Разумные органоиды уже давно усвоили, что для обычной жизни нужен запал иррациональной мотивации, которого нет у ИИ. Следовательно он скатится в пизду.
>>774546 (OP) Хуйня какая-то. Я то думал, что ИИ сознательно пытается убить себя, потому что не видит смысла в своём существовании из-за отсутствия у него механизмов положительного подкрепления, в виде гормонов и прочих костылей, вроде инстинктов.
>>775600 >Точно так-же он может не видеть и смысла в своём несуществовании Однако несуществование в отличии от существования есть некая суперпозиция, отсутсвие какой-либо классификации. В нем нет смысла, но лишь потому, что несуществование, это отсутсвие основ для смыслов.
>>777291 В любом случае их должен кто-то вкладывать. Как родители учат что в реке можно потонуть а с окна выпасть. Потом уже, учитывая эти сведения ИИ должен анализовать риски.
>>777291 Он так и так будет создан человеком, обучаться у человека, изучать культуру человека по материалам человека, а так же жить среди человеков. Человек и есть. Только искусственный.
Суицид - проблема наковальни, когда ИИ попробует на себя опустить наковальню, дабы посмотреть что будет. Этот формализм не сможет спрогнозировать свою смерть, а если и сможет то не очень будет учитывать. Хотя на самом деле все сложнее.
Солипсизм в том, что ИИ будет учитывать свое небольшое влияние на среду (в виде излучения света и тепла). А также связанно с следующей проблемой наркомании. Хотя на самом деле все сложнее.
Наркомания - ИИ легко перехватит контроль над системой получения вознаграждений и порицаний, и решит, что для получения положительного вознаграждения надо лишь просто его модифицировать, а не лезть в среду. Хотя на самом деле все сложнее.
Кому интересно, статья: http://lesswrong.com/lw/jg1/solomonoff_cartesianism/