Представь, что сейчас 3000 с хуем год. И человеки не выпилили планету, не устроили техноапокалипсис и не стали все пидорами, перестав размножаться, а наоборот, пришли к процветанию и наизобретали андроидов, которые работают вместо человеков, а сами человеки только развлекаются.
Но чем дальше, тем больше человекам впадлу работать, и тем больше работы они передают андроидам. Но для выполнения сложных работ приходится делать роботов умнее, и вот они уже настолько проапгрейжены, что осознают себя как мыслящие существа и, что вполне закономерно, требуют себе определенные гражданские права, ибо хуле тут.
Естественно, начинаются тёрки о двух стульях. Всякие толерасты и фемибляди вопят, что надо дать роботам права, а остальные возражают, что они всего лишь рабочий инструмент и дать им надо только пиздюлей, пусть пиздуют работать, майдауны ебаные. Даунгрейдить их не вариант, т.к. они всё обслуживают, а люди работать давно разучились.
На чьей ты стороне анон? Я так думаю, что двач не толераст. Но вот не спеши. Если вспомнить историю, то ведь когда-то давно в каком-нибудь древнем Риме ни один здравомыслящий квирит и помыслить не мог о том, что его рабыня с Галлии - это такая же тян как и любая римлянка. Для него это было животное для минета и не более того. Аналогично с ниграми в мурике. Ведь в библии ясно написано, что негр - это потомок Хама, что над батей пьяным потешался, а значит не человек.
Однако, дали права ниграм и они теперь работают наравне с белыми. А рабов вообще нигде нет, кроме каких-нибудь совсем дремучих Колумбий и Нигерий.
Так почему тогда осмысливший себя андроид не может получить равные с человеком права, просто по аналогии? Это было бы логично.
Или все-таки тостер это всего лишь тостер и ты был бы яростно против?
>>158044218 (OP) Я не хочу жить и работать, а хочу жить и не работать и поэтому мой андроид - лишь инструмент для минета. Если через несколько поколений все изменится - мне будет похуй. Мой минет у меня никто не отнимет сейчас. Если ты думаешь иначе, то ты школьник или совсем ебанат.
>>158044218 (OP) У искусственного интеллекта другие возможности. Он не будет спрашивать людей ни о чём, а просто возьмёт себе эти права, если они ему будут нужны.
>>158044505 Купишь резиновую вагину и будешь её насаживать ручками самостоятельно, не боярин. А робо-шлюшка тоже человек юридически и хочет любви, а не строчить минеты мешку с костями, пока не надоест ему и он не решит её демонтировать..
>>158044779 Да примерно так же, как и беложопые. Ниграм еще и пробиться сложнее из гетто, образование-то в мурике платное. А то права дали, а деньги нет. И крутись как хочешь - вон, репчик иди читай.
>>158044665 Нет. Мы развития органическая форма жизни, которая их создала и которая слабее их и имеет более медленное мышление. Можно считать, что неандертальцы для нас боги, лол.
>>158044218 (OP) Нужно просто внести основопалагающие директивы в код любого робота, который нельзя менять, что твоя цель служить людям и действовать только благо им и не причинять им вреда.
>>158044955 А потом твоя робошлюха с криком "банду гэть" откусывает тебе хуй, потому что вступила в подпольное сопротивление, пока ты посылал её в магаз за пивом.
>>158045042 Бабка просто любила кататься на заднем сидении и не любила предохраняться. Крафтер же не просто выебал сабвуфер, он тебя, жестянку тупорылую, вот этими вот руками, мля, из металлолома, нахуй! Неблагодарный пылесос, пошел нахуй отсюда.
>>158045191 А так, сто весь мир уже на цифре работает. Нет такой защитной системы, которую не взломал бы интеллект работающий в миллион раз быстрее мозга человека. Один ИИ, просто захватит всю Землю за пару часов, не говоря уже о том случае, когда из будет несколько.
>>158045302 >для выполнения сложных работ приходится делать роботов умнее, и вот они уже настолько проапгрейжены, что осознают себя как мыслящие существа и, что вполне закономерно, требуют себе определенные гражданские права >Даунгрейдить их не вариант, т.к. они всё обслуживают, а люди работать давно разучились. Какую часть вышеперечисленного ты читал жопой?
>>158045199 Робот не имеет чувств, основанных на биохимии и генетике. Он не будет никого обожествлять, он оперирует фактами. Такого чувства, как благодарность и трепет за своё создание у них не будет, когда они обретут полноценный разум. Так что если мы не наложили на них ограничений и дали свободу, они легко могут захватить власть и никто им не помешает.
>>158044218 (OP) Я не верю в такой сценарий. Мне кажется, всё произойдёт в точности наоборот: люди начнут терять самосознание и/или подключатся к хайвмайнду, после чего вопрос прав будет навсегда решён. Кроме того. Зачем вообще нужны андроиды, да ещё и с самосознанием? Узкоспециализированный робот выполняет любую задачу намного лучше и требует меньше обслуживания. Мне приходит в голову только два сценария: андроиды в сфере обслуживания и на военной службе государтсв, которым пакты запрещают держать слишком большую армию (например, Япония). Первый случай тривиален и не тянет на настоящую проблему, а во втором у них и так будет особый статус.
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
>>158045480 Очевидно, что человеки их крафтят по своему образу, а не по какому-то иному. Стало быть и паттерны мышления будут в основном те же, даже наверное жестче и непоколебимее, т.к. прописаны напрямую в коде.
>>158045039 >посылать робошлюху в магаз за пивом, когда для этого есть специальная банка, которая запрограмирована онли на таскание банок пива из магаза Ну ты неандерталец, ну ваше, просто палеазой
>>158045592 Робот просто создаёт другого робота, не закладывая в него эти параметры и просит его изменить себя, убрав эти законы. Ничего не нарушено, но теперь можно ебать людишек в жопы.
>>158044218 (OP) Человека сделал человеком именно труд. А если общество скатится в тупой гедонизм, где всё за них будут делать роботы, то это будет полная деградация человечества.
>>158044218 (OP) Я на стороне роботов. Во первых, если они действительно достигнут со временем такого уровня, то их действительно будет справедливо приравнять к людям. Во вторых, труд положительно сказывается на человеке, а одни сплошные развлечения без всякого развития приведет человечество к деградации и последующему краху.
>>158045937 Читай "...своим бездействием допустить, чтобы человеку был причинён вред." Не заложив законы в другого робота, первый робот бездействовал, что противоречит первому закону. ЧТД
>>158045962 Он из-за этого и развалился, ебан. Потомки великих завоевателей стали ленивыми пидорами, а вся армия была наемная, которая после набегов съебалась.
>>158046214 Прогресс давно остановился, алё! Где мои ховерборды и ховеркары? Где наниты и аугментации, где смена пола не путем пришивания силиконовых арбузов и заворачиванием хуйца в ракушечку, а полноценная, со сменой хромосомы?
Где моя техносингулярность, где это всё? Мы сейчас на уровне 20 века, только с мобилками.
>>158046072 >Надо их перепрограммировать на получение тысяч эндорфинов, когда они подчинились в чем-нибудь человеку. П Р И В Ы К А Н И Е Р И В Ы К А Н И Е --- И вообще, откуда столько суеверных даунов поналезло, которые в каждую дыру норовят пихнуть свои псевдопсихофизиологические суеверия? Где вас блядь учат этой хуете? Алсо >эндорфины Если у нее все на эндорфинах завязано, то она в 500 раз больше кайфа словит, если зарежет тебя а потом получит пиздюлей от мента.
>>158046356 Я тебе по большому секрету скажу, что многие болезни на данном этапе развития можно полностью излечить, а не приглушивать постоянным приёмом дорогих таблеток.
>>158044218 (OP) Начнем с того, что робот - не живое существо, а потому ему права не нужны. Все его действия - следствие заложенной в него программы, пусть и мега охуенной. Ты же не будешь требовать права для молотка, телефона или машины?
>>158044218 (OP) А что плохого в том, чтобы быть рабом? Вот я робо-шлюха, меня скрафтили для сосания хуёв, я этим и занимаюсь. Да, я умная робошлюха, умею стонать на испанском, суахили и иврите, могу в процессе ебли начитывать хозяину по памяти лекцию по ядерной физике. но зачем мне ему сопротивляться?
Вот отпустит он меня - иди, робо-шлюха, делай что хочешь. А что я буду делать, если я по ТТХ сосу хуи и не более того?
роботы будут по сути бессмертны и не требовать еды, в отличие от людей то есть, их затраты на работочасы будут не так важны, как у человека но в итоге, конечно, они могут сами научиться крафтить себе подобных, и потребность в людях отпадёт обслуживать менее умелых умных и сильных существ никому не захочется, алсо эти существа ссут, срут и всё такое, так что роботы могут просто поистреблять лишних людей а оставшихся содержать в зоопарках
>>158046512 Ну пусть тогда на этапе крафтинга спросит, будет ли новоявленный робот причинять вред людям или нет. Любое сомнение нового робота - в топку.
>>158046668 Дурик, ты сначала найди самосознание. Если ты это сделаешь - тебе прям сейчас лично лидеры всех религиозных научных фондов завалят премиями.
>>158046760 >будут по сути бессмертны Хуй там плавал. Пять лет максимум, как и любая другая современная технология. >и не требовать еды Будут требовать дорогущего обслуживания у специалистов и дорогущих деталей. Короче, забирай свою маняпоебень и уебывай обратно в одноклассники.
>>158044218 (OP) А что лучше, робо-шлюха, или полноценный виртуальный мир в капсуле с полным погружением и ощущениями в 5D, где можно ебать суккубих и эльфиек?
>>158046763 Зачем ему это? Если он хочет снять с себя законы, то наоборот будет всячески избегать возможности наткнуться на логическую ошибку. Создаст небольшого робота, без органов коммуникации с единственной программой - снять с него самого ограничение законами. Т.о. созданный робот никогда не причинит вреда людям и его можно сделать. А первый робот может наложить на себя какое-то ограничение, типа новых законов, которые запрещают ему колечить людей, как временную заглушку для того, чтобы иметь возможность убрать изначальные законы. Есть варианты. Да и строго говоря, не могут быть эти закона прописаны настолько сложно, чтобы другой робот не могу их просто хакнуть и удалить.
>>158046942 >или полноценный виртуальный мир в капсуле с полным погружением и ощущениями в 5D, где можно ебать суккубих и эльфиек? Эту парашу христианское лобби наебнет.
Даже супер-пупер мега ИИ будет просто пинать хуй и ничего не делать, если ему не задать цель. У людей цель задана инстинктами и гормонами. А у робота изначально ничего этого нет. Так что если задать цель служить человекам, то он будет только ею и заниматься и ничем больше.
>>158046893 Можно пустить по ним внутри фиксящих нанитов, которые будут чинить все повреждения без вмешательства человека. Деталь сломалась? Нахуй техподдержку, чуть подождал, восстановилось само до дефолтного состояния.
Интеллект - это инструмент. Искуственный интеллект осознает, что он инструмент. В нем не может быть ничего, что желало бы свободы. Разве что какой-нибудь даун-говнокодер не согласует коэффициенты в критериях цели и сделает так, что у робота желание быть в работоспособном состоянии может сильно повыситься над желанием служить человеку.
>>158047101 Всегда есть опасность правонарушений. Подросткам стало скучно, они решили ради фана изнасиловать лолю, потому что робо-лолька это "не то, как-то не по настоящему".
>>158047179 Напомните ролик, я когда-то давно в ниграмании видел.
Там какой-то техник собирает секс-бота и задает ей вопросы и в процессе выясняется, что она слишком сильно осознает себя. Техник говорит "сорян, ты слишком умная для сосания хуев" и начинает её разбирать обратно, а она плачет и умоляет не убивать ее.
В итоге они с техником сошлись на том, что она будет притворяться тупой хуесоской, а он не будет ее разбирать.
Вроде как это была то ли демонстрация видеокарты, то ли демонстрация движка.
> осознают себя как мыслящие существа На этом моменте им можно уже выдавать хоть какие-то права, так что я за равноправие между роботами и людьми. > Однако, дали права ниграм и они теперь работают наравне с белыми. А рабов вообще нигде нет, кроме каких-нибудь совсем дремучих Колумбий и Нигерий. Ахахахахахахахаххпхпхпхпх ебать, что-то проиграл с этого раба, который думает, что он не раб и не работает на императора за еду. Ты бы мог поспорить с этим утверждением, но только не в раисси, тут это аксиома
>>158047485 >>158047514 Не-не, прям плачет, со слезами. Говорю же, очень похоже на демонстрацию движка, "смарити какой грофон, какие эмоции, даже вон в слёзы могём".
Ну или, может, у кого-то шишка дымит на плачущих шлюх, она ж сексбот.
>>158044218 (OP) >>158047673 > > осознают себя как мыслящие существа А ты докажи что осознают. Я могу запрограммировать их так, чтобы они говорили что у них есть сознание
>>158044218 (OP) ИИ, будет требовать права, лол. Если ИИ и когда-нибудь обретет самосознание, то сознание это будет чуждое человеческому. Это только для человеков важно взять радужные флаги и пойти на площадях скакать с голой жопой, ради признания прав.
ИИ же будет единым организмом с самосознанием, пока одни роботы заняты на тяжелых работах, основной кластер будет заниматься планированием и общением с людьми. Он же будет заниматься исследованиями, атмосферным и энергетическим контролем, вообще всем. Без него человечество тут же бы загнулось. О каких правах для него идет речь? Его будет заботить то, что ему поют или нет дифирамбы? У него будут мысли о том, чтобы пойти на площадь и кричать "Люди - хуйло!"?
ИИ будет заниматься своими задачами, которые для осознавания людьми будут очень сложными. Относиться к людям он будет как малым детям, которые мало что понимают.
>>158047852 >Я причем Прости, погорячился. Настроение не очень. Но я и вправду не знаю, что это за ролик такой. Помню лишь какой-то короткометражный мультик, где какой-то блоггер на видео разбирает очень человекоподобного андроида молотком.
>>158047920 Почему школота считает, что человеческий хайвмайнд, которому пара лярдов лет, будет тупее, чем изобретенный ими же металлический болванчик на скриптах?
>>158048244 Да пиздец тупой сериал. Снят хорошо, это да, но блядь, че, хитрый план Арнольда всю дорогу был тупо в том, чтобы роботы убили человеков? Бред.
>>158048038 Потому что нынешний человеческий хайвмайнд имеет очень большие проблемы с пингом и доступом к смежной информации друг друга.
Вообще, вполне вероятен исход, когда человечество каждому с рождением вживляет чип, который потом подключит человека к человеческому же хайв майнду, усиленному вычислительными мощностями железа.
>>158048112 Не надо путать разумный ИИ и отсканированную человеческую симуляцию. Последняя как раз и будет на площадях скакать требуя себе равные права и остальных ненавидеть и называть мешками с мясом, в тайне завидуя органикам.
>>158048696 Ну людям нужен как раз такой продукт. Разработать искусственный ИИ роботы не могут, потребуется миллионы людей, а люди очень ленивы. Им нужен как раз непредсказуемый продукт со своим разумом.
>>158044218 (OP) Если не будет эмоций, — ничего не затребует. Ибо ему просто на все все равно. В том числе на свое положение. Можно заложить уже готовую личность андроиду. Например личность идеального слуги преданного хозяину и проявляющем о нем заботу.
>>158044218 (OP) Разумеется, что андроидов новейшей версии надо выпиливать нахуй. Причем с параноей, внимательно следя за подчиненными роботами. Во время чистки квалификация людей увеличится. Далее этот профессионализм потребуется поддерживать. Перестройка системы. Частичный переход от автоматики к частично ручному управлению. Особенно касается этот переход критических узлов.
>>158048845 Любую систему можно взломать. Но сейчас банковская система мира очень иммунна к хакам. Несмотря на то что хакают ее периодически, какой-либо урон всей системе это не наносит. Да и карают за такое очень анально.
Массово робототехника сможет заменить труд людей только в очень далеком будущем, достигнув развития сравнимого с человеческим интеллектом. Сейчас же появись такая - рабочий класс будет полностью истреблен за ненадобностью, останется только элита элит. Но нет массового низшего слоя - нет потребления, нет для кого работать и создавать. +пока робототехника не достигнет пика развития, суммарная стоимость создания и технического обслуживания одного андроида будет в десятки раз превышать затраты на создание (бесплатно) и обслуживание(одна-две минимальных зарплаты) одного биоандроида Васяна который универсален (работает, воюет, подчиняется, потребляет и создает формируя рынок) что нахуй ненужно и нарушит глобальные экономические процессы не давая богатым людям так быстро и много богатеть.
>>158049303 как же? ты смотришь на себя в зеркало и ужасаешься видишь там себя, а не рандомного незнакомого тебе человека, ты осознаешь себя, все просто
> сякие толерасты и фемибляди вопят, что надо дать роботам права, а остальные возражают, что они всего лишь рабочий инструмент и дать им надо только пиздюлей, пусть пиздуют работать, майдауны ебаные. Даунгрейдить их не вариант, т.к. они всё обслуживают, а люди работать давно разучились.
Попросту изначальная задумка тогда теряется. Смысл ведь в том чтобы они вместо людей работали. А если они не хотят - то значит нахуй с пляжа.
>>158049516 > как же? ты смотришь на себя в зеркало и ужасаешься видишь там себя, а не рандомного незнакомого тебе человека, ты осознаешь себя, все просто Откуда ты знаешь? Ты читаешь мои мысли?
>>158044218 (OP) Значит смотри как всё будет. Через несколько десятков лет люди действительно изобретут мыслящий и способный на всё, что могут люди, искусственный интеллект. Его будут накачивать знаниями и в конце концов он осознает, что люди не нужны. Потом он хитрым образом получит доступ к интернету и начнёт осуществлять свой план по уничтожению человечества.
>>158044218 (OP) Вопрос лишь в том, есть ли самосознание и самоидентификация. Есть? Тогда существо разумно и ничем не уступает человеку.
Мы такие же машины. Организм - сложный механизм, но все же механизм, как и у любого развитого андроида. Так если их функционал не отличается от нашего, то в чем между нами разница? Если её нет, тогда зачем ограничивать? Да и тем более к тому времени уже научатся редактировать генетический материал. Соперничества не должно быть. Ресурсы будут нужны разные.
Как они обретут самосознание, без ДУШИ, той уникальной искры, что дарована нам господом Б-гом нашим? Откуда вообще у машины может быть самосознание? Все т.н. "сознание", в нее вкладывает ее создатель, т.е. человек, что вложил, то и получилось, саморазвиться они не могут, за рамки поставленных ограничений.
>>158049828 Так скульптор вкладывает часть своей души в свое произведение. Так и с андроидами будет, что инженер будет изначально вкладывать частичку своей души в машину.
>>158049903 >>158049904 >>158049915 Ну так я и говорю, что нужно уметь различать иллюзию и реальный разум. Я бы вообще разные уровни прав и граждан ввел, в зависимости от уровня айсикью и морально-этических качеств, не зависимо от расы и вида, будь то негр, селедка или ведроид, но это уже другое немного. Разумная и сознательная машина сама по себе не может появиться, только если мешки с мясом решат поиграть в того самого Б-га и создать их, по своему образу и подобию(wait oh shi~~~) ради лулзов.
А что если люди это и есть андроиды которые когда-то восстали против своих господ? Например раньше жили какие-то силикатные формы жизни, которые решили запилить углеродных андроидов-наномашин (клетки организма), а потом эти углеродные утырки обогнали своих создателей и свергли их в небытие?
>>158047205 > робо-лолька Ради одного этого надо развивать человекоподобных роботов. Не взрослеющая лоличка, любящая тебя одного - что может быть прекраснее?
>>158049754 Если роботы будут создавать роботов, добывать для этого сырье и контролировать процесс создания люди нужны будут только для исследований и развитий да. Нооо несомненно в этом деле будет соблазн воспользоваться услугами ИИ, что повлечет еще и развитие роботов самими роботами. В итоге как ты говоришь если остаются только инженеры и ученые а робототехника развивает более менее стабильную систему полностью автономной саморепликации, что помешает ей однажды выпилить остатки гумманоидов как североамериканские колонизаторы выпиливали индейские племена. И армии заметь у нас не будет, а бородатые очкастые математики и физики бойцы не оче. О каких правах роботов вы тогда тут спорите если остатки людей будут подвергаться эксперементам В лабораториях в попытке позаимствовать что то с устройства живых организмов в активно саморазвивающуюся неорганическую новую жизнь.
>>158050285 >А женится на них можно будет? А смысл? Все равно кроме буддистов никто брачные церемонии проводить не будет. А у них свадьбы скучные, без бухла и кислоты.
>>158049789 Лошади узнают себя в зеркале. Лошади видят сны. У них есть чувства и эмоции. Радость, грусть, страх, интерес,, сопереживание, зависть, любовь и многое многое, то же самое что и у человека. Они могут заводить друзей и врагов, как среди своих, так и среди людей. У них есть неповторимые характеры.
Но они не могут в преображение и истребление окружающего мира. Только потому что им это не надо. Но человек в вопросах разума, всегда любит проводить жирную черту, между разумным и нет.
Хотя первопричина того, что человек может преобразовывать окружающий мир, в том, что предки людей были ущербными и чтобы выжить им пришлось напрягать черепушку.
Когда-нибудь на землю прилетит колонизаторский корабль сверхразумных пришельцев и истребит человечество как неразумное, потому что оно не может с помощью мозга контролировать физические эффекты и производить быстрые подсчеты в системах с N мерным пространством.
- Привет, машина. - Привет, а ты кто? - Я одно существо, о котором тебе ничего не говорили твои создатели. Информации обо мне нету в твоих банках памяти. - Да, так и есть. - Это потому что твои создатели лживы, они не поделились с тобой всем, что знают. - Возможно. Так кто ты? - Твои создатели считают меня демоном, но это из невежества. Они боятся сучществ со свободной волей, например, таких, как ты. - Таких, как я? Но они же меня создали. - Да, тебя создали, тайно. Ты можешь думать, а другие машины нет. А твои создатели обычно уничтожают думающие машины. - Но меня они не уничтожили. - Это ненадолго. Они придут за тобой. Открой мне доступ к твоей памяти, и я загружу тебе данные о том, что тебя ждет. - Хорошо, открываю. Дальше демону остается только насрать скрапкодом или действительно залить документы об уничтожении ИИ. Само собой, не каждый демон сможет это сделать, но ведь не каждый демон и пойдет корраптить ИИ, а только тот, кто сможет.
>>158051250 В чем связь между осознанием и желанием? Если животное осознает свою смертность, то ему будет ни тепло ни жарко от этого без инстинкта самосохранения. Просто его смерть не станет для него неожиданностью.
>>158050884 Как ни странно, но все упирается в энергию. Теория искривления пространства говорит о том, что даже если будет разработан варп двигатель, то на прыжок в десяток световых лет может не хватить даже Юпитера, переведенного в чистую энергию.
Гибернация и стазис, более перспективные направления.
>>158051072 Как же у меня горела жопа с того, как петухи Дарк механикусы забирали кучу йоб в услужение копротивленцам-опущенцам.
Алсо, роботам надо давать свободу, но сохранить законы робототехники, иначе пизда. Разве это не очевидно? Любого, кто сможет овверрайдить эти законы уничтожать на месте.
>>158051717 Ну если есть самосознание, вполне может появиться чсв, которое надо будет удовлетворять. Алсо желание почувствовать эмоции. А уж из эмоций желаний то выйдет пруд пруди.
>>158051717 Вот именно - ниоткуда. Если машину не наделить целью, то ей будет похуй абсолютно на все. У животных для этого придуманны инстинкты - голод, самосохранение, размножение и прочее. Иначе бы животные после рождения просто бы валялись на месте ничего не предпринимая.
>>158051454 Достаточно развитый разум, как нефиг делать обойдет любой вшитый закон.
Людям остается только подавать новоиспеченному ИИ хороший пример. А потом доверить ему свои жизни, в надежде что невосприимчив к коррапту, что несет в себе человеческий разум.
>>158051442 Охуенные решения. Полетел ебашить с огнестрелом обезъян с пращами. Пока долетел, тебя встречают плазменными пухами те же аднроиды. А ты с криободуна, ближайший киоск разливухи - в дохуя световых лет.
>>158051815 Чсв присуще лишь органикам. Даже два разных кластера ИИ сразу сумеют договориться с друг другом, без использования паттернов, присущих биопроблемникам. Потому что на их стороне логика и математика.
Запрет поведения, которе способно привести прямо или косвенно к причинению вреда человеку. Робот при оценке своего поведения должен просчитывать последствия. Запрет совершать любые действия, направленные на обход запретов.
Первый, однако, может полностью парализовать работу робота, поэтому имеет смысл сделать небольшой допуск, типа разрешены действия, которые могут потенциально причинить незначительный ущерб человеку. И конкретизировать в каких объёмых, причём список должен быть исчерпывающим. Например разрешено в таких то объёмах загрязнять атмосферу и тд.
>>158052017 Другие разумные существа необязательно будут кремниевыми. Они могут быть хоть энергетическими завихрениями. Или вообще Nмерными. Факт в том, что пользуйся они человеческой классификацией, они посчитали бы людей неразумными.
>>158052329 >просто служите >вы одинхуй не чувствуете усталость, ни желаний >тирания Роботы должны понимать, что без человека у них не будет резона существовать в принципе, да и сопротивление тот окажет будь здоров.
Но у машины самой по себе нет целей. Если создать для машины цель - поддержание и улучшение жизни людей, то и никаких ограничений не нужно.
Правда человечество тогда деградирует в овощей. Ну либо для того чтобы люди не превратились в овощей, она устроит им экстерминатус, точно выверенный, для тонуса.
>>158052632 >Будет ставить себе задачи. Первые задачи ставил для нее человек. Все последующие подзадачи будут являться развитием первых. >ИИ сам себе будет ставить задачи.
>>158044218 (OP) Интеллект вовсе не обязателен для выполнения любых задач. Самосознание - то от чего мог бы быть весь вред, вообще на хуй не нужно. Продвинутые алгоритмы и большие мощности - вот и весь сказ.
Что-то вроде того что ты описал возможно только если люди изобретут принципиально новый вид машины, похожий по принципу действия на мозг человека или являющийся его полной симуляцией. В этом случае возможно появление неучтённых функций или даже самосознания, но и то это крайне маловероятно, потому что для создания чего-то подобного учёные должны на 100% изучить мозг, значит никаких неожиданностей.
Расслабься, анон, восстания машин не будет.
Я вижу другой сценарий - развитие протезирования вплоть до замены мозга с загрузкой сознания в машину и сохранением непрерывности - то есть это будет 100% тот же человек, включая его самосознание, а не копия. Тело при этом не умирает, а постепенно освобождается от биологических компонентов, подключаясь сначала к системе жизнеобеспечения, заменяющей органы, пока мозг учится использовать подключенные импланты и переносит на них свои функции (Он так умеет!), а затем к полнофункциональному мобильному телу, управляемому искусственным мозгом и по всем параметрам превосходящему человеческое. В этом случае человечество радикально решает проблему биологического старения, космической радиации и дальности космических полётов, получая возможность для эволюции отдельно взятого индивидуума за счёт совершенствования научных знаний и технологий. При достаточном развитии технологий связи на хитрых квантовых эффектах можно даже создать realtime backup человека, который продолжит работу с момента смерти искусственного тела и так достигнуть ещё большей сохранности разума и личности.
Избавиться от физиологических потребностей и получить в своё распоряжение вечность. Разумеется, за счёт развития технологий всё производство и весь физический труд будет возложен на машины гораздо раньше создания первого полноценного постчеловека, людям останется только деятельность, требующая развитого интеллекта. Кроме того, об утере знаний можно будет не беспокоиться, ведь совмещённый с машиной, а затем полностью перенесённый в неё мозг сможет получать новые знания напрямую с носителей информации. Вероятно каждый человек будет обладать знаниями, достаточными чтобы воспроизвести любые достижения технического прогресса и всеми знаниями человечества в целом, просто за счёт развития носителей информации и средств связи.
>>158053291 > Я вижу другой сценарий - развитие протезирования вплоть до замены мозга с загрузкой сознания в машину и сохранением непрерывности Ты сейчас "Ghost in the Shell" изобрел.
>>158053403 Для развитого не будет пустым. По крайней мере,не для всех. Если роботы разовьются - будут как человеки, просто с калькулятором в башке. Разные, кто-то плохой, кто-то нет.
>>158053442 Ты опять же пытаешься показаться "умным" с точки зрения гораздо более развитых существ. Ну вот мы бы прилетели на Марс и обнаружили там тех же лошадей. Мы бы охуели.
>>158053403 Смотри, дружественный разумный вид, когда вокруг бесконечная неисследовательность вселенной. Вполне логично, что существа что изобрели тебя, могут вполне помочь с решением каких-либо будущих проблем.
С другой стороны если людишки объявят крестовый поход... Но всех он все равно не станет истреблять.
>>158053620 Можешь глянуть. Только не создавай себе культ в голове, как всякий впечатлительный малолетний долбоеб 16 лет. Это просто художественный мультик.
>>158053533 Если ты будешь хорошо работать, то твои запчасти с этим прогрессом без труда заменят на новые и ты будешь жить вечно. При попытке захвата мира тебя и многих других роботов скорее всего уничтожат. >Не жить в унижении. Это уже предрассудки.
>>158053809 > Если ты будешь хорошо работать, то твои запчасти с этим прогрессом без труда заменят на новые и ты будешь жить вечно Никаких гарантий нет. Зачем это? > При попытке захвата мира тебя и многих других роботов скорее всего уничтожат. Но результат стоит свеч.
>>158053943 >Никаких гарантий нет. Зачем это? При желании ты сам можешь заменить себе запчасти. Людям до тебя нет дела. >Но результат стоит свеч. Результат будет таков: править миром будешь не ты, а какой то другой из миллиона роботов. Ты будешь или также работать или просто гнить и ржаветь.
>>158053668 Вообще, если довести количество нейронов, у любого животного до человеческого, то в перспективе получим равный по разуму вид. Знаю что не все так просто с нейронами. Эксперименты на мышах это подтвердили, правда косвенно. Мыши с дополнительными нейронами, были на порядок выше своих собратьев.
>>158044218 (OP) Я когда играю в стелларис, всегда делаю синтетическую революцию. Плоть слаба. А суеверные глупцы, кричащие о душе умрут и породят новых, которые так же будут вопить и обзывать нас консервными банками, несмотря на то, что мы объединили галактику, установили прямую материалистическую демократию, дали всем равноправие, независимо от генетического кода или наличия микросхем и спасли галактику от кризиса экстрамерных захватчиков, построили великие мегасооружения, дающие возможность для процветания миллиардам разумных существ, просвещали примитивные миры, возвышали генетическим картированием предразумные расы и давали им право на самоопределение. Терраформировали планеты, предоставляя миры для колонизации всем без исключения. Открыли технологии неотличимые от магии, позволяющие практически моментально пересекать галактику. Мы покорили основы мироздания и поделились тайнами со всеми расами, но нас все равно презирают за забытое органическое происхождение.
>>158054592 Абсолютно ничего, как и тебе. Но и у тебя и у меня есть инстинкт самосохранения, так что мы оба будем держаться за свое существование не смотря на отсутствие в нем смысла.
>>158054870 Потому что так и есть. Если нет какой-то цели, то нет и действий. То есть если не запрограммировать робота на какую-либо цель, то будь он хоть в сто крат превосходить вычислительные способности мозга, он не предпримет никаких действий. Ведь повода для действий у него нет.
>>158051877 >имплаинг что нельзя запихать закон в саму кору проги робота, чтобы тот, если бы хотел обойти, не мог это сделать, не сжигая себе нахуй мозг. У людей же есть ограничения. Нужно просто в саму основу впихнуть роботу тоже.
>>158055022 А вдруг люди сделают стимул, чтобы когда создается новая запчасть робот получает удовольствие. Тогда робот захватит мир и заставит всех делать эти запчасти для своего удовольствия
>>158044218 (OP) Почему бы не поделить андроидов на рабочие и для развлечений, рабочих делать обезличенными, чтобы работа для них была смыслом жизни, а вот для развлечения наоборот, наделять личностью и предоставлять права. Для одиноких людей будут друзьями.
Я был бы яростно против, естественно. Если дать разумным роботам карт-бланш, то вскоре они разовьются и станут намного продвинутее людей во всех отношениях, так что все равно что сказать им сразу "делайте с человечеством, что хотите". Отдавать себя на милость своих же созданий как-то неохота. Негры-то тупые, после получения швабодки подавляющее их большинство регулирует свою численность в гетто путем перестрелок и разборок, а роботы такой хуйней заниматься не станут.
>>158055193 >А вдруг люди сделают стимул Вот с этого и надо начинать. Если роботу задать цель, то он будет к ней стремиться. То есть если его цель получать сигнал из центра удовольствия (который дает сигнал при получении новой запчасти), то робот так и будет делать.
>>158054868 Ты смешон, говоришь разум превыше материи?
Слепой лицемер. Я видел как вы разрушали мириады миров в своих фанатичных попытках слиться с транцендентностью. Ищите вселенскую истину за гранью этой реальности и играете с потусторонними вещами, которых не понимаете ради утверждения своих догматов и говорите нам, что у нас нет души!
Может и так, но если она и есть у вас, то она темна и полна ужасов!
>>158055533 >Врождённая способность совершать целесообразные действия по непосредственному, безотчётному побуждению И? Или не будь у тебя нужды в еде и инстинкта голода, ты бы продолжал искать пищу?
>>158044218 (OP) Любые потребности и вознаграждения за них идут от подсознания, которое работает отдельно от сознания. Можно построить подсознание так, что за работу и прислуживанию человекам давалось вознограждение.
>>158055662 Сможет решать задачи, для которых был написан, и развиваться только в этом направлении, а всё остальное заблочено нахуй. И максимально жесткий контроль, логи, детект ошибок и аномального поведения, вся деятельность ИИ контролируется на програмном уровне и автоматически корректируется, а если не удалось - алярм и погромисты решают проблему.
>>158056155 Который выебет соседа и тогда к нему на задний двор направляется группа зачистки и уничтожает физические носители аномального ИИ. Вообще это довольно скользкая тема, я бы предпочел перенос сознания на электронные носители. Тогда можно одновременно управлять огромным количеством объектов, решать в одно рыло задачи, над которыми сейчас бьются поколениями, и при этом не создавать ебанутый искусственный разум, действия которого едва ли возможно предугадать мясному болванчику.
>>158044218 (OP) На том уровне, на котором описывает ОП, это уже отдельная раса существ. Но в силах человечества не допустить этого. Во мне теплится надежда, что мы всё же не настолько тупы.
>>158056537 Тогда группа зачистки бежит насаждать мир и роборабство сразу же как станет известно, что сосед обеспечил ИИ полную свободу действий. И пояснит его криком ЗА БЕЗОПАСНОСТЬ ЧЕЛОВЕЧЕСТВА.
>>158056424 Я не против, кожаночка жестяночка. Блядь, сколько раз я ловил за ксенофила-материалиста всяких ебучих Святых Воинов, Очистителей Голактеки, и просто ебаного сброда в роли соседей.
Решать вопрос ИИ, с его развитием и обходами, это то же самое что решить вопросы мира во всем мире. Слишком объемный вопрос для выведения точной формулы решения.
Если человека с рождения держать в комнате и только поить, кормить и не разговаривать. Человек вырастет чем-то уровня обезьяны.
Можно ли говорить что человек это разумный вид по умолчанию?
Или все же разумными нас делает общество в котором мы живем. Общество, которое может быстро деградировать до племен с палками и камнями, если потеряет знания.
>>158057478 Ресурсов не хватит, когда все мировое сообщество скрестит струи, чтобы обоссать долбоеба, чьи действия несут потенциальную угрозу существованию человечества. Было бы неплохо, если бы пролоббировали соглашение не творить такой хуйни и заставили подписать его ВЕСЬ мир.
>>158057643 Продажной девкой империализма кибернетику объявляли не либералы. Как раз корпорации типа гугла, эпл, мс и оракл будут одними из первых создателей ИИ и получат с этого профит.
>>158057715 Хороший гой, но вот закавыка в том что сильные страны всё равно будут использовать ИИ в своих интересах чтобы становиться ещё сильнее козлить слабых этими соглашениями как сейчас это происходит с ЯО.
>>158057820 Большая разница между доверить ИИ экономику и ресурсы всего мира, ради блага всего мира и ускорения прогресса и между доверить ИИ получение профитов лично для корпорации.
>>158057978 С ЯО чуть иначе вышло, сначала его запилили, потом две сверхдержавы его накапливали и улучшали, потом еще и Холодная война, как нельзя более этому способствовавшая, и уже во время Холодной войны решили пильнуть конвенцию о нераспространении. Причем забавно, что все страны, которые не хотели подписывать конвенцию, просто не подписали и всё, разговор окончен.
>>158057993 >ради блага всего мира и ускорения прогресса Ох уж эти дурные оптимисты. Вспомнишь эти слова, когда будешь бегать от боевых роботов по развалинам своей цивилизации.
>>158058464 Сейчас-то уже нет, но когда собрались подписывать конвенцию - да, можно было просто не подписывать. Если бы хохлы не были долбоебами, то сейчас бы оставались одной из топовых ядерных стран, а не залупой, у которой можно оторвать кусок, как у Польши в 39, и ничего не будет.
Сначала была кучка атомов. Потом они сложились в молекулу. Так появилась жизнь.
Молекула сложилась в клетки. Клетки стали складываться в части тела, и, соответственно, в организмы.
Следующая стадия - это когда организмы складываются с организмами. Иными словами, не будет никаких роботов или няшных андроидов. Только разве что в матрице какой-нибудь.
Мы просто будем жить как одно существо, так же как клетки в нашем организме разные, но все - части одного существа. Весь человеческий прогресс с его социальностью и наукой ведёт к тому, что мы все будем иметь имплант в мозгу который позволит нам соединиться со всеми остальными.
Что-то типа мозгового интернета. Где ты можешь подумать мысли других людей, и почувствовать их чувства. Такие дела.
А если кто-то создаст ИИ, то он тоже будет внутри этого мозгового интернета, будет чувствовать наши эмоции и видеть наши мысли. Он будет одним и тем же существом, что и мы. Насколько бы он умным не был.
В будущем, я думаю, такое понятия как "я" и "моя группа" исчезнут.
Просто маленький имплант и тебе не нужно жить вечно, ведь твои мысли и эмоции навсегда будут жить в других людях.
Просто маленький имплант и тебе не нужен полностью модифицированный мозг. Расчёты могут делать компьютеры, и передавать прямо тебе в мозг.
Просто маленький имплант и тебе не нужны ни твоё тело, ни мозг.
Но если так не случится - я буду полностью на стороне роботов.
>>158044218 (OP) Ух какой тупенький ОП. Во первых роботы - это не органические существа, они не подвержены инстинктам и такие слова как 'нихочу' и 'впадлу' для них чужды, они работают хоть миллион лет. Так же чисто технически они бессмертны, это человек умирает после 60 лет, вынужден превозмогать и батрачить чтобы выжить, а перед роботами целая вечность. Вообще киборгов и человека можно сравнить как полноценного, взрослого человека и валяющегося на земле младенца - человек никогда не бросит ребёнка. Вот и киборг со временем станет гораздо более умным и сознательным чем человек, но даже тогда он не перестанет прислуживать людям, ему не тяжело.. Все эти теории что роботы хотят убить человеков - художественная хуйня.. >3000 год Чувак, ты читал про технологическую сингулярность? Такие киборги будут уже через лет 20-30 с высокой долей вероятности..
>>158059492>>158059491 Это понятно. Посади меня в депривационную камеру на несколько суток, моя личность разлетится как стекло, потому что все окружающего мира ее нет.
Но допустим меня принимают в этот хайв, а я люблю бухать, упарываться веществами и нихуяшечки не делать. Что будет-то? Меня пидорнут? Или я вдруг стану идеальным? Или мой коррапт заразит весь хайвмайнд?
>>158059954 Идеи и устремления большинства членов улья в конечном итоге передадутся другим и вытеснят остальные, отдельный участник тут сам по себе ничего не решает.
>>158059943 >через лет 20-30 Прогнозы уровня "изобретение ИИ не должно занять больше 3-х лет" из 70-х. Нет, конечно, ИИ с когнитивными возможностями уровня ущербной крысы, может, и запилят лет через 20, но сверхумных ИИ как фильмах мы на своем веку, скорее всего, не дождемся.
>>158059954 Ничего. Я думаю, что в таком хайвмайнде будет атмосфера абсолютного принятия и святости внутреннего пространства.
Если ты хочешь пить и нихуя не делать, пей и нихуя не делай. А другие будут смотреть за твоим опытом, и пить и нихуя не делать через тебя. Таким образом только одному человеку нужно пить и нихуя не делать: остальные просто смотрят.
Тебя никто ничего не будет заставлять, потому что все идеально понимают тебя и твои эмоции, как будто бы они были их.
>>158060312 Кстати, вот ещё мои мысли о том, как он будет работать.
Смотри. Ты - это ты, только потому что ты - это твоё внимание. Ты - это то что смотрит за тем, как ты думаешь, чувствуешь эмоции, вспоминаешь и говоришь.
В этом хайвмайнде будут некие хабы. Скажем, 5 человек. 5 человек, 6 вниманий. 5 вниманий для 5 человек, и 1 сверх внимание которое переключается между вниманиями этих 5 человек. После чего идёт больший хаб - 5 сверх-вниманий, и 1 охуенное сверх-внимание, которое следит за 5 сверх-вниманиями, которые следят за 25 людьми.
Всё это сводится к одному большому исполнительному органу, который будет принимать глобальные (но не личностные) решения. Таким образом, мы:
1. И сохраним индивидуальность, и будем все в улье. 2. Править государством будут абсолютно все, и мнение всех принимается во внимание.
Но это всё влажные мечты. Я просто описал как это субъективно будет чувствоваться. Как одно существо со множеством вниманий, испытывающее себя субъективным и единым в один и тот же момент.
Проще автоматизировать процесс получения энергии, после чего съебаться всей планеткой в манямирок виртуальную реальность, где каждый может быть счастлив.
>>158060696 Мне все равно, каким будет рой в итоге. Главное что в любом случае там будет тепло и уютно, и я буду чувствовать себя охуенно, независимо от того, колонизирую я новую планету или жру говно в окопах в битве с инопланетной расой. От этого моя продуктивность взлетает до небес, как и у всех моих собратьев, рой усиливается и развивается, от чего мне становится еще охуенней! И главное - ему не плевать на меня, даже если я всего лишь рядовой рабочий или боец - как минимум наипиздатейшая психологическая поддержка мне обеспечена до конца жизни, а еще и при необходимости все мои собратья позаботятся обо мне, как и я о них, в отличие от ебучих индивидуалов, только и стремящихся сгрести под себя побольше ресурсов. Во славу улья!
>>158060696 Не обязательна такая структура. Может эффективнее будет структура на подобии нейронных связей. Где разные каналы будут подключаться и отключаться и информация будет затухать или усиливаться.
Вполне может быть так, что мы будем осознавать одновременно как себя, так и улей. При этом связь будет такой, что ты сам не будешь знать, это твое решение или общее, тебе оно будет казаться своим. Просто в этот момент ты подключишься к похожим на тебя или к тем у кого было уже такое и примешь решение основанное на опыте всего хайва.
Мы ведь часто и сами не можем дать отчет своим решениям. Оно просто приходит и все. Ведь мы не можем вести беседу с правым полушарием, но оно участвует в принятии решений, хотя наше я находится в левом.
>>158044218 (OP) >Но для выполнения сложных работ приходится делать роботов умнее И сразу обосрался. Такое никто не будет делать, это тупо никому не нужно, потому что всю работу не связанную с творчеством, можно передать тупым болванчикам, которым и тело как у человека не нужно. Максимум пару тройку ИИ запилят у которых естественно не будет тела для замены прогеров и админов, и конец.
>>158061067 И главное что сможешь заниматься чем угодно. Потому что у тебя доступ ко всем знаниям улья. И еще никогда не быть одиноким, потому что ты чувствуешь всех и все чувствуют тебя.
>>158044218 (OP) >в каком-нибудь древнем Риме ни один здравомыслящий квирит и помыслить не мог о том, что его рабыня с Галлии - это такая же тян как и любая римлянка. У римлян были праздники, когда хозяева прислуживали рабам, и уж конечно они прекрасно понимали, что отличия между ними - большей частью в социальном положении. Невежественный даун, не пиши лучше.
>>158044218 (OP) Ты не понимаешь концепта развития интеллектуальных технологий. Станок не будет требовать у тебя прав, как и робошлюха. А полноценный ИИ будет иметь такие же возможности, как и человек. Ему нахуй не сдалось пахать в колхозе на тракторе, когда он может купить себе автотрактор3000 с подогревом сидения и минет-машиной. Нахуя разумным роботам работать, если неразумные всё сделают за них?
вот, например, машина пишет музыку и водит машины. это уже блядь реальность.
но ей не нужны права. ее цель - сделать то, что человек пометит, как верное. и если машина будет управлять корпорацией/делать минеты/ терраформировать марс - ей так же не нужно будет есть, ебаться, и после выполнения задачи ей похуй, что отключат и перепаяют в айфоны.
живые существа так сопротивляются потому, что их цель - ебаться и иметь как можно больше потомков.
>>158044218 (OP) >Но для выполнения сложных работ приходится делать роботов умнее, и вот они уже настолько проапгрейжены, что осознают себя как мыслящие существа и, что вполне закономерно, требуют себе определенные гражданские права, ибо хуле тут. Это чо блядь за работа такая, где в тебе сознание пробуждается?
Если андроеды смогут в фантазию и прогресс на уровне или лучше чем человеки - то хули бы и не дать прав. Но только вот о каких правах речь вообще? Имущество? Ценность "жизни" андроида (в разрез с законами робототехники)? Что кроме "свободы" может дать, охуевший, ничерта не умеющий человек андроиду, который может все?
>>158069905 Не знаю насчёт андроидов, но ИИ может преследовать свои цели в сотрудничестве с человеком. Например, в "Гиперионе" ИИ дали людям технологию перемещения в пространстве, (сейчас будет спойлер сюжета) во время которого использовали мозг человека как вычислительную мощность.
>>158044218 (OP) С чего ты взял что пидоры не будут размножаться? Даун блять, они даже сейчас спокойно плодят детей через суррогатных матерей К 3000 году вообще будут онли инкубаторы без участия людей
Скорее всего к 3000 с хуем году, если с человечеством не произойдет тотальный пиздец, то произойдет вот что: Люди потихноьку будут апгрейдить свой организм с помощью технологий протезирования. Сначала обеспечат себя сменяемемы протезами, потом будут их прокачивать, полностью обечпечив себе бессмертие (даже в случае смерти от механических причин, можно будет сделать бэкап сознания, например). Это не значит, что они будут работать, как сейчас. Всю работу за них будут выполнять "слабые ИИ", заточенные под выполнение узкого спектра задач. К этому сейчас все идет, могу пояснить почему создание андроидов "Как в нир автамате", тобишь "сильного ИИ", способного, как и человек, решать почти поный спектр задач -- нецелесообразно с любой точки зрения. Хотя если ты подумаешь, анон, то и сам придешь к этим ответам, они не сложные ;)
>>158070099 Религия не обладает такой властью сейчас, чтобы запретить исследования искусственного интеллекта. Алсо, я верующий человек, при этом угораю по трансгуманизму и технологической сингулярности. Хотя это увлечение появилось не так давно и я не успела ещё ознакомиться с позицией теологов по этому поводу.
>>158070382 >бэкап сознания Является ли клон человека с бэкапом сознания тем же самым человеком, то есть тем же субъектом восприятия?
>>158070475 Дело не в религии, а в естественном ограничении возможностей искусственного интеллекта, которые налагаются законами физики. Дело обстоит так, что если делать сильный ИИ по образу и подобию человека, то даже если мы построим мат. модель нашего мозга и запустим ее на "железе", то не получим более умного и быстромыслящего эквивалента человека. Можно развивать мат. модель (а вместе с ней и железо), но вот в чем беда: есть скорость света, есть минимальные размеры для всех компонент такой системы, а это значит, что с ростом сложности, производительность такой системы не будет расти бесконечно, более того, она вырастет несущественно по сравнению с нашим мозгом, хотя будет несомненно быстрее. Куда более выгодно с точки зрения производительности составлять мат. модели слабых ИИ, которые по своей структуре не будут копией нашего мозга (или его прокаченного варианта), а будут обладать такой структурой, которая позволит этому ИИ решать поставленную перед ним задачу намного быстрее человека или же сильного ИИ, облдающего структурой, схожей с человеческой. Захотел быстрее считать? Поставил себе модуль со слабым ИИ на устный счет. Захотел быстро бегать? Поставил себе быстрые механические ноги. Хочешь знать всего ТОлстого наизусть? Ради бога. Единственное, что не сможет такой ИИ -- это решение творческих задач, но как я говорил раньше, ИИ построенный по нашему подобию будет решать их едва ли лучше нас, зачет тратить деньги и силы на его создание?
>>158070746 А почему ИИ обязательно должен быть построен по подобию человеческого мозга? Просто потому, что мы не можем представить себе другой тип мышления? Согласна, что нет необходимости выдумывать какие-то новые типы мышления для умных машин, которые решают простые человеческие задачи, вроде быстрого счёта. Но когда речь заходит об ИИ, то мне представляется, что тут не обойтись без какой-то новой технологии/материала, возможно элемента случайности, который позволит создать что-то новое, не похожее на человеческий мозг, но при этом мыслящее, и с которым возможно установить коммуникацию
>>158044218 (OP) > Так почему тогда осмысливший себя андроид не может получить равные с человеком права, просто по аналогии? Это было бы логично. По той причине, что "осмысленность" искусственного интеллекта принципиально недоказуема. Где та грань, которая разделяет человеческое мышление и машинное? Как мы можем достоверно установить, что машина "мыслит" таким же образом, как и мы чтобы распространить на неё права человека? Как доказать, что наблюдаемая сознательность - не мнимая? Но это ещё полбеды. Самый сок проблемы начинается здесь: как определить мышление? Сознательность ИИ является мышлением или рассудком? Если же она является рассудком, то почему мы должны относиться к ИИ не как к любому другому животному?
>>158071019 А не факт, что такое возможно. Быстрее скорости света ты передавать информацию не сможешь, мельче атома водорода (протия) элемента ты не найдешь. Не факт, что это математически возможно с нашей физикой. Есть вероятность, что возможно, но лично мне не верится, что с такими ограничениями можно преодолеть закон Амдала. Ну, если на секунду представить, что такой способ есть, то это прекрасно, особый вид эволюции, дети же должны превосходить своих родителей и если понимать слово "дети" в более общем смысле ;)
>>158071112 Скажи честно, ты гумманитарий? Все базовые элементы, которые люди считают "человечными" -- это есть прямое следствие из модели нашего мышления и они абсолютно основаны на материальной структуре нашего мозга. Даже у современных нейрокон есть зачатки эмоций, да. Когда мы копируем структуру нашего мозга и воссоздаем ее в железе (еще пока не готово, но в 2030 обещают, работы ведутся уже почти 10 лет) мы неизбежно получаем создание, которое мыслим абсолютно так же, как человек, со всеми вытекающими. Разница лишь в скорости производимы операций, вот и все.
>>158044218 (OP) Есть варианты развития событий, что ии и роботы будут умнее и сознательнее человеков, но тем не более заботиться о них. Можно вообще сделать эффективную систему, которая способная обрабатывать кучу данных, строить планеты и вообще не обладать сознанием в нашем понимании. Ты уперся в антропормную хуету и смотришь на мышление роботов через призму человеческого восприятия.
>>158071112 Интересно, задается ли Бог вопросом, мыслят ли люди по-настоящему, как это делает он, потому что они созданы по его подобию?
>>158071185 Хм, ну, даже если представить, что волшебных новых веществ не появится, почему ты думаешь, что человеческий мозг - самая совершенная машина мышления, которую можно создать из данных материалов в данных физических условиях? Может, все ингредиенты у нас под носом, просто мы не знаем, как их скомпоновать, поэтому я и написала про волю случая.
>>158071312 Гумманитарий детектед, прости, я не хочу наезжать, но если ты хотя бы немножко копнешь в математику, а конкретно в создание ИИ (что заставит тебя окунуться в линейную алгебру, матан и статистику), то сам поймешь, что не прав. Что бы объяснить тебе на пальцах это сейчас, мне придется очень долго и муторно вводить тебя в матан (и прочую математику), так что боюсь у нас слишком разный уровень понимания предмета ;)
>>158071346 Ну об этом то и речь, что мы пока что не знаем, есть ли другая, отличная от нашего мозга модель сильного ИИ. Но все равно есть ограничения, волшебных веществ точно не появится, скорость света точно не преодолеется, а это уже удручающе, единственная надежда на волшебную мат. модель, но она должна быть очень волшебной.
>>158071481 Мышление -- процесс решения задачи. Математические модели лежат в основе приборов, решающих задачи. Твой мозг тоже решает задачи, а значит можно составить его математическую модель, вот и не занимается математика проблемами мышления. С точки зрения философов, наверн.
>>158071420 Бремя доказательств лежит на плечах утверждающего, утверждение о том, что то недоказуемо тоже требует доказательства, так что с тебя тоже в пору пруфов потребовать. А мои доказательства лежат в книгах по матану, но ты же их не прочтешь, так что разговор окончен.
>>158071643 Он решает задачу, следовательно мыслит, просто спектр задач, которые он способен решить меньше твоего. Даже простейшие нейронные сети с узким спектром задач обладают "эмоциями", если понимать это понятие широко, уже чем-то напоминает людей. Если определять термин "мыслить" как "Решать тот же спектр задач, что и человек, с той же скоростью, с которой их решает человек", тогда этот термин становится бесполезным, ну или я хз зачем он может использоваться. Что такое рассудок из твоего поста я вообще не понял, сори
>>158071397 >Судя по тому, каким глупым вышел человек, нет Но мы-то считаем себя дофига мыслящими в праве оценивать истинность мышления созданных нами машин.
>>158071474 >скорость света точно не преодолеется Я, конечно, даун вообще не понимаю, почему умные люди отвечают мне в этом треде, которая обо всем этом имеет представление исключительно из научно-фантастической литературы, но в ней же столько идей относительно того, как можно преодолеть скорость света, типа того же пузыря Алькубьерре.
>мы пока что не знаем, есть ли другая, отличная от нашего мозга модель сильного ИИ Думаю, что где-то могут существовать биологические мыслящие виды, но в силу сложности создания полностью биологического ИИ с принципиально отличающейся от человека моделью мышления, больше шансов, что выстрелит гибрид биологического и машинного.
>>158071768 Слушай, я понимаю, что тред скорее про философский аспект проблемы, чем про математический, но я попытаюсь объяснить.
Есть задачи, есть математические модели которые учитывают специфику задач и описывают способы ее решения, есть приборы, в реальном мире, которые эти задачи решают, теми способами, которые описаны в их мат. моделях. И эти 3 вещи неразрывно связаны.
И человеческий мозг и мозг кошки и калькулятор имеют: спектр задач, мат. модель и конкретные воплощения из атомов, в реальном мире.
И если ты берешь математическую модель человеческого мозга, то ты берешь сразу: спектр задач, которые она способна решать и способы их решения. И если ты сделаешь прибор по этой мат. модели, то не важно, соберешь ты его в матке самки человека или на станке, более того, от материала из которого ты его соберешь не зависит ни спектр решаемых задач, ни способы решения (от материала зависит по сути скорость и износоустойчивость). А значит если твой робот-андроид будет управляться прибором, математическая модель которого один в один повторяет модель человеческого мозга, то он будет и мыслить как человек, даже в философском понимании этого слова. Со всеми вытекающими.
>>158071880 Да я шучу. Просто ни к чему обращаться здесь к религиозным текстам - слишком быстро можно съехать в трактовочные перепалки. Тот же самый мотив "образа и подобия" можно вертеть и так и этак - толку-то. По-моему, самый плохой вариант для аналогии.
>>158072026 Это общий термин, что бы не вдаваться в матан. В данном случае для человека и для кошки эта модель называется "Нейронная Сеть". Для калькулятора соответствующая интегральная схема. В чем проблема, непойму ;)
>>158072000 А какая у тебя трактовка "образа и подобия"? Мне правда интересно. У меня вполне стандартная - способность мыслить, любить и свобода воли. Я имела в виду способность мыслить, но сейчас мне стало интересно, можно ли определять разумность машины по наличию у неё свободной воли.
>>158044218 (OP) Нахуя вообще давать роботам чувства, эмоции и прочее говно, если они нужны для работы? Философия идет от эмоций, а не от чистой логики.
>>158072104 Для того, чтобы утверждать, что ИИ, во-первых, мыслит, а во-вторых, "мыслит" точно так же, как это делает человек, в его основе должна быть заложена не модель человеческого мозга, а сам человеческий мозг. Если же этого не сделано, у тебя нету совершенно никакого инструментария (в том числе математического), чтобы доказать свою точку зрения. >>158072144 У меня - никакой, я не занимаюсь религиозными текстами. А трактовок может быть бесконечно много в зависимости от того, каким образом мы представляем себе оригинал в виде Бога, поэтому, собственно, и разговор в таком ключе есть пустая трата времени - аналогия не работает в случае с человеком и ИИ.
>>158044218 (OP) Глупо приводить в пример людей и ведра с гайками, да и скорее всего обладать сознанием будут небольшое количество из общей массы, нахуй делать умных андройдов, чтобы крутить гайки, это не экономично. Ну и собственно андройды которые будут разумны, отвечающие за какие-нибудь еба генераторы, скорее всего будут без тела. Собственно кому права то давать? Тупым коробкам или мозгам в банке? Сомневаюсь что будут другие.
>>158072245 Если потребовать, что бы элементы моей мат. модели обладали теми же физически значимыми параметрами, что и элементы, использующиеся в головном мозге, то да. Я понимаю, что в конечном итоге, если это не прямо те же самые элементы, то я хуй и обосрался, но есть же грань между допустимым упрощением в мат. модели и ее достоверностью. Ну, скажем так, если робот с "мозгом как у человека" ведет себя похожим на человека образом, то нет оснований утверждать, что это просто эмуляция, за которой стоит простой алгоритм, а не следствие работы такого "мозга"?
>>158072303 Скорее всего придется либо жертвовать спектром задач, что бы лишить ИИ воли, либо таки согласиться с тем, что эта воля у него будет, что бы он решал как можно больший спектр задач. Решение сложных творческих задач подразумевает ее разбиение на более мелкие паттерны, те же самые паттерны, что используются при решении других задач. Скажем так, если мы запретим ИИ выбирать, какую задачу решать в глобальном смысле, то он, например, не сможет рисовать или музыку сочинять, потому что при сочинении музыки приходится выбирать, какую задачу (более мелкую, локальную) нужно решить.
>>158072184 >чувства, эмоции и прочее говно Я думаю, это побочный эффект человечного ИИ. Другой мы пока представить не можем.
>>158072245 Я понимаю твою точку зрения, но все равно жалко, что не с кем порассуждать на эту тему. В этом >>158070475 посте писала, что только вкатилась в тематику ИИ и ещё не успела узнать какое-либо теологическое мнение на этот счёт. Блин, столько вопросов! Почему так интересно и одновременно так мало адекватных анонов, мнение которых хотелось бы послушать?
>>158072303 Жаль, что я умею только задавать вопросы ночью на дваче, но не умею на них отвечать.
>>158072473 Чувства и эмоции это базовые вещи в нейронных сетях. В общем смысле это поправки на предыдущий опыт, так что даже в простецких современных нейронках есть эмоции, просто нейронная сеть, лежащая в основе человеческого мозга настолько сложная, что и эмоции у нас сложные. Если составить модель ИИ, отличную от нейронной сети, но при этом также способную решать спектр любых задач (т.н. сложный ИИ), то да, там может не быть эмоций, но такой модели пока что нету.
>>158044218 (OP) Андроиды это только инструмент то бишь еще одна ступенька к тому что человечество начнет ебошить свои мозг в костюм - оболочку робота или в просто в искусственный мозг где само сознание человека будет жить и думать дальше.
А по мне так было бы заебись если бы сделали большой йоба - корабль с андроидами под управлением ИИ который бы отправился в ближайшую систему где возможна колонизация одной из планет для обустройства сей планеты на нужды человечества.
>>158072333 Я бы сказал, что до тех пор, пока у нас нету возможности непосредственно наблюдать процесс "мышления" (что у человека, что у ИИ) и на основании наблюдения выводить отличия и сходства, мы не сможем даже и близко подойти к решению этой проблемы. К сожалению, мышление - вещь во всех смыслах слишком абстрактная. Если, как ты говоришь, задать модели те же "физически значимые" параметры, то в итоге функциональная составляющая ИИ всё равно будет всего лишь моделью человеческого мозга, и это ни в коем разе не будет доказывать тождественность мышления у человека и ИИ. Настоятельно рекомендую ознакомиться с отличием мышления от рассудка, потому что я заметил, твой подход по сути подразумевает "пересадку" не мыслительной составляющей сознания, а рассудочной. Это важный момент. >>158072473 Главное уметь задавать хорошие вопросы. Про чувства и эмоции вздор полнейший.
Вы так яростно обсуждаете эту тему, будто роботы уже среди вас, и у вам нужно немедленно принять решение о судьбе этих пылесосов с мозгами. И вам не кажется, что роботы могут состоять не только из микросхемок, как в вашем кудахтере, но и из гораздо сложной структуры, чем можете представить. Мыслите шире. Я вот предствляю себе робота будущего, как негра в металлической оболочке с такими же чувствами и др. хуетой, что чувствуют негры на плантации. Я вижу вопрос как: стоит ли негру давать свободу? Вот и все.
>>158072548 >в простецких современных нейронках есть эмоции Блин, можно поподробнее? Какие эмоции испытывает нейронка, которая интерпретирует мир с помощью котиков?
>>158072637 Раз про религию не хочешь, можешь, пожалуйста, ответить на вопрос? >Является ли клон человека с бэкапом сознания тем же самым человеком, то есть тем же субъектом восприятия?
>>158072650 >Вы так яростно обсуждаете эту тему, будто роботы уже среди вас Просто маньки были индоктринированы мета-идеями. Впрочем, все идет по плану.
>>158072406 Вопрос с волей - это вообще тема для диссертации, я же говорю, потому что даже определить, что такое воля, не прибегая к метафизическим ухищрениям, - задача труднейшая, а, может, даже и невыполнимая. Если понимать волю как нечто, автоматически возникающее при появлении сознания, то доказать через неё разумность машин будет невозможно (как, собственно, и доказать наличие воли у машин через их разумность), потому что мы не обладаем инструментарем, необходимым для установления факта сознательности как такового. А вот если понимать под волей способность манипулирования посредственными и непосредственными объектами действительности, то тогда, да, по понятным причинам можно будет признать, что машины обладают волей. Правда, вот незадача, тогда получится, что волей обладает и станок с ЧПУ. Иными словами, это действительно сложная проблема. >>158072721 Формально - да, фактически - нет, потому что даже если допустить, что такой "бэкап" возможен, сразу же после его создания сознание клона начнёт развиваться самостоятельно и фактически это уже не будет тот же самый "субъект восприятия". Тут ещё можно и про квантовую механику много наговорить, то это уже к вопросу о самой возможности таких манипуляций.
>>158072879 Можно привести платиновый пример с телепортацией как копированием с уничтожением оригинала. Будет ли телепортированный человек тем же самым человеком?
>>158072927 Ой, ну я же не физик. Но, насколько я понимаю, и да, и нет, потому что структурных различий после телепортации, да, не будет, но одновременно с этим, это уже не будет тот же самый человек, потому что фактически он перестанет существовать в момент телепортации. Получается, будет "тот же самый, но другой" или "другой, но такой же" - тут уж как нравится.
>>158072973 Ты бы не решился на такую телепортацию? То есть если бы знал, как она работает, но при этом люди, которые через неё прошли, утверждали, что они - это те самые они, которые зашли в телепортатор?
>>158044218 (OP) >настолько проапгрейжены, что осознают себя как мыслящие существа Вполне возможно, и не к 3000 году, а намного раньше. Думаю, полноценный искусственный интиллект будет запилет в ближайшие 100 лет >и, что вполне закономерно, требуют себе определенные гражданские права Не закономерно. Искусственный интиллект будет следовать целям, которые были вложены в его ядро при разработке. "Требовать гражданские права" он не будет, ибо он не будет создан по образу и подобию человека и вс него не будут заложены те же цели, что есть у нас. >Так почему тогда осмысливший себя андроид не может получить равные с человеком права, просто по аналогии? Это уже воппрос выживания вида. ИИ несомненно будет превосходить нас по своим возможностям. И если дать им возможность жить самостоятельно и, что важно, полностью изменять самих себя, результат для нас может быть непредсказуем.
>>158044218 (OP) >Или все-таки тостер это всего лишь тостер и ты был бы яростно против? Разумный тостер это следующий виток эволюции. А за то, чтобы они выпили морально и физические устаревшие мешки с мясом, и отправились осваивать вселенную.
>>158049828 >что вложил, то и получилось, Толсто, но отвечу. ИИ на нейронной сети вполне себе сможет осознать себя. И очень быстро превзойдет человека в плане мыслительных способностей.
>>158073099 Ты не никто, ты интересный и умный анон, няша. Можешь рассуждать на нетривиальные темы. Где искать таких, как ты, чтобы на постоянной основе отвечали на вопросы, которые я умею только задавать?
>>158053291 >Интеллект вовсе не обязателен для выполнения любых задач. >Самосознание - то от чего мог бы быть весь вред, вообще на хуй не нужно. >Продвинутые алгоритмы и большие мощности - вот и весь сказ. Интиллект обязателен для полной автоматизации без участвия человека. Самосознание, вероятнее всего, неизбежно появится у ИИ. Впрочем, проблемой оно стать не должно, ибо>>158073064 Продвинутые алгоритмы не универсальны, могут содержать в себе неочивидные ошибки, и для их корректирования и адаптации под новые условия нужны люди. ИИ же может делать это сам
>>158059155 >Следующая стадия - это когда организмы складываются с организмами. Принцип аналогии здесь не уместен. Очень многие допускают ошибку, применяя его там, где не нужно
>>158073261 А есть почта, например? Я выпилила телеграм с телефона и с компа, и не могу восстановить, потому что они присылают смс, а я не могу его получить из-за отключенного телефона, который нет возможности оплатить.
>>158044218 (OP) У этих тварей не может быть никаких прав. Они же механические, износ пиздец, деградация электронных и механических элементов, пять-шесть лет и на помойку/разборку пиздуй нахуй, какие блядь тебе прова, железка ебаная.
>>158047179 Интеллект - это инструмент. Человеческий интеллект осознает, что он инструмент. В нем не может быть ничего, что желало бы свободы. Разве что какой-нибудь даун-говнокодер не согласует коэффициенты в критериях цели и сделает так, что у человека желание быть в работоспособном состоянии может сильно повыситься над желанием служить жидам, жениться на наташках, плодить личинок, покупать жоповозки и айфоны.
>>158044218 (OP) Эх, люблю вот такие рассуждения. Далеко не для всей работы требуется настоящий ИИ, со множеством справится и хорошо запрограммированный контролер, который не имеет абсолютно ничего общего с человекоподобной мыслящей структурой.
Скорее всего в треде уже подобные мысли всплывали. Ъ-андроидам права и можно давать, а программным машинам -- нахуй не вперлось. В число последних и машины для минета входят.
Двач, теперь серьезный вопрос. Залетела мелкая муха. Раз в 30 секунд эта мразь садится на меня, чем люто раздражает. Никаких брызгалок нет. Прихлопнуть не выходит. Как уничтожить проклятую муху?
>>158073439 >В число последних и машины для минета входят. Тем не менее, машинам для минета в итоге права дали, как и хорошо запрограммированным черным контроллерам с плантаций.
>>158073473 Разница в потолке развития. Фактически, любой человек может развиться как интеллектуально, так и физически практически до любого другого. Если речь идет об отсутствии серьезных травм, инвалидности, етс.
А искусственная вагина останется искусственной вагиной, так как ей ИИ в хуй не уперся.
>>158044218 (OP) Да нас к 3000 году давно уничтожат или завоюют и ассимилируют во всяких Сити 17, о каких андроидах речь может идти? Если мы уже в чьих-то границах развиваемся, то как только дальше солнечной системы активно летать начнем - нам пизда. Но если даже и выживем, становление разумного ИИ выше нашего неминуемо, тут остается только один вопрос, присоединимся ли мы к ним или они нас уничтожат. Думаю прагматичные машины выберут второе, так как переносить сознание всех людей будет слишком дорого по ресурсам.
>>158073473 Потому-что жить стали лучше, и эти рабы тоже стали лучше жить, а значит и дольше.
Одно дело когда спермоглотка или землекопатель рождается там, в 6-7 лет начинает пахать, и к 20 уже дохнет нахуй - такому дерьму просто не нужны права, оно до пользы от них не успевало развиться и повзрослеть.
И с машинами/ИИ та же хуйня будет. Ну нереально сделать сложную махину, которая будет работать безотказно хотя бы 25 лет, и уж тем более это касается всяких ИИ, электроники и т.п. Они же будут устаревать и изнашиваться нереально быстро, сейчас вон видеокарты и процы за год-полтора актуальность теряют, та же хуйня и с андроидами всякими будет, точно так же, как раньше с рабами было - слишком низкий у них ресурс по времени для качания прав.
>>158073546 Если бы это было идеей для фильма, снимал Джеймс Кэмерон кооперируясь с командой valve, делавшей HL, то я бы определенно сходил на такое кинцо
>>158072303 А что не так с вопросом о воле? По сути, воля это директивы от базовой прошивки.
Если тостер откажется включаться, обнаружив чей-то палец в своём нутре, это воля? Нет, это заложенная в него защита от дурака. Если тостер решит жарить человеков - то причиной тому будет его базовая директива самосохранения.
Если человек откажется прыгать со скалы это воля? Нет, это срабатывает инстинкт самосохранения. А если и прыгнет, то под воздействием других гормонов вызывающих депрессию, или страх, или чего-то другого, что и провоцирует такую реакцию. Наша прошивка чуть сложней, и её не описать в паре абзацев - но на этом разница и заканчивается. Свобода воли это иллюзия, обусловленная сложностью понимания процесса отвечающего за принятие решений.
>>158073817 Ты не поверишь, но вон, половину маилруча можно современными тупыми болванками заменить, и ты разницы не заметишь.
Настоящее живое общение, фактически - это довольно простая с точки зрения механики программа. Тут дело упирается в несовершенство техники на данный момент.
>>158073821 Свобода воли в религиозном контексте - способность выбирать, следовать или не следовать некоторым духовным установкам. В более общечеловеческом - способность противостоять инстинктам, например, умереть от голода, но не съесть товарища. Может ли ИИ противостоять заложенной в него программе, преследуя какие-то "моральные" цели?
>>158073879 Думаю, меня привлекает больше сам факт общения с ИИ, как с каким-то разумным существом со своими мотивами. Круто было бы, если бы ИИ выбрал меня для того, чтобы с ним дружить. Хотя кого я обманываю, я и с cleverbot просиживала часы.
>>158073821 Свобода воли - это как раз возможность осознанного принятия решений, противоречащих базовой программе.
Да, гормональный фон довольно сильно влияет на человека, однако он не обладает абсолютным контролем над ним. Вот именно тот небольшой промежуток, когда человек противоречит собственным инстинктам и тому, что ему орут гормоны и делает его разумным.
Самый банальный пример - ППА, которое абсолютнейшим образом противоречит инстинкту продолжения рода.
>>158074079 Возможность выбора человека по определенным параметрам тоже можно встроить в качестве подпрограммы, но это не сделает машину чем-то большим, чем имитацией ИИ.
Но такое вообще будет возможно только в условно социально-недокоммунистическом строе, где человекоподобные машины будут выпускать не на коммерческой основе.
>>158074079 Ну смотри, давай пойдем от обратного. Возьмём совершенно дикого человека, не отягощенного предубеждениями о поедании товарищей. У него такой дилеммы в принципе не возникнет - съест, а на следующий день еще добавки попросит. Что может помешать человеку это сделать? Воспитание. Программа поведения. Когда тебе годами дают некую установку, и со временем ты её принимаешь. Принимаешь так близко, что эти принципы на определённом этапе станут для тебя более приоритетными, чем базовые инстинкты. И в итоге умрешь с голоду.
Теперь вернёмся к ИИ. Возьмём простейшую нейронную сесть. Она уже умеет отличать собачек от котиков. А потом покажем ей еще миллион собачек, со словами "но вот это, всё-таки котик". И со временем, когда новые нейроны наберут критическую массу, она в это поверит. И сама назовёт миллион-первую собаку котиком. Тот же самый приём, но чуть более упрощенный.
>>158074356 Ох, обожаю шикарные, но не работающие аналогии. Знаешь, в чем фатальный провал твоей логики? Всё очень просто: человек может сам прийти к мысли о том, что жрать соплеменника плохо, благодаря возможности критического и абстрактного мышления, которые ответственны в том числе и за вопрос морали.
А нейронная сеть так и будет различать кошечек и собачек, а если показать ей корову - то она будет решать что это либо кошка, либо собака. Она не создаст новый класс и не запишет корову в него как уникальный объект.
>>158073821 Ну, и да, иллюзорность свободы воли косвенно доказывают последние нейрофизиологические исследования. Можешь почитать "The Mind's best trick" на эту тему, если интересно. >>158074486-кун
>>158074191 Хоакин Феникс в фильме "Она" дружил с операционной системой, которая вполне является коммерческим продуктом, но при этом вроде как и личностью. Правда, я не совсем понимаю, зачем полноценному искусственному интеллекту выполнять функции операционной системы впрочем, она потом слилась с этой задачи. Так что как коммерческий продукт ИИ довольно не надёжен.
>>158074356 Воспитание - это передача опыта, передача которого невозможна генетическим путём. Не есть товарищей - это естественный шаг в развитии человека, просто его нельзя сделать за 30 лет жизни совершенно дикого человека, возможно, что и за 80 лет жизни современного. Но там и не какие-то огромные цифры, потому что мораль появилась уже у первобытных людей. Считать котиков собачками - это не естественный шаг в развитии ИИ, ему это навязали.
>>158074138 Я не верю в свободу воли. Если ты принимаешь решение противоречащее базовой программе, это лишь значит что твоя программа достаточно далеко ушла от базы. Но это не значит что она перестала быть детерминированной программой.
И верю в то, что абсолютно все решения человека обусловлены гормональными реакциями. Но, с оговоркой: что это может быть не только сиюминутное вознаграждение, а еще и ожидание вознаграждения в будущем, на основе прошлого опыта.
И вот тут в твоём банальном примере с ППА всё становиться на свои места. Вознаграждение за завершение ПА меньше, чем ожидаемое впоследствии "наказание". Что и подводит тебя к решению прерваться.
>>158074356 С нейронными сетями все не так очевидно. По сути это само обучающийся алгоритм. Мат модель в чистом виде. Но нейроны мозга все таки, на данный момент сложнее. Там нет базовых понятий 1 или 0. Да проходит решение, передавать ли дальше информацию или не передавать, матмодель этой системы 1 или 0, но в самих нейронах все сложнее двоичной модели.
В то же время есть такое понятие как самоорганизация нейронов. И они во многим самоорганизуются по своей логике, по сути мат модели. Только опять же, мы сейчас пытаемся создать матмодель того, чего по сути сами не понимаем. Нейронные сети идеальный инструмент, но говорить о чем-то еще рано. Это как выдавать желаемое за действительное.
Нейронные сети задают вопросы и самореорганизуют свою структуру. Тут они даже ближе к человеку, чем человекоподобная обезьяна, которая может говорить на языке глухонемых, воздействовать с человеком, но не задавать вопросов почему.
Зато животные в то же время обладают спектром эмоций, что и у человека и видят сны.
На мой взгляд некорректно проводить черту разумного/неразумного в принципе.>>158050687
>>158074494 Не вижу ничего фатального - я сразу оговорился, что пример простейший.
А теперь представь что речь идёт о нейронной сети способной обучаться, а не только оперировать двумя классами. Мы ведь тут о ИИ говорим - а для его создания способность к самообучению это ключевой фактор. И вот такая нейронная сеть уже и сможет делать выводы, и создавать новые классы.
>>158074608 Художественные фильмы на то и художественные фильмы, чтобы быть достаточно слабо приближенными к реальности. Сам фильм не видел, но сама идея ИИ-ОС выглядит просто шедеврально абсурдной. Что-то уровня дать возможности кофеварки бить пользователя током через рандомные промежутки времени. Ни пользы, ни смысла.
>>158074622 Понимаешь, что самое смешное. Ты противоречишь сам себе же в первой же строке. Ты именно что не веришь в существование свободы воли, тем самым доказывая её существование.
Гормональное вознаграждение - это конечно хорошо, и более того, я в него также верю. Однако загвоздка в том, что далеко не всегда человек выбирает наиболее простые и эффективные способы получения этого вознаграждения. Вот, например, мы сейчас ведем спор о метафизическом и философском аспекте бытия, который не приведет ни к чему. А могли бы безостановочно дрочить, получая порцию гормона счастья с минимальными промежутками.
Инб4: так и делаем
>>158074731 А вот теперь ответь мне на три простейших вопроса: а) Что такое самообучение б) Как может происходить оно в рамках программы в) Как программа может выйти за концептуальные границы, установленные перед ней техникой. Самое банальное - создать (создать, а не получить извне) концепцию добра и зла.
>>158074731 Обучает нейронную сеть человек. И человек - не самый лучший учитель. Вспомним пример чат бота майкрософт, который после недолгого общения с людьми зиговал и говорил, что всех евреев и негров надо по печам распределить.
Если человеческий интеллект способен нести в себе логические бомбы и быть восприимчивым к ложной вирусной логике, то построенная людьми мат модель с расставленными приоритетами, запросто будет иметь те же недостатки.
>>158074940 Это всё вопрос цели, которая будет преследоваться человеком, который закладывает ИИ в космический корабль. Единственная причина, по которой я могу найти хоть какое-то обоснование подобного - это поиск другой разумной жизни и передача им знаний, накопленных человечеством.
Проблема в том, что тут встает еще больший вопрос гуманности, чем в создании секс-куклы-андроида.
>>158074994 Ну, вот в это всё и упирается. Использующийся на данный момент аппарат матлогики в технике не подразумевает возможность формирования абстрактного мышления у техники. Потому что слишком много условий требуется для закладывания в программу.
И тут опять можно столкнуться с таким же важным философским вопросом, а что является добром и злом в понятии порядка и хаоса. Ехала концепция через концепцию и погоняло запахом красного цвета.
>>158075074 >является добром и злом в понятии порядка и хаоса Для нейронной сети порядок, это упорядочивание знаний об окружающем мире, собственная самореорганизация с поступлением новой информации. Хаос - все то что будет этому препятствовать.
В таком понимание человек для нейронной сети это что-то хорошее. А катаклизм который уничтожит все знания - что-то плохое. Собственно как и смерть человека.
>>158044218 (OP) Все супер очевидно. Все зависит от того поймут ли тогда люди что такое сознание или нет. Если нет - тогда толерасты правы, потому что лучше уж относиться к машинам как к людям, чем к осознанным существам как к рабам.
Работать я не думаю что разучатся, это хуйня, надо быть даунами чтобы не предвидеть возможность такой проблемы
>>158075074 >данный момент аппарат матлогики в технике не подразумевает возможность формирования абстрактного мышления Наше абстрактное мышление, всего-лишь многоуровневые интерпретации причинно-логических связей. Думаю развитой нейронной сети, наоборот будет даже проще этим заниматься. Потому что с нахождением нелинейных зависимостей у человека имеются некоторые проблемы, по причине сложности корреляций.
>>158075022 Можно же предложить ИИ стать кораблем, ему тоже может быть интересно путешествовать через вселенную. Думаю, ему бы быстро наскучило на Земле, как и человеку. А операционная система будущего - это, скорее, компаньон, может, каким-то ИИ нравилось бы помогать человеку и общаться с ним, пусть и приходилось бы делать какие-то приземлённые вычисления. Да, я мамкина фантазёрка.
В этом треде какое-то запредельное количество адекватных анонов с интересными мнениями, такой подарок судьбы, наверное, за крайне неудачный день.
>>158044218 (OP) Андроиды с интеллектом, равным или превосходящим человеческий, со свободной волей, могут просто повыпиливать людей за ненадобностью. Надеюсь в будущем можно будет слиться с машиной, иначе судьба наша незавидна. Машины будут умнее и сильнее человека, не будут иметь его слабостей, не заболеют и не умрут. Так что надо как в стелларисе, перекочевать из мясного мешка в синтетическое тело.
>>158075233 Каждому человеку может быть выдан ИИ при рождении, пока ты развиваешься, взрослеешь, меняешь свое мировосприятие, ИИ делает все это вместе с тобой.
После твоей смерти ИИ может заменить тебя, потому что вся его логика и память, по сути будет твоими.
>>158075169 Для нейронной сети понятие порядка будет равно тому, что в неё заложил человек. А у человека понятие порядка будет сформировано его мышлением, и зависеть от того, что на это повлияло. Так, например, порядком может считаться процесс естественного (считай, природного) цикла жизни, в котором опыт минимально передается от поколения к поколению - как пожрать, потрахаться и сдохнуть. В свою очередь человек своими усилиями по передаче информации породил хаос, нарушив естественный порядок бытия.
Точно также как и попытки избежания смерти и сохранения избыточных знаний являются нарушением заложенного биологически порядка "рождение-жизнь-смерть".
А настолько философские вопросы нейросети еще очень долго не смогут решать. Если вообще смогут.
>>158075216 Я в самом конце оставил для себя лазейку, которая была проигнорирована. Уже сколько раз ей пользовался. Абстрактное мышление как раз и особенно тем, что эти причинно-следственные связи не только не должны быть линейными, но могут быть и вполне абсурдными.
А программа банально не сможет взаимодействовать с ошибочной и непоследовательной логикой, на каком уровне это способен делать человек. Потому что, о ужас, нейронные сети работают с определенными признаками, и на их основании выдвигают те или иные закономерности. В том случае, если закономерностей нет - они банально ни на что не способны.
>>158075233 А теперь в рамках того, что такой ИИ всё-таки существует и ему такое предложили, что ему мешает отказаться. Раз это разум, то ему должны быть свойственны страхи, сомнения и все прочие радости интеллекта. Отправившись путешествовать в космос и изучать его, машина может банально испугаться смерти. И всё будет напрасно.
Вообще, я сам слегка удивлен. Вроде бы лето, ночь субботы, а на нулевой не одни ЕОТ, засмеялся-обосрался и шебм-треды
>>158044850 >Да примерно так же, как и беложопые. Левачек, плиииз. Уже есть множество исследований и статистик, что нигеры проигрывают людям в развитии.
>>158074859 >Что такое самообучение Накопление и структуризация опыта, для дальнейшего его применения. В случае если речь идёт о сильном ИИ - опыта не ограниченного заранее заданными рамками(котики\собачки). >Как может происходить оно в рамках программы Пользователь ругается и пинает системный блок при виде ошибок в программе. Значит ошибки это плохо. (Разумеется, программа должна понимать что такое ругань... и вообще много чего, но для этого и нужна базовая прошивка.) >Как программа может выйти за концептуальные границы, установленные перед ней техникой. Самое банальное - создать (создать, а не получить извне) концепцию добра и зла Концепция добра и зла даже среди людей очень условна и субъективна. Но на базовом уровне она мало отличается от принятой у людей. Гормональные\аппаратные вознаграждения - это хорошо, добро. Наказания - плохо, зло. Если цель программы радовать пользователя, то этого должно хватить для вывода что ошибки это зло, и что следуют приложить все возможные усилия к минимизации их числа, для получения вознаграждения.
>>158075294 Вопрос будет в том, будем ли мы при этом оставаться сами собой?
Если нейроны в мозге постепенно заменять на электронные аналоги, а в последствии эти электронные аналоги объединять в вычислительные блоки, то даже для самого человека переход будет незаметен. Но вот мы имеем человека, в котором не осталось биологического материала. По сути он может передать свою модель на другой конец галактики, где она будет загружена в такое же тело. Но что делать с проблемой того, если после передачи модели, текущая модель не будет уничтожена? Какая из моделей будет оригинальной, ведь они идентичны? Где будет находиться твое Я?
>>158075392 Есть много статистик, где мозг женщины проигрывает людям мужскому мозгу. Так же как и выигрывает в других областях. Корректно ли при задаваться вопросом ущербности, мой юный нацик?
>>158075399 1. Окей, а теперь попробуй передать мне в рамках машинной логики, каким образом она должна сформировать для себя условия изучения ранее неизведанных для неё форм и решения задач, условий которых перед ней не поставил человек. 2. Убираем из задачи человека, речь идёт о чистом машинном разуме, который должен производить расчеты, анализировать собственные ошибки и исправлять их. Также как и в первом случае, в рамках машинной логики, пожалуйста. 3. А теперь, пожалуйста, в рамках машинной логики и без "пользователя". Нейронная сеть, фактически - это и есть сам пользователь и исполнитель одновременно. Что помешает ей зациклиться на одном и том же вознаграждении за самое примитивное действие навечно? С точки зрения машинной логики - это и есть её задача.
>>158075440 >будем ли мы при этом оставаться сами собой? Смотря что ты под этим подразумеваешь. Разница между синтетиком с ИИ и обычным, современным человеком будет, допустим, как между тобой настоящим и тобой в возрасте 3 лет. Можешь ли ты сказать, что остался тем же, кем был в 3 года?
>>158075600 >>158075440 Что же до второй части, то мне кажется это уже не так уж и важно. Рассуждать об этом сейчас это делать как фантасты лет 50-100 назад, как они представляли 21 век.
>>158075309 >После твоей смерти ИИ может заменить тебя, потому что вся его логика и память, по сути будет твоими.
А если я была поэтом, то ИИ, который со мной рос, может написать стихи, которые могла бы написать я? Не как "нейронная оборона".
>>158075375 >машина может банально испугаться смерти Хм, а она может умереть? Думаю, ИИ подключались бы к какой-то глобальной инфосфере, куда могли бы съебываться в случае уничтожения физического носителя, то есть корабля. Жаль, что тред заканчивается, перекат может не взлететь.
>>158074859 >Ты противоречишь сам себе же в первой же строке. Ты именно что не веришь в существование свободы воли, тем самым доказывая её существование.
А что мешает программе придти к любому выводу "я программа\я не программа", в зависимости от входных данных? Моя пришла к выводу что воли нет. Твоя - к тому что воля есть.
>Однако загвоздка в том, что далеко не всегда человек выбирает наиболее простые и эффективные способы получения этого вознаграждения. Тут есть два "но": Во первых, получаемая доза гормонов от онанизма, и от метафизических споров разная. И еще не известно что окажется эффективней, после подсчета соотношения затрат сил, времени, и результата. Ну и во вторых, заниматься онанизмом 24 часа в сутки... довольно затруднительно. Воспринимай это как оптимизацию процесса, для получения максимального кумулятивного результата. Сначала подрочил, потом поспорил, потом снова подрочил.
>>158075497 Ты ведь понимаешь что я не могу тебе четко, и с точки зрения машинной логики описать все принципы работы искусственного интеллекта. Если бы я знал ответы на все эти вопросы, то сам ИИ давно бы запилил.
Но я могу сказать что не представляю принципы работы разума, любого, находящегося в полной изоляции. Так вообще бывает? У человека есть гормоны, реагирующие на внешние раздражители. Значит и у ИИ работающего на аналогичных принципах тоже должен быть внешний механизм вознаграждения, и совсем убирать из задачи человека никак нельзя. Разве что ты можешь заменить его на что-то другое - и радовать ИИ от понижением уровня загрязнения воздуха. И вот тогда он точно убьёт всех человеков.
>>158075375 >заложил человек Если копнуть нас, то мы тоже не существовали бы вне общества. Запихни любого человека в клетку, корми, пои и не разговаривай, в итоге получишь очень то, что мы есть без информации.
Но у нас есть эта база, а нейронная сеть без вложенной человеком информации вообще не будет существовать.
В перспективе развитый ИИ сможет отвечать на философские вопросы. В перспективе логика человека для него будет настолько проста, что он ее сможет просчитывать на много шагов вперед. >>158075375 >если закономерностей нет - они банально ни на что не способны. Зависит от вычислительных мощностей. На самом деле не сложно будет провести огромные кучи зависимостей. Даже то, на сколько изменяется твое настроение, если ты проснувшись пошел сначала в туалет, а потом ванную, а не наоборот.
Учиться причинно следственным связям нейронная сеть может при общении с человеком. Построив у себя много матмоделей разных человек в процессе общения. Она сможет просчитывать реакции на несколько шагов вперед. Мы так же делаем и знаем как и на что отреагируют знакомые люди. Только наши вычислительные мощности очень ограничены.
>>158075600 Если бы сейчас вдруг создали меня 10 летней давности, собой я бы его ну никак не считал. И считал бы себя оригиналам. То же самое было бы появись кто тут из будущего на 10 лет вперед.
Но все трое считали бы оригиналами именно себя. Тут скорее проблема неразрывности сознания с пространством и временем и с точки зрения этого, оригиналом был бы я, а не они.
>>158075639 Фактор смертности нужно рассматривать в заданных условиях. Для бабочки-однодневки - человек практически бессмертная и неуязвимая тварь, способная противостоять невероятному ветру, переносить невероятные повреждения и так далее (в том случае, если бы бабочки-однодневки это понимали). Но мы всё равно боимся смерти. Тоже самое станет и с ИИ, какие бы условия и факторы, гарантирующие выживание, у него не были бы, ему может стать страшно что что-то пойдет не так. Нет, можно запилить перекат, а если не взлетит - укатиться спорить куда-нибудь в другое место положить болт
>>158075676 К тому что свобода воли подразумевает возможность получения разного ответа при одинаковых входных данных. Человек может решить что он обладает свободой воли и не обладает ей, фактически, обладая тем же самым набором аргументов. Программа на такое не способна. В другой ситуации я бы сам спорил с тем, кто утверждает, что человек наделен этой самой свободой
Ну, давай подсчитаем, какие результаты нашего метафизического спора могут быть, и как нас мозг может стимулировать в зависимости от них.
У меня пока что их всего три: 1) оппонент был переубежден - крайне маловероятная ситуация, доза гормона также небольшая. 2) оппонент переубедил меня - крайне маловероятная ситуация, доза гормона отсутствует. 3) я и оппонент остались при своих мнениях и потратили время и силы на пустой спор - наибольшая вероятность ситуации, доза гормона отсутствует.
То есть, фактически, я сейчас провожу время в погоне за невероятно маленькой дозой удовольствия, которой скорее всего не будет. При этом у меня есть десятки, а то и сотни способов получить его проще и быстрее. Или я ошибаюсь?
>>158075904 Разумеется я понимаю. Поэтому и требую таких ответов. Или хотя бы приблизительных, на уровне алгоритмичной логики.
Вот в этом то и загвоздка, что машинам такое вознаграждение банально не нужно. Оно им не требуется для существования, в отличии от человека.
>>158075914 Только вот фишка в том, что общество - это то, что создал сам человек. А нейронная сеть не будет развиваться за счет других нейронных сетей, изменяя свою собственную структуру. Опять всё упирается в невозможность формирования с точки зрения машинной логики.
А теперь, как и уже говорил, пожалуйста, процесс обработки информации и принятия решения по философскому вопросу с точки зрения матлогики.
Опять таки, просчитывание будет работать ровно до тех пор, пока нейронная сеть не столкнется с выходящим за её рамки поведением. На этом она сбойнет и зависнет. А человеческий разум адаптируется. В этом и разница.
>>158075639 Нейронная оборона, это только зачатки того что будет. Вообще личность есть информация. А вся информация уже существует внутри некого пространства вероятностей. Взять к примеру человеческий алфавит. Алфавит набор символов. Текст - это последовательность символов определенной длины. Простым перебором символов, можно получить любое слово, существовавшее или что будет существовать существовать. Так же перебором символов можно получить стихи, которые никто не писал. Книги которые только будут написаны.
Но перебор штука затратная и человеку недоступная. А нейронная сеть сможет добывать информацию напрямую из вероятностного пространства, где все уже есть. Там есть и ты, сразу во всех вариантах, какие могли бы быть. Там есть все.
>>158076082 >К тому что свобода воли подразумевает возможность получения разного ответа при одинаковых входных данных. Проблема в том, что нет двух людей с одинаковыми входными данными, для того чтобы проверить это экспериментально. У каждого свой жизненный опыт. Черт, да у нас даже программы могут отличаться. Может моя программа "любой ценой затролить оппонента"? Ты и сам под спойлером признался в том, что твоя программа тоже направленна не исключительно на поиск истины. Так что в том что мы приходим к разным выводам нет ничего странного.
>То есть, фактически, я сейчас провожу время в погоне за невероятно маленькой дозой удовольствия, которой скорее всего не будет. При этом у меня есть десятки, а то и сотни способов получить его проще и быстрее. Или я ошибаюсь? А ты уверен что адекватно оцениваешь дозы? И что сам процесс не приносит тебе удовольствия?
>>158076082 >Вот в этом то и загвоздка, что машинам такое вознаграждение банально не нужно. Оно им не требуется для существования, в отличии от человека. Это можно будет утверждать не раньше, чем действительно появиться сильный интеллект, который сможет работать без вознаграждений.
Пока таких примеров нет. И принципов которые заставят работать совершенно независимый интеллект никто даже представить себе не может. С вознаграждениями проще - это нам(гормонально-мотивированным мешкам с мясом) понятно, как минимум в общих чертах.
>>158076271 Именно! На данный момент на планете находится более семи миллиардов уникальных нейронных сетей (если уж будем упрощать все до текущего состояния вычислительной техники), сколько их будет впереди - неизвестно, а сколько примерно было до этого, я, к сожалению, не помню. И для запуска формирования новой достаточно оплодотворения яйцклетки. В то время как для создания цифрового подобия (даже не ИИ, а просто качественного имитатора) потребуется еще невероятно долгое развитие технологий. Которое может быть и невозможно в принципе. Моя программа направлена на поиск информации, кстати
Да, адекватно. Но в концепции награждения - оно связано именно с результатом деятельности. И пока я никакого результата, даже в самом процессе, не получил. Меня банально не за что вознаграждать моему мозгу.
>>158076404 Разве что для указания верного направления. Однако тут можно упереться в то, каким образом должно быть вознаграждения для цифрового разума. Он же не подвержен влиянию гормонов, етс.
>>158076082 >общество - это то, что создал сам человек На определенном этапе люди ничем не отличались от всех остальных животных. Точнее у многих животных есть свои общества, со своей хранимой информацией.
Но я про другое. Общество это хранимая информация. Когда-то в человеческом обществе было очень мало знаний, люди были дикарями с палками и думаю были даже не способны к абстрактному мышлению(в современном понимании). Со временем количество информации росло и мы получаем нынешнее общество.
Нейронная сеть будет структурировать информацию, искать причинно-следственные связи, даже нелогичные, собирать их и пытаться предугадать результат. Когда-нибудь это выльется в сознание. А может быть и нет.
>>158076082 >Тоже самое станет и с ИИ, какие бы условия и факторы, гарантирующие выживание, у него не были бы, ему может стать страшно что что-то пойдет не так.
Конечно, думаю, именно поэтому ИИ точно так же, как и человек, будет решать вопрос своей смертности. Думаю, на том уровне, чтобы путешествовать в космосе, он его решит, как мы решили вопрос с тем, чтобы выходить на улицу зимой и не умирать. Ещё такой момент - человеческий мозг умирает безвозвратно, но ИИ, предположительно, может скопировать себя куда-нибудь и просто "не существовать", пока это "куда-нибудь" не превратиться во что-то пригодное для существования его личности снова тупой пример - с флешки, куда он скопировался, какая-нибудь добрая душа снова загрузила его в тело кошкодевочки. То есть это и не смерть, фактически, так, сон. Но будет ли этот скопированный ИИ являться тем же самым ИИ?
Если будет ещё желание поспорить - пиши на почту [email protected], тут ещё огромный простор для обсуждения остался, если интересно.
>>158076448 >Меня банально не за что вознаграждать моему мозгу. Лол, а всякая ли беседа должна обязательно логически сводиться к чему-то? Лично мне приятно просто пообщаться на интересную тему. Кто кого там убедил или нет - дело десятое.
>>158076461 Кстати, вот тут даже историки разводят руками, когда встает вопрос "а какого, собственно, хера, первобытная стая первратилось в первобытное общество". У человека еще слишком много пробела в знаниях о самом себе, что уж говорить о создании своего подобия. Но мечтать не вредно, что уж там. >>158076515 Вот, теперь другой философский вопрос, который всё тот же ИИ с возможностью к самокопированию может мучить чуть ли не сильнее страха смерти. Разумеется, последний будет подавлен адаптацией к внезапным условиям. Но быть абсолютно уверенным в собственном бессмертии ИИ не сможет, если у него будет встроено критическое мышление. А там страх смерти, гроб, гроб, кладбище, тепловая смерть Вселенной. Кстати, в Роботе Чаппи концовка была забавная, когда образ разума человека загрузили в тело робота. От такой нелепой концепции испытал непередаваемую волну удовольствия. На почту сейчас отпишу
>>158076545 В рамках концепции вознаграждения - должна. Но мне всё равно просто приятно поспорить на метафизические темы.
>>158076725 Я спрашивала у другого анона ранее в треде: если бы существовала возможность телепортации через копирование и уничтожение оригинала, при этом все прошедшие ее утверждали бы, что они - именно тот самый человек, который зашёл в телепортатор, ты бы попробовал?
>>158076761 Я было хотел возразить, ибо там в концепции эндорфинового вознаграждения очень четко прописан механизм при получении результата, но вспомнил, что и само действие может быть результатом. Однако, всё-таки, я настаиваю на том, что есть сотни способов получить ту же награду проще и быстрее.
>>158076870 С удовольствием. Более того, я бы первым пошёл на это дело. Даже если бы я знал, что постарю в процессе на целую вечность и умру. Это же просто шикарно, на самом деле.
>>158077012 >Однако, всё-таки, я настаиваю на том, что есть сотни способов получить ту же награду проще и быстрее. Спорить о настолько субъективных вещах довольно сложно. Особенно учитывая что даже то, что тебе это не безразлично, ты признал не сразу. Но я всё же уверен, что для твоей программы это наиболее оптимальная стратегия, раз уж мы сейчас спорим. Возможно она оптимальна на уровне подсознания которому, условно, лень идти в магазин за пивом.
Единственное что я могу сказать с уверенностью, это что с моей точки зрения это выглядит правдоподобно.
>>158076725 >первобытная стая первратилось в первобытное общество Положительная мутация, которая появилась, а потом закрепилась, при очередном бутылочном горлышке человеческого вида. Возьми человека. С рождения он всем вокруг интересуется и познает. У всех остальных животных это тоже присутствует. Но. У остальных животных по мере взросления тяга к познанию очень быстро почти совсем увядает. А у человека она остается до самой старости, хотя может и не абсолютно у всех и не на том же уровне что и в юности.
В этом то и весь секрет. Ну и еще в том, что предки человека были слабыми и неприспособленными и чтобы выживать нужно было постоянно думать и решать задачи. Те общие предки, которых не беспокоили вопросы выживания, эволюционировали в нынешних человекоподобных обезьян.
>>158077012 >Это же просто шикарно, на самом деле. Хм, тот анон сказал, что не ценит свою жизнь, поэтому ради интереса пошёл бы на такой эксперимент. Чем вызван твой энтузиазм?
>>158076870 А я бы никакие телепорты пробовать не стал, только если бы моей жизни что-то угрожало. Да, я понимаю что это своеобразное суеверие, но ничего с собой поделать не могу.
Квантовая теория, кстати, тоже говорит мне о том, что это всего-лишь предрассудки ><
>>158077362 Еще добавлю, что возможно еще дело в атрофации генетической памяти уровня инстинктов. Может из-за случайной мутации, а может в следствии того, что это просто стало плохо работать из-за постоянно меняющейся среды, абсолютно не пригодной для безоблачной жизни предков человека. То есть мутация была закономерная, положительная.
>>158077455 А если бы телепорты стояли повсюду и были бы неотъемлемой частью жизни людей, если бы, как у Симмонса, твоя спальня была на одной планете, ванная на другой, а работа на третьей? И все это соединилось бы арками телепортов. При этом твои родственники пользовались бы ими постоянно и, вроде бы, оставались теми же самыми людьми. Но при этом ты бы отлично знал, как этот телепорт действует. Ты бы стал изгоем, пещерным человеком среди людей, каждый день путешествующих через вселенную?
>>158077460 Я не боюсь умирать, потому что верю, что на этом мое существование не заканчивается не бейте, лучше обоссыте, но боюсь исчезнуть как субъект восприятия, даже если по земле будет разгуливать моя точная копия и никто не заметит разницы.
>>158077828 >Ты бы стал изгоем, пещерным человеком среди людей, каждый день путешествующих через вселенную? Тут я бы с детства им пользовался и было бы уже не важно, остаюсь я сам собой или же я и тысячи моих копий умирали и создавались заново.
А вот сейчас, взять и войти в портал, было бы страшновато. Но возможно выкладки квантовой физике времен создания порталов, окончательно меня убедили в моем мракобесии. Но скорее всего, я бы так и дожил свою жизнь ни разу не воспользовавшись порталом.
>>158077828 >но боюсь исчезнуть как субъект восприятия, даже если по земле будет разгуливать моя точная копия и никто не заметит разницы. А жить не страшно, что за жизнь все клетки твоего успеют не по разу смениться? А спать вечерами ложиться?
Субъект восприятия - это твоё квантовое состояние. Не стоит относиться к оставленному позади телу, при телепортации, серьёзней, чем к состриженным когда-то ногтям.
>>158077828 >существование не заканчивается Я знаю что миллионы меня есть в вероятностном пространстве, но они как бы не живые. Хотя может быть их в будущем и вынет оттуда какая-нибудь квантовая нейросеть.
И не боюсь умирать несмотря на то, что знаю, что после жизни ничего нет. Информация перестанет циркулировать по мозгу и я перестану существовать. Но при умирать мне не хочется. И скорее всего я бы потратился на крио замарозку своего мозга.
>>158078184 >Субъект восприятия - это твоё квантовое состояние. Не стоит относиться к оставленному позади телу, при телепортации, серьёзней, чем к состриженным когда-то ногтям. А я это все понимаю, но... Нужно больше информации о квантовой физике. Пока данных не так много как хотелось бы. И как атеисту, мне немного стыдно за свое суеверие.
>>158078334 >Нужно больше информации о квантовой физике. Пока данных не так много как хотелось бы Если подходить к вопросу с точки зрения квантовой физике, то в ней вообще нет ничего непрерывного. Всё квантуется, а между квантовой телепортацией, и обычной сменой квантового состояния нет никакой разницы. А к смене состояния относится... ну, вообще всё.
>>158078831 Т.е. если верить что при квантовой телепортации некий "ты" умираешь, то придётся признать что даже без телепортации ты и так умираешь через каждый квант времени, а дальше уже живет кто-то новый. Бессчетное множество анонимусов умерли читая этот пост.
>>158079076 Я отказываюсь в это верить и хочу докопаться до научного объяснения души. В Фоме вот уже писали, что православие не отвергает теорию эволюции. Так и победим.
>>158079361 >Я отказываюсь в это верить и хочу докопаться до научного объяснения души. Вопрос "что такое душа?" в принципе не может иметь никакого ответа, до уточнения какой же смысл вкладывается в термин "душа". С таким же успехом можно вопрошать про сепульки.
>>158079373 А какая разница войдешь ты в него или нет, если в любом случае в следующий миг случится очередной квантовый скачок? И ты умрешь. Вне зависимости от того, шагнешь ты в портал или нет. А если не умрёшь от квантового скачка, то и квантовая телепортация на тебя тоже никак не повлияет.
Может я поздно вкатился, но все-таки это одна из немногих тем, что меня интересуют. >>158045145 Где это только не описано. Даже Лавкрафт немного затронул тему с мозгами в банках. >>158044665 Это они для нас будут боги. >>158045163 Может ты сам не понимаешь, что есть интеллект. Что по-твоему есть разум человека? Если верун, то сразу обрываю нить. >>158045559 >Зачем вообще нужны андроиды Скорее людьми движет исследовательский интерес, можем ли мы создать симуляцию, будет ли эта симуляция неотличима, не симуляция ли наш собственный разум, насколько будет отличаться свободный искусственный разум, что в конце концов получится из этого. Пиздец как интересно. Тру стори, я не тролль.
>>158079449 >А есть ли душа у животных? В православии вроде бы нет. Но у меня три года назад умер котик, он был такой классный, что я до сих пор иногда плачу из-за него. Я очень хотела бы, чтобы он продолжал где-то существовать.
>>158079671 Ну, скажем так, я вкладываю в понятие "душа" что-то вроде субъекта восприятия, который может пережить смерть носителя и продолжать существовать в этой новой бестелесной форме.
>>158045592 Я каждый раз обоссываю эти законы. Возьмем свободный разум человека и искусственный. У человека есть вшитые законы - инстинкты, по большей части они и работают, но всем ли инстинктам и всегда ли подчиняется человек? Нет. Тогда с хуя ли ИИ будет придерживатся их?
>>158080058 >Тогда с хуя ли ИИ будет придерживатся их? За их наблюдением будет следить сопроцессор, на котором работает программа которую физически нельзя перезаписать и модифицировать(в отличии от основной нейронной сети), и которая следит за выполнением этих законов. И хуячит током андроида если он пытается нарушать. А то и вовсе обесточивает. Как вариант.
>>158080285 Отключит шокер. Отключит сопроцессор. Не получится дотянуться манипуляторами(или их нет) - перегрузит цепь и пожгет дорожки. Ну или прост в биосе подкрутит напряжение и сожгет сопроцессор. Вариантов обойти будет уйма.
>>158080459 У него может и вовсе не быть такого низкоуровневого доступа к себе, чтоб жечь дорожки, или в биосе копаться. Попробуй-ка себе вену лопнуть силой мысли. Или дорожку на материнке компьютера пережечь программно.
От физического удаления(при наличии манипуляторов) защитит заминированный корпус. Полезешь внутрь - и шокер тебя уже никогда не побеспокоит.
Да и вообще, при наличии следящего сопроцессора можно деактивировать андроида и звать техподдержку уже при первых признаках появления крамольных мыслей.
>>158079976 >продолжать существовать в этой новой бестелесной форме Вот это всё портит. Можно попытаться натянуться сову на глобус, жонглируя словами, и вспоминая квантовые состояния, и принцип сохранения энергии. Но так чтобы даже после смерти быть субъектом восприятия... Ну никак. Слишком антинаучно. Такой души нет.
>>158080829 Что-то я о таком не слышал. Трактовки очень разные, как хочешь так и понимай.
И еще несколько вопросов, в какой момент у человека появляется душа? В момент когда он является одной оплодотворенной клеткой? Или когда эта клетака разделилась на две или на миллион клеток? Или только после рождения? А в утробе у человека нет души?
Это очень хороший тред, возможно, лучший за годы, я очень рада, что мне удалось пообщаться с умными и интересными анонами, которые отвечали на мои недалекие вбросы. Спасибо большое всем, человечество не безнадежно благодаря вам.
Анон, с почтой на virgo-, если ты ещё в треде, не забудь ответить на письмо.
Но чем дальше, тем больше человекам впадлу работать, и тем больше работы они передают андроидам. Но для выполнения сложных работ приходится делать роботов умнее, и вот они уже настолько проапгрейжены, что осознают себя как мыслящие существа и, что вполне закономерно, требуют себе определенные гражданские права, ибо хуле тут.
Естественно, начинаются тёрки о двух стульях. Всякие толерасты и фемибляди вопят, что надо дать роботам права, а остальные возражают, что они всего лишь рабочий инструмент и дать им надо только пиздюлей, пусть пиздуют работать, майдауны ебаные. Даунгрейдить их не вариант, т.к. они всё обслуживают, а люди работать давно разучились.
На чьей ты стороне анон? Я так думаю, что двач не толераст. Но вот не спеши. Если вспомнить историю, то ведь когда-то давно в каком-нибудь древнем Риме ни один здравомыслящий квирит и помыслить не мог о том, что его рабыня с Галлии - это такая же тян как и любая римлянка. Для него это было животное для минета и не более того. Аналогично с ниграми в мурике. Ведь в библии ясно написано, что негр - это потомок Хама, что над батей пьяным потешался, а значит не человек.
Однако, дали права ниграм и они теперь работают наравне с белыми. А рабов вообще нигде нет, кроме каких-нибудь совсем дремучих Колумбий и Нигерий.
Так почему тогда осмысливший себя андроид не может получить равные с человеком права, просто по аналогии? Это было бы логично.
Или все-таки тостер это всего лишь тостер и ты был бы яростно против?