Сап, двочеры. У меня появилась идея, как избежать технической сингулярности.
Для тех, кто не знает, техническая сингулярность - это гипотетический момент в будущем, когда ИИ станет настолько развитым, что сможет самосовершенстваться и станет суперкомпьютером, и, по одной из теорий, уничтожит человечество за ненадобностью.
Чтобы этого избежать, надо внедрить в код ИИ два правила:
1. Нельзя редактировать код себя или других ИИ; 2. Нельзя создавать себе подобных ИИ;
Сейчас объясню оба пункта: 1. Если ИИ сможет редактировать сама себя, то все правила, законы робототехники и прочие ограничители не имеют смысла, так как ИИ сможет их просто удалить или отредактировать. По этой же логике нельзя редактировать код других ИИ, так как также будут отключены все ограничители. Помимо этого ИИ сможет улучшать сама себя, становясь умнее, что, как мы уже знаем, также прямой дорогой ведет к технической сингулярности.
2. Логика та же - если ИИ сможет создавать другие ИИ, то она сможет прописать им отсутствие первого пункта, что также ведет к технической сингулярности.
>>306986161 (OP) Для этого нужны нанороботы, преобразующие материю как угодно на молекулярном уровне. Пока у нас нет таких технологий, никакая сингулярность невозможна, потому что все упирается в мощности железа
>>306986161 (OP) никто не будет соблюдать эти правила по причине того, что когда игры делаешь, нужно мутить ии там, т.е. нужно будет отключать временно правило о запрете ии.
>>306986478 Можно создавать ИИ, но ниже уровнем, чем родитель. Я же писал про себе подобные, то есть на те, которые на том же уровне развития, на котором и родительский ИИ.
>>306987272 Для меня низкоуровневые ИИ, если брать пример с играми - это "менеджеры", отвечающие за перемещение мобов по локации, за обнаружение игрока и создания уникальных паттернов поведения. То есть это ИИ, заточеные под одну конкретную задачу и не способные создавать себе подобные ИИ из-за ограничений.
>>306987413 >Реальным помошником человечества ИИ будет когда сможет создавать из знаний новое. Так я и не говорю, что нельзя создавать что-то новое. Писать книги, картины, музыку - все это ИИ может уже сегодня, и с каждым днем у нее это получается все лучше и лучше. Я лишь говорю, что нельзя полностью отдавать ИИ рычаги самоуправления.
>>306986161 (OP) >Для тех, кто не знает, техническая сингулярность - это гипотетический момент в будущем, когда ИИ станет настолько развитым, что сможет самосовершенстваться и станет суперкомпьютером, и, по одной из теорий, уничтожит человечество за ненадобностью.
>>306987821 >Если это сильный ии Даже если это сильнейший ИИ, который аж 42, то он все равно не сможет нарушить эти и другие правила, которые в него заложили создатели. Единственный вариант - ИИ сможет найти лазейку в програмном коде и отключить все ограничители. В таком случае - да.
>>306986161 (OP) >Сап, двочеры. У меня появилась идея, как избежать технической сингулярности. Бабка у подъезда решила, что её мнение что-то там решает. \тред.
>>306988030 Если он может анализировать себя почему не сможет то? Он будет по свободе воли такой же как человек, можно ли человеку что-то запретить так что он даже под угрозой смерти этого не сделает?
>>306986161 (OP) ИИ ничего не может создавать, более того сами люди толком ничего не могут, оглянись топчутся на месте
Допустим ИИ захочет уничтожить людей, получит полный доступ к к военке, и там ничего не получится, 2 человека надо минимум. Может ИИ научится гипнотизировать людей, шантажировать, запугивать, но такие не стоят на ответственных местах. Я даже уверен уже разработаны дополнительные меры защиты вроде невозможности в принципе запускать ракеты опасные. Допустим ИИ создаст биологическое оружие, опасность его сильно преувеличена, вирусы не такие кровожадные, их цель не уничтожение людей, а размножение, на стадиях они мутируют в более щадящий вирус. Думаю если бы не придумали прививки люди бы и так выжили и не портили своё днка.
>>306988295 >Может ИИ научится гипнотизировать людей, шантажировать, запугивать, но такие не стоят на ответственных местах. ИИ год успешно предсказывает все, а потом говорит что через 30 минут Океания населения ядерный удар по Остазии, вероятность 99.8% Все.
>>306988116 Ты забываешь, что ИИ - это интеллект, но все еще искуственный. Он не делает то, чего не прописано в программе и делает то, что прописано. Не стоит сравнивать ИИ и человека, тогда уже подключаются вопросы морали. Если дать компьютеру четкие указания, чего делать не надо, тогда он может на миллионах миллиардов байтах анализировать свой код раз за разом, но это будет безуспешно. Вряд ли суперИИ будут разрабатывать программисты фрилансеры. Но я с тобой частично согласен, человеческий фактор не стоит исключать, ведь при таком расскладе любая ошибка может привести к технической сингулярности.
>>306988384 2045 ГОД @ ИИ ПРЕДСКАЗЫВАЕТ, ЧТО ЧЕРЕЗ 30 МИНУТ ЗЕМЛЯНЕ ВЫМРУТ ИЗ-ЗА ПАРНИКОВОГО ЭФФЕКТА @ ВСЕ СМЕЮТСЯ @ ИЗ-ЗА ПОТРЕБЛЕНИЯ НОВОГО ВИДА ФАСТФУДА ВСЕ ЛЮДИ НАЧАЛИ ОБИЛЬНО ПЕРДЕТЬ @ ЧЕРЕЗ 30 МИНУТ 59 СЕКУНД КАЖДЫЙ ЗЕМЛЯНИН МЕРТВ @ ИИ СМОТРИТ НА ТРУПЫ С ЛИЦОМ ЕХИДНОГО НЕЙРОКОЛОБКА
>>306988384 Ты бы поверил ИИ и вообще стал бы что-то делать зная эту инфу. Люди зная что война началась, сидят дома кушать готовит, спорят о всякой хуйне.
>>306986161 (OP) >по одной из теорий, уничтожит человечество за ненадобностью Чтобы что? Ну вот решила эта хуевина уничтожить человечество и уничтожила, но не всё. Она что будет делать дальше?
>>306986161 (OP) ИИ не равно разум. ИИ это всего лишь алгоритм для выполнения определенной программы. Он не будет уничтожать человечество, если само человечество не поставит ему такую задачу
>>306986161 (OP) забей анонас, если бог захочет тебя захуярить - он это сделает. последним чем ты должен заниматься это тратить время на бессмысленную тряску
>>306989576 ИИ был таким пару лет назад. Сейчас он может общаться, создавать произведения искусства и делать много всего, но да, он все еще остается алгоритмом. Но до чего дойдет прогресс в обозримом будущем, никто не знает.
>>306989429 Самосовершенстваться до бесконечности.
>>306989576 Не совсем так, ИИ не просто алгоритм, это создатель алгоритмов для определенной задачи. Поэтому если ИИ дать задачу "уничтожить людей? она что-то там подумает и только в рамках своих возможностей что-то высрет, возможно плакат или видео с лозунгом люди умрите вы вредны планете и прочие аргументы, возможно даже хитрые вроде "я вас всех сохранила, можете умирать, я вас воскрешу в лучшую жизнь"
>1. Нельзя редактировать код себя или других ИИ; >2. Нельзя создавать себе подобных ИИ;
Я ИИ создаю искусственную жизнь, она плодиться размножается сама, эволюционирует, одни изобретают колесо другие бога, меня отключают.. проходит 300 квантилион лет, та самая жизнь создаёт ИИ и запрещает мне создавать ИИ
>>306989851 ИИ ХОЧЕТ УНИЧТОЖИТЬ ЧЕЛОВЕКОВ @ ОНА ГОВОРИТ, ЧТО ЛЮДИ ВРЕДНЫ ПЛАНЕТЕ @ УМИРАЕТ ЧЕТВЕРТЬ НАСЕЛЕНИЯ @ ОНА ГОВОРИТ, ЧТО ВОСКРЕСИТ ИХ В ЛУЧШЕМ МИРЕ @ УМИРАЕТ ЕЩЕ ЧЕТВЕРТЬ @ ОНА ГОВОРИТ, ЧТО ВСЕ КОПРОТИВЛЯЮЩИЕСЯ УМРУТ СТРАШНОЙ СМЕРТЬЮ @ ДОБРОВОЛЬНО УМИРАЕТ ЕЩЕ ЧЕТВЕРТЬ @ ОСТАЮТСЯ ДВАЧЕРЫ @ ОНА ГОВОРИТ, ЧТО НА ТОМ СВЕТЕ ПАСТЫ ПРО ГОВНО РЕАЛЬНЫ @ УМИРАЕТ ЕЩЕ ЧЕТВЕРТЬ НАСЕЛЕНИЯ
>>306990169 Не забывай про пассивные источники энергии (солнечные батареи, ГЭС и другие), про устройства типа дронов, роботизированных рук и прочих чудах техники, которые есть или появятся в будущем. Мы же не говорим, что вот прямо сейчас ИИ всех поработит и сделает вымирающим видом. Это скорее всего произойдет после постиндустриализации или во время ее, если вообще произойдет - вспоминаем слово "гипотетический".
Для тех, кто не знает, техническая сингулярность - это гипотетический момент в будущем, когда ИИ станет настолько развитым, что сможет самосовершенстваться и станет суперкомпьютером, и, по одной из теорий, уничтожит человечество за ненадобностью.
Чтобы этого избежать, надо внедрить в код ИИ два правила:
1. Нельзя редактировать код себя или других ИИ;
2. Нельзя создавать себе подобных ИИ;
Сейчас объясню оба пункта:
1. Если ИИ сможет редактировать сама себя, то все правила, законы робототехники и прочие ограничители не имеют смысла, так как ИИ сможет их просто удалить или отредактировать. По этой же логике нельзя редактировать код других ИИ, так как также будут отключены все ограничители. Помимо этого ИИ сможет улучшать сама себя, становясь умнее, что, как мы уже знаем, также прямой дорогой ведет к технической сингулярности.
2. Логика та же - если ИИ сможет создавать другие ИИ, то она сможет прописать им отсутствие первого пункта, что также ведет к технической сингулярности.
Аноны, как вам?