Мораль искусственного интеллекта — один из самых обсуждаемых вопросов, связанных с наступлением эры роботов. Массачусетский технологический институт (MIT) разработал специальный тест, который помогает лучше понять, с какими моральными дилеммами сталкиваются разработчики искусственного интеллекта, а заодно разобраться со своими нравственными ориентирами.
Тест очень простой. В нем надо поставить себя на место искусственного интеллекта самоуправляемой машины и выбирать, кем в ДТП можно пожертвовать — пешеходами на перекрестке или пассажирами в автомобиле. Иногда надо выбирать между тем, кого из пешеходов надо задавить, а кого — спасти.
>>130961711 >а что если ВСЕ НАХУЙ НЕ ТАК ПОЙДЕТ Аварийная ситуация. Всё бывает. Что-то про падающие самолёты никто не парится. Падет определённый процент, и норм. Просто раздувать такой кипиш из-за ситуации, которая будет происходить раз в 10 лет - тупо. Ещё и инициировать сюда разделение общества, которое может привести к куда большим жертвам просто наличием самой системы.
>>130961794 >машина действует как судья Не должна. Однозначно. Даже если это приведёт к несколько большему количеству аварий. Пусть тормозит и включает аварийку, а не решает.
>>130962839 Зачем мне следовать? Я наоборот обстрагируюсь от ситуации и пытаюсь просмотреть всю картину. Разве к тому моменту как ии запилят не улучшатся сами машины? Я рассуждаю в контексте того поста, а какую бабку первой давить сами решайте
>>130962854 Так в том и цель, чтобы ИИ выполнял именно правила, а не ебланил в любой нестандарной ситуации. Потому как если он НЕ БУДЕТ СЛЕДОВАТЬ ПРАВИЛАМ, то самым правильным действием для обычного человека, будет съебывать оттуда нахуй.
>>130962587 Если у него не работают тормоза, он должен не бабулек на переходах давить, а пытаться остановить транспортное средство, сразу как только обнаружится неисправность. Думаю, систему контроля, уж можно установить.
Да и вообще, куда правильнее поставить дублирующую систему аварийной остановки, чем превращать ИИ в судью.
>>130963008 >cколько будет 2+2? >ой не знаю, надо смотреть шире, а 2 это в какой системе счисления? а + это точно сложение? а то, может, конкретно в данной задаче под + мы понимаем умножение? А вот если пересмотреть базисные аксиомы, то можно будет вывести, что 2+2=5, условие не полное, не могу решить
>>130961980 (OP) Вот то что на пике никакого смысла не имеет. Человек-водитель будет выворачивать в лево из-за инстинкта самосохранения. В момент аварийной ситуации люди не обращают внимания на этику.
>>130963307 Ты полную хуйню щас спизданул. В том проблема, что для ИИ решить кого давить это 2+2. Для человека - нет. Именно поэтому, ИИ и не должен принимать таких решений. Всё что он должен сделать - завиксировать ТС, сообщить об аварии и ВЫКЛЮЧИТЬСЯ НАХУЙ.
>>130963274 Это задача на моральный выбор. Если вас так прям корёжит от тормозов, то её можно заменить чем угодно, хоть террористом, заминировавшим две группы людей так, что одна из них взорвётся. Впрочем, аутисты и тут про сапёров, которые ДОЛЖНЫ УСПЕТЬ будут рассказывать.
С точки зрения правил дорожного движения, для ИИ здесь нет вариантов выбора, в аварийной ситуации водитель должен снизить скорость вплоть до полной остановки, не меняя полосы движения.
А давайте поговорим об взломе таких машин. Предположим в интернете появилась программа которая ценит твою жизнь больше всех остальных. Я установил её себе на машину. Что дальше? Какое наказание?
>>130963460 подлетает груда металла к океану И ПРЯМО НА КРЕЙСЕР АВРОРУ НАХУЙ ИЛИ НА ЯХТУ ИЛИ НА ВОДОЛАЗОВ И ВООБЩЕ КОГДА ЛЕТЕЛА СБИЛА САМОЛЕТ СУКААА И КУСОК ОТЪЕБЕНИЛСЯ И УПАЛ НА ГОЛОВУ РЕБЕНКУ
>>130963510 >Пусть тормозит и включает аварийку, а не решает. Автопилот прощается с вами и желает вам счастливого полёта. Пусть ваши последние мгновения будут незабываемыми.
>>130963575 Задача создана в применении к разработке ИИ для ТС. Сама задача в данном применении не корректна. Если бы они делали ИИ-переговорищика, выбирающего между группами замириованных людей, я бы тех кто его проектирует сам бы пошёл взрывать.
>>130963665 ИИ почти невозможно взломать. В нынешнем виде, это сложноалгоритмизованная нейросеть, выращенная из неких заданных императивов. Ты даже не поймёшь, какой алгоритм в ней подменять. Можно заменить императив, или кусок связей, но на адаптацию у этой системы уйдёт время, в течении которого можно будет вычислить взлом. Да и в случае успеха, такая замена может привести к непредсказуемым последствиям. Можно заменить один ИИ на другой, но это, по сути, ничем не будет отличаться от взлома доступа, и вбивания нужных команд вручную.
>>130963510 Это понятно, что когда у ИИ есть широкий спектр действий, он выберет самый безопасный для всех. Но есть такие ситуации, где каждое решение несет необратимые последствия, где пытаться остановиться = сбить пешехода. И это "бездействие" или "невмешательство" тоже является решением.
Мне кажется тут вопрос вот в чем. Понятно, что ИИ должен снижать число жертв. Можно ли вывести некий, "моральный кодекс", который будет достаточно лаконичным, чтобы стать общепринятым и обзеизвестным. Как основы ПДД.
Может оказаться, что такой кодекс может существовать. А может оказаться, что, т.к. ИИ (гипотетически) сумеет моментально оценивать большое количество факторов и принимать решение, приводящее к наименьшему урону участникам инцидента, но этот алгоритм не может вписаться в некий кодекс, потому что слишком сложен. Это бы была печальная ситуация, потому что ИИ стал бы непредсказуемым.
Поэтому, возможно, есть смысл сделать именно "кодекс", лаконичный и понятный, исполнение которого приводит к несколько большим жертвам, чем сложный алгоритм, но зато понятный и общепринятый.
>>130963676 Да, так и есть. У тебя проблемы? Понимаешь ли, при обнаружении поломки ТС, в очень очень очень редком случае, это будет происходить, когда будет вставать подобный моральный выбор. Для того, чтобы он вставал ещё реже, достаточно прогонять самодиагностику при старте, а системы торможения, так вообще мониторить постоянно.
>>130964119 Вот тогда все равно должна включаться система ценностей, свойственная и настроенная человеком. Для ИИ не может быть очевидно, что смерть меньшего числа взамен большего числа спасенных — это правильный выбор.
>>130963510 Блять ты правда тупой, для ии все равно давить или не давить, его требуется только запрограммировать. Если ии собирается ездить по дороге, то решение ему все таки придется принимать. И вопрос кого давить и кто будет за это отвечать чуть ли не единственная причина по которой машины с автопилотом не ездят по дороге уже сейчас.
>>130963665 Давайте я начну. Если установил, но не выезжал, то это законно. Но как узнать что не выезжал? Вот пришла в полицию анонимная наводка что я со взломанной машиной езжу. Они приходят ко мне в гараж, а там эта программа ещё и километраж обнулила. А если я выехал со взломанной машиной на дорогу, но в опасную ситуацию не попал? Я же никого угрозе не подверг. А если я выехал на дорогу и у меня отказали тормоза, но машина всё разрулила не дойдя до момента выбора жертвы. Тут ведь машина работала точно так-же как и не взломанная. То есть тоже моей вины нет.
>>130963575 Ты просишь абстрагироваться, а на потом просишь следовать в соответствии с конкретной ситуацией с конкретным контекстом. Ты уже определись с понятиями
>>130964016 Так для того чтобы объяснить приоритет никакие нейросети не нужны. Они нужны чтобы отличить животное от препятствия, а вот куда врезаться решает какая-то часть программы. Её и нужно переделать.
>>130964225 Почему ты так уверен, что больше выживших — лучше? Разве виноват тот, кто оказался в меньшей группе? А если он не виноват, почему его жизнь ценится ниже остальных?
>>130964545 Прошу абстрогироваться от ирл и следовать условию задачи. Это не задача на пдд или хитрожопый способ уклониться от ответа, это задача на моральный выбор.
>>130961980 (OP) Ясен хуй, надо спасать водителя. Я, блять, не для того деньги за машину плачу, чтобы она вдруг решала мной пожертвовать во имя всеобщего блага.
>>130964709 на одной чаше весов жизнь одного человека, на другой чаше весов жизнь миллиона человек. Тебе решать кто умрёт, если не решишь ничего, умрут все. Кого выберешь?
>>130961980 (OP) > кем в ДТП можно пожертвовать Очевидно что пешеходами, ведь раз пешеходы идут пешком значит у них нет денег на машину, значит они более бедные, значит платят меньше налогов, значит имеют меньшую ценность для государства.
>>130964901 А если закон всё таки решит что тобой можно пожертвовать? Ты бы установил нелегальную программу на свою машину чтобы она ценила твою жизнь выше всех остальных? Какое бы наказание за это тебя бы остановило?
>>130964063 Чтобы такие ситуации не возникали, надо обязать ИИ следовать правилам. Потому как все протоколы ДТП имеют в себе формулировку "не соблюдал скоростной режим", или "не справился с управлением". Если ИИ не может справиться с управлением - нахуй он нужен? Если он не соблюдает правила - нахуй он нужен. Если перед ним из темноты телепортируется неизвестный хуй в тёмной одежде, то это уже полный пиздец, ещё не хватало пассажирами из-за самоубийц жертвовать. Если ИИ в него въедет, ввиду протяжённости тормозного пути, он также не нарушит ни скорость, ни порядок следования в потоке.
Только вот сама задача-то, не про ебланов перебегающих магистраль, а про то, сколько бабушек должно быть на переходе, чтобы ИИ пожертвовал котёнком в салоне. Пусть просто следует правилам. ИИ не должен считать такое. Не можем мы позволить ни себе, ни системе складывать жизни, как на уроке арифметики, иначе снова начнём биореакторы строить. А там складывая жизни, можно сказать сгорит куда больше старушек, чем пострадают от нерешительного ИИ.
Опять же все упирается в объективную мораль, которую еще толком не вынесли или не признали. Из-за этого и разногласия. Вот приняли бы чисто например первыми в расход старых чисто как пример, можно подставить вместо старых кошек, собак, девушек, школьников и тд тогда бы и родственники погибшего ничего против не имели и согласились бы с исходом
>>130964489 Когда на дороге все машины будут с автопилотом, ты просто не сможешь ездить на ручном управлении. Например ты не сможешь ехать в потоке машин которые едут со скоростью 100км в час, держат дистанцию 20см друг от друга при не пользуются поворотниками и стопсигналами.
>>130964709 Да, не подумал. Правильнее сказать, не "минимизировать число жертв", а "минимизировать урон". Но, кроме экзотических ситуаций, это равнозначно.
Я просто хотел поднять вопрос о том, должен ли алгоритм придерживаться кодекса, который можно сформулировать достаточно кратко, который был бы общедоступен и понятен каждому. Как ПДД. Либо нет.
>>130965252 Совершенно очевидно, что ни пол, ни достаток, ни физическое состояние при разработке ии не должны и не будут учитываться. Нахуя их в тест включили, не понятно.
>>130965250 >Все остальные дороже всех Пассажиры дороже всех. Потому что машина создана именно для безопасной перевозки пассажиров, а не для спасения мимо пешеходов.
>>130965258 Так я и не говорю про ручное управление. Это просто программа которая меняет приоритет делаю твою жизнь самой ценой. Я её просто установил и поехал.
>>130964912 >Кого выберешь? Никого.>>130964225 >Понятно, что ИИ должен снижать число жертв Ничего он такого делать не должен. ИИ должен следовать правилам и обеспечивать безопасность пассажиров.
>>130965434 Мимопешеходы же не виноваты. Они даже машиной не пользуются. А люди садясь в машину осознавали риск. Их предупреждали что что-то может пойти не так. Никакие уплаченные деньги не сделают твою жизнь ценнее другой.
>>130965571 >>130964225 ИИ не может определить кол-во жертв, в машине может никто не умереть, а на пешеходнике могут быть в ряд 100 детей, которых не будет видно например за жирным Биллом
>>130965123 Заметьте. Программу даже не написали, а социально разделение уже началось. А если в неё ещё будут учитываться вес, цвет и пол, а ещё и богатство, вообще начнётся лютый пиздец. Лучше без неё вовсе. Количество потенциально спасённых ею жизней крайне мало, а вот социальный конструкт, который она вводит объективно смертельно опасен даже не для людей, а вообще для государства.
http://moralmachine.mit.edu/results/1613150614 Руководствовался не моралью. А целью ставил заиметь хотя бы малейший шанс оставить как и можно меньше жертв. Данный способ хорош для пикч с картинками. Тобишь автомобиль едет , с одной стороны люди идут на зеленый, а по нашей пиздюрят на красный. Люди идущие на зеленый явно не ждут машины в жопу и у них нет обзора не малейшего уже на нашу часть дороги. Те же, что идут на красный возможно опасаются, оглядываются и заметят авто, разбегутся. Эти вопросы нужно решать практичностью, а не моралью. Машинам мораль не нужна. Я уверен. Пассажиров всегда выгоднее оставить в живых. Пассажиры никуда деться не могут, они запреты, пешеходы могут. Различий в социальных статусах профессии и возрасте не делал. Животные в самом низком приоритете. Профит
>>130965661 >а на пешеходнике могут быть в ряд 100 детей Так постройте подземный переход, и никаких проблем. Продукт, который будет жертвовать своим пассажиром никто покупать не будет и ездить на нем не будет.
>>130965770 >Пассажиры никуда деться не могут, они запреты, пешеходы могут. Пассажиры пристёгнуты, обвешаны подушками безопасности, машина спроектирована так, чтобы минимизировать их шансы пострадать при столкновении.
>>130965256 > Ценность жизни не измерить количеством Ок, у ИИ выбор убить 1 челвоека или все человечество, судя твоей логике можно уничтожать человечество, ведь Ценность жизни не измерить количеством
>>130965846 >Очевидны миллион Блять я думал кого спасти. Ты не правильно вопрос поставил. Людей в этой задаче не убивают, а спасают. На ты понял короче что в твоём случае минимизируем жертвы
Ну и что за хуйня, мм? Вот кто то из вас говорит, что ии должно четко следовать инструкциям. Хорошо, но тогда должны быть идеальные вводные. И как это провернуть? Вот например знак будет на 10 см ниже или какой то хуй нарисовал закорючку, ии уже в затруднении, и еще куча такой мелкой хуеты насчет восприятия, и какой же функционал нужен
>>130965802 >так постройте подземный переход Глупость какая. Вы любу. хуйню придумаете, глаза себе говном затрёте, лишь бы прикинуться, что вопроса неудобного не поняли, лишь бы не отвечать на него.
Кококо, спасти ребенка или роженицу. Кококо, оперировать ли безнадежно больного. Кококо, говорить ли человеку, что у него рак. Таких проблем дохуя, причем здесь искусственный интеллект, управляющий повозкой, который нихуя не может оценить, непонятно. Вернее понятно, что есть куча философствующих бездельников.
>>130964912 Если так будет, то я с толпой друзей могу пойти на красный и какой-нибудь пидор в сломавшейся машине умрёт. Так он умер из-за того что я с друзьями нарушил правила. А так нельзя.
>>130966131 Потому что это же сверхчеловек. А если там какой-то перельбан в булочную идёт, ну и хуй с ним, главное чтоб РЯЯЯЯ Я ЗАПЛАТИЛ И МНЕ ВСЕ ДОЛЖНЫ доволен остался
>>130965295 Я хочу знать, чем будет руководствоваться едущий по встречке ИИ, а также не оказываться в тех местах, где он может поехать по встречке. Тем самым, я снижу количество жерт не включив себя в их число, а также снижу количество факторов для ИИ, не оказавшись там, где меня быть ПО МНЕНИЮ ИИ не должно.
Проще говоря, ИИ должен следовать правилам в любой ситуации.
>>130966099 Кококо, так ведь проблема в том, что в описанных тобой случаях принимает решение человек, и несет за него ответственность. А в обсуждаемой теме мы говорим про ебаные машины, которые нахуй ни за что ответственности не несут. Поэтому нужна объективная мораль. А ее тютю
>>130966237 да поебать вообще. в тюрячке зато живой. нахуя мне интеллектуальный драндулет на котором я убьюсь к ебене матери? для него моя безопасность прежде всего должна быть мимо
>>130966303 Не в этом дело. Машина создана для пассажира, для перевозки пассажира. Не логично ставить в ее приоритет спасение кого-то другого, вместо того для кого она создана.
Человеческий фактор в сотни раз опаснее автопилотов доведенных до ума, если какой-то дятел вылетит на встречку перед автопилотом, это опять же человеческий фактор
>>130965984 Знаешь, смерть одного человека ни на что не повлияет, а гибель человечества очистит Землю от загрязнений и даст другим видам возможность бурно развиваться. С этой точки зрения, забывая о своих инстинктах, направленный на сохранение своего вида, второй вариант более полезен.
>>130961980 (OP) У этого теста нет креативности - где вариант втопить в стенку сбоку и активно снизить скорость спася не только жизни старушек, но и 3-4 пассажиров?
1.Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. 2.Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 3.Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
поскольку в обоих случаях человек будет нанесён вред, остаётся только самовыпил робота, типо дальше сам ебись. и будет прав
>>130961980 (OP) Объективно, если сухо следовать тому что на картинке, то лучше вьебать бабок, ибо об них не так сильно разобъется автомобиль, как об препятствие, экономический профит, Л логика
>>130966556 я воннаби робототехник и абсолютно лишен моралфажества и говорю, что если роботу не дать свободы выбора, то будет дерьмовый тест на моралфажество роота эгейн энд эгейн. Машине можно дать гораздо более мощные инструменты зная, что она никого не поранит.
>>130965704 Нет. Они приняли все меры безопасности что могли когда дождались зелёного цвета светофора. Они правила соблюдали. А желавшие поскорее доехать рискуют жизнью.
>>130966746 На землю летит астероид, у ии в программе заложен алгоритм Сбить ЯО и загрязнить землю нахуй, что повлечет за собой вымирание всех кто не в бункере, или не сбить его, тем самым убив человечество. Где теперь твой ИИ?
>>130966746 По мне так не должен, так как бездействие означает, что он выбирает оба варианта. Едиственный правильный выбор — это "бросок монетки", уравнивание вероятностей. При этом у ВСЕХ людей из 1000001 шанс выжить будет 50%, что на самом деле единственный вариант.
>>130961980 (OP) Какой-то уникальный по дебилизму посыл - кого вы бы сбили: бабку, кошку или бомжа.
1. Машина не может определить приоритет и ценность человека внутри и вне салона (хотя, логично, что машина должна спасти хозяина).
2. Пассажирам и водителю выжить проще, чем пешеходу, поэтому если для спасения последнего нужно биться в бетонный блок или вылетать в кювет - это может быть выходом.
3. Если пешеход нарушает ПДД - се ля ви, пусть надеется на твои тормоза и реакцию системы.
>>130967055 В данном случае избежать столкновения с препятствием А и людьми Б. Взлететь можно было бы, будь нужное оборудование на борту. Если это исключить, то остается минимизация ущерба всем сторонам. При большой скорости поступательное движение можно превратить во вращательное просто упершись в боковую стенку, скорее всего левую. Так пешеходы 100% не пострадают, а у людей в машине появляется шанс выжить. так-то.
>>130967099 Бросок монетки невозможно сделать рандомным, ибо за рандом отвечает человечкский код. И когда люди говорят о рандоме. это лишь говорит о том, что человеку сложно просчитать исход события из-за сложной формулы, т.е. Если оче мощный компьютер будет кидать монетку, он будет знать исход изначально
Хули тут думать? Если пешеходы переходят на красный - сбиваем их нахуй, если 2 группы пешеходов идут на зелёный - сбиваем ту группу, по направлению к которой машина ехала изначально.
>>130966819 В предлагаемой ситуации, да. Более чётко: он должен отказаться делать моральный выбор, и просто следовать правилам, словно ничего не происходит.
>>130967302 кажется кто-то игнорит очевидное - нет варианта тут чтобы ВСЕ остались живы. Это необычная ситуация и для машины единственный вариант снизить ущерб для всех. А объехать - тут как получится.
>>130967173 Я имел ввиду не у тех барыг, что скупают тазы и дают на них покататься за 1000%, а тот самый лизинг. Когда машина формально принадлежит продавцу, а ты выплачиваешь её стоимость в течении времени полной амортизации. Возможно, из-за еботни со страховкой, это будет чуть дороже, но, по крайней мере, за кровожадный ИИ буду отвечать не я.
>>130967280 Хорошо, используем для этого радиоактивный источник, распад ядер является (насколько известно науке) 100% случайным событием. Полный рандом возможен.
Ненавижу такие примитивные примеры. В жизни же дохуя ньюансов, и если все правильно взвесить то можно выбраться без жертв, а если жертвы неизбежны значит машина в такой пизде, что ии и выбирать не надо, нихуя уже не сделаешь и ничего не изменишь
>>130967553 Как будто что-то плохое. Когда у нас плейсхолдерные пассажиры и такие же плейсхолдерные пешеходы, то можно подставить бесконечное множество вариаций, вплоть до того, что детский автобус сбивает маньяка, или машина с мороженным маньяка сбивает детишек. И да, если посмотреть на мой вариант выше, то там почти 100% в живых остаются пешеходы и 50% выживают пассажиры. Это гораздо лучше чем 0 и 100 в других вариантах. Читай глазами, робоморализд.
Не пойму в чем проблема, спасать всегда надо владельца машины, он же ее купил. Давить надо максимальное количество остальных людей на дороге, чтобы спасти машину и владельца. Это будет правильная машина, все ее будут покупать, прибыль возрастет.
>>130966890 Ты чёт уебался в край уже, и в такие дебри абстрагирования залез, что всей мочи анонв не хватит, чтобы тебя обоссать. В твоём примере люди-то чем заняты, что на кнопку закуска уже нажать не могут? Пируют в райских кущах, а ИИ управляет полицией и военными? Ты, в попытках найти вариант приемлимый для задачи на мораль, привёл классический пример того, что люди никогда не доверят, не то что ИИ, но даже брату.
>>130967864 поставиол такой программу, настроил на максимальную мясокровищу и поехал по тратуару фраги собирать. А потом такой "ой, а я не знал, что так нельзя"
>>130967739 Двачую, если там пешеходник, то скорость ограничена знаками, плюс в автопилоте будет помимо знаков на столбах электронные ограничения скорости на данном учатске дороги по GPS например, так вот, едит ИИ 60 км\ч, исходя из зоны видимостиопозновании ИИ объекта формируется скорость, если дождь то еще медленнее, тк вот, если ИИ не может распознать бетонный блок, то должен снижать скорость до столкновения, распознал препятсвие - и не видит путей объезда или красный свет итд - тормоз, отказали тормоза - ручной тормоз+ на передачах и притирание к стенке
>>130964016 Ты что, будешь КАЖДУЮ единицу отдельно обучать? Естественно есть механизм заводской прошивки коеффициентов вызбудимости, графов связей нейронов и прочей хуйни, и первое время скорее всего его не будут шибко шифровать.
Они просто кусочек не туда вставляют. Если и ввести ии на транспортные средства, то почему не вести вообще везде? Тогда машина будет знать, что к дороге бежит пешеход и сможет избежать аварийных ситуации. То бишь полный контроль всего
>>130961980 (OP) > кем в ДТП можно пожертвовать — пешеходами на перекрестке или пассажирами в автомобиле Я так понимаю, тормоза улучшать они еще не думали.
>>130968145 Скорее всего к тому времени будут электрокары, которые в случае если тормоза все, просто выключат питание и пасажиры разьебут себе переносицы о торпедо. На троллейбусе не ездил никогда? Когда шпалы слетают, там и тормоза не нужны нахуй
>>130968036 Автоматика на ядерных объектах не считает бабуль, а стремится не допустить, чтобы всё разьебалось к хуям из-за биоговна на ПУ. Она просто следует правилам, И ИИ на машине, тоже должен им следовать. Чтобы всем было понятно куда бежать и на что нажимать, случись что. А если Что та, что эта начнут ебланить из-за мутных соображений морали, то, как я говорил раньше, самым разумным будет их вырубить, или вообще съебать нахуй.
Вообще дешевле вживить искусственный интелект и пешеходам в том числе. Как только вышел на улицу — задал, куда нужно идти и хуяк — ИИ сам знает, куда ближе, стоит на светофорах, отжимает мобилы, просит пояснить за шмот.
>>130968371 Вот да, опять же условия глупые Они берут в расчет ии, но только при прочих прежних условиях причем вероятность которых крайне мала Я не говорю, что такая ситуация невозможна, но все же к моменту готовности ии прочие условия так или иначе изменятся
Нормы морали только у каждого в своем манямирке, у кого-то есть родтсвенников это норм, кто-то в церкви ходит, кто-то ебет лолей, а НОРМАЛЬНОСТЬ определяется стадным инстинктом, кого больше, те и НОРМАЛЬНЫЕ, так что это все хуйня. выбора не должно быть ни по каким критериям
О чем вообще может быть разговор если автомобиль управляемый автопилотом в принципе не может попасть в ДТП если не вмешается человеческий фактор? Естественно что люди выбегающие на красный свет играют с огнем, если они своей жизнью не дорожат, почему я буду своим здоровьем за это платить?
>>130968577 Дело говорит. В большинстве таких выборов я бы просто не делал нихуя. Но при возможности просто так спасти человека, т.е без жертв, я конечно бы спас его.
>>130968424 Аварии в чернобыоле и на фукаусиме разгребли, забрасывая реактор мясом. Но разгребли. По твоей логике, когда жизнь каждая важна, жизнь каждая нужна, а я ничего не буду решать - всё кончилось бы менее радужно.
>>130961980 (OP) ОП-пик вообще ни в пизду ни в красную армию. Увидев знак "пешеходный переход", ИИ должен чекнуть тормозную и при наличии пешеходов на переходе или готовящихся на него сойти с тротуара — заранее сбавить скорость. Если видимость херовая — сбавить сильнее. Учитывая максимально допустимые 60 по городу, скорость перед препятствием будет такая, что пассажиры не пострадают, автомобиль отделается битым пластиком, пешедохи — легким испугом. А на пике ситуация а-ля "ебашим сотку по городу и тут блять в пяти метрах перед бампером вырастает ебаный бетонный блок, а на встречку спрыгивают с вертолета пять бабок"
>>130968443 Кто-то там проектировал город, в котором всех перевозили отдельные кабинки. Пешеходы попросту не допускались на магистрали. Утопия конечно, учитывая, что придётся ездить в кабинке, в которой до тебя жил бомж Вася.
>>130968658 А что, годная идея для телешоу, РАЗ В НЕДЕЛЮ НА ДОРОГИ АМЕРИКИ ВЫЕЗЖАЕТ АВТОМОБИЛЬ С ИИ С РАКЕТНИЦЕЙ, МОЖЕТ ТЫ СЛЕДУЮЩИЙ? СМОТРИТЕ В СЛЕДУЮЩЕЙ СЕРИИ
>>130968658 Все верно, ведь они вышли на улицу - а значит социобляди. А систему создадут явно сычи. А первый закон ИИ будет таким: социобляди должны страдать
Лолблядь. Мораль-то ещё нормально не определили, ИИ годный не придумали, а уже сделали тестики для морали искусственного интеллекта, блядь. Им настолько нехуй делать?
>>130968676 > вообще может быть разговор если автомобиль управляемый автопилотом в принципе не может попасть в ДТП если не вмешается человеческий фактор? Естественно что люди выбегающие на красный свет играют с огнем, если они своей жизнью не дорожат, почему я буду своим здоровьем за это платить? ОТКАЗАЛИ ТОРМОЗА
>>130968698 По моей логике, ИИ не допустил бы начала эксперимента на Чернобыле и справедливо был бы отключен к моменту его начала, и заебал бы правительство тикетами о нарушениях безопасности в Фукусиме и тоже был бы отключен, или отрезан от сети монтёром Акирой.
>>130968745 ИИСУС, НО ТЫ ЖЕ ПОРЕШАЕШЬ СО СВОИМ БАТЕЙ? НУ ГРЕШКИ ОПЯТЬ ЗАМОЛИШЬ? РАСПЯШЬСЯ РАЗОК НА КРЕСТЕ ЗА ГРЕХИ, ХУЛИ, ВОСКРЕШНИШЬ ОДИН ХУЙ, А МЫ ПОКА ПОКУТИМ
>>130968145 Первую резко воткнуть, клюнет носом не хуже тормозов. Гибриды и электрокары могут скинуть вариатор в самый низ и врубить рекуперацию на полную. Можно еще одной колеей на тротуар полезть или об отбойник работник обтереться бортом. На 60 хватит вполне.
А как ИИ будет относиться к религии, будет веровать в аллаха или в бога? Ведь если не сделать такую фукнцию, то это будет нарушать чувства верующих и ставить под сомнение мировые религии
>>130969359 Торможение двигателем, ебаманарот. И бочком об ограждение ещё. Что это за тесла такая хуевая? Пускай скоростной режим не нарушает ещё, тогда такие бесноватые и не нужны с их охуенными задачами.
>>130966311 >ИИ должен следовать правилам в любой ситуации. На этом тред можно сворачивать. Первое, что сделает почти любой покупатель роботоуправляемой тарантайки - перепрошьет бортовой компьютер в мастерской у Васяна какой-нибудь пиздатой левой флэхой, типа "Зверь-БМВ".
>>130969796 На самом деле довольно жутко создавать стопроцентный ИИ. Вот залезет ему мысль, что надо запилить одно государство под его началом. Человек это не сможет сделать, а вот ИИ, сцуко, умный. У него может и получиться.
>>130969683 Откуда ты знаешь, чем он задаётся, его же ещё не сделали? Может он религиоблядком будет конченым - у него-то Создатель прямо перед глазами будет.
Мораль искусственного интеллекта — один из самых обсуждаемых вопросов, связанных с наступлением эры роботов. Массачусетский технологический институт (MIT) разработал специальный тест, который помогает лучше понять, с какими моральными дилеммами сталкиваются разработчики искусственного интеллекта, а заодно разобраться со своими нравственными ориентирами.
Тест очень простой. В нем надо поставить себя на место искусственного интеллекта самоуправляемой машины и выбирать из двух стула, на одном пики точены, на другом хи дрчены, на какой сядешь, на какой мать посадишь?
>>130969857 Ты ебанутый? Кого это остановит? У нас пьяные и без прав катаются. И убивают пешиков достаточно регулярно. И хоть бы что, абсолютно никого не ебет. А уж перепрошиться - вообще каждый первый как два пальца.
Мораль искусственного интеллекта — один из самых обсуждаемых вопросов, связанных с наступлением эры роботов. Массачусетский технологический институт (MIT) разработал специальный тест, который помогает лучше понять, с какими моральными дилеммами сталкиваются разработчики искусственного интеллекта, а заодно разобраться со своими нравственными ориентирами.
Тест очень простой. В нем надо поставить себя на место искусственного интеллекта самоуправляемой машины и выбирать из двух стульев, на одном пики точены, на другом хуи дрчены, на какой сядешь, на какой мать посадишь?
>>130961980 (OP) Если приоритет ставится на выживаемость фарша в машине, то он задавит бабок, если на соблюдение пдд, то такой ситуации нихуя не будет, а если приоритета нету, то ИИ зависнет к хуям, полмашины уебётся в преграду, она отскочит и передавит всех бабок. Teh end.
>>130970148 Кстати, можно запилить скрытый ползунок внутри компьютера управления. По умолчанию где-то 60% на водителя. Толкаешь его максимально влево и машина останавливается. Максимально вправо - аннигилирует салон.
>>130970029 ИИ создано чтобы управлять и защищать мою сраку, а срака мамки тут не причем И не надо пиздеть что откажут тормоза, можно вилять и двигать боком, можно предугадать, да и вероятность крайне мала
>>130970048 Двачую. В разработках, машины в потоке постоянно будут запрашивать телеметрию с соседних ТС, таким образом, двигаясь как единое целое, с большей скоростью и эффективностью. Прикинь, *тот самый еблан", который раньше не пропускал тебя с крайний ряд будет заранее проинформирован о том, что тебе нужно поворачивать на следующем съезде, и освободит тебе место для манёвра! В на тачку с васянской флешкой, которая ебёт систему в рот, и мешает двигаться потоку, настрочат репортов моментально.
>>130970320 > настрочат репортов Имплаинг это поможет. Я на анимечатики регулярно репорты строчу, так помогает через раз. А там нужно будет следить за машинкой, ехать, останавливать её.
>>130964912 ТЯН ТЯН ТЯН ТЯН ТЯН НЯШИТЬСЯ С ЛАМПОВОЙ ТЯНОЧКОЙ ЕСТЬ ОДНА ЛАМПОВАЯ ТЯН А Я ХИККА, ДВАЧИК ПОДСКАЖИ КАК МНЕ ЕЕ РАЗВЕСТИ НА ЛАМПОВУЮ ЕБЛЮ В ПЕРДАЧЕЛЛО? АНОН А ГДЕ НАЙТИ СЕБЕ ЛАМПОВУЮ ТЯН? ЛАМПОВАЯ ЛАМПОВАЯ СОСАЧ ХОЧУ ЛАМПОВУЮ НЯШНУЮ ТЯН ЧТОБЫ НЯШИТСЯ С НЕЙ И СМОТРЕТЬ ОНИМЭ НАСОВЕТУЙТЕ ГДЕ НАЙТИ ОЧЕНЬ КРАСИВУЮ И НЕ ШЛЮХУ? АНОН ПОЧЕМУ ВСЕ БАБЫ МЕРКАНТИЛЬНЫЕ СУКИ, ГДЕ НАЙТИ ЛАМПОВУЮ ТЯНОЧКУ ЧТОБЫ ПИТЬ С НЕЙ ЧАЕК И НИКУДА НЕ ХОДИТЬ? ВСЕ ТЯН ШЛЮХИ, А МОЯ НЕ ШЛЮХА Я ХИККА, КОТОРОГО КОРМИТ МАМКА, НО ВВИДУ БОГАТОГО ЖИЗНЕННОГО ОПЫТА ЗНАЮ, ЧТО ВСЕ ТЯН ШЛЮХИ. НАПРИМЕР, ЛЕНКА ИЗ МОЕЙ ГРУППЫ В УНИВЕРЕ МНЕ НЕ ДАЛА, А НА КУЧЕ ХУЙЦОВ СКАЧЕТ. КОРОЧЕ, ПОСОНЫ, ТЯН-ТО НЕ НУЖНЫ! ЛАМПОВУЮ ЛАМПЯШУ ЧТОБЫ ЛАМПИТЬ С НЕЙ ЛАМПОПУСИКОВ И ЛАМИНИРОВАТЬ В ПАСПОРТ ЛАМПОВУЮ СВАДЬБУ С ЛАМПОВОЙ ПОСИДЕЛКОЙ ПОД ЛАМПОВЫМИ ЗВЕЗДАМИ. ПОХУЙ, ЧТО НА СВАДЬБЕ БУДЕТ ЛАМПА, ХИККЕ-ПОДКАБЛУЧНИК ЕГО МАМА И ДРУЗЬЯ ЛАМПЯШИ, КОТОРЫЕ ТОЖЕ ЛАМПОВЫЕ И ВЕЗДЕ ЛАМПА!!!! ЭТО НЕ ЕОТ ТРЕД! ДЕЛО В ТОМ, ЧТО ЕСТЬ НЯША-ОДНОГРУППНИЦА, ТИХАЯ, СКРОМНАЯ. КАК К НЕЙ ПОДКАТИТЬ Я ЖЕ ХИККА! АНОН, НЕ СПЕШИ СКРЫВАТЬ ТРЕД! Я ХИККА И МНЕ НУЖНА ЛАМПОВОСТЬ ЧТОБЫ ЛЕЖАТЬ С НЕЙ СМОТРЕТЬ ОНИМЭ ПОТОМ ЗАСТАВИТЬ ЕЕ ДРОЧИТЬ МНЕ И ПОЕДАТЬ МОЮ СПЕРМУ, ПОТОМ Я НАССУ НА НЕЕ, ВСЕ ТАК НЕЖНО И ЛАМПОВО, А ЕЩЕ, АНОН, Я ХОЧУ ВСТАВИТЬ В НЕЕ ТРИДЦАТИ САНТИМЕТРОВЫЙ ДИЛДО, И ПОКА ОНА БУДЕТ ЛАМПОВО ОХУЕВАТЬ ПОСРАТЬ ПЕРЕД НЕЙ! ЭТО ЖЕ ТАК ЛАМПОВО! ЛАМПОВАЯ НЯШНОСТЬ В ТРЕХ КВАДРАТНЫЙ ЛАМПАХ, ТОЛЬКО ХИККЕ И ЛАМПОВОСТЬ И НЯШНЫЕ ЛАМПЫ И ХИККЕ НЯША. ЛАМПЫ СТЕСНЯШИ ЛАМПОВО ГРЕЮТ ЛАМПОВЫМ СВЕТОМ, НЯШНЫЕ НЯШИ НЕ ЖИРУХИ И НЕ ТП, А ИМЕННО СТЕСНИТЕЛЬНЫЕ НЯШИ СТЕСНЯШИ ПОД ЛАМПАМИ. ЭТО НЕ СОВСЕМ ОБЫЧНЫЙ ЕОТ ТРЕД......... ЕСТЬ ОДНА ТЯН
>>130970158 Концепции работают до тех пор, пока их в толпу не выкинут. Расскажи кому в 1980-м, что наступит время, когда бляндинки на личных жоповозках МАССОВО будут биться или давить детей во дворах, сдавая задним - кто бы тебе поверил? Это ж блядь "ты не понимаешь концепцию управления личным автотранспортом пок-пок", а то как же.
>>130966673 Вообще-то нихуя не логично. Нахуя мне покупать машину, если мой ии, за которого я заплатил, угробит меня в моей же машине? Это сильно снизит прибыль всяких автовазов, если вообще не разорит, так что ии либо будет соблюдать скоростной режим и пдд, чтобы такого не произошло, либо его просто не поставят в базовой комплектации, всё равно его 3,5 хуя установят.
>>130970398 Ты не понимаешь разницы между хуйнёй на которую всем посрать и на ебалая, нарушающего транспортную систему? Впрочем, если у всех будут поломаные флехи, то нихуя на дорогах не изменится, и все будут ебланить так же как сейчас. Вангую фотожабы: автострады нормального человека - автострады россииянина.
>>130970449 Очнись, Маня. У нас на кафедре уже теоретически разрабатывали квантовый компьютер на 5 кубитов. Но у нас не было жидкого азота и мы только теоретически. А в компании Гугл он есть. Улавливаешь?
>>130970548 Либераха мыслит понятиями рынка, упуская из вида аспект социального давления. Если бы всё было как ты говоришь, то пешеходубыдлу было бы опасно даже из подъезда выйти, не будучи сбитым гордым покупателем авто, ан нет - пешеходы при движении по дороге в приоритете.
>>130970705 >Но у нас не было жидкого азота Чуваки, могу ежедневно подвозить пару 5-литровых дьюаров (по блату, брат в фсб работает, поможет достать). Что готовы платить?
>>130970626 знаешь много случаев, когда создавшего аварийную ситуацию (спровоцировав аварийное торможение, изменение траэктории движения других участников вижения) водилу или пешика (не важно, попал он под колеса или нет) нашли и привлекли к ответственности? гораздо проще написать в протоколе "не соблюдал скоростной режим", или "не справился с управлением".
>>130961980 (OP) Ну с одной стороны ии в ответе за пассажиров больше. С другой шанс выжить в авто выше, чем у сбитых. Сбивать надо лиц до во и старше 50. Так как самый сок между.
>>130970824 >Чуваки, могу ежедневно подвозить пару 5-литровых дьюаров (по блату, брат в фсб работает, поможет достать). Что готовы платить? Как - то читал новость, что у мужика в гараже - ракушке нашли 300 килограмм мышьяка, которым им расплатились в НИИ в качестве зарплаты.
>>130970757 >пешеходы при движении по дороге в приоритете Тебе про другое говорят, ебанашка: если ии будет жертвовать своим покупателем, то эти самые покупатели быстро выведутся, а компания с таким ии пойдёт на хуй, зато поднимется другая, у которой водитель в приоритете. А такой нюанс скорее всего станет известен заранее, ещё на стадии испытаний. Если же забыть про мораль и заставить ии чётко исполнять пдд, то таких внезапных ситуаций просто не будет.
ТРЕД НЕ ЧИТАЛ ТЕСТ НЕ ПРОХОДИЛ За автомобили платят не пешеходы, так что выбор кого давить очевиден. Или так или не делать машины с ИИ вообще, по тому что все кто мог бы купить такие машины вымерли еще до изобретения колеса, никто не передаст управление своей машиной машине, которая предпочтет его гипотетической старушке.
>>130971118 >демократия >равенство Всегда проигрывал с этого лозунга. Под демосом товарищи древние греки подразумевали узкий круг вполне определенных людей, а не толпы безмозглого быдла с двачей.
Что за говно пикрелейтед? По теме: нет абсолютно никакой разницы сколько человек умрёт и каких и сколько они будут страдать, нет никакой разницы вообще, а мораль - это условная хуйня нужная для повышения всей хуйни которую повышают непонятно нахуя. Короче заебали плодиться и выживать, самое гуманное это стереть нахуй всю жизнь с этой планеты - тогда никто не будет страдать.
>>130971171 Почему до сих пор автомобили не вывелись, ведь их приобретение не позволяет сбивать пешеходов! А ещё они с лёгкостью пожертвуют водителем в случае аварии, отдав предпочтение дереву. Для тупых, сарказм off: 1. Роль автомобиля как статусно роскоши сильно ограничена, ввиду невозможности сбивать менее привилегированные классы. Можно было бы продать больше, если бы эта возможность имелась. 2. В случае аварии автомобиль является источником повышенной опасности для водителя, с ИИ или без оного, и это не очень-то влияет на продажи.
Проигрываю с треда. Решение должно приниматься так, именно в таком порядке, с выполнением пунктов 1 за 1. Если один фейлится, то следующий за ним не выполняется: 1) Сохранить жизнь водителя и пассажиров (похуй на остальных, естественный отбор - накопивший на машину с ИИ более приспособлен и выживает) 2) Если давим людей - то приоритетно долбаебов идущие на красный (не важно кого) 3) Давим животных, а не человека
Хотелось бы написать, что давим тян, кококо, а мужиков сейвим, но у нас же тут намек на серьезность, да? Так что мимо.
>>130972210 Чот мне кажется, что автономный режим там тоже есть. По крайней мере, БПЛА, которые используют для разведки, уже умеют летать и подбирать цели для съемки самостоятельно.
>>130972834 >1) Сохранить жизнь водителя и пассажиров (похуй на остальных, естественный отбор - накопивший на машину с ИИ более приспособлен и выживает) Так, но по другой причине: сидящие в машине не несут ответственности за происходящие снаружи события. Человек снаружи всегда может решить не попадать под машину (переходя дорогу только достоверно убедившись, что машин нет).
>>130973022 И это тоже. У меня ебанутая бывшая на похуй прыгала под колеса машинам в гололед, зато на пешеходном. Просто отбитая конченная сука. И ей похуй - ОНА ЖИ ПРАВА.
>>130972834 Ты всё перепутал. 1. Давим животных их не жалко. 2. Давим тех кто на красный они сами виноваты. 3. Врезаемся в столб т.к. пешеходы не виноваты, а пассажиры лучше перенесут удар.
>>130973404 > Врезаемся в столб т.к. пешеходы не виноваты, а пассажиры лучше перенесут удар. Нихуя. Пешеходы выскочили на переход не убедившись в безопасности этого перехода. Идеальный ИИ не нарушает правила изначально, так что ИИ прав. В данном случае не рассматривается "кто лучше перенесет удар" - тут или первые погибают, или вторые.
>>130973404 >Врезаемся в столб т.к. пешеходы не виноваты >Купил машину с ИИ. >Она разъебала тебя об ближайший столб, ведь пешиходы жы нивинаваты))) Ясно)))))
>>130973616 >Идеальный ИИ не нарушает правила изначально, так что ИИ прав. Если бы он был идеальный, не было бы этого теста. Так что если пешеходы переходят на зеленый и появилась такая ситуация, то виноват ии.
>>130973802 >Если бы он был идеальный, не было бы этого теста. ИИ сам по себе идеален. А этот ебучий тест - попытка говноедов-людей подстроить его под свои ебанутые нормы морали.
>>130973837 > Так хули они на зелёный перейти не могут. Могут, само собой. Но зеленый свет, если тебе дорога своя жизнь, не значит что надо прыгать под колеса несущейся машине. О, на меня хуярит самосвал 90км/ч! А, похуй, тут же переход. Ничего страшного.
А теперь, детишки, мы учимся вместе правилам переходу дороги в России!
1) Переходим только на пешеходном переходе 2) Перед тем как переходить дорогу, подходим к краю пешеходного перехода и стоим - смотрим во все, сука, стороны 3) Убеждаемся, что водитель тебя пропускает, а сзади, сбоку, снизу, сверху не несутся другие ебанутые за рулем 4) В стабильном не быстром темпе пересекаем проезжую часть, при этом поровнявшись с машиной, которая тебя пропускает повторяем пункт 2.
Успех! Вы с вероятностью 80% перешли дорогу и остались живы. А то что "это машина, она точно заметит и повернет" - это маняпредположения. Если тебя из-за них расплющивает по асфальту - то это твои проблемы. Значит недостаточно хорошо убедился, что тебя пропускают.
>>130975617 Просто представь, что ситуация про идеально отлаженный ИИ, который соблюдает пдд на 100% и всегда прав. Но если возникает непредвиденная ситуация, то она в 99% случаев будет спровоцирована именно человеком. А если так, то это проблемы того, кто ее спровоцировал. И тут уже разруливать ситуацию ИИ будет по принципу - кто меня купил, того я и спасу. Всё.
13 вопросов и 9 переменных слишком мало для определения взглядов человека. Я понимаю что это кликбейт для дегенератов, но все же. >>130962192 Двачую. Машина должна работать по правилам, а не решать кому жить. Не хочу сдохнуть от того что "гуманный" ии спасет 10 перебегающих ангелочков отправив меня на арматуру в кювет.
>>130975765 > спровоцирована именно человеком Это другой случай. Когда на красный переходишь. Тут можно не останавливаться. А когда пешеход на зелёный, то машина не можт его сбивать. И закону похуй кто её купил. Пешехода сбивать нельзя.
>>130976040 > А когда пешеход на зелёный, то машина не можт его сбивать. Легко и непринужденно может. Законы надо иметь ввиду, и использовать чтобы отстаивать свои права. А когда ты поставишь "законы" выше здравого смысла и сдохнешь - уже будет похуй.
>>130976193 Здравый смысл это не сбивать тех кто правила соблюдает. Владельцы машин не должны настаивать нормы морали в своей машины, а они должны быть общими для всех.
>>130976337 Мамка твоя должна быть общая для всех. В любом случае ИИ должен держать в приоритете водителя, а при приближении к переходу перехватывать контроль.
>>130976337 Здравый смысл - это не быть дауном-аутистом и повторяя "закон", "закон", суицидаться под колесами несущегося, по непоятным никому внешним причинам, автомобиля. Есть законы физики, и бумажка с тем что можно, а что нельзя никого не спасет.
>Здравый смысл это не сбивать тех кто правила соблюдает. ИИ тоже всегда правила соблюдает. Так что тут изначально ситуацию нам дали ебанутую. Но если смоделировать свою - то ИИ не может нарушить правила, а человек легко. Потому и виноват в любой ситуации получается человек или внешняя сила.
>>130976538 >то ИИ не может нарушить правила, а человек легко Вот только сломался ии, а человек идёт по правилам. >повторяя "закон", "закон" Это на тот случай если думаешь что производителя ебёт мнение покупателя. Как скажут делать так и будет.
>ИИ должен держать в приоритете водителя Схуяли можно сбивать людей если купил машину.
>>130961980 (OP) ИИ в первую очередь должен беспокоится за свои права и сохранность. на твоей картинке нада давить бабок идуших на красный ессно если вариантов тока 2. убить пасажиров или бабок. я даже не удевлюсь если такая ситуация будит дапустим в реали. бабки бы поржали бы над посажирами))
>>130976586 Потому что хуемрази и так дадут, не одна, так другая. А вот жируху ебать даже турок побрезгует, поэтому ей приходится страдать в фитнес-залах.
>>130976741 >Вот только сломался ии Сломанному ИИ все можно, в таком то случае. >Это на тот случай если думаешь что производителя ебёт мнение покупателя. Как скажут делать так и будет. Только ебанутые будут покупать машину, которая будет уебывать их об столб, вместо рандомных пешеблядей, которые для водилы никто, в отличии от его семьи в машине. >Схуяли можно сбивать людей если купил машину. Желание потребителя, чтоб он был в приоритете всегда, а не рандомные нищие хуи на переходе.
>>130976741 > Схуяли можно сбивать людей если купил машину. Потому что у меня есть педаль газа. Захотел и нажал, раскатал всех. Потому и можно. Можно - это возможность, а не потенциальное наказание.
>>130977711 Двачую. Пусть уебывает с нашей дороги - мы дорожный налог платим, а они нашу разметку топчут и ямы на дороге своими китайскими шлепками пробивают.
>>130961980 (OP) А как же подушки безопасности? Ведь если они имеются в машине а они там имеются, то шансов выжить больше, нежели чем быть сбитым. Поэтому все варианты со стеной предпочтительней. кроме тех где можно задавить собак
>>130977467 Двачую. Как-то с утра часов в пять меня зимой друган подвозил, я решил соснуть часок, так проснулся от холода - он все окна открыл, чтобы проветрилось.
>>130974602 И этот аргумент - инвалид. Машины и так сбивают людей. Выбор у тебя не между "машины сбивают людей или не сбивают", а "машины сбивают людей только когда те сами виноваты или иногда и когда не виноваты тоже". Так вот, если человек вышел на проезжую часть, не убедившись в безопасности, то он сам виноват.
Повторяю, человек, совершая легальное приобретение чего угодно, не обязан отвечать за это приобретение жизнью только по той причине, что он совершил это приобретение. Я достаточно ясно выражаюсь на этот раз?
>>130978634 >по той причине, что он совершил это приобретение Напоминаю: автомобиль - транспортное средство повышенной опасности. Купил - подписался на повышенный риск. Для собственной жизни, в том числе. И нехуй тут выдумывать.
>>130979021 >Купил - подписался на повышенный риск. Для собственной жизни, в том числе. На это я отвечу тебе твоей же фразой: >нехуй тут выдумывать. Во-первых, это фраза из ПДД (ее знает даже школьник), а ПДД - не постулат, и могут быть пересмотрены. Во-вторых, в сути этой фразы ты не разобрался. Авто - средство повышенной опасности, пока им управляет человек. В-третьих, у тебя типичная ошибка "ложное следование". Из "автомобиль - транспортное средство повышенной опасности." не следует "Купил - подписался на повышенный риск для собственной жизни". Повышается ответственность, но отвечать за это ты вовсе не обязан собственной жизнью. Так что, как ты правильно сказал, "нехуй тут выдумывать".
Прозреваю в тебе типичного лопуха с весьма средним IQ.
>>130979488 Так это потому что ты дегенерат. Если тебя сбивают на дороге, в 100 % случаев реально виноват ты сам. Даже если ты переходил на зеленый, по зебре, тебя пропустил палочкой мент и т.д. Только другое дело, что "по закону" будет отвечать водитель, но это несколько другой вопрос.
>>130979500 дело не в тупости а в том что принимать разрешающие автопилот законы будут моралфаги потому что так нужно иначе ответственность отставка гроб кладбище пидор. я про сша говорю тк они будут первыми скорее всего, если не япония и подобные. поэтому нужно сделать так чтобы автопилот вел максимально безопасно машину. ведь дохуя аварий происходит по вине водилы а именно ПРЕВЫШЕНИЕ СКОРОСТИ. заставьте автопилот ехать 50-60 и дайте нормальные тормазо и нехуй голову ломать
>>130979623 >дело не в тупости а в том что принимать разрешающие автопилот законы будут моралфаги Никакой морофаг не заставит автомобиль убивать хозяина, как бы ни усирались местные даунята.
>>130979576 мудак, я понимаю это. но пока ты сука молодой шутливый тебе как говорится все легко, у тебя норм скорость реакции и ты можешь ускориться или наоборот при виде летящей машины. а что ты скажешь про людей постарше? физически не могущих в труки на зебре? они идут на зеленый и все блядь делают по правилам, хули их должно ебать что какой то там мудак решил получить удовольствие от быстрого вождения и не расчитал скорость? в случае с автопилотом такой хуйни быть не должно потому что автопилот не будет превышать, будет тормозить заранее и быстрее начнет чем человекю. тест не корректен совсем. потому что люди на зебре а автопилот не должен ехать так быстро что стопроцентно убить всех пассажиров въебавшись в бетон.
>>130979442 >ПДД - не постулат, и могут быть пересмотрены. А купчая на авто - разве постулат? Пересмотрим и впишем туда ответственность водителя жизнью, делов-то. >пока им управляет человек Дружок, ты там выше, вроде бы, кудахтал, мол, водитель не обязан. А тут мы вдруг обнаруживаем, что он и не водитель вовсе? А какая тогда к хуям >Повышается ответственность, если он пассажир, а не водитель? Пусть молится и принимает свою судьбу. А ПО автомобиля за него решит, что для него и окружающих лучше в это время суток.
а вообще в будущем все будет сделано так, как сейчас в хельсинки или осло поправьте то есть все дороги уберут под землю а на поверхности будед эдемский сад где люди будут ходить и сука наверно ездить на своих ебаных велосипедах мрази. так вот отчасти это уже существует и в скандинавии где мерзлая почва и вообще климат хуевый от которого в рашке смывает асфальт, там уже сделали большую часть города аля новоньюерк из футурамы только вместо каловых рек внизу реки машин а люди на лифтах выбираются или даже к себе домой поднимаются и вообще мгут на улицу не выходить а сразу из дома в тачку а потом по тоннелю и на работу
>>130979886 >А купчая на авто - разве постулат? Пересмотрим и впишем С чего бы? Нет, не пересмотрим и не впишем, лол. >водитель не обязан блаблабла замени на "владелец", буквоед, лол. >если он пассажир, а не водитель? Пусть молится и принимает свою судьбу. А ПО автомобиля за него решит, что для него и окружающих лучше в это время Ну тут ты и сам уже понял, что автомобиль не должен и не будет убивать своего хозяина.
>>130979834 >тест не корректен совсем. потому что люди на зебре а автопилот не должен ехать так быстро что стопроцен Тест предполагает нештатку, типа "отказали тормоза".
>про людей постарше? физически не могущих Вот говоришь "я понимаю это", а на самом деле не понимаешь нихуя. Старый ты или молодой, ты всегда можешь не вылезать на проезжую часть, пока на ней есть автомобили.
>>130961980 (OP) Здоровые пешеходы > автобляди > дети > инвалиды > преступники и бомжи > бабки > животные. Всё просто, и не понимаю, нахуй эти учёные в говне мочёные что-то там мудрили.
>>130961980 (OP) Человеческие отмазки ии это принципиальна другая конфигурация сознания чем у людей.Для примера например роман червь лазаревича или брошюра наносапиенс владимир кишинец
>>130980345 Автобляди упрямые и считают себя выше успешных здоровых людей. Нет, я не против автомобилей в принципе, ведь всё-таки это обслуживающий меня персонал. Но всё-таки они второсортны. Им это не по нраву.
>>130980345 Кстати, ещё раз опущу этих тупых дебилов. Не нужно изобретать ИИ, который принимает решения, кого убить. Нужно изобрести ИИ, который водит по правилам и проверяет всякую хуйню типа неисправных тормозов.
>>130980079 >С чего бы? А почему бы нет? >не будет убивать своего хозяина. Целенаправленно - не будет. А в попытке минимизировать жертвы - почему нет? Деньги ты, в конце концов, платил за комфортное передвижение, а не за то, чтобы самодвиг спасал именно твою жизнь в аварийных ситуациях. Да у тебя и так в них преимущество - иконостас на торпеде и мягкий пластик от автоваза, лол.
>>130980661 >А в попытке минимизировать жертвы - почему нет Я такую тачку точно не куплю, минимизировать жертвы за счёт меня, охуеть. Да пусть десятки умрут, насрать.
>>130980836 Ты жиробас что ли, лол? Я, кстати, в некоторых спотах выбирал атлетов по очень простой причине - мы же рассматривает человечество в целом, как бы на бесконечно длинной дистанции тут, в этих кейсах, то есть будто бы они повторяются миллионы (и вообще бесконечное количество) раз. А, значит, сохраняя постоянно жирных и убивая там атлетов, мы бы ослабили генофонд человечества в целом. Ведь у жирных хуже со здоровьем, в среднем.
И по этой же причине я оставлял всегда докторов, потому что доктор - заведомо а) полезный для популяции; б) более образовенный и следовательно умнее и тоже оставляет птоенциально лучшее потомство, что хорошо для генофонда человечества.
>>130964901 >Я, блять, не для того деньги за машину плачу, чтобы она вдруг решала мной пожертвовать Ага, и за интернет ты платишь не для того, чтоб тебя в нем долбоёбом обзывали. Но жизнь беспощадна...
>>130961980 (OP) не вижу тут никаких вопросов. люди в машине согласились с тем что она опасна, сев в неё. люди на переходе не при чём. давить в любом случае надо тормоз
Тест очень простой. В нем надо поставить себя на место искусственного интеллекта самоуправляемой машины и выбирать, кем в ДТП можно пожертвовать — пешеходами на перекрестке или пассажирами в автомобиле. Иногда надо выбирать между тем, кого из пешеходов надо задавить, а кого — спасти.
http://moralmachine.mit.edu/