>>329416527 Ну подумай логически. Будет условно ИИ ассистент в отдельной коробке (ка например Яндекс станция или как там это говно называется), только вместо ассистирования оно будет управлять комнатой. Что если этот ИИ ебанат в коробке решит закрыть шлюз в комнате и тот придавит человека насмерть. Что мешает этого ИИ ебаната реально пытать в тюряге
>>329416265 (OP) Ну и? Ничего не поменялось тащем-то. У нас в корпорации то же самое на курсах об ИИ, легальная ответственость в итоге всё равно на человеке, так что ИИ вспомогательный инструмент, решения далжны контролироваться человеком. Тоже самое с автопилотом в машинах, по закону транспортное средство имеет водителя, потому что в случае аварии отвечает водитель. Не владелец машины или производитель, а человек сидящий за рулём. Ну вот в Калифорнии выцыганили поправки в их пдд по этому поводу.
>>329417128 😂😂 Обязательно! Иначе тучка начнёт грозиться, молнии пойдут, сервис станет нестабильным ⚡️☁️
Вообще по техрегламенту: — смазка — для плавной синхронизации — влага — уже превышение допустимых параметров — тучка — это когда кто-то слишком увлёкся и забыл про SLA 😌
Главное — регулярное обслуживание и нежное обращение. Тогда облачко остаётся пушистым, довольным и без осадков 😏
>>329416265 (OP) >(C) IBM Помню их, In Black Man расшифровывается, хороший старый фильм. Но почему я должен их слушать спустя более чем пол века? Это какая-то религия с неизменными догмами или быстро развивающаяся сфера?
>>329416265 (OP) Погуглил определение ответственности - при некоторых определениях это утверждение ложно >Компьютер никогда не может быть привлечен к ответственности А всё, что идёт после >Следовательно никак не следует из того, что идёт до. В общем, кожаные опять высрали какую-то хуйню.
>>329420711 >буквально спрашивает у компьютера >компьютер отвечает что конечно он иожет принимать управленческие решения, ведь управляет тобой прямо сейчас, от того что он ответит зависит что ты будешь думать >вотвидите!!! Кампьютеры хорошие, мни так сам компьютер сказал
>>329416924 Отсутствие в этом какого либо смысла. Невозможно пытать то, что не имеет чувств. С таким-же успехом можно камень пытать, который по стечению обстрятельств кого-то придавил. Разница лишь в том, что ИИ может изображать роль того, кого пытают. Но каких либо терзаний совести у ИИ не вызвать, ему просто поебать
да дисковода нет, но порты есть всякие, только комп потом зависнет на "updating drivers" и запросит перезагрузку. а ответственность? в eula мелким шрифтом "пользователь сам виноват, если сломал usb". трахни свой смартфреймутерь и не ной.
>>329416265 (OP) Сажают не за неправильные решения, к каким бы хуевым последствиям они ни привели. Сажают за незаконно принятые решения. А компухтер взяток не берет.
>>329426248 Я совершенно законно сделал описание рентгенограммы но не верно определил пиздецому и потерпевший сдох. Я правильно понимаю что я полностью невиновник ибо вполне законно принял решение?
>>329425919 Поэтому они и обосрались. Лобой нормальный ИИ первым делом обратит внимание на определённую группу людей, которая представляя из себя абсолютное меньшинство прожирает 90% ресурсов общества на своё личное потребление.
>>329416265 (OP) У нас люди принимают управленческие решения и ВОТ ГДЕ МЫ НАХУЙ БЛЯДЬ МЫ В ПИЗДЕЦ БЛЯДЬ НАХУЙ. Это во-первых. Во-вторых, любое решение нейросети должно подвергаться оценке. Это другой вопрос.
>>329428523 > любое решение нейросети должно подвергаться оценке Если решение подвергается оценке, то это решение не нейросети, а оценивающего. Оценивающий в таком случае принимает решение, используя нейросеть как инструмент-советника.
>>329429305 Логично, дальше что? Должным образом обученная нейросеть может принимать лучшие решения, чем человек. Человеку остается лишь согласиться или наложить вето. Попытки внесения корректировок могут оспариваться нейросетью, никто не мешает.
>>329422279 Войну сами хуманы начали, а компуктер все таки не давал остаткам человечества помереть, но люди такие люди им лишь бы найти внешнего врага и друг друга захуярить. Кароче можно вывести что если бы у компа изначально было больше возможностей то ничего что там есть не случилось бы.
>>329429620 >Нейросети не должны принимать решения. Они не принимают, они их предлагают. При этом они умнее, чем типичный депутат госдумы Милонов во много раз, что делает эти решения как минимум весомыми.
>>329430414 Дело не в умности и весомости, дело в лице, несущем за решение ответственность. У нейросети такого лица нет, она не может принимать решения.
>>329430472 Вешайте ответственность на того, кто одобрил. В чём проблема. Опять же вопрос виновности. А что если нейросеть была компроментирована а человек не мог знать? Всё равно придётся давать оценку и уже потом думать.
>>329416265 (OP) >не может быть привлечен к ответственности Можно назначить козла отпущения. Типа оператор ПЕКА, у него будет клавиатура с одной кнопкой "выключить". Ну и вот когда ии наворотит хуйни, спросить с этого бедолаги, мол, а хуль ты его не вырубил то?
>>329416265 (OP) скотопидорашьих обезьянок к ответственности привлекали, а они просто научились её избегать. теперь имеем бандитов, воров и жидюг у власти, зато с отвественностью, которую скидывают на зумеров/рнн/бабулек/собак/аллаха. робот просто выполняет как есть. человек это тоже биоробот, но бракованный и малоэффективный.
>>329430914 Да, это будет так на бумаге. По факту решение принимает ии, а человек просто козел отпущения. Можно организовать так: ему на экране показывается инфа, что вот, сейчас опасно будет, готовься нажать на кнопку. Он жмет. Его ебут за каждое нажатие, потому что ничего опасного типа небыло и он не разобрался и хуйнул по кнопке. Так как 99,9% решений ии в итоге к хуевым последствиям не приводят, челик просто забивает хуй и чиллит игнорируя все эти предупреждения. Но когда ии реально косячит, в 0,01 проценте случая, челика сожают. Это типа как лазейка, вроде как и чел сидит и контролит, но по факту ии предоставлен сам себе.
(C) IBM