ПЕКИН, 27 мая – РИА Новости. Искусственный интеллект как технология сам по себе не представляет угрозу, опасность заключается в том, как человек будет использовать создаваемые технологии, считает профессор Междисциплинарного центра биоэтики Йельского университета США Венделл Валлах. "Суть не в том, что искусственный интеллект, который мы будем создавать в следующие 20 лет, представляет из себя нечто пугающее. Иногда пугает сам человек и то, как он будет использовать созданные технологи", - сказал Валлах в беседе с РИА Новости на полях форума по искусственному интеллекту, организованного аналитическим центром "Тайхэ" (Taihe).
Он отметил, что технологии могут стать опасными, если кто-то захочет использовать их для манипуляции поведением и чувствами людей. "Подумайте, что произойдет, если у нас будут сенсоры, которые знают, когда вы чувствуете страх или уязвимость... Для меня пугающим представляется использование искусственного интеллекта в целях слежки. Кроме того, что будет, если искусственный интеллект будет контролировать смертоносное оружие. Это очень пугающе, но нам не нужно делать этого всего", - сказал Валлах. При этом он скептически настроен относительно того, насколько быстро ученые смогут создать нечто подобное человеческому мозгу, препятствием для этого могут стать и этические вопросы.
"Я думаю, что мы пока очень далеки от создания чего-то подобного человеческому мозгу, очень далеко. Что это значит? Двадцать лет, пятьдесят лет, сто лет, я не знаю. Некоторые мои коллеги считают, что в течение двадцати лет, я так не считаю. Я полагаю, что мы будем спотыкаться больше, чем мы думаем. Я немного более скептичен, чем большинство, потому что я очень много думал об этических вопросах и я осознал, что все очень непросто", - сказал Валлах. Тем не менее Валлах полагает, что в будущем технологии будут приносить больше пользы, чем таить в себе угрозы, сложность заключается в минимизации нежелательных последствий для общества.
>>5228321 (OP) >Иногда пугает сам человек и то, как он будет использовать созданные технологи" А сможет ли человек контролировать эти технологии вот в чем вопрос
>>5228321 (OP) Сейчас США и Китай людируют в этой теме, по совокупным инвестициям и объему разработок. Причем США по деньгам, а Китай по научным изысканиям. Россия в числе отстающих в глубоком хвосте. ИИ сейчас самая горячая тема в информатике. Можете представить что будет через 10 лет...
>>5228491 ты просто не в курсе маня думаешь программирование на твоей сраной джаве это пик информатики? или чем ты там занимаешься? субд? херня то всё.
>>5228505 Мань, щель закрой, воняет. Нейросети и сто раз перемаркированные маркетологами методы из середины прошлого века - это тоже не пик информатики, вообще ни разу. Мимо PhD CS.
>>5228321 (OP) >опасность заключается в том, как человек будет использовать создаваемые технологии Да всё нормально будет. Человечество уже давно изобрело атомную бомбу, а всего-то два города ёбнули, считай нихуя. С ИИ тоже совладать сумеем.
>>5228587 Топ кек, дегенераты, откуда вы берётесь на дваче? Думаешь современные нейросети, это перцептрон середины прошлого века? Похоже у тебя в голове один нейрон и тот неисправен. Хоть бы литературу почитал, что ли.
>>5228771 В смысле? Когда китайцы копировали, информационная безопасность была еще не развита. Да и пиздили шпионажем по большей части. И под ИБ подразумевается не только защита от взлома если что.
>>5228413 >>5228426 Весь ваш искусственный интеллект говно собачье. Это не интеллект а набор алгоритмов как и 20 лет назад. Просто по хитрому запиленный. И один хуй всегда будет ошибаться.
То же самое с нейросетями. Работа нейронов до сих пор не изучена толком, и так называемые нейросети никакого отношения к работе мозга не имеют. Если бы можно было в морге изъять у трупа мозг, пусть даже пропитого бомжа, он и то лучше бы работал чем эти ваши нейросети.
И опять же таблица с использованием никак не отражает технологическое превосходство в разработке ИИ. Толстый гамбургерный американин может запилить говнокод на 1000 строк и засунуть его в теслу машка, айфон, чайник, утюг. Вот и получится что по количеству американцы впереди, но практического толка от этого ноль. Так-как финдфейс уделает этот алгоритм но при этом будет просто деанонить порнозвезд и преступников.
"Суть не в том, что искусственный интеллект, который мы будем создавать в следующие 20 лет, представляет из себя нечто пугающее. Иногда пугает сам человек и то, как он будет использовать созданные технологи", - сказал Валлах в беседе с РИА Новости на полях форума по искусственному интеллекту, организованного аналитическим центром "Тайхэ" (Taihe).
Он отметил, что технологии могут стать опасными, если кто-то захочет использовать их для манипуляции поведением и чувствами людей.
"Подумайте, что произойдет, если у нас будут сенсоры, которые знают, когда вы чувствуете страх или уязвимость... Для меня пугающим представляется использование искусственного интеллекта в целях слежки. Кроме того, что будет, если искусственный интеллект будет контролировать смертоносное оружие. Это очень пугающе, но нам не нужно делать этого всего", - сказал Валлах.
При этом он скептически настроен относительно того, насколько быстро ученые смогут создать нечто подобное человеческому мозгу, препятствием для этого могут стать и этические вопросы.
"Я думаю, что мы пока очень далеки от создания чего-то подобного человеческому мозгу, очень далеко. Что это значит? Двадцать лет, пятьдесят лет, сто лет, я не знаю. Некоторые мои коллеги считают, что в течение двадцати лет, я так не считаю. Я полагаю, что мы будем спотыкаться больше, чем мы думаем. Я немного более скептичен, чем большинство, потому что я очень много думал об этических вопросах и я осознал, что все очень непросто", - сказал Валлах.
Тем не менее Валлах полагает, что в будущем технологии будут приносить больше пользы, чем таить в себе угрозы, сложность заключается в минимизации нежелательных последствий для общества.
https://ria.ru/20190527/1554953094.html