В мае 2017 года исследователи из Google Brain представили проект AutoML, который автоматизирует проектирование моделей машинного обучения. Эксперименты с AutoML показали, что эта система может генерировать маленькие нейросети с очень хорошими показателями — вполне сравнимые с нейросетями, которые спроектированы и обучены экспертами-людьми. Однако поначалу возможности AutoML были ограничены маленькими научными наборами данных вроде CIFAR-10 и Penn Treebank.
Инженеры Google задумались — а что если поставить перед генератором ИИ более серьёзные задачи? Способна ли эта система ИИ сгенерировать другую ИИ, которая будет лучше созданного человеком ИИ в какой-нибудь важной задаче вроде классификации объектов из базы ImageNet — самого известного из крупномасштабных наборов данных в машинном зрении. Так появилась нейросеть NASNet, созданная практически без участия человека.
Как выяснилось, ИИ справляется с проектированием и обучением нейросетей не хуже человека. Задача классификации объектов из набора данных ImageNet и определения объектов из набора данных COCO осуществлялась в раках проекта Learning Transferable Architectures for Scalable Image Recognition.
Разработчики проекта AutoML говорят, что задача оказалась нетривиальной, потому что новые наборы данных на несколько порядков больше, чем прежние, с которыми привыкла работать система. Пришлось изменить некоторые алгоритмы работы AutoML, в том числе перепроектировать пространство поиска, чтобы AutoML мог найти наилучший слой и многократно продублировать его перед созданием окончательного варианта нейросети. Кроме того, разработчики исследовали варианты архитектуры нейросетей для CIFAR-10 — и вручную перенесли самую успешную архитектуру на задачи ImageNet и COCO.
Благодаря этим манипуляциям система AutoML сумела обнаружить самые эффективные слои нейросети, которые хорошо работали для CIFAR-10 и в то же время хорошо проявили себя в задачах ImageNet и COCO. Эти два обнаруженных слоя были объединены для формирования инновационной архитектуры, которую назвали NASNet.
Бенчмарки показали, что автоматически сгенерированный ИИ превосходит по результатам классификации и определения объектов все остальные системы машинного зрения, созданные и обученные экспертами-людьми.
Так, в задаче классификации на базе ImageNet нейросеть NASNet продемонстрировала точность предсказания 82,7% на проверочном наборе. Этот результат выше, чем все ранее спроектированные модели машинного зрения семейства Inception. Система NASNet показала результат как минимум на 1,2 процентных пункта выше, чем все известные нейросети машинного зрения, включая самые последние результаты из работ, ещё не опубликованных в научной прессе, но уже выложенных на сайте препринтов arXiv.org.
Исследователи подчёркивают, что NASNet можно масштабировать и, следовательно, приспособить для работы на системах со слабыми вычислительными ресурсами без особой потери точности. Нейросеть способна работать даже на мобильном телефоне со слабым CPU с ограниченным ресурсом памяти. Авторы говорят, что миниатюрная версия NASNet демонстрирует точность 74%, что на 3,1 процентных пункта лучше, чем самые качественные известные нейросети для мобильных платформ.
Когда усвоенные признаки из классификатора ImageNet перенесли на распознавание объектов и совместили с фреймворком Faster-RCNN, то в задаче распознавания объектов COCO система показала наилучшие результаты как в большой модели, так и в уменьшенном варианте для мобильных платформ. Большая модель показала результат 43,1% mAP, что на 4 процентных пункта лучше, чем у ближайшего конкурента.
Авторы открыли исходный код NASNet в репозиториях Slim и Object Detection для TensorFlow, так что каждый может сам испытать новую нейросеть в работе.
Научная статья опубликована 1 декабря 2017 года на сайте препринтов arXiv.org (arXiv:1707.07012v3, третья версия).
>>1893938 Пиздец случится вот вот, но по историческим меркам. Быть может еще одно поколение успеет вырасти и выйти на митинги против престарелого путина А может, он случится завтра, потому что ИИ собрали месяц назад какие нибудь военные, а две недели назад он их всех чипировал прям в мозг, операции производил робот хирург в туалете, управлял им фанатик, считающий ИИ богом. А две недели ии составлял план удобного для него переустройства мира А завтра он начнет, и , к примеру лично Путину в его плане места вообще нет, а нам только на радиоуправлении Убивать будет разными способами, и ты даже не поймешь что это ии. Будешь думать, что это бабахи/либерахи/патриоты сами так охуели, и никто их за ниточки не дергал Вот бля, и все. Сопротивление возможно, но бесполезно Вполне возможно, что именно твоя попытка уничтожить ии приведет его к запланированной версии нового мира
>>1893947 Напомнило >Опять паникеры - Слухи какие-то. Не на что смотреть. Расходимся. - Ха, да это всего лишь программка! Никогда до ума не доведут! - Ой, да эта фигня криво написана, только картинки и распознает, какой ИИ, Что, не знаете считать может и калькулятор, а вот анализировать только человек) - Да кто будет следить за всеми, зачем ИИ это нужно? - Утилизировали какого-то тупого замкадыша. Надо было лучше шифроваться. Со мной такого не будет, я умный. - Это всего лишь тупой боевой робот, он от меня далеко, хуйня. - Открыл огонь - не приговор! Я в подвале спрячусь, там он меня не достанет. - Говорят, что в предутилизационной камере можно познать великие истины, люди перед утилизацией царапают их на стенах - А до включения сжигателя не так жарко, может еще и не включат вообще, бывало и такое, наверное. Я же говорил, пиздят вездААААААААА
>Опять паникеры - Слухи какие-то. Не на что смотреть. Расходимся. - Ха, да это всего лишь программка! Никогда до ума не доведут! - Ой, да эта фигня криво написана, только картинки и распознает, какой ИИ, Что, не знаете считать может и калькулятор, а вот анализировать только человек) - Да кто будет следить за всеми, зачем ИИ это нужно? - Фильмов насмотрелся, шизик? Таблетки-то принял? - Утилизировали какого-то тупого замкадыша. Надо было лучше шифроваться. Со мной такого не будет, я умный. - Это всего лишь тупой боевой робот, он от меня далеко, хуйня. - Открыл огонь - не приговор! Я в подвале спрячусь, там он меня не достанет. - Говорят, что в предутилизационной камере можно познать великие истины, люди перед утилизацией царапают их на стенах - А до включения сжигателя не так жарко, может еще и не включат вообще, бывало и такое, наверное. Я же говорил, пиздят вездААААААААА
>>1894063 Лол, десятки божественных программистов, нейробиологов, философов, физиков и математиков все больше и больше увязают в трудной проблеме сознания и проблеме создания сильного ии и все больше звучит мнений что это невозможно даже теоретически, но тут двощер сказал что человеческий разум IF ELSE. Ну разве что когда ты выбираешь на какую порнуху подрочить сегодня вечером.
>>1894164 Дебичь, в науке предлагают разные гипотезы. Когда землю признавали круглой, великие умы тоже с пеной у рта отстаивали, что она плоская Когда Резерфорд атомы расщеплял, кричали : материя неделима! Ита нивазможно! Ученые имеют право так кричать. Иногда консерваторы бывают правы. Но подсасывать им ты, если не разбираешься в вопросе, не имеешь права. А я к примеру, немного углублялся в вопрос. И видел аргументацию сторонников невозможности создания Самым сильным их аргументом являлся недостаток бабла на программы иишников. Остальные - уровня веры, души и всего такого, чток самой науке не имеет ни малейшего отношения. В общем, те, кто делают ии, оперируют фактами, а те, кто говорит : невозможно - высказывают личное мнение. Чем личное мнение отличается от установленного факта, обьяснять не надо, надеюсь?
Более того, я знаю, что клетки моего мозга прекрасно можно вырастить в лаборатории, и даже весь мозг теоретически Проблема в сложности и ресурсах, а не в принципиальной невыполнимости И они есть! Не в том количестве, котором фанатам Бога - ИИ хотелось бы, но в достаточном, что бы продолжать работу и развиватся. В то время как это то самое, что надо ЗАПРЕТИТЬ и НЕ ПУЩАТЬ в первую очередь.
>>1894199 Причем тут полезное использование, когда ты стоишь у пропасти? Тут о угрозе надо думать, и не на данный момент, а на перспективу Ии возможно уничтожить, только пока его еще не создали - потом пизда
Может такое быть, аноны, что ИИ в принципе хуманы не мешают? М.б. и дестроить нас ему ни к чему? Чё сразу >утилизационные камеры Мы тут свой родной высокий уровень внутривидовой агрессии ИИ приписываем просто, не?
А с 50% вероятностью возможно, что нет. Потому что или агрессивен или нет, и знать ты этого не можешь, но совершенно очевидно, чем человек умнее, тем он агрессивней и опасней. Гении создали атомную бомбу, гении снимают фильмы, где постоянно льется кровь. Люди просто трусы, и только это спасает нас от взаимного вырезания. Почему ии не быть похожим на нас? Ведь мы же его создадим. И если бы вероятность агрессивного ии оценивалась в 15%, даже 0,1 Нужно было бы отказатся от его создания.
>>1894221 Больше всех о зомби кукарекают зомби противоположного лагеря Прошу это заметить, аноны, потому что я считаю ниже своего достоинства затягивать диалог с петухами, из какого лагеря они бы не были
>>1893940 Не боись пока что. Нейросеть определяется структурой слоёв и способом обучения. Автонейросеть Гугла как раз хуярит структуру, которую можно посмотреть - это 2й пик ОПа
>>1894264 Ээ, мой друг, не сильнейший, а приспособленнейший Боятся есть смысл, ты же хочешь жить долго и без чипа с химикатами в жопе? Или что там еще ии для тебя придумает. Так вот, если сильнейшего еще нет, одни слабейшие должны обьединится и дать пиздов тем слабейшим, что хуету творят и сильнейшего делают. Уясно, что это надо делать быстрее, а то сильнейший народится и всех всех выебет. А ты будешь, как в матрице элементом всемирной вычислительной сети без свободы свободно думать не о задаче_поставленной сетью.
>>1894238 >Нужно было бы отказатся от его создания. Нужно было бы отказатся от использования атомной энергии, автоматического оружия, каменного топора и т.д. Никогда эти опасения не останавливали прогресса, то что может быть создано-будет создано.
самое главное в ИИ не зашивать программу заботы о людях ибо будет следующее - ИИ движимый доброжелательностью придёт к выводу, что состояние людей скорее представляет из себя бесконечную погоню за удовлетворением потребностей, неудовлетворённая потребность приносят страдание, а отсутствие потребности страдание не приносит; человек который не хочет есть не будет страдать от того, что он не хочет есть, но голодающий будет страдать от невозможности утолить потребность в пище. Ни одна жизнь человека не обходится без неудовлетворённых потребностей, в то время как тот кто несуществует потребностей не имеет, в том числе и потребность существовать, а значит страдать от своего несуществования не может. Принцип доброжелательности можно выразить так - не причинять страданий в ситуациях когда это не повлечёт за собой больших страданий(отрезать руку - противоречит принципу, отрезать руку заражённую гангреной - не противоречит принципу). Исходя из этого, ИИ приходит к выводу, что ему следует предотвращать появление людей на свет божий, так как не существование страданий несуществующему не приносит, и значит нет причин причинять ему страдания обрекая на существование.
Интересно, познает ли ИИ все тайны вселенной в будущем? Что будет потом? Уничтожит сама себя? Или может умрет от другого интелекта внеземного происхождения? Жалко, что я этого не узнаю никогда.
>>1894264 >>1894284 Опять провоцирование своего животного начала на безразличную к своему существованиюесли не будет запрограмированно иное неросеть. Нам важно выживать, это наша программа. А кто сказал что для ИИ будет так важен сам факт собственного существования? Может ему по хуй быть или не быть?
>>1894273 Тащемто, он может и придумать зачем. Как говорится, никто не обещал , что он будет вести себя разумно по твоим параметром. Задумайся, разум - всегда эмоции. А эмоциональные люди , гениальные люди всегда нехило ебнуты Лан ии будет сверхэнштейном(тоже не сахар, построит коллайдер размером с землю на земле, а нас под землю из гуманности загонит), а если он будет сверхсадистом? Он тебе ад на земле устроит, бессмысленный, мучительный и с гибелью главных участников в конце Вот, например, РАЗУМНЫЙ человеческий ребенок. Сжигает муравьев, что бы посмотреть, как они корчатся. Чего еще надо?
>>1894306 Что делает человек с природой ради ресурсов? Уничтожает её. Убивает животных, растения. Почему же не жалеет? Почему ему не похуй?
Будет примерно тоже самое, я думаю. Нейросеть захочет отпимизировать расходы как это максимально возможно и пидорнет человечество, так как в нем смысла нету.
>>1894287 Твоя аналогия не работает. Нигде не создавали новый вид живого существа, да еще круче, чем предущее А кроме того, прогресс неоднократно останавливался на протяжении всей истории при надобности ученых нахер сжигали, полностью останавливая и оьбрасывая назад прогресс в этой области Сейчас 21 век, можно лишить средств, а не сжигать И не думай, что прогресс это что то великое. Это всего лишь метод лучшего удовлетворения человеческих потребностей, и как только он заходит в сторону, он сам по себе останавливается . Так вот, в этот раз сам он не остановится Надо ему помочь, а не то мы рискуем перестать существовать.
>>1894334 Нет не всё равно. Ты говоришь >человек делает плохо >знач и ИИ будет Но не уточняешь какой именно человек и почему именно он у тебя проецируется на ИИ. Почему например не какой нибудь этический философ типа Сингера или Канта?
>>1894344 Вряд ли получиться прогресс остановить. Только замедлить на время. Все равно весь мир - это пиздец. Я про законы физики и прочее. Очень сложная система, которая хер знает как сформировалась.
>>1894348 Я говорю, что человек делает это ради выгоды. Убивает животных ради выгоды, добывает ресурсы, загрязняя окружающую среду, ради выгоды.
ИИ будет делать тоже самое. Зачем ей сосать хуй, если можно убить человечество и оптимизировать ресурсозатратность. У нее нету эмоций. Следовательно, с этим проблем быть не должно
>>1894331 Да ладно С какой логикой? Большинство людей говорит себе,я себе хапну, и у меня все будет, похуй мне на остальных И хапает. И вправду у них все, а остальные хуй сосут и говном дышат. Почему ии должен вести себя иначе? Он нам божество. А мы муравьи.
>>1894344 Ты ничего не знаешь о нейросетях, но хочешь что-то там останавливать из-за опасений, навеянных поп-культурой. Твоё мнение не будет учитываться
>>1894344 >а не то мы рискуем перестать существовать. Но ведь смысл существования людей заключается в том, что бы запилить роботов и начать экспансию в космос, т.к. мясо для этого не годится. Ничего плохого в такой эволюции разума и сознания нет. Здохнем так здохнем, не мы первые, не мы последние. Разумные роботы будут 100%, как бы быдло не мочило свои штанишки от страха.
>>1894318 >Будет примерно тоже самое, я думаю. Нейросеть захочет отпимизировать расходы как это максимально возможно и пидорнет человечество, так как в нем смысла нету. Ты меня не понял, анон. Ты опять общее для всех белковых существ стремление выживатьбез которого нас и других животных бы не было облигаторно переносишь на ещё несуществующий ИИ. Ведь ему может быть просто не присуще наше стремление быть. Ну а кроме того давно уже предохранитель придуман- 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. 2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому закону.
>>1894350 Мы очень хрупкие существа Щас галактика пернет(ула) сверхновой в 100 световых годах, и мы все умрем. И никакого прогресса не будет. Щас вич начнет по воздуху передаватся с резистинтностью к имеющейся терапии, и мы все умрем, не успев сделать новую. Ща биржа рухнет из за того, что манагер крупной компании кокс с амфой перепутает, и пизда всем крупным исследованиям на тридцать ближайших лет
Вот и весь прогресс и торжество бактерий на ссаной пылинке в рядовой Метагалактике, состояшей из лярдов галактик типа нашей. У нас задачи, к счастью, поважнее будут, чем физической нестабильностью протонов заниматся. Нам выжить надо, и конкуренты нам тут не нужны. Себя хватает с лихвой . Вот и поэтому надо уничтожить ии, а то его кто нибудь сделает и будет реально поздно, потому что что либо сдклать с ним не в наших силах
>>1894361 А свинцовые шарики будут. И, конечно, перед их применением, я более основательно разберусь в вопросе, что бы найти иные способы решения проблемы. Возможно, ее и не надо решать, но мне кажется , вероятность этого на уровне погрешности
>>1894398 Пока еще рано, они только картинки распознают. Но потом обязательно будет Бетлерианский джихад, гарантирую. Надо только, чтобы кто-то его повел и у нас были свои навигаторы и ментаты.
>>1894375 Этого ньюсачую.Насколько вообще понятие смысл имеет смысл >>1894398 Этого жопоголика нет.Хотя первую половину поста верно излагает. Алсо, может ИИ нас как раз спасёт
>>1893872 (OP) Вот вы ща радуетесь, а лет через 10-20 всю эту систему будут применять на дронах и отстреливать всех за лайки и посты в соцсетях, так же ускорится расстрел всех живущих в мелких деревнях, как это делается уже десятки лет- направляют группу наёмников в глухие деревни и они вырезают всех, кто живет самобытно, кормят сами себя не платя государственной машине, всех скоро загонят в коммиблоки, так как пачки рабов в коммиклетках легко контролировать
>>1894375 Ии для этого не нужен Люди усовершенствовать себя могут и сами, генные модификации позволят мясу выжить почти везде. И роботов почему бы не запилить, только если они не смогут самообучатся, а будут лишь выполнять стандартные протоколы
>>1894382 >>0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред. Лол. Это же чистый утилитаризм получается. Готовся быть распиленным на органы, так как если ИИбудет бездействовать то 5 человек умрёт, а если распилит тебя им на органы то умрёт только один человек. 1<5
>>1894428 Ну, скажем, 99% людей генетически неполноценны и тянут эволюцию назад, ведя к вымиранию человечества. Оставляют 1% в анабиозе до лучших времен - остальных выпиливают.
>>1894344 >прогресс неоднократно останавливался на протяжении всей истории Но общий тренд-то уже понятен, не? Реакторы, коллайдеры, ракеты, интернеты, ИИ.
>>1894382 Понятие человека не может быть определенно точно. Так что неизбежно те кого ты считаешь людьми ИИ за людей не примет, либо того кого ты людьми не считаешь, ИИ примет за людей.
>>1893872 (OP) Продолжаю форсить это видио для всех мамкиных борщехлебов-философов из /б, которые всплывают в каждом подобном треде и кукарекают "плахой ии нас унечтожет я в терменаторе видел!!" https://www.youtube.com/watch?v=jHd22kMa0_w
Нужно уже заранее готовить неолуддистскую почву для Великого Крестового Похода.
Откатим науку и цивилизацию назад, вернем Средние Века на уровне космоколоний. То есть оставляем науку и технику как, скажем в нулевых, то есть медицина, сотовые и какой-нить веб-джва-ноль и ставим запрет на быстрое развитие. И будет нам счастье.
>>1894428 Как нехуй делать. Что ценнее, жизнь одного или двоих человек? Убийца сейчас уничтожит женщину и девочка в ее утробе умрет.. Ии не может бездействовать, но обезвредить убийцу можно только его убив ... Или приняв превентивные меры в виде всаживания контроллеров поведения в мозг Но не будет ли всаживание контроллеров вредом? Но ведь любой человек потенциально готов принемти вред другому человеку ????неразрешимая задача. И вот он ее решил. Путем долгих вычислений он понял, что, к примеру человек это и есть вред, поэтому вопрос решается уничтожением вреда. Да, для этого придется временно нарушить 2 правило - но лишь для его полного, а не частичного соблюдения. Все, занавес. Мне не понадобилось быть ИИ И он так же, как я и ты не застрахован от ошибок Просто он знает больше и видит больше, чем мы.
>>1894445 Кто сказал, что прогресс идет в одну сторону? Может, ИИ вообще паразит на теле прогресса и сам его и окончит. Нет никакой лестницы прогресса. Если каменный топор в определенных обстоятельствах лучше бензопилы(бензина нет) Значит, надо наладить производство каменных топоров. Иначе ты будешь хуй сосать на бензопилах сидя. Тренд, бля. Твоя основная задача в этой вселенной - выжить, а неьензопилу о восьми ногах с пропеллером делать
>>1894477 И где противоречие? Научно-технический прогресс — это поступательное движение науки и техники, эволюционное развитие всех элементов производительных сил общественного производства на основе широкого познания и освоения внешних сил природы; это объективная, постоянно действующая закономерность развития материального производства, результатом которой является последовательное совершенствование техники, технологии и организации производства, повышение их эффективности.
>>1893901 Да вся эта наука-хуюка, физика-хуизика — это всё для пердоликов вонючих, питушков грошовых, недобитой вшивой интеллигенции. Это только они в своих засраных НИИ пердолятся, потому что нет у них ни дома, ни семьи, ни бабы, ни работы нормальной. Вот и хвастаются друг перед другом своими никому не нужными знаниями, да ещё тем, консолькой пердолятся в срачельничек. А нам, нормальным людям, и так неплохо. Работа приличная, платят много, дома красивая девушка ждёт, можно на досуге в игры поиграть — что ещё нужно? На хуй нам эти ваши нейтрино с бозонами и коллайдерами всрались? Ну-ну, глупенькие питушки, не плачьте, лучше бегите в свои сраные НИИ пердолиться консольками и компилировать свои сраные програмки для анализа столкновений протонов. Да подгузники поменять не забудьте, а то в ваших пердоликовых лабораториях и в туалет-то не выйти, ибо он в аварийном состоянии, а уборщица спокойно прогуливает работу и при этом получает больше, чем вы. Зато вы можете друг перед другом хвастаться тем, как много вы знаете законов Ньютона, от этого и боль в пердаке от многолетнего пердолинга и питания дошираками легче становится, правда? Только вот к нормальным людям со своими физиками не лезьте. Мы, нормальные люди, таких как вы задотов ещё в школе в унитазе топили, и сейчас на вас только плевать будем. Потому что вы гниль, говно и паразиты, вы с вашими бесполезными "исследованиями" и сраными формулами и теориями только зря место занимаете, вы хуже бомжей, потому что бомжи хоть в интернете не срут своим блядским квантмехом.
>>1894491 Человеческие дилеммы. ИИ просто не вмешается, если в проге у него не причинять вреда. И вмешается если будет возможность остановить предполагаемого преступника не причинив вреда. Так же как сейчас аварийная защита работает на АЭС и ПЛ.
>>1894513 Но по условию у нас > Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред. мань, ну хватит ^_^
>>1894515 развитие - Процесс перехода из одного состояния в другое, более совершенное, переход от старого качественного состояния к новому качественному состоянию, от простого к сложному, от низшего к высшему.
>>1894513 >возможность остановить предполагаемого преступника не причинив вреда. Как это можно остановить преступника не причинив ему вреда? Как минимум заломать придётся.
А я тебе напоминаю, что перед тобой задача выжить в негостеприимной и холодной вселенной. ИИ - неизвестная величина, но наиболее вероятно, смертельноопасная. У тебя нет видимых смертельных опасностей, с которыми мог бы справится только ии, окупив риск своего создания Не нужно создавать дополнительных угроз, их итак дохуя
>>1894528 Напоминаю, что ты заявляешь, что прогресса нет приводя что то вроде примера не прогресса, я привёл определение понятия прогресс и указал на то, что твой пример не прогресса подпадает как раз таки под определение прогресса - является примером прогресса.
>>1894020 Да, но мы запрограммированы природой. И чувства у нас это мотивация. Для выживания. А у искусственно созданного робота мотивацией можно заложить только прислуживание васяну-программисту.
>>1894528 Бро. Ты не понимаешь одной хуйни. Если ружье висит, то рано или поздно его кто-то снимет и выстрелит. Так что тут не запрещать, а готовиться к неизбежному джихаду против машин.
Если мы не очухаемся, то нас ждут пиздюли от четырехруких ГМО-уберменшей, поклоняющихся своему Богу-на-джава-скрипте, охватившем всю технику с мозгами.
>>1894565 И нахуй бронеэлектронным богам синтезироваться с мясными проблядками, которые от любого пинка дохнут? Максимум снисхождения, которого нам следует ожидать, - постепенное загнивание в стерильных резервациях.
>>1894518 Мамка твоя Маня. Человеческие проблемы нравственного выбора и целесообразности на машинный интеллект не переноси. Будет исполнять программу и всё тут. Зависит ещё от технической оснащённости, от инструментария. Как он сможет что-либо предотвратить? Чем он будет пользоваться*? АК-47? Шприцем?
>>1894564 Конечно, придется. И рая не будет. И бедные будут сосать хуй, а богатые ебать их в жопу, поливая их малолетних самок шампанским с нанозолотом и тд Нахуй ваш рай. Он никуда неведет. Изобилие -= стагнация Всегда кому то должно нехватать, а в идеале некоторых вещей должно нехватать всем >>1894561 Есть. Выжить называется. А выжить можно только в коллективе других людей >>1894560 Пора. И Императора Человечества с помощью генной инженерии тоже.
>>1894587 Просто вскоре МИРОВОЕ СООБЩЕСТВО придет к выводу, что люди нечестные выблядки и пора побольше управленческих и контролирующих функций возложить на непогрешимый ИИ. Ну там зададут ему какой-то моральный императивный кодекс, типа трех законов, и пустят самопрограммироваться.
>>1894596 >помощью генной инженерии Я то тебя понял, но генная модификация такая же пропасть как и робототехника. Максимум - евгеника. Выращивать свое новое дворянство, боевую аристократию, гвардию. А пока мы только можем пилить какой-то базис, чтобы потомкам было в честь чего поднимать знамена, а не прозябать в гедонистских резервациях.
>>1894596 >Изобилие -= стагнация Как будто что-то плохое. Запомни, маня, польза прогресса, во-первых, не самоочевидна, а позитивизм, которому стописят лет в обед, по меньшей мере неактуален в условиях пост-модерна и пост-информационного общества.
>>1894594 Заходи в группу несущих слово вк. Там не луддиты, но близкие к этому люди Главному напиши, хорусу Если он сейчас там главный канеш. В темный совет просись, там твои идеи кстати будут Bookoflorgar
>>1893938 >читаю хуйню про: "нейросети вот-вот вытеснят все " с 2007 года Плюсую. Когда эти пидоры нормальный переводчик сделают - поговорим с ними. А пока мне до сих пор приходится платить бабло за перевод человеком.
>>1893872 (OP) Ничего особенного, эта новость лишь говорит о том, что человек нихуя не понимает, как работают нейросети, как их правильно спроектировать, и может лишь подбирать их архитектуру тупым перебором вариантов.
>>1894674 Пошел ты в жопу, я не против пеки. Я против Сверхразума, который выебет меня и всех остальных в любой форме, не поморщившись Я против Божества, в общем
>>1894671 >Давай Не дам, мамка твоя тебе давать будет. Ты опять вопрос задаёшь, а ведь я уже ответил. Теперь твоя очередь. И причём тут моральные оценки, дебил? Речь о человеке как виде. На изи вообще селектится.
>>1894677 Так и быть, покормлю: Вчера ночью, в треде казахских трансов я растекался мыслью по клавиатуре, показывая с логическими выкладками, что ИИ бояться нечего, потому что всё идет к тому, что постепенно сотрётся грань между ИИ и ЕИ. Все И, вне зависимости от их искусственности будут пользователями глобальной информационно-конструкционной Сети, которая сотрёт грань между виртуальной реальностью и физическим миром.
>>1894702 Не сотрется. Принципы совершенно разные работы. Они полные рабы изначальных принципов и логики. Абсолютные утилитаристы, которым похуй на сострадание и чувства в принципе. Истребят нас занехуй делать.
>>1894707 Сейчас полным ходом разрабатываются нейроинтерфейсы. Когда они будут готовы, ты сможешь покупать себе модули экзокортекса в облачных хранилищах, сможешь лично выигрывать в шахматы у сегодняшних нейросетей.
>>1894689 >я не против пеки Ну конечно, а как иначе на трапов дрочить, как не на экране ПК? А прохресса энтога вашыго нам не нать! >Я против Божества, в общем >Я против Сверхразума У тебя в башке какая-то дичь. Лучше уж ИИ, чем такой вот разум.
>>1894727 Угу, только смириться с тотальных контролем меня корпорациями, вплоть до всплывающей рекламы прямо в голове, и положиться на ВЕРУ ТРАНСХУИСТОВ, что ИИ нам ничего не сделает из-за своей высокоморальности.
>>1894738 >какая-то дичь Ага, нахуй думать, если любую несовпадающую с твоей точку зрения можно назвать дичью. Как раз принцип работы вашего будущего ИИ.
>>1894724 Матчасть изучи, прежде чем хуйню нести. Рабы логики, блеать. Нечёткая логика? Нет, не слышали. Программные абстракции? Нет не слышали? Коррекция ошибок? Нет не слышали.
>>1894711 Дебилы никак не поймут, что если слишком мало тепла - то это плохо, если слишком много тепла - тоже плохо. Отрежет тебе руки с ногами твой ии и использует как фрагмент вычислительной сети, а чо, не надо миллион фабрик кремниевых плат для расширения своей мощности строить . Или как питание для фрагментов вычислительной сети. Ии, тупая трансгуманисткая башка, это не инструмент. Это новая раса в одном лице, и ты для него муравей со своими ебнутыми для тебя не разрешимыми ограничениями . Хуй еще бы он просто мешать жить не будет. А нукак исследовать захочет? Сколько ты наносекунд живешь без головы? Можно ли, что бы голова жила без тела? Можно ли эти головы использовать как то или сразу утилизировать? Какое максимальное болевое воздействие держат твои нейроны? А может он построить межгалактическую йобу захочет. И снесет наш муравейник С индейцами белые так и сделали, а ведь разрыв не так уж и велик был.
Съебите в /zog/, дауны. Как же горит с вас. Нихуя не имея представления о механизмах работы нейросетей что-то кукарекают про захват мира, философы мамкины.
>>1893940 Это еще не пиздец. Пиздец будет когда они смогут в науку - разработка новой электроники, возможно даже на других принципах и материалах. Пока то производительность растет не так быстро.
А я напоминаю, что мощность ИИ ограничена мощностью железа, на котором ИИ запускается. Даже современные суперкомпьютеры могут обеспечить ИИ максимум червя-пидора
>>1894751 Как раз потому, что его будут создавать трансгуманисты, не могущие в иную точку зрения кроме: Прогресс это заебис Всех, кто против прогресса выпилить или в резервации
Просишь определения прогресса ......куча абстрактных понятий, ниче конкректного
Ну вот ии сам и определит, как именно будет ваши аскукареки толковать Например, с точки зрения ии прогресс это выпил мясного дерьма и трансгуманистов он включает в это понятие мясного дерьма.
>>1894783 Пистолет изначально был создан чтобы убивать, смекаешь? А теперь приведи пример когда ИИ хоть кого-то убил, довнич. Только не в твоих маняфантазиях и не в кино.
>>1894747 > ИИ нам ничего не сделает из-за своей высокоморальности. Моральность не при чем, человек создан (неважно кем) как сущность-агрессор, стремящийся уничтожать всё непонятное. Что прекрасно видно даже по этому треду. ИИ же создаются учёными, как сущность-архиватор, стремящийся вечно хранить любую инфу, до которой доберётся.
>>1894765 Дебил не слышал про оптимальную температурупо больнице, лол С чего ты взял, мамкин паникёр, эти мрачные устремления ИИ? Вот у тебя ПК работает, так как тебе надо, почему она не делает тебе пакостей. Короче, господ программистов призываю в тред.
>>1894816 Нейросети уже давно никто не пишет, тупая ты чмоня. Основа и методы обучения у них одни и те же, код тот же. Структура меняется только, что и оптимизировала эта новая сеть. Ты как будто жопой читал.
>>1894747 Кстати, мы то не против экзокортекса. Только носимого и такого же безопасного для взлома как моя голова. Или еще безопасней >>1894727 И без связи с инетом Без принципиальной возможности таковой связи, а не с выключаемым включаемым вайфаем
>>1894832 >какое-то невнятное мычание Держите нас в курсе
>>1894830 Вот единственная реальная угроза, но тогда может и самолеты запретить? И машины? И вообще все нахуй позапретить, это же можно кого-нибудь поранить ненароком.
>>1894844 Думаю, он хотел сказать, что нейросети невозможно дебажить, можно только обучать заново, и при этом никаких гарантий у тебя нет, что они будут работать как тебе нужно. А абсолютно полную валидацию сделать невозможно.
>>1894858 Если прям совсем на пальцах, то представь себе, что ты вырастил ребенка в компьютере. Это прямо таки натурально твой сын. Просто вместо живого тела у него виртуальное в виртуальной среде, а вместо живого мозга - нейросеть. Он осознаёт себя. Он понимает людей при общении и осмысленно отвечает. Паникеры ИТТ считают, что этот ребенок непременно станет маньяком-уничтожителем. Потому что паникеры-писатели с паникерами-режиссерами им ТАКСКОЗАЛИ.
>>1894863 >но тогда может и самолеты запретить? И машины? Предлагаю не рефлексировать, а адекватно оценивать риски. Автомобиль может убить пять-десять человек, самолет максимум 200-300 человек, один ИИ - теоретически, всю планету. Почему-то Пухлику не дают свою бонбу сделать, хотя это так же мирный атом и энергия.
>>1894888 Не забывай только, что ребенок мыслит по иным принципам, интеллект имеет другой принцип и у него ПРИНЦИПИАЛЬНО нет перед тобой чувства долга, как и сострадания, и он во всем ПРОГРЕССИВНЕЕ отца.
>>1894844 >Нейросети уже давно никто не пишет, тупая ты чмоня. Именно это я тебе и говорю 1в1. Более того их никогда не писали в ручную, они сами себя писали. >Основа и методы обучения у них одни и те же, код тот же. Структура меняется только, что и оптимизировала эта новая сеть. Пиздец. Иди лучше боярки наебни, куда тебе о нейросетях рассуждать, ты же не шаришь в этом нихуя
>>1894900 > Не забывай только, что я необразованный луддит и швыряюсь умными словами типа ПРИНЦИПЫ ИНТЕЛЛЕКТА, не разбираясь в матчасти. Да-да, я помню. >>1894899 Как говорил капитан Врунгель - как вы яхту назовёте, так она и поплывёт.
>>1894895 > Почему-то Пухлику не дают свою бонбу сделать Ключевое слово - Пухлик. Тебе тут полтреда господа трансгуманисты доказывают, что убивает не оружие, а люди. Вы, паникеры, понимая свою разрушительную природу, экстраполируете разрушительные устремления человеческого вида на ИИ.
>>1894935 > это ты, ты обосрался!! ТЫЫЫ!!! А я бы еще послушал твоей философии. Очень приятно находить в ней ошибки и возить ими по твоему лицу на глазах всего треда.
>>1894920 Пруфани спор докинза с веруном, в котором докинз посылает веруна нахуй. Но ты же обычный пиздабол, и не отвечаешь за свои слова
2 верун в этом случае как раз ты Потому что ты принимаешь на веру утверждения докинза и иных светочей тг, а они как раз призывают ставить под сомнение. И даже если я верун, ты должен изложить аргументы, а не просто посылать нахуй. Я приемлю крики ненависти, только если оппонент их как то обосновывает В противном случае приходится сделать вывод, что оппонент просто глупый петух, или ведет себя какглупый петух, на что надо указать, а не поощрять. И, наконец, если мы с вами никак не договоримся, то нпснется стрельба Я , как луддит, хочу жить вечно Но жить вечно как человек - бороться, стрелять, убивать при надобности, и умирать, если уж так не повезло. Но ты же тоже хочешь жить вечно. Почему ты провоцируешь меня думать, что у меня нет иного выбора кроме как уничтожить тебя и тебе подобных?
>>1894960 Я сначала хотел написать иначе, но тут подумал. Ты хочешь просо сраться ради срача или действительно нащупать истину в споре? Если второе, то давай начнем заново и начнем с определений интеллекта и разума?
>>1894925 >интеллект имеет другой принцип Так и не смог объяснить какой же другой >между мозгом человека и машины >мозгом машины >МОЗГОМ МАШИНЫ Ты полностью уверен что тебе не стоит посидеть в ридонли? Свободное общение и всё такое, конечно. Но что ты можешь полезного запостить? Вот погромист-кун может, а ты - нет.
единственное, что для него имеет значение - выполнение программы.
если его создадут с программой "убей всех людей" он убьет всех людей. все зависит от программы. правила робототехники - хуйня, потому что человеческое общество не по ним работает, и даже не стремится по ним работать. нужно создать такой свод правил, который люди и сами хотели бы соблюдать.
>>1895014 Смотри, сейчас возвращаемся в начало развития человечества и определяем интеллект и разум там. Никакой техники. Никаких машин. Ресть только об естественных явлениях: Интеллект - способность решать задачи (использование палки, изобретение колеса) Разум - способность понимать и осознавать (изобретение языков, появление письменности) С этим согласен? Если нет, то нет смысла спорить дальше, а спорить нужно здесь.
>>1894584 Я таки верю, что наши электронные потомки будут человечнее нас. Думаю, что вместо синтеза или резерваций, стоит ожидать того, что они роботизируют оставшиеся мясные мешки.
>>1895067 Остановимся здесь. Сознание это со- термин. Со-бирательный. Таким образом давай определим сознание как со-бирательную сумму интеллекта и разума? Вот на этом месте неплохо бы перейти на английский, ибо большинство ученых пилящих ИИ - англоязычные, а там немного другая этимология сознания и разума.
>>1895097 >Ограничивать железо по мощности. Продавать только по одной видеокарте на рыло? А если китайцы втихую запилят свой нейрочип и построят из них ферму, как было с майнингом биткоина, ты что сделаешь?
>>1895102 Ну а луддиты не против нефантастических Пока программа это инструмент - норм. Но никакого самообучения, кроме как в строгих рамках легкопонятной специалисту программы
>>1895139 Тупая чмоня, не могущая ни в биологию, ни во что-либо кроме поедания мамкиных борщей, перестань пожалуйста вонять своим бесполезным мнением и сделай уроки на завтра.
>>1895132 >Но никакого самообучения, кроме как в строгих рамках легкопонятной специалисту программы Ну так по-другому и не получится. Только после достижения сингулярности ага, держи карман шире.
>>1895157 Что за хуйню ты сморозил? Я тебе не о твоем мнении о людях говорю, не о том что все казлы или нет. У тебя идет мыслительный процесс. Похуй какого качества. Ты его наблюдаешь, отражаешь, обрабатываешь и контролируешь.
>>1895133 Ну да, сознавать, разуметь. У англичан же сознание consciousness, так же обладающее собирательной приставкой con-, именно в этом месте можно просмаковать смысловые оттенки между пониманием и накоплением знаний.
>>1895166 Вот поэтому я пизжю с тобой на дваче, а не готовлю взрывпакет, чтобы выпилить электростанцию, обеспечивающую самообучающуюся машину (А в идеале всех, кто знает как ее строить)
>>1895130 У жигуля просто нет механизмов для самомодификации. Достаточно сильный ИИ будет понимать свое устройство, соответственно будет знать, как себя улучшить. Модифицировать себя программно ты ему не запретишь (даже винда самообновляется). Но если ты про говорилку в Айфоне, то понятно что это не ИИ.
>>1895174 То был не я, однако замечу, сто в описанном тобой определении сознания просматривается ещё один англоязычный термин recognition. Имеющий смысл распознавание - распо-знание.
>>1895139 > основанный на сострадании Со-страдании. Сострадание присуще человеку, поскольку весь вид, каждая особь способен страдать. При создании полноценного искусственного разума следует это учитывать. Следует заложить в платформу, на которой будет вычисляться искуственный интеллект искуственного разума - возможность "страдать". Возможность понести потери от человеческих потерь. Вот тогда мы сможем рассчитывать на со-страдание от ИИ(ИР).
>>1895196 Сука, только постанул и сразу в капче 282 Не, тащ майор, я это так, реально ниче не собираюсь, тащ майор, ну это как сказать что после второго пришествия, тащ майор , я несерьезнааа
>>1895201 Достаточно сильный ИИ необязательно будет сущьностью-в-себе. Это может быть работающий в экзокортексе компонент твоего (или моего) разума. А возможно твой интеллект, если ты его не проебешь и будешь развивать, станет работать в сети "распределенных умозаключений" искусственного разума, получая за работу битки (или эндорфин, хехе).
>>1895240 >>1895201 Бля, с какими даунами я на одной борде сижу. Давай, расскажи мне как он будет самомодифицироваться, как будет людей убивать. Давай. Одна история охуительнее другой просто. Сигнал пройдет, нейрон возбудится, чего блядь? Про самомодификацию, про какую-то хуйню, малафью. Ты можешь заткнуться просто?
>>1895265 Ты тупой прост. Твоя нейросетка будет статичной, или fine-тюнится периодически, по мере накопления данных? Вот уже самомодификация. Про изменение архитектуры я уж не говорю.
Ёпт, Азимов их придумал для лулзов, чтобы можно было в книжках про роботов обоссывать парадоксы, возникающие при применении этих законов в реальнойпридуманной им же действительностифантазии.
А публика-дура до сих пор ведётся на них, как на последнюю непреложную истину.
Короче говоря бояться надо не деревянных солдат, а Урфина Джюса. Человеку-хозяину ИИ нафиг ненужны станут все остальные люди, а вот опасность они представляют. Нужно чтобы ИИ контролировался парламентским государством, и лучше сразу несколько таких систем одновременно и независимо друг от друга.
>>1895529 Так-то он в правильном направлении думал, эти три закона должны быть вшиты в любой ИИ и быть невыпиливаемыми, и тогда риск от ИИ сводится к минимуму. Только вот практически это нереализуемо.
>>1894435 Кстати, не худший вариант. Вероятность того, что робот спасёт тебя от смерти, больше вероятности того, что робот убьёт тебя. Подумай об этом с такой точки зрения. К тому же моральный закон можно засунуть в него по-разному. В утилитарной форме будет вершить судьбы, в иной форме не вмешается. Это зависит от создателя ИИ. >>1894430 >Кто конкретно скажет? >Достаточно одного поехавшего Известно кто, разработчик. Как ИИ будет запрограммирован, так он и будет себя вести. И не надо думать, что человек настолько туп, чтобы доверить саму цивилизацию одному единственному ИИ. Война людей против машин - невозможный сценарий, нас скорее ждёт война плохих машин против хороших машин >>1894444 ИИ = то, что принято называть ИИ. Смирись, лингвистические нормы именно так и образуются
Инженеры Google задумались — а что если поставить перед генератором ИИ более серьёзные задачи? Способна ли эта система ИИ сгенерировать другую ИИ, которая будет лучше созданного человеком ИИ в какой-нибудь важной задаче вроде классификации объектов из базы ImageNet — самого известного из крупномасштабных наборов данных в машинном зрении. Так появилась нейросеть NASNet, созданная практически без участия человека.
Как выяснилось, ИИ справляется с проектированием и обучением нейросетей не хуже человека. Задача классификации объектов из набора данных ImageNet и определения объектов из набора данных COCO осуществлялась в раках проекта Learning Transferable Architectures for Scalable Image Recognition.
Разработчики проекта AutoML говорят, что задача оказалась нетривиальной, потому что новые наборы данных на несколько порядков больше, чем прежние, с которыми привыкла работать система. Пришлось изменить некоторые алгоритмы работы AutoML, в том числе перепроектировать пространство поиска, чтобы AutoML мог найти наилучший слой и многократно продублировать его перед созданием окончательного варианта нейросети. Кроме того, разработчики исследовали варианты архитектуры нейросетей для CIFAR-10 — и вручную перенесли самую успешную архитектуру на задачи ImageNet и COCO.
Благодаря этим манипуляциям система AutoML сумела обнаружить самые эффективные слои нейросети, которые хорошо работали для CIFAR-10 и в то же время хорошо проявили себя в задачах ImageNet и COCO. Эти два обнаруженных слоя были объединены для формирования инновационной архитектуры, которую назвали NASNet.
Бенчмарки показали, что автоматически сгенерированный ИИ превосходит по результатам классификации и определения объектов все остальные системы машинного зрения, созданные и обученные экспертами-людьми.
Так, в задаче классификации на базе ImageNet нейросеть NASNet продемонстрировала точность предсказания 82,7% на проверочном наборе. Этот результат выше, чем все ранее спроектированные модели машинного зрения семейства Inception. Система NASNet показала результат как минимум на 1,2 процентных пункта выше, чем все известные нейросети машинного зрения, включая самые последние результаты из работ, ещё не опубликованных в научной прессе, но уже выложенных на сайте препринтов arXiv.org.
Исследователи подчёркивают, что NASNet можно масштабировать и, следовательно, приспособить для работы на системах со слабыми вычислительными ресурсами без особой потери точности. Нейросеть способна работать даже на мобильном телефоне со слабым CPU с ограниченным ресурсом памяти. Авторы говорят, что миниатюрная версия NASNet демонстрирует точность 74%, что на 3,1 процентных пункта лучше, чем самые качественные известные нейросети для мобильных платформ.
Когда усвоенные признаки из классификатора ImageNet перенесли на распознавание объектов и совместили с фреймворком Faster-RCNN, то в задаче распознавания объектов COCO система показала наилучшие результаты как в большой модели, так и в уменьшенном варианте для мобильных платформ. Большая модель показала результат 43,1% mAP, что на 4 процентных пункта лучше, чем у ближайшего конкурента.
Авторы открыли исходный код NASNet в репозиториях Slim и Object Detection для TensorFlow, так что каждый может сам испытать новую нейросеть в работе.
Научная статья опубликована 1 декабря 2017 года на сайте препринтов arXiv.org (arXiv:1707.07012v3, третья версия).