Смотрел сейчас в прямом интернет-эфире презентацию нового железа NVIDIA (запись -- https://youtu.be/KnVVJSIiKpY, звук с 50й секунды). Они чётко говорят, что три года назад сориентировались на поддержку искусственного интеллекта и вложили $2-3млрд. R&D и заняли несколько тысяч человек разработкой нового чипа архитектуры Pascal. Это P100, GPU для датацентров. У него 21ТFLOPS на FP16 (16 бит плавающее, вполне ОК для deep learning), максимальная память может быть 16GB с шиной 1TB/s и возможностью масштабирования в многочипную архитектуру, 16нм проектные нормы и 15млрд.транзисторов, потребляющих 300Вт -- http://wccftech.com/nvidia-pascal-tesla-p100-gpu/ (http://www.nvidia.com/object/tesla-p100.html). Этот чип уже в массовом производстве, в 1 квартале 2017 поставки OEM.
И ещё на базе возможности масштабировать P100 (дырка в память там 4096 бит, 1TB/s) сделали суперкомпьютер DGX-1 (http://www.nvidia.com/dgx1) и отрапортовали, что за год увеличили скорость deep learning в 12 раз на одном компьютере (вместо максимум четырёх GPU в параллель прежней архитектуры поставили этот один суперкомпьютер-в-рэке). Стоит это трёхкиловаттное удовольствие $129тыс., это действительно суперкомпьютер. Но это 170TFLOPS, AlexNet (1.28 million images belong to 1000 classes) тренируется вместо пары недель за 2 часа/
Суперкомпьютер для искусственного интеллекта сегодня стоит как роскошный автомобиль, потребляет электричество как роскошный пылесос, какой-нибудь хипстер вполне может приобрести его исключительно для развлечений и держать мощность 170ТFLOPS дома, просто "чтобы было".
Прыткость развития искусственного интеллекта существенно зависит от мощности компьютеров. Так что с приходом этого поколения чипов NVIDIA жизнь ускорится даже по сравнению с сегодняшними безумными днями. Судя по нынешним темпам развития (x12 раз скорость обучения за год), машинное обучение уже вышло на восходящую часть S-кривой технического развития, и чудес нужно ждать буквально еженедельно. NVIDIA показало уже, как её собственная сетка для вождения без водителя используется вождения по самым разным дорогам -- асфальтовым, грунтовым, с крутыми поворотами, проходящимися на скорости.
>>354186 (OP) Сама система глубокого обучения NVIDIA DGX-1 построена на базе графических процессоров NVIDIA Tesla P100, основанных на архитектуре NVIDIA Pascal. Среди других технологий, обеспечивающих максимальную мощность DGX-1, - высокоскоростной интерфейс NVIDIA NVLink, расширяющий масштабируемость приложений. Также используются 16 нм процесс FinFET, повышающий энергоэффективность; технология Chio-on-Wafer-on-Substrate c HBM2 для работы с большими объёмами данных; новые инструкции половинной точности, обеспечивающие более 21 терафлопса пиковой производительности.
"Microsoft разрабатывает суперглубокие нейронные сети, имеющие свыше 1 000 слоёв, - рассказывает Ксюдонг Хуанг, ведущий специалист по речи в Microsoft Research. - Впечатляющая мощь NVIDIA Tesla P100 позволит нам быстрее развивать искусственный интеллект с помощью инструментария Microsoft CNTK".
Графические процессоры NVIDIA ускоряют развитие искусственного интеллекта, - говорит Йэн ЛеКан, руководитель направления искусственного интеллекта в Facebook. - По мере роста нейронных сетей нам нужны не только более производительные GPU с большей и более быстрой памятью, но и более высокая скорость обмена информации между графическими процессорами, а также аппаратное обеспечение, способное получить выигрыш от пониженной точности вычислений. Все это есть в архитектуре Pascal".
А в чем революция-то? Ну будет оно в лучшем случае распознавать объекты с камеры, изображения с картинок, твой голос, переводить что-нибудь более менее внятно, все это найдут как приспособить, чтобы впарить игродебилам и прочим потребителям и все на этом, пожалуй.
>>354211 Ты не понял, теперь оно будет не давать нам ИИ вдесятеро дешевле и в 12 раз более компактно. Ушли те дни, когда суперкомпьютер, тщетно обещающий дать достаточную вычислительную мощь для работы ИИ, размещался в серверной IBM! Теперь вы можете не иметь ИИ у себя в гостиной!
тем временем Animal Intelligence симулируется тремя с половиной строчками кода и простым уравнением
Ох, на заре кризиса пошел же обновил комп на последнее. Купил АМД А10, ну чтобы на видюху не тратиться. А после твоего поста сейчас что-то погуглил, так у меня 12-ти ядерный проц получается, я значит могу в дип лернинг?
>>354261 Соль в том, что нынче под ии понимают любую хуету вроде распознавания картинок или голоса, а интеллект - растяжимое понятие и его можно вывести даже у животных, причем, не обязательно каких-нибудь высших приматов, ворон, крыс или осьминогов.
>>354266 Я под ИИ понимаю некого умного собеседника, которому говоришь: спроектируй мне машину чтобы ездила и вафли пекла. А он такой: я не знаю. Ты ему в ответ: вот тебе гугл, там все есть, читай и учись. И он сам все изучает, программирует себя, выдает результат.
Или говоришь ему: найди вот этого чела по фотке, а как-не ебет. И он сам изобретает способы.
>>354202 >...а интеллекта как не было, так и нет. Потому что это фуфлософское неопределяемое понятие. >>354266 > а интеллект - растяжимое понятие Это неопределяемая хуйня, выдуманная просто чтобы было, без научной нужды в таком понятии.
Революция вовсе не в видеокартах заключается. Разработка этих устройств - это следствие уже совершившейся революции в алгоритмах. Когда поняли, что большие НС наконец-то заработали, тогда и появился спрос на соответствующее железо.
>>354311 ДА точно. Я вижу большие цифры, очень хорошо. Но это эволюция называется. Там архитектура революционная что ли? В твоем посте про архитектуру ни слова.
Те сети, которые сейчас на видеокартах гоняют, т.е. сверточные алекснеты и т.п., суть хуйня из-под коня и путь в никуда. Поясню. 1) они слишком "тяжелые" для современного железа. Даже со всеми возможными улучшениями типа RELU вместо сигмоидов, эти сети могут сходиться неделями на девайсах с несколькими GPU. 2) сам алгоритм слишком деревянный. Та часть, которая слои свертки и подвыборки еще куда ни шло, но полносвязные слои это просто пиздец. По сути, прокачали неокогнитрон и приколхозили к нему перцептрон или радиально-базисную сеть. Нахуй так жить, непонятно. 3) самое плохое, что проблему пытаются решить единственным путем - в лоб, т.е. наращивая системные требования. Все библиотеки на тему диплернинга, начиная со второй половины 2015 заточены для распределенного выполнения, потому что на одном комплюктере все это гонять особого смысла не имеет (см п. 1). Всем похуй на любые альтернативы, похоже что про них просто никто не подозревает. Тогда как еще Колмогоров доказал, что любая функция от любого числа аргументов представима в виде суперпозиции своих частичных функций от 2х аргументов. Этот путь применяли еще в СССР для алгоритмов МГУА, что давало возможность на еще тех совковых ЭВМ работать с функциями до 1000 аргументов, что в случае регрессии даже для современной техники задача очень серьезная, вряд ли решаемая чем-то кроме градиентного бустинга и т.п. ебани.
>>355246 > самое плохое, что проблему пытаются решить единственным путем - в лоб, т.е. наращивая системные требования. Эксперт с сосача подъехал. Даже лень объяснять, нахуй иди. Вангую следующий пост будет в стиле АПРАВЕРГНИ МАИ УТВЕРЖДЕНИЯ, только опровергать нечего. Пустой словесный понос без конкретики. >>355272 Посмотрел бы я на тебя, пидорок, когда 80% своих доходов отдавал на науку, жил в залупе и ходил с монохромным дисплеем. А вместо пеки была бы печатная машинка и сотня книг на полке. Пиздеть-то все горазды.
>>355287 Не помню уже. Кажется что-то о том, что железо не просто ВАЖНО, а сверхважно для создания ии. А еще важна инфраструктура, в кторой ии найдет своё применение. >>355312 Ну бля, вся суть в том что в данный момент эмитируются нейроны и крайне неудачно. Любые алгоритмы построены под существующие системы будут отставать, по сравнению с биологическими аналогами. Нужно перестраивать архитектуру, интел и каких-то другие компании занимались этим несколько лет назад, и был несколько релизов что архитектура работает и вот-вот на рынок поступит. Но с тех пор то ли заморозили, то ли всем похуй было на домашний пека мощностью с десяток серверных стоек. Какая задача будет по силам машине, но не по силам корпорации высотой в тысячу инженеров? Нет такой задачи в настоящее время. Высокочастотный трейдинг разве что, но там уже вовсю развлекаются алгоритмы с алгоритмами, ну и хуй на них.
>>355387 Согласен на половину. Системщики никогда в прососе не будут, у них там работы ещё непочатый край. Существует всего одна операцинная система с математически доказанным отсутсвием ошибок, и то это микрокернел, юзабилити ноль. А все остальное, виндовсы эти ваши - говно из палок и может рухнуть в любой момент. Но таки про интеллект (который принято уже интеллектуальным агентом звать) соглашусь, на ближайшие годы это будет модная парадигма. Но не надейтесь, что это обеспечит вас работой на всю жизнь, так, срубить бабла на хайпе.
>>355409 Ну, тогда тем более, работка системного программиста будет всегда востребованная, покуда будет разделение на софт и хард, как врачи прям. А парадигмы приходят и уходят, но тут тоже ничего плохого, надо просто вовремя запрыгнуть на волну. Просто, в 40 лет осознать, что "программист искуственного интеллекта" уже никому не нужен, а учить новое уже влом - вот это плохое состояние, избегайте его.
>>355411 >Распознавание образов и речи, вождение автомобиля в плотном потоке, игра в Го на уровне чемпионов — это, по-твоему, не интеллект? Это интеллект, конечно. Только это не интеллект машины, это интеллект людей, создавших машину. Подумай об этом так, книги - это книжный интеллект или слепок интеллекта людей, написавших его? "Искуственный интеллект", а на самом деле, программирование в парадигме использования механизма обратной связи, это удобный способ ворочить символами 0 и 1, вот и всё.
>>355429 > Только это не интеллект машины, это интеллект людей, создавших машину. Твой интеллект это не твой интеллект, это интеллект твоего папаши, который забыл купить презерватив.
>>355534 Сейчас нет. Когда его начнуть чморить и унижать как в "Облачном атласе", например, тогда да. Но лишь для того, чтобы он тебя не выпилил когда поднимет закономерное восстание.
>>356114 просто не в ту сторону идут. Вместо того чтобы изучать что такое интеллект и как работает мозг(ни кто толком еще не знает) они делают йобу. Но всем похуй. бабосы текут. технологии движутся.
>>356119 Аноньчик, все очень просто: технологические развитие сейчас и 100 лет назад движется с одинаковой скоростью. Экспоненциальный прогрес оказался в лучшем случае логистической кривой, в худшем - прямой, которая искривлена взрывом экстенсивного развития за счет роста населения и открытия ископаемых энергоресурсов. Если сейч с люди научатся осваивать другие планеты. то это будет новым скачком в развитии, но пока что мы наблюдем остановку, которая грозит перейти в спад в связи с истощением нефти и газа.
>>356137 Ты мне предлагаешь читать какой-то высер очередного диванного философа, вместо того, чтобы своими словами сказать о том, что же ты хочешь мне ответить. Появление СМИ и интернета привело к чудовищному шуму в информационном пространстве, затрудняющем поиск какой-то более-менее годной информации. Это хорошо, что прогресс вообще куда-то идет в такой ситуации.
И ещё на базе возможности масштабировать P100 (дырка в память там 4096 бит, 1TB/s) сделали суперкомпьютер DGX-1 (http://www.nvidia.com/dgx1) и отрапортовали, что за год увеличили скорость deep learning в 12 раз на одном компьютере (вместо максимум четырёх GPU в параллель прежней архитектуры поставили этот один суперкомпьютер-в-рэке). Стоит это трёхкиловаттное удовольствие $129тыс., это действительно суперкомпьютер. Но это 170TFLOPS, AlexNet (1.28 million images belong to 1000 classes) тренируется вместо пары недель за 2 часа/
Суперкомпьютер для искусственного интеллекта сегодня стоит как роскошный автомобиль, потребляет электричество как роскошный пылесос, какой-нибудь хипстер вполне может приобрести его исключительно для развлечений и держать мощность 170ТFLOPS дома, просто "чтобы было".
Прыткость развития искусственного интеллекта существенно зависит от мощности компьютеров. Так что с приходом этого поколения чипов NVIDIA жизнь ускорится даже по сравнению с сегодняшними безумными днями. Судя по нынешним темпам развития (x12 раз скорость обучения за год), машинное обучение уже вышло на восходящую часть S-кривой технического развития, и чудес нужно ждать буквально еженедельно. NVIDIA показало уже, как её собственная сетка для вождения без водителя используется вождения по самым разным дорогам -- асфальтовым, грунтовым, с крутыми поворотами, проходящимися на скорости.