Microsoft представила свой новейший ИИ-чип под брендом Maia 200 - и он в 3 РАЗА мощнее конкурентов от Google и Amazon
Maia 200 является "самой эффективной системой для инференса" из когда-либо развернутых Microsoft. Новый чип построен на базе 3-нм техпроцесса и содержит 140 миллиардов транзисторов. Он способен достигать производительности до 10 петафлопс в вычислениях FP4, что в три раза выше показателей конкурирующего чипа Trainium3 от Amazon. Maia 200 также оснащен 216 ГБ памяти HBM3e с пропускной способностью 7 ТБ/с, дополненной 272 МБ встроенной SRAM-памяти (на кристалле).
Maia 200 оптимизирован для производительности в форматах FP4 и FP8, ориентируясь на обслуживание клиентов, выполняющих инференс ИИ-моделей, требовательных к FP4, а не на более сложные операции. Значительная часть бюджета Microsoft на НИОКР была вложена в иерархию памяти в рамках блока высокоэффективной SRAM объемом 272 МБ. Она разделена на "многоуровневую SRAM уровня кластера (CSRAM) и SRAM уровня тайла (TSRAM)", что обеспечивает повышенную эффективность работы и соответствует философии умного и равномерного распределения рабочих нагрузок по всем кристаллам HBM и SRAM.
Maia 200 уже развернут в дата-центре Microsoft Azure US Central, а будущие внедрения запланированы в US West 3 в Финиксе (штат Аризона) и других регионах по мере поступления чипов с конвейера. Этот чип станет частью гетерогенной инфраструктуры Microsoft, работая в тандеме с другими различными ИИ-ускорителями, включая флагманские решения от Nvidia.
Новый чип от Microsoft также вписывается в растущий тренд в американской облачной экосистеме, когда ведущие технологические гиганты активно переходят на чипы собственной разработки, чтобы снизить зависимость от Nvidia, чьи передовые решения стали критически важными для доминирования в индустрии. Например, у Google есть TPU (тензорные процессоры), которые продаются не как отдельные чипы для клиентов, а как вычислительная мощность, доступная через облачный сервис. Также существует линейка AWS Trainium - собственных ускорителей ИИ от Amazon, новейшая версия из которых, Trainium3, была выпущена в декабре. Таким образом, Microsoft была последней из компаний "большой тройки", которая сумела замкнуть свою облачную экосистему на чипы внутренней разработки.
>>329220262 Это не радиолампа, это датчик какой-то. Да, это похоже на электровакуумный прибор и, скорее всего, это он есть. Но, это не 6Ф1П или 6П14П, а что-то узкопрофильное. Возможно, в таком виде оно лучше работает. Кстати, не факт что советская, дело в том что лампы сейчас производятся. Наверное из-за того, что мы из-за нищеты в 90е, когда люди продолжали чинить УЛЦПТ/УЛПТ, продолжали выпускать радиолампы, и завод остался.
>>329225335 ноуп, там обычная совковая радиолампа типа крайтрон времён второй мировой, там ещё и механические гироскопы были, которым под сраку лет. короче, весь стек это просто аналоговая хуйня из 40-50х
>>329219538 (OP) >и он в 3 РАЗА мощнее конкурентов от Google и Amazon И что за ии чипы от гугл и амазон? Я слышал только про нвидия, амуде и арм. Какие нахуй чипы от амазон? Индусы что ли?
>>329225484 Механические гироскопы не пригодны для ракеты с блоками индивидуального наведения. Если там и были механические гироскопы, то это типа датчика ориентации что-то, не более. И почему там не должно быть ламп, собственно? И вообще, хохлосми мы верим безоговорочно, правильно пынямаю?
>>329226012 >не пригодны для ракеты с блоками индивидуального наведения там и нет индивидуального наведения, просто блоки разводятся в космосе по заданным нисходящим траекториям с погрешностью в сотни метров, это не самонаводящиеся высокоточные глайдеры, а квадиядерка, которой точность не нужна
>>329226271 >просто блоки разводятся Просто? Это нихуя не просто. Каждое отделение вархеда шатает весь блок. И нужно постоянно это компенсировать. Иначе разброс будет на десяток километров. И подразумевалось, что каждый вархед можно будет запустить по разным городам, например. И тот факт, что они все таки попали в цеха этого завода, в который стреляли, говорит, что точность там очень неплохая.
>>329226192 Это не поможет. Производственные мощности не бесконечные. Либо чипы под ИИ, либо GPU пилить. Все выбирают первое, а на любителей поиграть в игоры, забили болт.
>>329227449 хз. В прошлый раз в какие-то цеха попали. Это уже ахуеть как точно для такой ракеты. Кстати, они же по южмашу стреляли в прошлый раз, может, эти лампы как раз оттуда. Точнее, я уверен, что они оттуда, а то как то маловероятно, что они так заебись сохранилиь после падения из космоса.
>>329219538 (OP) >Таким образом, Microsoft была последней из компаний "большой тройки", которая сумела замкнуть свою облачную экосистему на чипы внутренней разработки нет никакой тройки. у шмаска есть свои чипы tesla ai5 и dojo 3 apple в этом году доделает acdc (apple-chips-in-data-center) у openai в разработке проект tigris + mtia v2i у меты весь бигтек в in-house чипах уже давно
Maia 200 является "самой эффективной системой для инференса" из когда-либо развернутых Microsoft. Новый чип построен на базе 3-нм техпроцесса и содержит 140 миллиардов транзисторов. Он способен достигать производительности до 10 петафлопс в вычислениях FP4, что в три раза выше показателей конкурирующего чипа Trainium3 от Amazon. Maia 200 также оснащен 216 ГБ памяти HBM3e с пропускной способностью 7 ТБ/с, дополненной 272 МБ встроенной SRAM-памяти (на кристалле).
Maia 200 оптимизирован для производительности в форматах FP4 и FP8, ориентируясь на обслуживание клиентов, выполняющих инференс ИИ-моделей, требовательных к FP4, а не на более сложные операции. Значительная часть бюджета Microsoft на НИОКР была вложена в иерархию памяти в рамках блока высокоэффективной SRAM объемом 272 МБ. Она разделена на "многоуровневую SRAM уровня кластера (CSRAM) и SRAM уровня тайла (TSRAM)", что обеспечивает повышенную эффективность работы и соответствует философии умного и равномерного распределения рабочих нагрузок по всем кристаллам HBM и SRAM.
Maia 200 уже развернут в дата-центре Microsoft Azure US Central, а будущие внедрения запланированы в US West 3 в Финиксе (штат Аризона) и других регионах по мере поступления чипов с конвейера. Этот чип станет частью гетерогенной инфраструктуры Microsoft, работая в тандеме с другими различными ИИ-ускорителями, включая флагманские решения от Nvidia.
Новый чип от Microsoft также вписывается в растущий тренд в американской облачной экосистеме, когда ведущие технологические гиганты активно переходят на чипы собственной разработки, чтобы снизить зависимость от Nvidia, чьи передовые решения стали критически важными для доминирования в индустрии. Например, у Google есть TPU (тензорные процессоры), которые продаются не как отдельные чипы для клиентов, а как вычислительная мощность, доступная через облачный сервис. Также существует линейка AWS Trainium - собственных ускорителей ИИ от Amazon, новейшая версия из которых, Trainium3, была выпущена в декабре. Таким образом, Microsoft была последней из компаний "большой тройки", которая сумела замкнуть свою облачную экосистему на чипы внутренней разработки.