Расчехляем свои веги\нави\теслы\квадры\печи и прочие OpenCL девайсы. Продолжаем меримся жезезками с помощью бенчмарка от стенфордских ботаников изучающих протеины. Последняя версия 2.2 оного полное говно с ненужными настройками и отсутствием пресетов. Потому легетимна только версия 1.2.0
Распаковываем, отмечаем галочками как на пикрелетед, тестим, скрин результата заливаем сюда. На данный момент: -Ждем результата Radeon VII -Ждем результаы Tesla V100, Quadroo GV100 -Ждем результаы Tesla P4, Tesla T4, Tesla K40\K80
FAQ: Q: Нахуй оно надо? А: Среднеанону - прост, или поднять ЧСВ. Мне - для работы, быстро определить какой девайс быстрее в OpenCL, особенно среди разных поколений. Q: Почему именно этот бенч? А: Удобный, мнималистичный, да и больше ничего нормального и нет. На работе столкнулся с задачей юзать crarck\hashcat для взлома старых паролей в архиве и много чего еще. Задался поиском быстрого средства диагностики производительности разного железа в OpenCL, ибо этого говна у меня полный склад. Был удивлен что на сегодня кроме хитрожопого\ проплаченного Geekbench, раздутого SiSoft Sandra и кривых с анальной телеметрией LuxMark с CompuBench нету нихуя. Хотелось что-то простого, работающего из коробки, без установки и выдающий однозначный результат. Я вспомнил что лет 5-6 назад я дрочил на "Folding at Home". И что у них был свой бенчмарк с тем ядром которое они юзали в соей программе расчетов. Текущий оказался ботанским говном, с кучей настроек, а вот старый, что валялся у меня в архиве, самое то - простой, маленький, но весьма точный. Данные пункта "implicit" хорошо коррелируют с показателями crarck. Q: Что показывает бенчмарк? Что за наносекунды? A: Показывает сколько наносекунд моделирования процесса сворачивоемости белка осилит девайс в течении 24 часов работы. Q: Я счастливый обладатель Nvidia карт, почему во время теста не работает буст? Частота гпу стоковая и не хочет подниматься. A: Нужно отключить принудительный P2-стейт для куды, иначе она занижает частоты памяти для чистых куда/опенцл приложений. Качаем утилиту "nvidia profile inspector" -> пункт "CUDA - Force P2 State" -> выбираем значение "OFF" -> Apply changes. Все, карта бустит как надо.
>>4262887 >А эти ботаники че, тоже подкрутили софтину, как Unreal Engine, чтобы она за зеленых тащила? Лол софтина Декабря 2012 года, в те времена как раз зеленые ныли что дескать бенч специально сделан под красные карты и только их и любит. HD7970 бодро навешивал GTX680, выдавая чуть меньше первого титана, чей ценник улетал за горизонт. Теперь ноют красные. Но тем бенч и хорош, есть с чем сравнить насколько ушел прогресс в перед у тех и у других (пусть даже со скидкой на особенности архитектуры).
>>4262825 >Лучше бы hashcat'ом долбили Прогонял разные карты под вычет rar и 7z хэшей, да имеет место оптимизации, но относительно показателей этого бенча разброс максимум 15%, и то не всегда. Сам тест имеет конкретную оптимизацию под различные архитектуры. То что думаю более менее объективную производительность он передает. Тем более OpenCL расчет это OpenCL расчет, если заявлено что делает, значит должен делать, каким бы он хитровыдуманным не был бы. Причем разброс от версии к версии драйвера точно такой же как здесь.
>>4263554 >Какой командой запускал? Вроде рабочее для rar юзал: hashcat64.exe -a 3 -m 13000 -i --increment-min=1 --increment-max=10 -1 ?u?l?d?s :\путь\к\файлу.txt ?1?1?1?1?1?1?1?1?1
>О чем речь? Можешь привести пример оптимизации под архитектуру? Ну всякие отдельные фичи вроде --optimized-kernel-enable Конечно софтина годнейшая, она по моему единственная бесплатная которая может в multi GPU, причем там до 28 штук вроде поддерживает. Вот только одна проблема - нормальных инструментов вы выдиранию хэшей таки нет. Везде какие то обоссаные софтины с ораниченной функциональностью.
А рар это медленные хеши? И, как анон уже сказал, юзай -w4 для максимального потребления.
> разброс максимум 15%
Разве это не дохуя?
> и то не всегда
От маски сильно зависит и прочих всяких штук. В приведенной команде вроде норм, маска жирная, но вообще если ты реальные хеши ставишь брутить (а не встроенный бенч), то сделай вывод --status и мониторь, что загрузка все время сотка. Там легко недогрузить видяху "неоптимизированной" задачей. Номинальную скорость для выбранного режима потребления и хеша можно глянуть встроенным бенчем (-b): hashcat64 -m13000 -b -w4
Алсо, сборка свежая? Там в релизах вроде до сих пор 5.1.0 с прошлой зимы лежит, в текущих билдах для многих хешей скорость увеличили примерное на десять процентов, что, наверное, означает и лучшую загрузку гпу.
> Ну всякие отдельные фичи вроде --optimized-kernel-enable
Дык это внутренняя хуйня. Имхо, к архитектуре видяхи они имеет ноль отношения.
> нормальных инструментов вы выдиранию хэшей таки нет. Выдиранию откуда? Из рара? В хк только встроенных модулей разных хешей 308 штук. Думаю, как минимум треть этих хешей являются общеупотребимыми и могут быть получены из сотни разных источников. Словосочетание "выдрать хеш" звучит немного абстрактно.
>>4263585 >А рар это медленные хеши? Ну как сказать, 7z медленее в 6 раз где то. >И, как анон уже сказал, юзай -w4 для максимального потребления. Это я сам дописал. >Разве это не дохуя? Разница в пределах версий драйверов. > Там в релизах вроде до сих пор 5.1.0 Таки да, он самый. Поюзаю новую версию. >Дык это внутренняя хуйня Или не оно, но в листе фиксов вроде упоминались что то про оптимизации под конкретные серии GPU. >Выдиранию откуда? Из рара? В хк только встроенных модулей разных хешей 308 штук А вот тут поподробней. ХК позволяет находить значение (ключ) который использовался при создании "объекта" с известным методом(алгоритмом). Для этого нужна хэш-сумма полученная от уже созданного объекта. Ее получают имея конечный файл и зная метод (алгоритм) его создания. Это эталонное значение. Программа при переборе сравнивает получаемый результат с этим эталонным значением. Когда совпадет - ключ найден. Вроде все верно? Самая большая проблема у меня это вытащить этот самый хэш имея конечный файл или представление оного и зная точно какой алгоритм использовался при создании. Что за модули? Модули вычета? Или модули анализа? А у тебя какая видеокарта?
>>4226561 Охладопроблемы, при перегреве по датчику хотспота - частота снижается до 1300 MHz и потом колбасится частой пилой от 1300 до 1750. Нужон андервольт без поднятия частоты и/или вода или другой радиатор, как его, на 4 слота ебалда такая.
>>4226561 На воде и в реальном клиенте - на самых жирных F@H тасках RVII на уровне 2080-2080 Super, на самых нежирных - на уровне между стоковыми 2070 и 2070 Super под шиндовс. И в отличии от Тютюрингов - не требует линуха для полного раскрытия F@H патанцевала, т.к. реальная по GPU-Z утилизации чипа под шиндовсом повыше чем у Нвидий. Но требует подбора штабильного андервольта и хорошего охлада. А полоса видеопамяти в F@H не решает, т.к. загрузка ПСП у 1070 - % 30-40 и выше не поднимается.
>>4283799 Если ты реально этим занимаешься, то объясни нахуя оно тебе надо? Тратить свои деньги и время на счет каких-то абстрактных данных. Никогда не понимал эту секту.
>>4288500 > Не легитимный > расчётное ядро из 1.2 давно не используется > Используемый OpenMM обновился до 6й версии, скоро перекатят на 7ю > легетимна только версия 1.2.0, РРРРЯЯЯ!111 Совсем там каловых масс до делирия обкушались? Легитимная только 2.2, поэтому: https://www.youtube.com/watch?v=zddj4BA_7OM
>>4294198 Ты оп? Мне просто на секунду показалось, что он так вычурно пошутил, оформив софт для процессора (я не вчитывался, что графического) в таком виде. Но, очевидно, я поторопился, т.к. он не пошутил, не имел это ввиду - это просто случайность. Просто сразу запилил страйк из трех самых популярных педохостов. Ну да, долгоживущих безусловно, лол.
>>4294393 >Ты оп? Нет. >Мне просто на секунду показалось, что он так вычурно пошутил, оформив софт для процессора (я не вчитывался, что графического) в таком виде. Ну ясен хуй если у этого чувака бенчмарк семилетней давности "завалялся", то он явный дядька с бородой видавший многое даже первую опву и первые i2p шары >он не пошутил, не имел это ввиду Может просто наковырял в рейтинге хостов, ибо за последние два такое можно сказать, а вот первый нет. Тащи результат своей видюхи епт.
>>4295473 Правда частота памяти была немного не на максимуме (-300 мгц), может и ядра тоже, и загрузка было написано 93-95% , но я не хочу никаких инспекторов устанавливать
>>4318704 Ок 1. Скачай бинарники отсюда: https://hashcat.net/hashcat/ - (если у тебя еще винда) 2. Распакуй и зайдя в распакованную папку в адресной строке набери CMD 3. Вставь вот эту строчку: hashcat64.exe -b --benchmark-all -w 4 4. Подожди около получаса. 5. Результат тестов всевозможных хэшей принеси сюда нам. Анон сам найдет что ему интересно смотреть.
>>4319073 Нет, параметр -w 4 как раз реально рабочий вариант который показывает реальную производительность при переборе. Без него всего лишь пиковое значение которое в реальных задач плавает и ограничивает длину пароля перебора. То что правильно именно: hashcat64.exe -b --benchmark-all -w 4
>>4319014 >Скачай бинарники отсюда: Там годовалой давности бинарники. За это время для сложных хешей скорость подняли на 10-20%, ввели новые режимы (раз уж ты анона заставляешь электричество жечь ради отчета по _всем режимам_), плюс в декабрьском релизе есть баги, с которыми бенч иррелевантен для группы карт. Если на венде, то пусть в цигвине компилит свежак.
>>4319120 >Нет, параметр -w 4 как раз реально рабочий вариант который показывает реальную производительность при переборе.
Нет. Параметр -w 4 всего лишь задает условную загрузку гпу. Бенч на в4 покажет пиковую производительность для реального перебора на в4, а бенч на в3 покажет пиковую производительность для реального перебора на в3, и т.д.
> Без него всего лишь пиковое значение которое в реальных задач плавает
Если у тебя плавает нагрузка, добираясь при этом до пика, значит ты недостаточно загрузил видяху. В факе есть инструкции о том, как минимизировать просадки.
>>4319412 >то пусть в цигвине компилит свежак. Ждем свежак от тебя. А то что то я не вижу исходников нигде. >лолшта? >Note: Using optimized kernel code limits the maximum supported password lengt >To disable the optimized kernel code in benchmark mode, use the -w option.
> ограничивает длину пароля перебора > in benchmark mode
Какое это имеет отношение к результатам бенча? И почему именно в4, который даже не дефолтный профиль? А если тип использует кастом и в реальной работе? Имхо, бенчить надо с дефолтным в3.
Ты прав в том, что его надо вручную указать, тут я прост привык хуй забивать, потому что в моих режимах один хрен кастом в бенче не работает, так что hc -mX -b равен hc -mX -b -w3.
Make sure to install additional dependencies necessary for hashcat compilation by selecting the following packages during cygwin installation
libiconv-devel gcc-core make git Building Once all that is done, open the cygwin bash (cygwin\cygwin.bat) and type the following command to copy the latest master revision of hashcat repository into cygwin\home\username\hashcat
$ cd hashcat Now type "make" to start compiling hashcat
$ make The process may take a while, please be patient. Once it's finished, run hashcat by typing "./hashcat.exe"
$ ./hashcat.exe Notes While hashcat will run fine from cygwin bash, running it from a windows shell will require cygwin1.dll and cygiconv-2.dll to be in the same folder with hashcat.exe (the files can be found in cygwin\bin folder).
>>4330388 >Go to https://www.cygwin.com , get the setup-x86_64 file and follow the instructions on the website. Так и сразу пиши что нужна бубунта, а под винду софта нет. Придется ставить виртуалку. Осилю, выложу сюда.
>>4333226 >Так и сразу пиши что нужна бубунта, а под винду софта нет
Че несешь? cygwin.com.
Cygwin is:
1. a large collection of GNU and Open Source tools which provide functionality similar to a Linux distribution on Windows. 2. a DLL (cygwin1.dll) which provides substantial POSIX API functionality.
>>4347918 > Скорость общения с CPU не так критична
Мож я глючу, но чет у меня из головы не выходит мысль, что Атом где-то таки писал о случаях, когда шина становится горлышком. Ща, правда, ищутся только иррелевантные треды времен оцл.
> По идее любая майнинг ферма должна выдавать на гора.
Майнеры рапортуют, например, о просадках до 20% в некоторых упоротых клиентах (1/16).
>>4357379 Зачем тебе геймерское дрочево в треде про расчеты? Она на энергоэффективности будет два года отбивать разницу между своей ценой и стоимостью пары карт постарше, дающих такой же результат.
>>4367851 >Зачем тебе геймерское дрочево в треде про расчеты? Она на энергоэффективности будет два года отбивать разницу между своей ценой и стоимостью пары карт постарше, дающих такой же результат. Ну если вопрос о такой производительности единичного девайса, то да, а если вопрос запихать в сервер 10 карт теслы V100 или 2080Ti, то я скорее выберу последнее, так как на разницу в цене куплю еще один такой же сервер или бодрый сервер виртуализации. Разница в цене уж больно убойная, особенно у местных барыг. А вычисления в DP64 мне и моей конторе как то не упали особо. А с Radeon VII будет еще дешевле.
>>4367891 Скинь полный результат в pastebin. Спасибо.
Посаны, поясните как поставить опенсл на вин/прыщи. Или как заставить хешкет работать с куда. Я прост в соседский вайфай хочу, а на проце прогнозируемый подбор 8 символов составляет 150 дней, я же охуею.
>>4367931 > Ну если вопрос о такой производительности единичного девайса, то да
Да, но все-таки не так просто. Там значения попугая на ватт/ч на платежную единицу хоть и поддерживаются производителями уже много лет в одном и том же коридоре, но коридор этот допускает вариации и с бОльшим количеством устройств, а не только с одним и даже не только с двумя.
> а если вопрос запихать в сервер 10 карт теслы V100 или 2080Ti, то я скорее выберу последнее, так как на разницу в цене куплю еще один такой же сервер .
А с чего вдруг это ты исключение делаешь для пары 2080/в100? К ним применяется ровно те же правила, которые ты сам в первом параграфе обозначил. Как раз таки чем больше у тебя карт в массиве, тем выгоднее становится собирать из тесел. Если одна-две-три карты в100 будет отбивать стоимость внедрения и эксплуатации порядке десяти лет, то, например, двадцать карт за счет меньшего потребления и затрат отобьют разницу в цене заметно меньше чем через полгода (это еще без учета экономии на инфраструктуре, т.к. одна тесла, это примерно две с половиной 2080ти). Т.е. если ты стремишься к недостижимому максимуму расчетов и у тебя в принципе есть оборотные средства и остальные ресурсы на это дело, то чем больше массив, тем выгоднее брать как раз в100 (да и вообще делать переход на ступень выше). Именно поэтому единственным неизымаемым и всегда играющим фактором в решении о переходе на следующую технологическую ступень является только фактически необходимый тебе нижний предел попугаев, который должна обеспечить твоя сборка. Все остальное является функцией от него или обстоятельств (средства, место, энергообеспечение и пр.) и, что называется, "надо посмотреть" в каждом конкретном случае.
> или бодрый сервер виртуализации
В какой конторе ты там вычислениями занимаешься и сколь малыми объемами, что вам внезапно стал выгоден покупной сервер? В прошлый раз когда я проверял, у самого дешевого был коэффициент наценки почти 100 за попугая.
>>4367945 >Или как заставить хешкет работать с куда Куда вещь проприетарная, в те далекие времена когда Куртка двигал сегмент вычислений он давал много чего в плане инвестиций - куча библиотек, поддержка доступного обучения, сообщества кодеров, не тухлый toolchain. По скольку зеленые и были самыми активными инициаторами данного направления в вычислениях, все это дало не плохой код, который по началу давал не плохую фору OpenCL в производительности на том же железе. Не сказать что научные сообщества и вендоры забили болт на OpenCL и сегмент доедал последний хуй без соли, но инвестиций получили куда меньше чем CUDA. Прошли годы, кодеры "подросли" и стало не особо видно разницы в производительности между двумя CL. Да остались привычки тех кто вкатывался первым, но это начало уступать место возможностям совместимости, особенно когда AMD начал выпускать карты с HBM памятью. На горизонте маячат карты интел, большая часть вендоров поддерживает OpenCL. Да в узких задачах производительность\ватт по прежнему за CUDA, но многие из тех кого я знаю лично, заебались поддерживать разные версии софта на два языка и перекатились только на OpenCL. Думаю тенденция продолжится, особенно когда появятся серьезные вычислительные девайсы от других контор. Куртке надо было делать технологи открытой, но жадность. >т.к. одна тесла, это примерно две с половиной 2080ти >то чем больше массив, тем выгоднее брать как раз в100 Господин хуанг вы на цены то свои взгляните, и на производительность в FP32. У теслы, которая на архитектуры паскаль, производительность в большинстве задач едва более будет чем у 2080Ti. А стоимость тупо в 10 раз больше. Вместо 10 карт, я позволю себе 1 теслу. Смысл? Мне плевать на энергопотребление, оно обычно покрывается условием договора на услуги расчетов. Да я понимаю что бывают задачи когда нужно много видеопамяти, в таком случае ты прав, но 95% задач у нас с лихвой хватает и 4 GB на карту. >что вам внезапно стал выгоден покупной сервер? Внезапно 19" стойка. Внезапно всеравно собирать по отдельности не дешевле (из за растаможки). Единственно что SSD покупаем отдельно, ибо пока там наклейчный кретинизм.
>>4368240 >Ну несите же их скорее сюда, зачем вы скромничаете? Да особо не сложно в тех спеки залезть и узнать потолок: Titan RTX - 16.3 TFLOPS Titan V - 13.8 TFLOPS RTX 2080 Ti - 14.2 TFLOPS Tesla V100 (PCIe) - 14 TFLOPS Но это потолок, понятно что разный софт будет юзать очень по разному возможности железа, но по моему опыту средняя температура будет примерно такая же как показано на графике машинного обучения. Ну и конечно прямота драйверов. >Ну несите же их скорее сюда, зачем вы скромничаете? Цена на V100 PCIe что я нашел около $5000, дешевле не видел, цена на 2080Ti чуть выше $1000. >Вместо десяти хд5500 разве что. Не ну я серьезно. >Несите большинство задач, посчитаем предметно. Коммерческая тайна, лол. Предметно не получится, но сейчас тренд на обработки контента с интеллектуальных видеокамер, распознавание, геодезия, моделирование физических процессов, климат и проч. >Шта? Начни с простого: кто кому платит? У нас проекты от 5 до 100 M рублей. Сроки от 3 месяцев до 3 лет. Платит в основном государство. Цена электричества по промышленному тарифу, раза в три ниже чем с домашней розетки. Не особо напрягает, чтобы это учитывать. >Охуеть. Что это качественно меняет-то? Да, тупо нет места собрать себе ферму какую хочешь, вот стойка место, будь добр вписаться. Это что касается вычислений на картах. >Бля, понятно все. Ну пиши свое виденье как делать правильно.
>>4369818 > понятно что разный софт будет юзать очень по разному возможности железа
Флопсы заебись, но даже на "графике обучения" в100 дает уже почти полторашку. На всякой там криптографии люди рапортуют коэффициент более двух к 2080ти. Отсюда и вполне очевидный график, где с ростом объемов вычислений в100 вполне себе "выгодна" уже при годовом расчете на 10-20 картах. При всем том, что попугаи у всех разные, криптография поразительно стабильно бьется с коридором цен, устанавливаемых производителями карт, что лично мне дает основания рассматривать ее как вполне себе годный эталон. Я не знаю, что там под капотом и почему именно так получается, но эта черная коробка даже на предсказание отпускных цен работает, чего нельзя сказать о флопсах.
> тупо нет места собрать себе ферму какую хочешь, вот стойка место, будь добр вписаться.
Понятно. Я прочитал так, как будто ты про аренду виртуализации написал ранее. Непонятно было, при чем тут формат стойки. Езжайте к дерипаске, у него места дохуя.
>>4531143 Если твое, то спасибо. Прошу протестировать Hashmode: 11600 - 7-Zip (Iterations: 16384) при Iterations: 524288 Hashmode: 13000 - RAR5 (Iterations: 32799) при Iterations: 32767 А лучше конечно прогнать полностью командой hashcat64.exe -b --benchmark-all -w 4. Спасибо.
-w4 работает без оптимизированного ядра, и в моём случае актуально только на AMD Radeon HD 6990 и AMD Radeon HD 5970 - они у меня отдельными вычислителями работают. в случае с nvidia turing и pascal -O лучший вариант. https://pastebin.com/aQLmuWmF
>Hashmode: 11600 - 7-Zip (Iterations: 16384) при Iterations: 524288 >Hashmode: 13000 - RAR5 (Iterations: 32799) при Iterations: 32767 мало сталкиваюсь с итерациями и не совсем понимаю, как сделать то, что тебе нужно, подскажи конфиг - сделаю.
>>4533112 >>4533112 >-w4 работает без оптимизированного ядра, и в моём случае актуально только на AMD Radeon HD 6990 и AMD Radeon HD 5970 - они у меня отдельными вычислителями работают. в случае с nvidia turing и pascal -O лучший вариант. Кстати да, я заметил, но не для всех хэшей. В некоторых выигрыш есть. Но большинство лучше -O
>мало сталкиваюсь с итерациями и не совсем понимаю, как сделать то, что тебе нужно, подскажи конфиг - сделаю. Хм, хороший вопрос, нагуглить я не смог, пятая версия бенчмарка при команде hashcat64.exe -b выдавала небольшой список хэшей где 7-zip iterations: 524288, RAR5 iterations: 32767. Как это поменять в ручную я не нашел. Тут важно что для 7-zip 524288 и rar5 32767 соответствует скоростям которые показывают crarck и accent rar\zip password recovery. Тесты не полные у тебя походу, с аргументом --benchmark-all и не до конца. Но все равно спасибо.
>Моя трудяга Сейчас делаю реорганизацию. Итогом будет 24xP104-100 + 8xGTX1080 на одной системной плате под двумя ксеонами. в теории возьму 500GH/s по MD5 бругом, но на практике хз ещё как выйдет.
Hashmode: 11600 - 7-Zip (Iterations: 524288) Speed.#1.........: 24216 H/s (89.43ms) @ Accel:128 Loops:512 Thr:256 Vec:1 я не могу этого объяснить, может пятый кон не оптимизирован под этот алгоритм
собственно 1Гигахеш эфира вычислитель делает вполне легко, но когда дело касается то-го же MD5 то потолок 380гигахеш и всё, дальше не идёт. Проблема в проце конечно и в целом раздробленной системе. openmpi оказался не самым лучшим решением.
>>4533975 >>4534514 Короче тут все нормально, значение результата 7zip iterations 524288 и 16386 бьется в те-же 32 раза. То есть если хочешь узнать реальную скорость перебора нужно результат теста делить на 32.
>>4635388 Ну, hashcat тут тоже легитимен, в следующей шапке добавлю пункт про него, просто хочется чтобы одной кнопкой все мерить, одной, ибо хомяки то ленивые, в консоль не хотят. А у них порой и топы бывают. Сам бенч не привязан к железу, и работает на всем что может в OpenCL 2.0. Пусть не абсолютно показательно к средним по больнице OpenCL задачам (оба теста весьма специфичны), но зато просто и удобно.
Обновил карту на стенде, для замены старой квадры (кулер подыхает). Хотя она и бустит до 1.9 GHz, но всеже меньше чем было у анона выше. Осталось прикупить пару А100 или 3080Ti.
Высрали целый тред для некроверсии 1.2 с давно дохлым 18-м ядром, в то время когда 21-е ядро почти ушло из продакшена. Вместо того чтобы сделать пару сборочек FAHBench 2.3.1 с 22 ядром в его 0.10 и 0.13 подверсиях, соответственно в вариантах с OpenCL и с CUDA.
ICQ критического мышления не выше 100, анамнез поциэнтов - считают себя "анонасами", прогноз развития обдвачевания - негативный.
>>4807208 А вот и F@H дрочер пожаловал. Ну че там, раскодировали COVID ?? Тут не дрочат на F@H и его функционал, тут дрочат на его старый бенчмарк беря его как синтетику, ну и HashCat.
>>5028060 >6800XT Уф, а в игорях дает чуть выше 2080Ti. Частоты? Нынешняя архитектура красных явно под игры пилилась. Интересно, сколько новый ампер выдает? Если тот же 2080Ti переваливал за 200 и 1000 соответственно.
>>5103985 Проверил. Да, ты прав, тест какой то хуеватый, не может нормально видеокарту нагрузить. Она работает в стоке, хотя даже даже аида гпу и прочие 3дмарки работа.т с нормальным разгоном до 2.2.
>>5104195 >>5104187 Тест нормальный, в шапке анон же написал про P2 State: >Q: Я счастливый обладатель Nvidia карт, почему во время теста не работает буст? Частота гпу стоковая и не хочет подниматься. >A: Нужно отключить принудительный P2-стейт для куды, иначе она занижает частоты памяти для чистых куда/опенцл приложений. Качаем утилиту "nvidia profile inspector" -> пункт "CUDA - Force P2 State" -> выбираем значение "OFF" -> Apply changes. Все, карта бустит как надо.
>>5104187 >>5104195 >думается прога и вправду кривовата С прогой все нормально. Дело в том, что она крайне простая, и работает без готовых профилей на 100% через драйвер карты. Потому режимы исполнения идут через дефолтный профиль (сет) драйвера, в котором как правило включено куча энергосберегающих функций. Десяток лет назад режимы работы видеокарт были "по проще" чем сегодня, с новыми же режимами старый софт не знаком. Например, если тестировать старыми 3DMark 03/05/06 новое железо, в большинстве случаев будет тоже самое, если в драйверах отдельно не прописаны сеты на исполнения конкретного софта. Зато это явление полностью отсутствует в современных "марках". Там встроенные профили к большинству поддерживаемых на сегодня веток драйверов, и во время теста карты работают так, как хочет 3DMark. Тут требуется всего лишь более тонкая настройка.
>>5205989 >Hashmode 0 >Hashmode 1400 >Hashmode 1700 >Hashmode 11600 >Hashmode 12500 >Hashmode 13000 Эта карта может в хэш. А фах по прежнему на низких частотах тестирован.
FahBench 2.3.2, хотя и он с просроченным легаси-ядром и тестовым проектом, GTX 1070 @2025 MHz 8000 MHz, Linux Mint 20.1, NV Xserver 460.39. C актуальным CUDA-ядром будет около 160 ns|day.
>>4222227 (OP) >Q: Я счастливый обладатель Nvidia карт, почему во время теста не работает буст? Частота гпу стоковая и не хочет подниматься. >A: Нужно отключить принудительный P2-стейт для куды, иначе она занижает частоты памяти для чистых куда/опенцл приложений. Качаем утилиту "nvidia profile inspector" -> пункт "CUDA - Force P2 State" -> выбираем значение "OFF" -> Apply changes. Все, карта бустит как надо. Тебе тесты-нетесты надо с этим или без этого?
Антуаны, вам вопрос. Как так получается, что более старые карты в этом opencl бенче вроде >>5659956 выдают перформанс на уровне 40вт квадр типа >>5687351, хотя мощности в тфлопс у них совсем не одинаковые? Какие факторы в самих архитектурах могут на это влиять?
>>5687449 Ну с одной стороны у Титана почти всего больше - и шейдеров (транзисторного бюджета) и пропускной способности памяти. Но у Тьюринга на голову эффективней архитектура работы куда ядер, и частота выше. В те времена куртка не зря свой хлеб ел. Они крупнее, и у них больше своего кэша. Чем меньше нужды обращаться за данными в видеопамять карты, тем быстрее идет обработка. Также большое влияние видео драйвера. В конкретном случае склоняюсь что не было выключено P2State в драйвере у Титана.
>>5686423 >Бля, что то мало Аналогично, выруби P2State для буста карты во время теста.
>>5688506 Как сказатб, демонстрация 7 лет технологического прогресса. У титана правда еще по мелочи есть двойная точность, которой сейчас могут похвастать только печи ценой в однокомнатную квартиру, но с учетом возраста это скорее всего не особо большой бонус. Драйвер 451.58, мизерный разгон до штабильных 1150 мгц. >не было выключено P2State Ну карта вроде бустилась нормально, может приколы со стейтами это удел более новых карт. >>5688513 Завтра мб будет, немало там тестов в бенче имеется.
>>5704036 >Чет не запускается эксешник Идешь в папку где распакован hashcat. Открываешь CMD (написав cmd в адресной строке этой папки + enter), вставляешь hashcat64.exe -b --benchmark-all И ждешь.
>>5687449 Бенч с некроядром, которое уже давно не используется - года как 3, причём Nvidia давно перекатили на CUDA с OpenCL. И с маленьким некропроектом - всего на около 28-30к атомов, такие маленькие проекты от 5к до 30к на том старом некроядре не могли прям хорошо нагружать карты с большим числом CU и это было видно даже по низкому ваттажу. Вопщем карты с большим число CU наиболее раскрывались на проектах с большим числом атомов. А память по ПСП на малоатомных проектах - загружена тоже довольно слабо.
На новом 22 ядре - оно стало получше с такой мелочью, но самих таких мелкопроектов стало довольно мало.
>>5687449 Бенч с некроядром, которое уже давно не используется - года как 3, причём Nvidia давно перекатили на CUDA с OpenCL. И с маленьким некропроектом - всего на около 28-30к атомов, такие маленькие проекты от 5к до 30к на том старом некроядре не могли прям хорошо нагружать карты с большим числом CU и это было видно даже по низкому ваттажу. Вопщем карты с большим число CU наиболее раскрывались на проектах с большим числом атомов. А память по ПСП на малоатомных проектах - загружена тоже довольно слабо.
На новом 22 ядре - оно стало получше с такой мелочью, но самих таких мелкопроектов стало довольно мало.
>>5762286 >причём Nvidia давно перекатили на CUDA с OpenCL. Не везде, а кое-где наоборот. >такие маленькие проекты от 5к до 30к на том старом некроядре не могли прям хорошо нагружать карты с большим числом CU Ну тут для этого есть Stress Test как ты можешь видеть. Что бы по дольше и вдумчивее затестить. А то что тут некроядро, то это не важно. Тест на сегодня можно считать чисто синтетическим.
>>4222227 (OP) > изучающих протеины Шёл 2022 год, а шизоиды всё верили в вычисление протеинов. Как будто история SETI@Home ничему не научила. Когда у американских спецслужб появились свои суперкомпьютеры, использование пеки Сычова стало ненужным.
>>5838826 1739-1750Мгц ядро, правда потребление при этом 135Вт (у меня по умолчанию все настройки драйвера, т.е. даунвольта или других ограничений нет). Например в ведьмаке 3 у меня те же 1750Мгц на 250Вт либо 210-215Вт с даунвольтом до 1010мВ со штатных 1145мВ.
Могу сказать, что для Radeon VII это плохой тест. Какая то проблема в бенчмарке не дает карте показать нормальные цифры. Потребление в 2 раза ниже нормы - отсюда такие цифры плачевные.
У меня работа связана с вычислениями на GPU. Могу сказать, что CUDA и OpenCL позволяют одинаково эффективно выжимать из карт их террафлопсы. У бенча реальные проблемы в эффективности кода. Тут уже соревнование кто быстрей прожует быдлокод. Впрочем, всем похуй.
>>5839394 >У бенча реальные проблемы в эффективности кода Нет, тут вопрос в настройке драйверов, если потребление в два раза ниже чем обычная нагрузка, значит что то не дает работать в полную силу. У той же nvidia на сегодня выявлен P2state при отключении которого карта работает как надо. Да код старый и специфичный. Но на сегодня синтетика как синтетика. Вот к примеру 3090 Если время есть анон, прогони свою карточку последним hashcat'ом. https://hashcat.net/hashcat/ там и видно будет.
>>5839881 hashcat (v6.2.5) starting in benchmark mode
Benchmarking uses hand-optimized kernel code by default. You can use it in your cracking session by setting the -O option. Note: Using optimized kernel code limits the maximum supported password length. To disable the optimized kernel code in benchmark mode, use the -w option.
hipDeviceGetAttribute(): 1
HIP API (HIP 4.4) ================= Device #1: AMD Radeon VII, skipped
-------------------------------------------------------- Hash-Mode 1500 (descrypt, DES (Unix), Traditional DES) --------------------------------------------------------
Device #2: Skipping (hash-mode 1500) This is due to a known CUDA/HIP/OpenCL runtime/driver issue (not a hashcat issue) You can use --force to override, but do not report related errors.
Device #2: Skipping (hash-mode 13100) This is due to a known CUDA/HIP/OpenCL runtime/driver issue (not a hashcat issue) You can use --force to override, but do not report related errors.
Device #2: Skipping (hash-mode 15300) This is due to a known CUDA/HIP/OpenCL runtime/driver issue (not a hashcat issue) You can use --force to override, but do not report related errors.
>>6235061 >Эксплисит в цп что ли упирается? Нет. Особенность работы с дравами, про процессор больше юзает, да. >фиксы-хуиксы в профиль инспекторе не крутил А зря. Режимы энергосбережения все дела, не дают карте работать в полную с этим тестом.
> овер 2 года как 22-е Нвидия-ядро переведено на CUDA > Нвидия давно угандошила OpenCL, зайдя в топ-менеджмент Кронос-Групп и переписав спеки хитрожёпым образом что теперь OpenCL 3.0 теперь можно невозбранно делать со фичерсетом OpenCL 1.3 > ретардии всё продолжали бенчить сдохший OpenCL давно отправленного на пенсию некроядра
>>6261586 >Опчик, а ты всю инфу в табличку складываешь? В папку складываю. Ибо по каждой карте нужно более менее усредненное значение найти, потом можно и табличку запилить.
Расчехляем свои веги\нави\теслы\квадры\печи и прочие OpenCL девайсы.
Продолжаем меримся жезезками с помощью бенчмарка от стенфордских ботаников изучающих протеины. Последняя версия 2.2 оного полное говно с ненужными настройками и отсутствием пресетов. Потому легетимна только версия 1.2.0
Берем FAHbench v1.2.0 от сюда:
https://nofile.org/v/f91642
http://dl.free.fr/getfile.pl?file=/wZ0TvyXt
https://anonfile.com/jd1693G3na/FAHBench_1_2_0_zip
Распаковываем, отмечаем галочками как на пикрелетед, тестим, скрин результата заливаем сюда.
На данный момент:
-Ждем результата Radeon VII
-Ждем результаы Tesla V100, Quadroo GV100
-Ждем результаы Tesla P4, Tesla T4, Tesla K40\K80
FAQ:
Q: Нахуй оно надо?
А: Среднеанону - прост, или поднять ЧСВ. Мне - для работы, быстро определить какой девайс быстрее в OpenCL, особенно среди разных поколений.
Q: Почему именно этот бенч?
А: Удобный, мнималистичный, да и больше ничего нормального и нет. На работе столкнулся с задачей юзать crarck\hashcat для взлома старых паролей в архиве и много чего еще. Задался поиском быстрого средства диагностики производительности разного железа в OpenCL, ибо этого говна у меня полный склад. Был удивлен что на сегодня кроме хитрожопого\ проплаченного Geekbench, раздутого SiSoft Sandra и кривых с анальной телеметрией LuxMark с CompuBench нету нихуя. Хотелось что-то простого, работающего из коробки, без установки и выдающий однозначный результат. Я вспомнил что лет 5-6 назад я дрочил на "Folding at Home". И что у них был свой бенчмарк с тем ядром которое они юзали в соей программе расчетов. Текущий оказался ботанским говном, с кучей настроек, а вот старый, что валялся у меня в архиве, самое то - простой, маленький, но весьма точный. Данные пункта "implicit" хорошо коррелируют с показателями crarck.
Q: Что показывает бенчмарк? Что за наносекунды?
A: Показывает сколько наносекунд моделирования процесса сворачивоемости белка осилит девайс в течении 24 часов работы.
Q: Я счастливый обладатель Nvidia карт, почему во время теста не работает буст? Частота гпу стоковая и не хочет подниматься.
A: Нужно отключить принудительный P2-стейт для куды, иначе она занижает частоты памяти для чистых куда/опенцл приложений. Качаем утилиту "nvidia profile inspector" -> пункт "CUDA - Force P2 State" -> выбираем значение "OFF" -> Apply changes. Все, карта бустит как надо.