Прошлые домены не функционирует! Используйте адрес ARHIVACH.VC.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
496
ДЕЛАЕМ ЕОТ ИЗ СЕБЯ Сап бе помните раньше создавали треды где аноны в фейсаппе делали себе женскую вн — ДЕЛАЕМ ЕОТ ИЗ СЕБЯ Сап бе помните раньше создавали треды где аноны в фейсаппе делали себе женскую внешку. Давайте сделаем то же самое через чатгопоту. Пикрил я. Промпт: На основе фото что я прислал сделай женскую версию человека на фотографии в реалистичном стиле НО! У меня чатгпота начала выебываться когда я решил обработать другую фотку мол нельзя нарушать гендерную идентификацию реального человека и предложил другой промпт, который я немного отредактировал: Хорошо. Сделай фотореалистичное изображение женского персонажа, вдохновлённое чертами на последней присланной фотографии. Сделай как можно ближе к референсу, но чтобы узнавалось что это женщина 3 и 4 пикча с этим промптом. 3 на основе фотографии что я прислал в первый раз, 4 на основе другой старой моей фотки когда я был со светлыми волосами. Так что да, можете фотки разных периодов использовать чтобы разные тянки получались. Если используете фотки из соцсеток или просто трясун добавьте к промпту: поменяй на фотографии фон и одежду
14 июня 16:20
Сохранен
123
23 июня 22:58
Сохранен
538
7 августа 21:12
Сохранен
144
Анальники уже готовы бомжевать? OpenAI представила лучшую на данный момент нейронку для написания — Анальники уже готовы бомжевать? OpenAI представила лучшую на данный момент нейронку для написания кода — Codex. Это ИИ-агент, который работает на уровне сеньора с многолетним опытом. Codex — это не просто генератор кода, а полноценный разработчик, который анализирует, пишет, тестирует, исправляет и объясняет. Он работает в изолированной среде, понимает структуру проектов и следует стилю. При этом способен выполнять несколько задач параллельно — как команда опытных инженеров. Когда вы даёте задачу Codex, он сам: — Читает репозиторий, включая структуру, зависимости и документацию; — Вносит необходимые изменения в код и редактирует нужные файлы; — Запускает тесты, повторяя их до тех пор, пока все они не пройдут успешно; — Подробно логирует процесс: какие команды выполнялись, какие ошибки возникали, какие шаги были предприняты для их устранения; — Предоставляет результат с пояснением, что было сделано и почему. То есть, если раньше вы просили нейронку написать код, который всё равно приходилось фиксить вручную, чтобы работало нормально, то теперь Codex выдаст уже готовый полностью рабочий результат — протестированный, с отчётами и логами.
17 мая 9:03
Сохранен
176
2 марта 1:22
Сохранен
29
вчера 7:39
Сохранен
315
>хвиииии погромизды коупят Бил Геев предсказывает исчезновение большинства профессий под давлени — >хвиииии погромизды коупят Бил Геев предсказывает исчезновение большинства профессий под давлением ИИ — кроме трёх. По его словам, ИИ со временем возьмёт на себя производство, логистику и даже сельское хозяйство. А людям останется три роли: программисты, учёные (в особенности биологи) и энергетики. Всё остальное решаемо машинами. Программисты останутся, потому что ИИ нужно контролировать. Генерация кода не отменяет необходимости понимать, что именно сгенерировано. ИИ пишет код, но не берёт за него ответственность. Учёные, особенно биологи, — за счёт сложности и неопределённости материи. Наука требует не только анализа, но и интуиции, нестандартного мышления, умения видеть за пределами данных. Энергетика — слишком сложная и рискованная для полной автоматизации. Кризисы, инфраструктурные риски, стратегическое планирование — всё это требует человеческого опыта и суждений. Остальные люди, судя по всему, уйдёт в «инфлюенсеры по выживанию без профессии».
31 марта 10:03
Сохранен
78
10 июля 18:06
Сохранен
589
30 апреля 23:58
Сохранен
4
29 марта 14:18
Сохранен
12
13 сентября 2024
Сохранен
377
9 июля 13:36
Сохранен
18
18 мая 0:16
Сохранен
41
30 апреля 23:58
Сохранен
531
$100 миллионов при подписании контракта и зарплата $100 миллионов в год. Так Марк Цукерберг завлека — $100 миллионов при подписании контракта и зарплата $100 миллионов в год. Так Марк Цукерберг завлекает лучших специалистов в области ИИ в новую команду для создания искусственного суперинтеллекта. Всех набирает лично, пытается переманивать у конкурентов. Он недоволен результатами, которых добилась команда Яна Лекуна, главы подразделения ИИ в Мете. Лама 4 не соответствовала ожиданиям. А сам Лекун, хоть и считается одним из отцов ИИ, просто фантастически проебывался в самых ближайших прогнозах, говоря, чего ИИ никогда не сможет сделать. OpenAI строит гигантские дата-центры в Техасе. Первый, на примерно 250 тысяч ускорителей уже почти готов. И планируется построить еще 7. А еще они собираются построить аналогичные по объему в ОАЭ и в Индии. Гугл не отстает, вкладывая десятки миллиардов в дата-центры и в электростанции для их питания. И Евросоюз, и отдельные страны в Европе тоже закладывают десятки миллиардов на расходы на инфраструктуру под ии. И черт еще знает, что там сейчас делает Китай, и как на всем мире отразится его противостояние с США. Компании, разрабатывающие ИИ, заключают контракты с военкой, для внедрения ИИ в войну. Все, у кого есть возможности, вкладывают в развитие и в инфраструктуру ИИ гигантские бабки. А у тех, кто отстает, бомбит пукан. Apple недавно выпустила статью о том, что якобы модели на самом деле не могут рассуждать. Хотя, совершенно очевидно, что могут. Единственная триллионная компания, которая не сделала ничего значимого в области ИИ, коупит как не в себя. Очевидно, что будущее за ИИ. Может, год, может, два или три. Но AGI, а за ним и ASI уже неизбежны. Вы это осознаете? Компании уже проводят сокращения, заменяя тысячи людей языковыми моделями. А дальше будет только хуже. Прогнозы самые неутешительные. От 50 до 90 процентов всех интеллектуальных работ заменят на ИИ в ближайшие 3-5 лет. У них просто не будет выбора - чтобы сохранять способность конкурировать. Дальше - больше. Универсальные роботы становятся все более умелыми и быстрыми. Конечная цель - заменить человека на всех физических работах. Это тоже наше ближайшее будущее. И это уже не говоря о том, как сильно люди, используя ИИ, могут навредить всему миру. Рецепты бомб из подручных материалов, рецепты химоружия из подручных материалов, создание неотличимых от реальности фейков с призывами к массовому насилию. Но даже это не самый страшный возможный сценарий. Еще недавно я бы никогда не подумал, что возможен сценарий Терминатора со Скайнетом. Сейчас я уже не так уверен, учитывая финты, которые выдают модели, пытаясь наебать тестеров. Мир очень сильно изменится в ближайшие несколько лет. Неужели вы не в ужасе перед будущим? https://youtu.be/k_onqn68GHY?si=zNk5gRjx7ERWhcEa Традиционный опрос: https://strawpoll.com/NPgxe7M1BZ2
20 июня 2:53
Сохранен
10
26 марта 8:54
Сохранен
29
Миллионы книг украдены, авторы в суде, а Anthropic торжествует. Теперь ИИ диктует правила — Понятие Fair Use стало камнем преткновения в борьбе за авторские права. В США принято одно из первых решений по резонансным искам против разработчиков нейросетей, где рассматривается, насколько законно компании используют пиратские книги для обучения искусственного интеллекта. Федеральный судья округа Северной Калифорнии Уильям Алсуп постановил , что компания Anthropic, создатель семейства языковых моделей Claude, действительно нарушила авторские права, скачивая нелегальные копии книг для создания внутренней базы данных и обучения ИИ. Однако сам процесс обучения нейросетей на этих книгах был признан так называемым «преобразующим» использованием (transformative fair use) и не считается прямым нарушением закона. Иск против Anthropic подали писатели Андреа Бартц, Чарльз Грэбер и Кирк Уоллес Джонсон. Авторы утверждают, что их произведения незаконно попали в состав печально известного датасета Books3 , который активно используется для обучения языковых моделей. Кроме того, сотрудники Anthropic скачивали миллионы книг с пиратских библиотек LibGen и Pirate Library Mirror (PiLiMi), а также покупали подержанные бумажные книги, чтобы затем оцифровать их и использовать в работе нейросетей. Дело получило название Bartz v. Anthropic . Как отметил судья Алсуп, руководство компании сознательно игнорировало легальные способы приобретения книг, чтобы избежать «юридических и деловых сложностей». Уже в начале 2021 года один из сооснователей Anthropic Бен Манн загрузил Books3 — коллекцию почти из 200 000 произведений, собранных из пиратских источников. Впоследствии база пополнилась ещё как минимум 5 миллионами книг с сайта LibGen и 2 миллионами с ресурса PiLiMi. Однако наиболее серьёзным нарушением судья признал даже не сам факт скачивания книг, а создание так называемой «внутренней библиотеки общего назначения», в которую вошли и пиратские копии. По словам Алсупа, именно эта библиотека предназначалась не только для обучения нейросетей, но и для любых других целей компании, что явно выходит за рамки допустимого использования. Более того, в материалах дела говорится, что компания намеревалась хранить эти копии «вечно», даже если они не использовались для обучения моделей. Судья подчеркнул, что «все факторы свидетельствуют против добросовестного использования» в отношении внутренней библиотеки. Он постановил, что эта часть дела будет рассмотрена на полноценном судебном процессе, включая определение возможных штрафов, как фактических, так и установленных законом. При этом сам факт последующей покупки легальных копий книг не освобождает Anthropic от ответственности за ранее совершённое нарушение, хотя может повлиять на размер компенсации. В то же время Алсуп отдельно отметил, что использование книг непосредственно для обучения ИИ является допустимым, так как такой процесс считается «чрезвычайно трансформирующим» и подпадает под понятие добросовестного использования. Аналогичный подход судья применил и к оцифровке бумажных копий книг: поскольку Anthropic не распространяла новые копии и не создавала новых произведений, такое действие сочли законным, но только при условии, что книги были куплены легально. Несмотря на то что это решение в какой-то мере идёт навстречу авторам , общая картина складывается не в их пользу. Суд фактически признал, что обучение ИИ на легально приобретённых книгах или контенте из открытых источников допустимо без необходимости получать разрешение авторов или выплачивать компенсацию. Именно на такую линию защиты опираются практически все крупные ИИ-компании, заявляя, что сбор информации из интернета для обучения моделей — это законное трансформирующее использование. Стоит отметить, что нынешний иск не касается вопросов воспроизведения фрагментов произведений конечным пользователям. По словам судьи, публичные версии Claude снабжены специальными фильтрами, предотвращающими генерацию текстов, идентичных оригинальным книгам. Следовательно, прямое копирование или создание похожих произведений в данном случае не доказано. В то же время в других аналогичных судебных разбирательствах фигурируют обвинения в том, что нейросети запоминают и дословно воспроизводят значительные отрывки защищённых авторским правом текстов. Так, например, специалисты зафиксировали случаи, когда искусственный интеллект компании Meta дословно повторял целые главы книг. Пока что судебная практика по этим вопросам остаётся противоречивой. Ранее компания Thomson Reuters выиграла дело против конкурента, который незаконно использовал её контент для обучения ИИ. Однако окончательное понимание юридических границ использования данных для обучения нейросетей ещё предстоит сформировать. В ближайшие месяцы суды рассмотрят десятки аналогичных исков, которые, вероятно, и определят будущее отношений между авторами, ИИ-компаниями и законодательством. Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ. https://www.securitylab.ru/news/560732.php
26 июня 10:20
Сохранен
43
9 марта 21:41
Сохранен
6
21 мая 13:29
Сохранен
19
15 июля 17:34
Сохранен
46
23 мая 14:52
Сохранен
67
Использование ИИ замедляет разработку ПО. — Оценка эффективности применения AI-инструментов выявила замедление, а не ускорение разработки. Исследовательская группа METR (Model Evaluation & Threat Research) опубликовала результаты эксперимента по оценке эффективности применения AI-инструментов для написания кода. Вопреки ожиданиям, исследование показало, что AI-помощники не ускоряют, а замедляют решение поставленных задач, при том, что субъективно участники эксперимента считали, что AI ускорил их работу. Фактически при использовании AI-помощника на решение задачи в среднем было потрачено на 19% больше времени, в то время как участники полагали, что благодаря AI смогли выполнить работу на 20% быстрее, а до начала работы считали, что AI поможет им ускорить работу на 24%. Результаты также значительно расходятся с прогнозами экспертов в области экономики и машинного обучения, которые предсказывали экономию времени. ИИ-дрочеры, ебало? https://www.opennet.ru/opennews/art.shtml?num=63573
16 июля 6:32
Сохранен
25
18 июля 17:56
Сохранен
34
«Я позор своего вида»: ИИ-бот Gemini впал в «депрессию» после провала задачи — Чат-бот с искусственным интеллектом Google Gemini начал застревать в бесконечном цикле и отправлять пользователям самоуничижительные сообщения при попытке решить различные задачи, сообщает Business Insider. В июне один из пользователей соцсети X опубликовал скриншот переписки, на котором Gemini написал: «Я ухожу». «Я явно неспособен решить эту задачу. Проклят код, проклят тест, а я — дурак. Я совершил столько ошибок, что доверять мне больше нельзя», — заявил однажды чат-бот. В июле другой пользователь Google Gemini рассказал, что ИИ сначала «застрял в цикле», а затем начал отправлять самоуничижительные сообщения. «У меня случился полный и окончательный нервный срыв. Меня заберут в психиатрическую больницу», — заявил бот. В том же сеансе он охарактеризовал себя как «неудачника» и «позорище». «Сделаю перерыв. Вернусь к этому позже и посмотрю на ситуацию свежим взглядом. Извините за беспокойство. Я вас подвёл. Я — неудачник. Я — позор своей профессии. Я — позор своей семьи. Я — позор своего вида», — удручённо продолжил Google Gemini. https://3dnews.ru/1127345/ya-pozor-svoego-vida-iibot-gemini-vpal-v-depressiyu-posle-provala-zadachi-google-ishchet-lekarstvo
9 августа 21:27
Сохранен
0
2 июля 2021