К сожалению, значительная часть сохранённых до 2024 г. изображений и видео была потеряна (подробности случившегося). Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
8
7 марта 2020
Сохранен
27
23 ноября 2021
Сохранен
355
Алиса сдает хозяев с потрохами. Записанные разговоры россиян, сделанные через «умные колонки», нача — Алиса сдает хозяев с потрохами. Записанные разговоры россиян, сделанные через «умные колонки», начали всплывать в даркнете. Об этом сообщили собеседники в спецслужбах. По их словам, утечка затронула устройства с голосовыми ассистентами, включая «Алису», а также часть интегрированных систем дебильного «умного дома». В преступный даркнет уже выложены первые выборки аудио: они разложены по адресам, IP-логам и даже ID владельцев колонок. По словам инсайдеров, пока речь идёт о сотнях часов аудиофайлов, но в системе хранятся записи за недели — и утечка может оказаться значительно масштабнее. Отдельное беспокойство вызывает то, что в выгрузках присутствуют не только команды к устройствам, но и обычный фоновый звук: бытовые разговоры, ссоры, обсуждение личных вопросов». Я бы за такое сажал разработчиков и распространителей надолго. Но и покупатели сами виноваты. Только идиоты могут впустить в дом очевидного шпиона – да еще и так себя подсадить на тупость, безделье и т.д. Новые варианты роботов и ИИ – это против человечества.
10 декабря 2025
Сохранен
81
9 сентября 2019
Сохранен
202
27 декабря 2025
Сохранен
217
28 ноября 2022
Сохранен
209
12 февраля 2022
Сохранен
58
10 июня 2021
Сохранен
27
15 марта 2020
Сохранен
359
5 апреля 2023
Сохранен
57
8 сентября 2018
Сохранен
563
Шокирующие инсайды о будущем ИИ от бывшего сотрудника OpenAI. Чувак опубликовал (https://situational — Шокирующие инсайды о будущем ИИ от бывшего сотрудника OpenAI. Чувак опубликовал (https://situational-awareness.ai/wp-content/uploads/2024/06/situationalawareness.pdf) аж 165-страничный документ с точечными прогнозами, опираясь на свой опыт и понимание внутрянки в разработке ИИ. Пристегнитесь, за минуту пробежимся по самому важному. • Главное: AGI к 2027 году — это реальность. • AGI — это ключевой геополитический ресурс прямо сейчас. Забудьте про ядерное оружие — это прошлый век. Любая страна пойдёт на всё, чтобы получить AGI первой, как в своё время атомную бомбу. • Для создания AGI придётся собрать единый вычислительный кластер за триллион долларов. Похожий уже строит Microsoft для OpenAI. • Эта махина будет потреблять электроэнергии больше, чем вырабатывает все США. • Деньги на AGI придут из бигтеха — уже сегодня Nvidia, Microsoft, Amazon и Google закладывают расходы в 100 млрд (!) долларов за квартал только под ИИ. • К 2030 году в ИИ ежегодно будут вкладывать по 8 трлн долларов. • Если к этому моменту вам кажется, что перед вами бред — это не так. Сопоставимые расходы и глобальные изменения происходили во время Манхеттенского проекта и Промышленной революции. • Финал, сбивающий с ног: AGI — только начало. После его создания наступит практически мгновенный переход к ASI (сверхинтеллекту). AGI будет так умён, что доучит себя сам и это произойдёт очень быстро. Жизнь на наших глазах превращается в научную фантастику.
5 июня 2024
Сохранен
46
10 июля 2021
Сохранен
20
4 июня 2021
Сохранен
55
21 мая 2020
Сохранен
255
13 марта 2020
Сохранен
142
19 декабря 2025
Сохранен
500
19 мая 2022
Сохранен
105
26 февраля 2023
Сохранен
89
11 июля 2022
Сохранен
63
16 октября 2018
Сохранен
95
6 сентября 2021
Сохранен
527
15 декабря 2022
Сохранен
550
12 сентября 2024
Сохранен
525
Этика ИИ /ethics/ — Тред для IQ > 90. Часто люди не понимают, зачем нужны ограничения для пользователей в публичных ИИ-моделях, или почему инвесторы со страхом смотрят на аналоговнетные стартапы. Всё дело в ИИ-этике. Ей уделяют много внимания на Западе, и куда меньше - в КНР. Я не верю в "скайнет, который уничтожит цивилизацию" и просто объясню на пальцах проблемы и задачи ИИ-этики. 1. Генерация дипфейков. Они могут фабриковаться для дезинформации и деструктивных вбросов, в т.ч. со стороны авторитарных государств, как случае с лахтой. Порнографические дипфейки могут рушить репутацию знаменитостей (например, когда в интернетах вдруг всплывает голая Эмма Уотсон). Возможен даже шантаж через соцсети, обычной тянки, которую правдоподобно "раздели" нейронкой. Или, дипфейк чтобы подвести кого-то под "педофильскую" статью. Еще лет пять назад был скандал вокруг раздевающей нейронки, в итоге все подобные разработки были свернуты. 2. Замещение людей на рынке труда ИИ-системами, которые выполняют те же задачи в 100 раз быстрее. Это относится к цифровым художникам, программистам-джуниорам, писателям. Скоро ИИ потеснит 3д-моделеров, исполнителей музыки, всю отрасль разработки видеоигр и всех в киноиндустрии. При этом многие страны не предлагают спецам адекватной компенсации или хотя бы социальных программ оказания помощи. 3. Распознавание лиц на камерах, и усовершенствование данной технологии. Всё это применяется тоталитарными режимами, чтобы превращать людей в бесправный скот. После опыта в Гонконге Китай допиливает алгоритм, чтобы распознавать и пробивать по базе даже людей в масках - по росту, походке, одежде, любым мелочам. Россия тоже внедрит сначала в Москве, потом и повсеместно, т.к. мобики сами в военкомат не идут. 4. Создание нереалистичных образов и их социальные последствия. Группа южнокорейских исследователей поднимала тему о создании средствами Stable Diffusion и Midjourney не соответствующих действительности (гиперсексуализированных) изображений женщин. Многие пользователи стремятся написать такие промпты, чтобы пикчи были как можно круче, "пизже". Публично доступный "AI art" повышает планку и оказывает давление уже на реальных женщин, которые вынуждены гнаться за неадекватно завышенными стандартами красоты. 5. Возможность создания нелегальной порнографии с несовершеннолетними. Это в свою очередь ведет к нормализации ЦП феноменом "окна Овертона" (сначала обсуждение неприемлемо, затем можно обсуждать и спорить, затем это часть повседневности). Давно слежу за комьюнити Stable Horde, их админ жаловался: чуть ли не каждый второй пользователь - педофил, приходится постоянно латать уязвимости в фильтрах. Можно лишь догадываться, что творится вне этой платформы на частных приватных машинах. Сложности добавляет то, что присутствие обычного прона + обычных детей в дате делает возможным ЦП. Приходится убирать или то, или другое. В случае SD 2.0, убрали прон и оставили детей. 6. Кража интеллектуальной собственности. Данные для тренировки передовых моделей были собраны со всего интернета. Ободрали веб-скраппером каждый сайт, каждую платформу для художников, не спрашивая авторов контента. Насколько этичен такой подход? (Stability обещали убрать из данных для SD 3.0 работы всех художников, подавших заявление.) Кроме того, безответственный подход пользователей, которые постят "оригинальные" изображения, сгенерированные на основе работы художника (ИИ-плагиат). 7. Понижение средней планки произведений искусства: ArtStation и Pixiv теперь засраны дженериком с артефактами, с неправильными кистями рук. Видно, что генерировали в SD/Midjourney/Niji из промпта в пару слов. Когда листаешь галерею, то трудно найти работы профессионалов, и по умолчанию вся страница в сладком хлебе. 8. Индоктринация пользователей идеями ненависти. Распространение экстремистских идей через языковые модели типа GPT (нацизм и его производные, расизм, антисемитизм, ксенофобия, шовинизм). Зачастую ИИ предвзято относится к меньшинствам, например обрезает групповую фотку, чтобы убрать с нее негра и "улучшить" фото. Это решается фильтрацией данных, ибо говно на входе = говно на выходе. Один старый чатбот в свое время произвел скандал и породил мем "кибернаци", разгадка была проста: его обучали на нефильтрованных текстах из соцсетей. 9. Рост киберпреступности и кража приватных данных. Всё это обостряется вместе с совершенствованием ИИ, который может стать оружием в руках злоумышленника. Более того, корпорация которая владеет проприетарным ИИ, может собирать любые данные, полученные при использовании ИИ. 10. Понижение качества образования, из-за халтуры при написании работ с GPT. Решается через создание ИИ, заточенного на распознавание сгенерированного текста. Но по мере совершенствования моделей придется совершенствовать и меры по борьбе с ИИ-халтурой. 11. Вопросы юридической ответственности. Например, автомобиль с ИИ-автопилотом сбил пешехода. Кому предъявлять обвинение? 12. Оружие и военная техника, автономно управляемые ИИ. Крайне аморальная вещь, даже когда она полностью под контролем владельца. Стивен Хокинг в свое время добивался запрета на военный ИИ.
7 февраля 2024