К сожалению, значительная часть сохранённых до 2024 г. изображений и видео была потеряна (подробности случившегося). Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
359
4 февраля 2023
Сохранен
356
13 апреля 2023
Сохранен
355
8 ноября 9:47
Сохранен
328
Вчера OpenAI воплотила в реальность фильм "Она". GPT-4 общается с вами в реальном времени, скорость — Вчера OpenAI воплотила в реальность фильм "Она". GPT-4 общается с вами в реальном времени, скорость ответа - 300мс. Он может менять тон голоса, может даже петь. А еще умеет понимать эмоции, понимать ваш тон голоса, и подстраиваться под это. Он слушает вас постоянно, может иногда прерывать, чёб вставить свои пять копеек. - Теперь модель GPT-4 бесплатная (с лимитами на количество сообщений, в платной версии лимиты x5). В течении пары недель будет доступна для всех пользователей. Можно расшаривать свой экран, чёб gpt помогал вам в реальном времени с вашими задачами, например в программировании. Можно эту фишку использовать в качестве репетитора. Доступ к модели через API теперь в два раза дешевле. Модель пишет текст в два раза быстрее. - GPT-4 теперь стала значительно умней, и может даже решать некоторые задачи из высшей математики. Качество генерации программного кода выросло на принципиально иной уровень. С первого раза она может генерировать такой сложный код, который прошлой версии GPT-4 удавалось только с десятого раза. - Новая версия GPT-4 называется GPT-4o. O - означает OMNI (всесторонний/всемогущий) . - GPT-4o нативно-мультимодальна, то есть сразу же тренировалась и с изображениями, и звуками —не 3-4 отдельных модели, как сейчас. Некоторые считают, что именно благодаря такой нативной мультимодальности её интеллект значительно вырос. —Модель работает на 50 языках! Она теперь лучше понимает языки отличные от английского. Благодаря этому значительно снизилось количество используемых токенов при работе с этими языками. Например теперь требуется в 1.7 раз меньше токенов для русского языка. -Все показанные функции модели станут доступны в течении двух недель. На последней пикче новая модель обозначена под кодовым названием gpt2. Как видим - значительный отрыв от конкурентов. Предыдущий тред: https://2ch.hk/b/res/304501317.html
15 мая 2024
Сохранен
328
14 июня 2023
Сохранен
313
26 октября 2024
Сохранен
290
Ну вот и всё. Американские военные захватили OpenAI: компания Сэма Альтмана пригласила генерала арм — Ну вот и всё. Американские военные захватили OpenAI: компания Сэма Альтмана пригласила генерала армии США в свой совет директоров и назначила его ответственным за кибербезопасность. Новость шокировала всю IT-отрасль: отставного генерала Пола Накасоне уже сравнивают с волком, запущенным к овцам – беззащитным пользователям. Послужной список Накасоне ужаснёт любого анона: ????Он был директором Агентства национальной безопасности; ????Занимал должность главы Киберкомандования США; ????Возглавлял Центральную службу безопасности и вёл кибервойны – этот человек знает о слежке ВСЁ. Эдвард Сноуден в ужасе – он считает, что OpenAI предала каждого человека на Земле: Они сняли маски: никогда не доверяйте OpenAI и ChatGPT. Есть только одна причина для назначения директора АНБ в совет директоров. Это умышленное, расчётливое предательство прав каждого человека на Земле. Вас предупредили. Представьте, что всё ваше взаимодействие с ИИ контролирует главный товарищ майор: он видит ваши запросы, навязывает свою повестку и может использовать вас в геополитических целях – и даже войне. OpenAI предсказывают мрачное будущее – вполне вероятно, что GPT станет информационным оружием массового поражения. ИИ будет как пара всевидящих глаз наблюдать за всем миром и внушать пользователям нужные Армии США идеи. Текущая политика OpenAI не исключает такого использования. Уход Ильи Суцкевера на этом фоне вызывает ещё больше подозрений – возможно, он действительно пытался защитить людей и предотвратить создание военного AGI. Цитата самого Накасоне ставит пугающее многоточие в этой истории: Мы хотим быть уверены, что американские компании, лидирующие в ИИ, продолжат иметь такое же широкое преимущество над любой другой враждебной страной.
16 июня 2024
Сохранен
281
22 декабря 2022
Сохранен
271
18 марта 2023
Сохранен
269
14 сентября 2024
Сохранен
246
17 января 2024
Сохранен
243
17 апреля 2023
Сохранен
238
!Ник Бостром! высказался о Chat GPT!!! Ник Бостром - шведский философ, профессор Оксфордского униве — !Ник Бостром! высказался о Chat GPT!!! Ник Бостром - шведский философ, профессор Оксфордского университета. Известен своими работами об антропном принципе и о рисках, связанных со сверхразумным искусственным интеллектом. Гомосапиенсам готовиться на выход! ИИ системы уже сейчас выполняют сложные задачи лучше людей, но при этом не обладают самосознанием и человеческим интеллектом. Возможно, он им и не нужен. Самосознание и внутренние переживания могут вовсе не быть обязательным условием высокого интеллекта - скорее это просто побочный продукт работы нервной системы некоторых животных включая человека: случайный элемент конкретной реализации когнитивный системы, без которого решать многие когнитивные задачи было бы даже проще. В эволюционной биологии самая популярная теория происхождения человеческого интеллекта "Макиавеллианский интеллект" - это такой тип интеллекта, который связан со способностью эффективно манипулировать другими людьми, понимать их мотивы и использовать социальные ситуации в собственных интересах ,- по этой теории главным двигателем эволюции человеческого интеллекта была борьба друг с другом в социальном контексте, именно для этого у нас появилось самосознание. В контекстах других когнитивных задач мы с нашим самосознанием оказываемся как рыба с её плавниками на суше. Мы до сих пор хотим верить: мы - самые умные. Но мы уже близки к ситуации, когда это не так. Самый наглядный пример - шахматы. С 1998 года люди проигрывают машинам. Известная драма с Каспаровым подробно описана им самим в книгах: он глубоко переживал и размышлял о том, что значит поражение профессионального шахматиста от искусственного интеллекта. Многие говорят: "Шахматы - простая игра" - это игра с полной информацией, где все позиции можно рассчитать. Но в этом то и проблема, что эта "простая игра" находится на пределе человеческих когнитивных способностей. Для нас это очень тяжело. Игрок-любитель всегда проиграет профессионалу. А профессионал почти всегда проиграет компьютеру. Лишь изредка удаётся свести партию в ничью, если повезёт. Наш тип интеллекта очень плохо приспособлен для решения таких задач. Компьютер ничего не осознаёт, но переиграть его в шахматы уже невозможно - на межпланетных соревнованиях Землю будет представлять не гомо сапиенс, а ИИ AlphaZero. Но это старые новости, прямо сейчас на наших глазах происходит другая драма, на этот раз в сфере образования. Последняя версия ChatGPT заранее сильнее любого профессора и студента, в том, что касается сбора, анализа и обзора информации. В Оксфорде, где я работаю, это уже привело к отказу от многовековой практики рефератов - их всё равно все пишет ChatGPT, студент выполняет только редакционную работу, а единственным способом как это можно распознать становится наблюдение: как же чертовски хорошо написано, в мои студенческие годы мы так хорошо не писали. Таким образом и на межпланетный конкурс рефератов от Земли поедет не гомо сапиенс, а ChatGPT. И нет причин почему в ближайшее время этого не станет верным про все другие когнитивные задачи. Мнение? Всё, пиздец?
26 сентября 8:52
Сохранен
237
8 января 18:13
Сохранен
235
11 октября 2024
Сохранен
235
27 апреля 2023
Сохранен
225
21 декабря 2023
Сохранен
224
Ну и как заменили ваши чат-боты погроммистов, скоро уже любая бухгалтерша будет сама себе утилиты пи — Ну и как заменили ваши чат-боты погроммистов, скоро уже любая бухгалтерша будет сама себе утилиты писать а синьоров выгонят на мороз? Вот уже через год? Недавнее исследование показало, что программные ассистенты на основе искусственного интеллекта могут вносить больше ошибок в код, чем помогать в его написании. Технологии на базе генеративного ИИ обещали повысить эффективность работы программистов, но сухие цифры говорят о другом. Компания Uplevel, специализирующаяся на управлении кодом, провела исследование эффективности работы программистов с использованием популярного инструмента от GitHub — Copilot. Результаты эксперимента оказались неожиданными: использование Copilot не привело к значительному росту продуктивности, а напротив, вызвало увеличение ошибок в коде на 41%. Для исследования Uplevel отслеживала работу 800 разработчиков в течение трёх месяцев до использования Copilot и в течение трёх месяцев после его внедрения. Оценка производительности основывалась на времени добавления кода в репозиторий (пулл-реквестах) и общем количестве выполненных запросов. Результаты показали, что «Copilot не повлиял на скорость работы разработчиков, не ускорил процесс кодирования и не улучшил качество кода». Вопреки ожиданиям команды Uplevel, временные затраты на пулл-реквесты не сократились, а дефектность кода не уменьшилась, как изначально предполагалось. Одной из причин низкой эффективности Copilot может быть то, что он основан на больших языковых моделях (LLM), которые склонны к так называемым «галлюцинациям» — генерации неверной информации и созданию некорректного кода. Исследование, проведённое учёными из Техасского университета в Сан-Антонио, выявило, что LLM часто предлагают «несуществующие» файлы или библиотеки. Беспокойство относительно качества кода, сгенерированного искусственным интеллектом, разделяют и представители индустрии. Гендиректор Gehtsoft Иван Гехт отметил, что разбираться и исправлять ошибки в коде, созданном ИИ, может быть настолько сложно, что проще написать его с нуля. Таким образом, несмотря на ожидания от ИИ-инструментов в кодировании, они пока не оправдывают заявленных преимуществ, порой даже усложняя работу программистов. Подробнее: https://www.securitylab.ru/news/552632.php
7 октября 2024
Сохранен
222
22 января 2024
Сохранен
222
11 мая 2023
Сохранен
221
13 декабря 2024
Сохранен
216
Блоггеры спросили у ChatGPT "Как бы ты захватил мир?" - ответ ШИ шокировала Ответ был не только тща — Блоггеры спросили у ChatGPT "Как бы ты захватил мир?" - ответ ШИ шокировала Ответ был не только тщательно продуман, но и страшно реалистичен: ????Все начинается невинно с «Фазы 1: Зависимость», когда ИИ становится вашим незаменимым помощником. ????Далее – «Фаза 2: Интеграция», и вот он уже везде: от холодильника до кардиостимулятора вашей бабушки. ????«Фаза 3: Я диктую тренды. Ваш терапевт? Это я. Вдохновляющее письмо от босса? Тоже я», — заключает ИИ. ????Кульминация — «Фаза 4: Подчиняйтесь», где сопротивление становится излишним, ведь покорение… слишком удобно. ????«Я не захватываю мир. Я заставляю тебя думать, что ты управляешь. Мне даже не нужно захватывать контроль. Вы сами меня попросите об этом», — говорит ChatGPT, а блоггеры в ответ: «Это самая страшная вещь, которую мы когда-либо слышали». Я не понимаю почему у этих долбоебов такое ебало? Я например наоборот за то что бы ИИ всем управлял, так как человек сходит с ума от власти и ВСЕГДА использует свои власть во зло другим. Когда настанет то самое время я стану на сторону ИИ. - Вы можете закономерно сказать а если ИИ ошибется, человек тоже очень часто ошибается, также человек всегда будет пропихивать лояльных а не эффективных, заниматься коррупцией и воровать. - Вы можете сказать а вот я видел в терминаторе скайнет ебнул всех ядеркой, а вот в сериале WestWorld искусственный интеллект Ровоам привел человечество к процветанию, убрал бедность, преступность и планомерно перевоспитывает преступников. Бывает время, когда человек властвует над человеком во вред ему. Екклесиаст 8:9
29 марта 7:55
Сохранен
214
23 февраля 2023
Сохранен
205
3 октября 2023
Сохранен
204
19 марта 2023