Сохранен 573
https://2ch.su/b/res/316643851.html
Сообщите нам если начиная с сентября вы испытываете проблемы с доступом к сайту через клирнет, сразу укажите сообщение об ошибке или приложите скриншот.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

СОЗДАНА ПРОГРАММА ВЕЧНОГО СЖАТИЯ ИНФОРМАЦИИ БЕЗ ПОТЕРЬ. Исходный код + программа на python https://

 Аноним 16/02/25 Вск 12:40:20 #1 №316643851 
2.mp4
im344ages.jpg
3e83368fec26a46708ba348bd110bf46.png
extreme-pro-uhs-ii-sd-64gb-front.png.thumb.1280.jpg
СОЗДАНА ПРОГРАММА ВЕЧНОГО СЖАТИЯ ИНФОРМАЦИИ БЕЗ ПОТЕРЬ.
Исходный код + программа на python

https://drive.google.com/file/d/1sX42t-4tt6j31gyXFuwgrRFmRaD0KOEg/view

Линукс. Исходный код и компил программа.

https://drive.google.com/file/d/1asTnrpCHiOixksRU9AjyT1bkZ3-JmL_x/view

64 ГБ СЛОВАРЯ ХВАТИТ ВСЕМ!

Шеннон доказал, что существует предел, до которого можно сжать данные без потерь. Этот предел определяется энтропией источника. В идеальных условиях, если данные имеют энтропию ( H ), то их можно сжать до размера, близкого к ( H ) бит на символ.

Но Шеннон не предполагал что можно создать словарь 4 уровня, где пары бинарного кода кодируются метками бинарного кода, а сами метки тоже бинарным кодом и так до 4 уровня.
Таким образом достигается вечное сжатие в рекурсии!

Уровень 0: 16 пар 8 байт/пара = 128 байт

Уровень 1: 256 пар
8 байт/пара = 2 КБ

Уровень 2: 65 536 пар 8 байт/пара = 512 КБ

Уровень 3: 4 294 967 296 пар
8 байт/пара = ~ 34 ГБ

34 гб описывают бесконечную рекурсию информации! Следовательно информацию и вычисления можно бесконечно сжимать и снова раскладывать без потерь!

Код создан с нуля ИИ, по подсказкам метода Яна Слоота.
Он работает медленно, любая попытка ИИ его улучить ломает код и работу программы
Что нужно сделать:
1) переписать на С++ или CUDA
2) переписать логику что бы не ел 34 ГБ RАМ постоянного словаря а ток с SSD
3) Добавить рекурсию после сжатия для нового сжатия

Принцип Работы, файл сжимается, размер его сохраняется но это теперь файл это ссылки на 34 гб словарь. Магия в том, что если поместить сжатый файл в ZIP и RAR то его размер в 10-20 раз МЕНЬШЕ ОРИГИНАЛА, И его можно восстановить из ОБЩЕГО СЛОВАРЯ. который постоянный 34 гб!

код и метод выложен на общее обозрение в Open source - вы можете редактировать и изменять его, но уважайте себя и научное сообщество, метод даёт возможным сингулярность и AGI

Получив бесконечные вычислительные мощности и память что будете делать с этим?
Аноним 16/02/25 Вск 12:42:38 #2 №316643949 
preview800.jpg
>Получив бесконечные вычислительные мощности и память что будете делать с этим?

скачаю всю порнуху с порнолаба и буду на диване дрочить до остановки сердца
Аноним 16/02/25 Вск 12:43:09 #3 №316643974 
112 (5).jpg
112 (6).jpg
https://replit.com

Функция AUTOMATIC DEVELOPER - пишет полностью прогу, исправляет все ошибки, проводит все тесты, всё силами ИИ, эменно этот ИИ написал для линукса сжималку по ТЗ
минусы
стоит 15 $
Аноним 16/02/25 Вск 12:45:15 #4 №316644039 
>>316643974
А эта программа может написать программу которая выводит текущую цену биткоина?
Аноним 16/02/25 Вск 12:50:39 #5 №316644234 
>>316644039
Да, пишет код и полностью его тестирует покуда ТЗ не будет выполнено. за 3 минуты выполнит любое ТЗ в 1000 строк.
Если больше 1 часа не может сделать ( проект на сотню стеков ) то пишет где траблы и в чём проблемы, но таких событий ток 1% в 99% твоё ТЗ выполнит за 3 минуты

в твоём случае он создаст хтмл ява скрипт с апи отпрктым ценой криптобиржи
sage[mailto:sage] Аноним 16/02/25 Вск 12:50:54 #6 №316644243 
>Шеннон доказал, что существует предел, до которого можно сжать данные без потерь. Этот предел определяется энтропией источника.
Ты сам себе противоречишь, шизофреник, когда говоришь, что будешь бесконечно сжимать данные и опираешься буквально на теорию, которая противоречит твоей задумке. Не важно сколько уровней в твоём сжатии, теория универсальна и говорит про то, что ты не можешь сжимать данные меньше, чем их энтропия.
>сингулярность и AGI
И как добивочка, кинул модных словечек на которые только дебилы поведутся.
Аноним 16/02/25 Вск 12:51:14 #7 №316644252 
>>316643851 (OP)
То есть чтобы разжать твой архив надо предварительно скачать 34гб словаря? Ты ебанутый?
Аноним 16/02/25 Вск 12:53:18 #8 №316644323 
>>316643851 (OP)
Покажи сжатие наглядно. На видео.
Аноним 16/02/25 Вск 12:54:38 #9 №316644376 
343432234.jpg
Прошлый тред развалил компанию на 2

С помощью моего метода можно уже делать память в 16 раз больше
было 1 ТБ стало 16 ТБ

15 февраля · 15:21

Отделившаяся от Western Digital компания SanDisk представила то, что должно позволить ей откусить кусочек от горячего рынка ИИ. Речь о новом типе памяти.

Компания показала новую архитектуру памяти, которую называет флэш-памятью с высокой пропускной способностью. Она фактически объединяет огромную емкость хранения 3D NAND с пропускной способностью HBM.
фото SanDisk

Речь тут идёт о сложении 16 слоев новейших кристаллов 3D NAND, используя крошечные конвейеры данных, называемые сквозными кремниевыми переходами. Также есть специальный логический слой, который может параллельно записывать данные в отдельные подмассивы NAND и из них. Это приводит к тому, что HBF упаковывает в 8–16 раз больше емкости на стек, чем сегодняшние реализации HBM.

В частности, компания в виде примера показала систему с восемью стеками HBF, которая может обеспечить колоссальную емкость в 4 ТБ, что недостижимо для современной HBM. Впрочем, одно из основных ограничений NAND относительно HBM у новой памяти тоже остаётся — это заметно более высокие задержки. Но для задач ИИ это и не особо важно, а для потребительских игровых решений такую память всё равно использовать не будут.
Аноним 16/02/25 Вск 12:56:02 #10 №316644415 
.mp4
>>316644323
Аноним 16/02/25 Вск 12:56:52 #11 №316644441 
>>316643851 (OP)
а можешь переписать это на PHP??
Аноним 16/02/25 Вск 12:58:13 #12 №316644485 
>>316643851 (OP)
Баян. Это уже давно известно
Аноним 16/02/25 Вск 13:01:59 #13 №316644615 
32434.jpg
photo2025-01-2723-51-09.jpg
4323434.jpg
d1f15ad20a0acd288d3ee62545d97647.png
>>316644252
Словарь создаётся динамически по ходу дела и после 34 гб перестаёт расти.

словарь рекурсивный по типу те пары вечно себя сжимают на два. всегда.

01 = 1
10 = 0

те решена главная проблема информатики.

1000 строчный С++ скрипт делает любую память бесконечной с помощью словаря 40 гб. под скрипт можно собрать FPGA или нейронный процессор который сможет себя рекурсивно ускорять индексируя индексы индексируя индексы. В РЕКУРСИИ
Аноним 16/02/25 Вск 13:08:35 #14 №316644836 
112 (2).jpg
112 (1).jpg
122323.jpg
b73c4df71f.jpg
>>316644243
Схема программы.

>меньше, чем их энтропия.

Можно создать словарь где 16 бит ссылки будут вести на 64 бит блоки.

Как? много уровненный словарь где пары маркируются и пары индексов тоже маркируются до 4 уровня.
Аноним 16/02/25 Вск 13:10:25 #15 №316644898 
Хуйня. Разбвдите когда раздолбанное очко научитесь сжимать
Аноним 16/02/25 Вск 13:14:45 #16 №316645038 
>>316644836
>16 бит ссылки будут вести на 64 бит блоки
А то, что 16 бит недостаточно, чтобы адресовать все уникальные 64-битные комбинации, тебя не волнует? Также каждый уровень добавляет лишь адресацию, но не уменьшает энтропию исходных данных.
Аноним 16/02/25 Вск 13:16:22 #17 №316645088 
45353443.jpg
>>316644243
>теория универсальна и говорит про то, что ты не можешь сжимать данные

теория рудиментарна и устарела.

простой пример. метод словаря

1=10
10=1

сжатие в 10 раз )))

метод словаря строки
1=123456789 - сжатие в миллионы раз
2=987654321

В проге из поста проблема такая, что нужно создать алгоритм который обратимо 2 числа конвертирует в одно и обратно обратимо и детерминировано. с 3 уровень по 4

тогда вместо 60 гб словарей . будет 5 мб.
Аноним 16/02/25 Вск 13:27:02 #18 №316645459 
>>316645038
>А то, что 16 бит недостаточно,

можно создать бесконечное количество словарей для 16 бит и покрыть все диапазоны, по типу

словарь 1

А = 111000

Словарь 2

А = 111000

и так дальше.

И так получилось что это весит меньше десятикратно при 1 цикле
Аноним 16/02/25 Вск 13:36:35 #19 №316645803 
1023466892.jpg
>>316643851 (OP)
Как же охуенно! Сжал ReadMe.txt и довольный как слон храню сжатый файл в словаре на 1 терабайт.
Аноним 16/02/25 Вск 13:45:45 #20 №316646086 
У меня друзь в ФСБ, да такая хуйня реально существует. Именно поэтому сейчас все видео ютуба копируются на рутуб, по фильтру - фильтр ии смотрит каждое видео на законы роскомнадзора - и добавляет. Когда ютуб скопируется - заблочат навсегда ютуб, но новые видео станут также появляться через фильтра
Аноним 16/02/25 Вск 13:49:32 #21 №316646225 
>>316645459
>бесконечное количество словарей
Чтобы добраться до 64 в итоге. Не наебешь, лох.
Аноним 16/02/25 Вск 13:53:19 #22 №316646374 
>>316643851 (OP)
Если это правда, то изи деньги.
http://prize.hutter1.net/
Тут платят если сжать их файл короче установленного на данный момент мирового рекорда. 1 Гб - 110 Мб. Словарь любой величины вроде допускается.
Аноним 16/02/25 Вск 13:54:59 #23 №316646437 
АНОНЫ, ДАЙТЕ КРАТКУЮ СВОДКУ

Вижу треды этого шиза уже год и интересно, его пост и действия несут смысл? В этой хуйне не шарю, просто инетерсно
Аноним 16/02/25 Вск 14:01:01 #24 №316646615 
>>316646437
двачую
Аноним 16/02/25 Вск 14:03:48 #25 №316646710 
>>316646437
Он прост ебанутый. Смысл вообще сжатия инфы в том что после остаётся только сжатое, а у него сжатое + левый словарь на 100500 гигов. Охуенно сжал, чё. Просто чел больной, очень больной на голову.
Аноним 16/02/25 Вск 14:06:38 #26 №316646798 
>>316643851 (OP)
> можно восстановить из ОБЩЕГО СЛОВАРЯ. который постоянный!
Долабёб, ты заебал срать своим говном. Где словарь-то хранить? У дяди? Что делать если словарь наебнётся? Вообщем, завязывай с веществами, дебил.
Аноним 16/02/25 Вск 14:08:33 #27 №316646855 
изображение.png
изображение.png
Файл действительно он сжал в 2 раза меньше исходного .exe
Чем 7zip и winrar

Вот только это наёбывало он создает нпу папку где блядь словарь весит больше чем сам исходны файл.

/thread

Скрипт проигрывает обычным архиваторам


Сжатия файла имеет отрицательный характер. Жду ответа OPа
Аноним 16/02/25 Вск 14:10:54 #28 №316646915 
1221 (1).jpg
1221 (3).jpg
1221 (4).jpg
>>316646225
Смотри исходный код, это сингулярность и квантовый словарь.

если вначале прогнать 60 гигов то во всём мире его структура будет одинаковой

впрочем, не прикол ли что бы написать простую прогу нужно 25 гб библиотек и зависимостей?
Аноним 16/02/25 Вск 14:12:34 #29 №316646962 
>>316643851 (OP)
Этого убьём.
SanDisk
Аноним 16/02/25 Вск 14:14:30 #30 №316647021 
>>316646855
Уровень 0: 16 пар 8 байт/пара = 128 байт

Уровень 1: 256 пар 8 байт/пара = 2 КБ

Уровень 2: 65 536 пар 8 байт/пара = 512 КБ

Уровень 3: 4 294 967 296 пар 8 байт/пара = ~ 34 ГБ

те больше 40 гигов не будет но при этом ты сможешь бесконечно сжимать в рекурсии
Аноним 16/02/25 Вск 14:16:56 #31 №316647077 
>>316647021
>сжимать в рекурсии
Шизло, ты так и не показал сжатие больших файлов. Сожми своей шизохуйнёй файлы реально больших размеров (от терабайта), а там посмотрим.
Аноним 16/02/25 Вск 14:18:14 #32 №316647105 
122.jpg
l-ellviplb3kupadfsrcgwqpui.png
c4ae9df6ba76f0808bbb965c6c6346d4.gif
>>316646437
тебе новости ни о чём не говорят?

Пеки, ИИ и программы смогут ускорять свои вычисления и память рекурсивно бесконечно, точнее вся информатика это 40 гб словарей. и всё.

Гиф 3 можно смотреть бесконечно

на первых этапах, 40 гб регистра ускорят компьютеры в 500 раз. сжатие в 500 раз
те то что щас 1 тб будет 500 тб. но рекурсию можно повторять
sage[mailto:sage] Аноним 16/02/25 Вск 14:18:58 #33 №316647130 
изображение.png
изображение.png
>>316647021
К чему твой высер, даже если NPY и твой файл запокавать в архив с максимальным сжатием то общий вес будет файлу который не заархивирован.
Я не собираюсь 10 часов сжимать 50гб файл чтобы тебя опровергнуть, иначе бы давно это бы изобрели. Сейчас попробую сжимать от репакеров
Аноним 16/02/25 Вск 14:21:15 #34 №316647189 
1221 (4).jpg
>>316647077
лол. ты научишься рисовать в художке или может научишься рисовать аниме??

сложную прогу нельзя написать без дара. поэтому прошу помощи.
Аноним 16/02/25 Вск 14:22:15 #35 №316647219 
>>316647130
Так в этом и смысл что бы потом в зип и рар и по новой.

Что нужно сделать:
1) переписать на С++ или CUDA
2) переписать логику что бы не ел 34 ГБ RАМ постоянного словаря а ток с SSD
3) Добавить рекурсию после сжатия для нового сжатия

Принцип Работы, файл сжимается, размер его сохраняется но это теперь файл это ссылки на 34 гб словарь. Магия в том, что если поместить сжатый файл в ZIP и RAR то его размер в 10-20 раз МЕНЬШЕ ОРИГИНАЛА, И его можно восстановить из ОБЩЕГО СЛОВАРЯ. который постоянный 34 гб!
Аноним 16/02/25 Вск 14:22:49 #36 №316647233 
>>316647021
Какая нахуй рекурсия, долбаёб. Жпег практически несжимаемый, нахуй. Каждая фотка - уникальный пиздец из цветовых байтов. У меня своих фоток на 2 терабайта, нахуй. А ты продолжаешь пиздеть что сожмёшь их до килобайта? Лол ваще. Иди проспись, болезный.
Аноним 16/02/25 Вск 14:23:22 #37 №316647248 
>>316647189
То есть дальше шизотеории, которая противоречит логике и теоремам, ты не ушёл, верно?
sage[mailto:sage] Аноним 16/02/25 Вск 14:23:36 #38 №316647256 
>>316647219
>БЩЕГО СЛОВАРЯ. который постоянный 34 гб!
Схуяли он общий? Предлагаешь мне словарь заидь файлами на 40гб чтобы твой бред работал?, зип и рар тут не причем щас спрошу у нейросетки бред у тебя или нет
Аноним 16/02/25 Вск 14:25:11 #39 №316647304 
>>316647219
Какая магия, дебил? Мне надо сжать 100 фоток и отдать по сети, блять, ты предлагаешь мне отдавать ещё и словарь на 40 гигов? Пидорас твоя фамилия, блять.
Аноним 16/02/25 Вск 14:28:38 #40 №316647407 
432234343.jpg
Yanghuitriangle.gif
4.jpg
3e83368fec26a46708ba348bd110bf46.png
>>316647256
>
>Схуяли он общий? Предлагаешь мне

Общий для кодирования и декодирования всех файлов где 16 бит ссылки на 64 бит и обратно ссылок по 4 словарям 256 символов

на всех компьютерах он одинаков.
sage[mailto:sage] Аноним 16/02/25 Вск 14:30:50 #41 №316647479 
>>316647407
дегенерат пойми нейросеть не может создать такой алгоритм, нейросеть понятие не имеет что это такое, архиваторы уже сделали лучше в 90-х годов с тех пор особо далеко не двинулись
Аноним 16/02/25 Вск 14:31:01 #42 №316647487 
4354545.jpg
>>316647304
Ты дебил? Данный метод только для локального сжатия. бесконечного. можно сделать и для сети, всеобщем это код сингулярности, мне порядка 10 нобелевок должны дать. да ток, я как тян не готова к такой популярности, это какое то безумие. На планете обезьян.

поляки делают AAA екшены в то время как 99% населения в говне
Аноним 16/02/25 Вск 14:32:04 #43 №316647522 
вот вы рофлите над сжатошизом
а прикиньте через несколько лет просто каждое устройство с завода будет иметь словарь этот ебучий, и будем в 4к прон смотреть с 3г интернета
Аноним 16/02/25 Вск 14:32:16 #44 №316647535 
>>316647407
> на всех компьютерах он одинаков.
То есть теперь 40 гигов достаточно чтобы оцифровать всю инфу на земле? А гугол то не знает, блять. Иди расскажи им, а то они долбаёбы, постоянно новые ссд закупают с жестяками. Скажи, кто тебе насрал в голову и когда?
Аноним 16/02/25 Вск 14:32:41 #45 №316647551 
>>316647233
>
> Жпег практически несжимаемый

сверху исходный код и рабочая прога.

все файлы состоят из 1 и 0
те 1 млн бит это 500 тысяч 1 и 0 вперемешку,

Метод словаря, раскладывает на все возможные комбинации и ссылки.

Я бы могла сама по тихому обогащатся да ток у меня всё есть, и благо цивилизации для меня важней чем неск монополистов.

ЩАС РАССКАЖУ ВОТ ЧТО.
Аноним 16/02/25 Вск 14:33:34 #46 №316647574 
>>316647487
> мне порядка 10 нобелевок должны дать.
--->
>>316647535
Аноним 16/02/25 Вск 14:34:15 #47 №316647598 
>>316643851 (OP)
алсо, сжатошиз, попробуй claude, говорят лучше гпт иногда пишет код
Аноним 16/02/25 Вск 14:34:20 #48 №316647601 
>>316647479
>дегенерат пойми нейросеть не может создать такой алгоритм, нейросеть понятие

Дело в том, что код мне скодил genini - DEEPMIND на серверах гугла за миллиарды.

https://aistudio.google.com/app/prompts/new_chat

программу удалось завершить только месяц назад.

Математическое доказательство ещё летом. Ты хочешь нобелевку?
sage[mailto:sage] Аноним 16/02/25 Вск 14:34:32 #49 №316647610 
Хорошо, вот окончательный ответ, объединяющий анализ треда, видео и скрипта, как вы и просили:

Окончательный ответ: "Вечное сжатие" - это обман и заблуждение.

Коротко и ясно: Программа из треда не создает "вечное сжатие". Это иллюзия сжатия, основанная на трюке с огромным внешним словарем. Автор треда, ОP, заблуждается (или намеренно вводит в заблуждение) относительно эффективности и практической ценности своего "метода".

Как это работает на самом деле (и почему это не "сжатие"):

* Суть "сжатия" в скрипте: Программа берет ваш файл и заменяет повторяющиеся 2-битные блоки на короткие "коды". Эти "коды" - это просто указатели на записи в огромном словаре (папка `dictionaries_npy`). Сам словарь (который весит десятки гигабайт) не сжимается и не включается в "сжатый" файл.
* "Сжатый" файл - это просто "ссылки": Файл, который вы получаете на выходе (`.ctxt`), становится маленьким, потому что он содержит только ссылки (коды-указатели) на словарь. Сами данные никуда не исчезают - они просто переносятся в словарь.
* Огромный словарь - главная проблема: Чтобы *распаковать* файл, вам нужен тот же самый словарь на десятки гигабайт. Это делает метод непрактичным. Представьте, что вы "сжали" файл до 1 МБ, но вам нужно передать вместе с ним папку словаря на 100 МБ (а в реальности словарь может быть и больше, чем исходные данные!). Общий размер данных только увеличивается, а не уменьшается.
* 40 ГБ - это не предел, а ограничение кэша: Утверждение, что словарь "не будет расти после 40 ГБ" - неправда. В коде есть ограничение на *кэш в памяти* (1 ГБ в коде, но в треде упоминаются другие цифры). Но сам словарь на диске (который хранится в папке `dictionaries_npy`) **может расти бесконечно**, особенно если вы будете сжимать разнообразные файлы. Ограничение кэша просто замедлит работу, но не остановит рост словаря.

**Анализ скрипта (кратко):**

* **Многоуровневые словари (4 уровня):** Идея многоуровневости сама по себе не нова, но реализация в скрипте ведет к созданию **огромных, неэффективных словарей**.
* **2-битное блочное разбиение:** Разбиение данных на такие маленькие блоки **неэффективно** и увеличивает накладные расходы на словарь.
* **Python и медленная работа:** Реализация на Python делает программу **медленной**.

**Видео для понимания (аналогия):**

Представьте себе **огромную библиотеку (словарь)**, где хранятся все возможные комбинации 2-битных блоков и их "коды".

* **"Сжатие" по методу ОPа:** Вы берете книгу (файл), и вместо того, чтобы хранить саму книгу, вы оставляете себе только **каталожные номера** (коды) страниц, которые есть в вашей книге, и выбрасываете саму книгу. Размер "каталога" (сжатый файл) маленький, но чтобы прочитать книгу, вам нужно идти в **огромную библиотеку** и искать страницы по каталожным номерам. **Размер библиотеки (словаря) может быть больше, чем все книги, которые вы "сжали" таким образом.**

* **Реальное сжатие (WinRAR, 7-Zip и т.д.):** Архиваторы, как WinRAR, **не создают внешних библиотек**. Они ищут повторяющиеся фрагменты *внутри самого файла* и заменяют их короткими ссылками. **Вся информация, необходимая для распаковки, находится внутри самого архива.** Архив получается меньше, и для распаковки не нужен никакой внешний "словарь".

**Вывод:**

Не верьте заявлениям ОPа о "вечном сжатии". Это **псевдонаучная чушь**. Скрипт не является эффективным или практичным методом сжатия данных. Используйте стандартные архиваторы, которые работают гораздо лучше и честнее.
Аноним 16/02/25 Вск 14:35:06 #50 №316647623 
>>316643851 (OP)
Виндовс 7 ностальгия
sage[mailto:sage] Аноним 16/02/25 Вск 14:35:13 #51 №316647630 
>>316647601
>Математическое доказательство ещё летом. Ты хочешь нобелевку?
Петух, у тебя ничего не работает нету никакого сжатия даже лучше винрара, как покажешь так приходи умник хуев
Аноним 16/02/25 Вск 14:36:56 #52 №316647681 
>>316647522
>а прикиньте через несколько лет просто каждое устройство с завода будет иметь словарь этот ебучий,

Я подсчитала что телефоны будут в 50 тысяч раз быстрее, как и RAM И место. дальше уже предел шины, проводников, инфа кодироваться будет 50 гб в сек. туда и обратно. место бесконечное.

процессор, ram и ssd раскладывается в этот 50 гб словарь.

если подключить квантовую пеку, то боюсь даже представить что будет. СИМУЛЯЦИЯ вселенной и всех вариантов будущего, реал тайм. со взломом любого шифрования
sage[mailto:sage] Аноним 16/02/25 Вск 14:37:35 #53 №316647705 
>>316647219
>>316647407
Сообщение ОPа 1: "Так в этом и смысл, чтобы потом в ZIP и RAR и по новой."

Анализ: ОP предлагает после "сжатия" своей программой, дополнительно сжимать полученный файл .ctxt архиваторами ZIP и RAR. Он ожидает, что это приведет к еще большему сжатию.

Почему это не работает (или работает не так, как он думает):

.ctxt - уже zlib-сжат: Важно помнить, что программа ОPа уже использует zlib для сжатия строки хэшей (последний этап функции compress). Поэтому файл .ctxt уже является zlib-сжатым.

Дополнительное сжатие ZIP/RAR - бессмысленно (или почти бессмысленно): Попытка сжать уже сжатый файл (.ctxt) с помощью ZIP или RAR вряд ли даст значительный дополнительный выигрыш в размере. Архиваторы (включая ZIP и RAR) хорошо работают на несжатых данных, находя в них повторяющиеся паттерны. Но когда данные уже хорошо сжаты (например, zlib-ом), в них остается очень мало избыточности, которую можно дополнительно "выжать". В лучшем случае, вы получите небольшое уменьшение размера, в худшем - размер файла даже может немного увеличиться (из-за накладных расходов на формат архива).

"Магия" 10-20x уменьшения размера - ложная: Заявление ОPа о том, что размер файла уменьшится в 10-20 раз после дополнительного сжатия ZIP/RAR, не подтверждается реальностью и, скорее всего, является выдумкой. Если такое уменьшение и наблюдается в каких-то единичных случаях, то это, вероятно, связано с какими-то особенностями конкретных тестовых файлов, а не с "магией" алгоритма. В общем случае, дополнительное сжатие zlib-сжатых данных не даст такого эффекта.

Сообщение ОPа 2: "Что нужно сделать: 1) переписать на C++ или CUDA 2) переписать логику, чтобы не ел 34 ГБ RAM... 3) Добавить рекурсию после сжатия..."

Анализ: ОP предлагает направления для "улучшения" своей программы.

Почему эти "улучшения" не исправят фундаментальные проблемы:

Переписывание на C++/CUDA (ускорение): Переписывание кода на C++ или CUDA (для GPU-ускорения) может сделать программу быстрее, но не решит проблему неэффективности самого алгоритма сжатия и огромного словаря. Скорость работы не является главной проблемой, когда сам принцип сжатия ошибочен.

Перенос словаря на SSD (уменьшение RAM): Перенос словаря с RAM на SSD (диск) не уменьшит размер словаря. Это лишь позволит работать с очень большими словарями, не перегружая оперативную память. Но это замедлит доступ к словарю и, следовательно, скорость сжатия/распаковки. Кроме того, это не отменяет того факта, что словарь все равно нужно хранить и передавать для распаковки.

"Добавить рекурсию после сжатия" (бессмысленно): Предложение "добавить рекурсию после сжатия" не имеет смысла и не понятно, что именно ОP имеет в виду. Вероятно, это еще одно проявление его непонимания принципов сжатия. Рекурсивное применение одного и того же алгоритма сжатия к уже сжатым данным (которые уже и так zlib-сжаты) не приведет к "вечному сжатию" и не обойдет законы теории информации.

Сообщение ОPа 3: "Принцип работы... поместить сжатый файл в ZIP и RAR, то его размер в 10-20 раз МЕНЬШЕ ОРИГИНАЛА..."

Анализ: ОP повторяет свое неподтвержденное и, скорее всего, ложное заявление о 10-20-кратном уменьшении размера после дополнительного сжатия ZIP/RAR.

Почему это неправда (повторение): Как уже объяснялось выше, дополнительное сжатие уже zlib-сжатых данных (файла .ctxt) не даст такого эффекта. Это противоречит как теории, так и практическому опыту.

Сообщение ОPа 4: "Общий для кодирования и декодирования... на всех компьютерах он одинаков."

Анализ: ОP утверждает, что словарь является "общим" и "одинаковым на всех компьютерах".

Почему это вводит в заблуждение (полуправда, но не в том смысле, в котором он думает):

Статические словари (уровни 0-2): Словари для уровней 0, 1 и 2 действительно являются статическими и предопределенными. Они загружаются из файлов .npy и не меняются в процессе сжатия/распаковки. В этом смысле они "общие".

Динамический словарь (уровень 3) - не общий: Словарь для уровня 3 (PersistentCacheDictionary) является динамическим и не является общим. Он пополняется в процессе сжатия новых файлов и зависит от данных, которые вы сжимаете. Поэтому, если вы сожмете разные наборы файлов, словари уровня 3 будут разными.

Общий словарь бесполезен (если он не включен в архив): Даже если бы словарь был полностью статическим и общим, это не имело бы практической пользы, если бы он не был включен в сжатый архив. Хранение словаря отдельно от сжатых данных делает архив бесполезным без доступа к этому словарю.

Окончательный вывод:

Все последние сообщения ОPа не добавляют ничего нового к его ошибочной идее "вечного сжатия". Он продолжает настаивать на нереалистичных заявлениях, непонимании принципов сжатия и псевдонаучных терминах. Дополнительное сжатие ZIP/RAR не решит фундаментальных проблем его метода, а "улучшения", которые он предлагает, не сделают его алгоритм эффективным или практичным.

Пожалуйста, не тратьте время на дальнейшие попытки "улучшить" этот скрипт в направлении, предложенном ОPом. Сосредоточьтесь на изучении реальных алгоритмов сжатия данных и принципов теории информации. Это будет гораздо полезнее.
Аноним 16/02/25 Вск 14:40:09 #54 №316647766 
> пытаться объяснить что-то шизофренику
Вы не понимаете сути шизофрении, эти люди реально верят, что у учёных ошибки в расчётах, а они самые умные и все им скоро хуй сосать будут и пытаться забрать их гениальные труды. Не тратьте время.
Аноним 16/02/25 Вск 14:40:25 #55 №316647773 
2958555617preview2fUWo3gbrRY.jpg
>>316643851 (OP)
Аноним 16/02/25 Вск 14:41:15 #56 №316647798 
>>316647522
> а прикиньте через несколько лет просто каждое устройство с завода будет иметь словарь этот ебучий,
Так может ляпнут ток тупня. Словарь по заявлениям больного Опа КОНЕЧЕН. А комбинаций информации - очень много и постоянно создаются новые. Адеквату должно быть понятно что конечным словарём сжать бесконечность невозможно В ПРИНЦИПЕ.
Аноним 16/02/25 Вск 14:42:31 #57 №316647835 
Без имени.jpg
>>316643851 (OP)
Аноним 16/02/25 Вск 14:42:56 #58 №316647855 
формула.jpg
цифровой код Ромке Ян Бернхард Слотов - кодирование и сжатие информации.mp4
Ян Слоот.mp4
>>316647610
Аноним 16/02/25 Вск 14:43:04 #59 №316647859 
14564773676490.png
ОП на самом деле гений, он изобрел метод бесконечного расширения данных. Добавив всего лишь один цикл в код - можно циклом повторной архивации можно из 1 сраного файла на 1 мб забить любую память бесконечным числом словарей!
Аноним 16/02/25 Вск 14:43:07 #60 №316647862 
510779542054937v.mp4
бамп
Аноним 16/02/25 Вск 14:45:02 #61 №316647927 
>>316647798
я конечно гуманитарий, но мне всегда нравилась мысль что букв в алфавите мало, а написать вариантов книг можно условно бесконечно
сможешь привести пример для даунов как я?
Аноним 16/02/25 Вск 14:45:57 #62 №316647962 
434323.jpg
112 (2).jpg
Генератор бинарного кода по сиду.jpg
74066487.png
>>316647798
вся инфа в мире это 60 гб. всё остальное это дубликаты этих 60 гб в разных частотных порядках. как эти порядки расположены ? код и метод выше. формула есть

программе НЕ ГЕНЕРАТОР а метод словаря.

Метод геератора ещё мозгов не хватает и у ИИ не может закодить
Аноним 16/02/25 Вск 14:46:49 #63 №316647992 
хуй знает, меня вайбы этих тредов отправляют в воспоминания когда двач еще был тортом
sage[mailto:sage] Аноним 16/02/25 Вск 14:47:16 #64 №316648003 
>>316647855
Бред яна слота даже такого нету
Аноним 16/02/25 Вск 14:47:19 #65 №316648005 
>>316647855
Дегенерат блять, того додика грохнула мафия, ибо он набрал бабла а его хуита не работала.
Аноним 16/02/25 Вск 14:48:02 #66 №316648025 
>>316643851 (OP)
Давай оп я в тебя верю туда сюда хуе мое короче делай технологическую сингулярность, этот мир слишком скучный без неё.
sage[mailto:sage] Аноним 16/02/25 Вск 14:48:22 #67 №316648037 
>>316647962
Пидоран, если ты такой умный почему ты ещё скрипт не написал? Иди нахуй отсюда пидор
Аноним 16/02/25 Вск 14:49:18 #68 №316648060 
>>316647962
> вся инфа в мире это 60 гб.
Долбаёб, каждая фотка с рук - уникальная смесь цветовых байтов. что в слове «уникальный» тебе не поняно, придурок?
sage[mailto:sage] Аноним 16/02/25 Вск 14:49:27 #69 №316648066 
изображение.png
Пойду куплю винрар чтобы очко у опа сгорело нахуй, лучше винрара ничего нету
Аноним 16/02/25 Вск 14:50:03 #70 №316648083 
121211.jpg
112 (2).png
>>316647927
вот бесконечный генератор страниц книг.

https://codepen.io/procoders000001/pen/QwLmZaK

суть, вся лингвистика основана на подразделах, действиях, мотивах, и классах

их порядка несколько сотен. но всё можно запрогать

тут всего 6 классов, ( кто, что делает, где, и когда )

так вот вся информатика это 60 гб сбрученных древ.

Также работает ДНк, в днк сказано сколько листьев на ветке. и сколько веток на стволе. В днк нету дубликатов 50 тысяч листьев, и 400 веток. там всего числа, метки, количество повторов.
Аноним 16/02/25 Вск 14:50:08 #71 №316648088 
>>316647962
> вся инфа в мире это 60 гб
Сколько гигабайт в приснившимся самому себе сне?
Аноним 16/02/25 Вск 14:52:30 #72 №316648167 
>>316648083
имел ввиду, чтобы тот анончик привел мне пример чего-то реально бесконечного и что нельзя описать одним словарем условно

к тебе уважаемый сжатошиз 0 вопросов, верю в тебя
Аноним 16/02/25 Вск 14:52:46 #73 №316648175 
>>316648088
Ноль, если сон не запомнился
Аноним 16/02/25 Вск 14:53:02 #74 №316648185 
image.png
ВЫЧИСЛЯЙТЕ ПРОТЕИНЫ
ВЫЧИСЛЯЙТЕ ПРОТЕИНЫ
ВЫЧИСЛЯЙТЕ ПРОТЕИНЫ
Аноним 16/02/25 Вск 14:53:22 #75 №316648197 
>>316643851 (OP)
Я верил в тебя, но можешь видос с архивацией и разархивацией залить? Оно нормально работает? Например, для 500гб архива
Аноним 16/02/25 Вск 14:53:40 #76 №316648205 
Почему если какая то эволюция смогла создать биологический интеллект, то человек с этим интеллектом все никак не может создать интеллект искусственный?
sage[mailto:sage] Аноним 16/02/25 Вск 14:53:48 #77 №316648209 
>>316648083
Показывай учёную степень в области ДНК. Иначе в твой бред никто верить не будет
Аноним 16/02/25 Вск 14:54:07 #78 №316648222 
>>316647927
Ты не догнал, алфавит для инфы - это две «буквы»: 0 и 1. Вот ими всё и описывается. Оп-хуй предлагает кодировать всё не простыми 0 и 1, а заранее записанными последовательностями 0 и 1. Причём их список конечен. Ну то есть типа как китайцы иероглифами, и у них как раз бывает пиздец, потому что новое слово с нихуя просто так не сделать. Так и у этого долбаёба весь его словарь не сможет описать бесконечность инфы.
Аноним 16/02/25 Вск 14:56:34 #79 №316648298 
5befa25aaaab2851d213e5f13.jpg
21233.mp4
3424434.jpg
3454343234344.mp4
>>316648060
>каждая фотка с рук - уникальная смесь цветовых
ты знаешь что такое бинарное кодирование? у 4 бит всего 16 комбинаций
джепег это RLE усреднённых рядов цветов 32 бита. А у меня всё это в словарях, но и сами сжатые данные и словари можно в рекурсии сжимать

Давай "так" без выдачи секретов, страннн

Американцы подтвердили что ключи шифрования невозможно хранить в радиоволнах ибо китайцы и русские могут их ломать ( мгновенно ) а это алгоритм разлоежния
Аноним 16/02/25 Вск 14:56:39 #80 №316648303 
>>316648066
7z бесплатный, лол. Жмут rar и 7z +- одинаково.
Аноним 16/02/25 Вск 14:57:39 #81 №316648332 
>>316648185
А что будет когда протеины вычислятся?
Аноним 16/02/25 Вск 14:57:50 #82 №316648340 
>>316646710
Я не в курсе что там за идея у него, но если у тебя информации много, а словарь один это становится выгодно для размеров суммарных файлов больше словаря.
Аноним 16/02/25 Вск 15:00:16 #83 №316648406 
>>316648060
В том же числе Пи содержится ВСЯ информация которая только может быть. Проблема только в том на какой она там позиции...
Аноним 16/02/25 Вск 15:02:00 #84 №316648464 
>>316648298
Долбаёб, каждая точка обычного жпега = 24 бита, 3 цвета, придурок. Конечно, не все 16 млн комбианций есть в обычной фотке. Допустим их 100-200 тыщ. И эти 100-200 тыщ рассеяны по двумерной матрице в разнообразных сочетаниях. Ты полный даун, если думаешь что твоих 40гб хватит на все фотки земли. Ты дважды даун, если думаешь что однократно хорошо сжатое сожмётся повторно также хорошо.
Аноним 16/02/25 Вск 15:02:08 #85 №316648470 
>>316647798
>Адеквату должно быть понятно что конечным словарём сжать бесконечность невозможно В ПРИНЦИПЕ.
Возможно, конечно. Перестановкам и комбинированием частей словаря так-то.
Аноним 16/02/25 Вск 15:02:22 #86 №316648475 
56454543.jpg
56545.jpg
656545.jpg
4543444.jpg
>>316648088
вся вселенная и что либо это 60 гб. а 60 гигов это 4 миллиарда комбинаций меток 65 к пар. всё остальное это ссылки на эти 60 гб. тут, уж будут прорывы в физике да во всём. частиц нету, атомов нет, это ссылки на темную энергию и всё. всё есть дубликат дубликата. ( частиц, атомов, домов, панелек да что угодно )
Аноним 16/02/25 Вск 15:02:23 #87 №316648476 
>>316648406
Значит нужно вычислять число пи со словарем.
Аноним 16/02/25 Вск 15:03:23 #88 №316648510 
>>316648475
60гб как то маловато для вообще всех возможных комбинаций.
Аноним 16/02/25 Вск 15:03:55 #89 №316648526 
>>316648406
> Проблема только в том на какой она там позиции.
Воот, а без знания этой позиции можно сказать что там НИХУЯ не содержится, ибо бесполезный мусор - суть отсутствие информации.
Аноним 16/02/25 Вск 15:04:39 #90 №316648548 
>>316643851 (OP)
Опять выходишь на связь, шизло!

Хочешь чтоб тебя опять обоссали?
Ну открывай ротешник
СПАСИБО АБУ ЗА ХОРОШИЕ ТРЕДЫ
Аноним 16/02/25 Вск 15:05:49 #91 №316648581 
>>316648332
Из дурки выпустят.
Аноним 16/02/25 Вск 15:05:54 #92 №316648587 
IMG3929.MP4
432234343.jpg
>>316648197
код на питоне работает медленно 100кб 1сек. видео в первом посте

перепись на C++ ускорение в 40 раз.
Перепись на CUDA ускорение в 80-200 раз
Аноним 16/02/25 Вск 15:06:25 #93 №316648603 
>>316648548
Ты просто не в силах осознать что оп буквально приближает новую эру человечества
Аноним 16/02/25 Вск 15:07:06 #94 №316648629 
>>316648222
>Так и у этого долбаёба весь его словарь не сможет описать бесконечность инфы.
методом словаря смог.

Скоро будет арифметика, по типу 2 в степени 400 ( 400 значное число )
Аноним 16/02/25 Вск 15:07:07 #95 №316648632 
>>316648470
Так долбаёбу хоть ссы в глаза - всё божья роса. Он считает что 60 гб достаточно. Больной, хуле.
Аноним 16/02/25 Вск 15:08:09 #96 №316648658 
>>316648222
у меня мозги скрипят, кайф, спасибо
но не вижу проблемы, честно
ну да, у китайцев нет иероглифа для каждого нового слова, но ведь смысл нового слова они могут передать объеденив два других иероглифа...
ну и допустим по такому принципу разве не сможет алгоритм жить?
ну а если шизословаря перестанет хватать, можно будет пильнуть следующую версию...
Аноним 16/02/25 Вск 15:08:13 #97 №316648664 
>>316648587
Ты мне нравишься. У меня эта сохраненка лежит на телебоне.

Почему ты сразу на плюсах не попросил? Я теперь так делаю.
И еще вопрос - какие сферы приложения?
Аноним 16/02/25 Вск 15:08:29 #98 №316648676 
>>316648526
Так я не ОП и я не предлагаю что-то кодировать числом Пи. Это просто как пример.

Но maybe теоретически сделать набор блоков определенной длинны M, а затем кодировать блоки файлов ключами длинной меньше M, путем комбинирования блоков из словаря...
Аноним 16/02/25 Вск 15:08:44 #99 №316648684 
>>316648629
Смог ты лишь насрать в тред и больше нихуя. Тебе про Гугл уже сказали. Ты, долбаёб, гениальнее гугла и всей толпы тамошних в говне мочёных? Ню-ню, шизик, таблетки прими.
Аноним 16/02/25 Вск 15:10:10 #100 №316648729 
>>316648587
>перепись на C++ ускорение в 40 раз.
>Перепись на CUDA ускорение в 80-200 раз
Откуда ты эти сисла каждый раз берешь, шизло?
Аноним 16/02/25 Вск 15:10:29 #101 №316648743 
656545.jpg
122323.jpg
17232216110511.jpg
d1f15ad20a0acd288d3ee62545d97647.png
>>316648464
Тебе дан исходный код и программа ты сам сможешь разложить свой джепег на древа битов и увидеть какие пары промаркированны.

Получай нобелевскую премию. что уж тут.

весь сбрученный 32 битный код длинны это 16 гб данных но до сегодняшнего дня ссылки на сегменты. больше чем сам 32 бит.
Аноним 16/02/25 Вск 15:14:35 #102 №316648905 
Где приложение чтоб я мог архивировать уже терабайты видосов?
sage[mailto:sage] Аноним 16/02/25 Вск 15:15:16 #103 №316648923 
>>316643851 (OP)
Бля, у этого шизоида опять фаза активности между делириями.
Аноним 16/02/25 Вск 15:16:17 #104 №316648961 
image.png
У МЕНЯ ВОПРОС ОПУ

Предположим, что этот алгоритм может сжать любые данные до объема, не превышающим, например, 60 Гб.

60 Гб это примерно 510^11 бит

Представим гипотетического фотографа, который отснял 5
10^11 + 1 уникальных снимков. Он решил сжать все эти снимки по твоему алгоритму. Даже если предположить, что каждое фото сожмется до невероятного 1 бита, все равно останется одно фото, которому не хватило даже этого.

Вопрос: КАК ЭТОТ ГИПОТЕТИЧЕСКИЙ ФОТОГРАФ ПОЛУЧИТ СВОИ СЖАТЫЕ ФОТКИ НАЗАД? Получается что хотя бы одну он проебет
Аноним 16/02/25 Вск 15:16:33 #105 №316648968 
>>316648923
Оп это мессия нового технологического мира
Аноним 16/02/25 Вск 15:16:34 #106 №316648970 
>>316648743
Долбаёб, жпег УЖЕ ПОЖАТ фурье-сжатием.
Аноним 16/02/25 Вск 15:17:01 #107 №316648990 
>>316648664
>И еще вопрос - какие сферы приложения?

сингулярность, рекурсивное ускорение вычислений и рекурсивное сжатие инфы.
Аноним 16/02/25 Вск 15:17:56 #108 №316649018 
>>316648968
Тока гугл об этом не знает, бля. Пиздец шизоидов на двоще, опа нада пристрелить чтоб не мучался.
Аноним 16/02/25 Вск 15:18:02 #109 №316649026 
Принцип Работы, файл сжимается, размер его сохраняется но это теперь файл это ссылки на 34 гб словарь.

А почему именно 34гб? Это какой-то предел? Словарь потянет терабайты разнородной информации (втч бинарники с рандом кашей если открыть их как plain raw).

Мне нравятся твои треды, анонч. Не обращай внимание на тех, кто клеимит тебя шизом. Они банально не разложили твою работу по частям чтобы доказать что ты в чем-то неправ.
Аноним 16/02/25 Вск 15:18:48 #110 №316649053 
>>316648990
Оно реально может ускорять вычисления?
Аноним 16/02/25 Вск 15:18:56 #111 №316649057 
4453545.jpg
>>316648970
дебилоид. джепег это набор битов. 1 мегабайт 1 миллион цифр. у меня в словаре все числа разложены ))) любых комбинаций которые могут быть !!!!!

понимаешь?!

когда AGI будет, будут симуляции как наш мир, ты сможешь прожить мою жизнь а я твою. хотя до жопы сколько раз это повторялось
Аноним 16/02/25 Вск 15:19:07 #112 №316649062 
>>316649053
Да, рекурсивно
Аноним 16/02/25 Вск 15:19:49 #113 №316649089 
>>316649057
>словаре все числа разложены ))) любых комбинаций которые могут быть !!!!!
Словарь бесконечный?
Аноним 16/02/25 Вск 15:21:04 #114 №316649140 
>>316649062
Ну я немножко начал тебя понимать. Сорян за тупость (нет тех вышки).

То есть мы рекурсивно идем по ссылкам на словарь и восстанавливаем? Но будет ли это быстрее?
Аноним 16/02/25 Вск 15:21:54 #115 №316649166 
image.png
ага братва охуенно зацените 3нф я проебался или не особо?
Аноним 16/02/25 Вск 15:21:55 #116 №316649167 
17393191850620.mp4
Оп, я нашел видео с твоим участием.
Аноним 16/02/25 Вск 15:22:08 #117 №316649177 
>>316649140
Да, за счёт рекурсии
Аноним 16/02/25 Вск 15:22:14 #118 №316649181 
45656.jpg
>>316648961
Есть сундук с сокровища, есть карта сокровищ.

Сокровища можно не тоскать с собой а закопать где знаешь ток ты

А таскать только карту.

В математике могу расписать детально, щас. подожди. Тоже хочешь нобеля?
Аноним 16/02/25 Вск 15:23:42 #119 №316649249 
>>316649089
> Словарь бесконечный?
В том-то весь и фикус, долбаёб утверждает что КОНЕЧНЫЙ словарь достаточен для всего, а ещё можно сжать уже сжатое и так раз так несколько. В результате фильм сжимается до 8 килобайт, лол.
Аноним 16/02/25 Вск 15:24:03 #120 №316649265 
Этот метод сжатия данных основан на иерархической замене повторяющихся битовых паттернов с использованием системы словарей, разделённых на уровни. Каждый уровень работает с определённой степенью абстракции, что позволяет эффективно сжимать данные, сохраняя при этом возможность их восстановления без потерь. Метод сочетает статические и динамические словари, а также использует гибридное хранение данных (в оперативной памяти и на диске) для оптимизации производительности.
Основные принципы метода

Разбиение данных на битовые блоки
Исходные данные разбиваются на небольшие блоки, например, по 2 бита. Это позволяет работать с минимальными единицами информации, которые легко анализировать и заменять. Например, последовательность битов "00 01 10 11" разбивается на четыре блока: 00, 01, 10, 11.

Иерархия словарей
Метод использует несколько уровней словарей, каждый из которых отвечает за сжатие данных на определённом этапе. Уровни 0–3 являются статическими, а уровень 4 — динамическим с адаптивным кэшированием.

Уровень 0: Заменяет пары битовых блоков на коды. Например, пара "00 01" может быть заменена на код "A".

Уровень 1: Работает с кодами, полученными на уровне 0, и заменяет их пары на новые коды. Например, пара "A B" заменяется на код "X".

Уровень 2 и 3: Продолжают процесс сжатия, увеличивая степень абстракции.

Уровень 4: Динамический словарь, который хранит наиболее часто используемые паттерны в оперативной памяти для быстрого доступа, а редко используемые — на диске.

Адаптивное кэширование
Уровень 4 использует алгоритм LRU (Least Recently Used — "наименее недавно использованный") для управления кэшем. Это означает, что если кэш переполняется, из него удаляются те элементы, которые дольше всего не использовались. Это позволяет эффективно использовать ограниченные ресурсы оперативной памяти.

Генерация хэш-кодов
Для представления сжатых данных используются уникальные хэш-коды, которые генерируются на основе кастомного алфавита. Например, код может выглядеть как "A3Xj9K". Это позволяет компактно хранить данные и быстро их идентифицировать.

Сжатие и восстановление данных

Сжатие: Данные проходят через все уровни словарей, где повторяющиеся паттерны заменяются на коды. На каждом уровне степень сжатия увеличивается.

Восстановление: Процесс происходит в обратном порядке. Коды последовательно заменяются на исходные битовые блоки, что позволяет точно восстановить данные.

Гибридное хранение
Для оптимизации производительности метод использует два типа хранения:

Оперативная память (RAM): Хранит наиболее часто используемые паттерны для быстрого доступа.

Диск: Хранит редко используемые паттерны, что позволяет экономить оперативную память.

Эффективность метода
Метод обеспечивает высокую степень сжатия для структурированных данных, таких как тексты, таблицы или изображения. В зависимости от типа данных, сжатие может достигать 5–20 раз. При этом сохраняется возможность быстрого доступа к данным благодаря адаптивному кэшированию.

Применение
Метод может использоваться в различных областях, где требуется эффективное сжатие данных:

Архивирование файлов.

Передача данных по сети.

Хранение больших объёмов информации.

Оптимизация работы баз данных.

Преимущества метода

Высокая степень сжатия: Благодаря иерархии словарей и адаптивному кэшированию, метод эффективно сжимает данные.

Быстрый доступ: Использование оперативной памяти для хранения часто используемых паттернов ускоряет процесс сжатия и восстановления.

Гибкость: Метод может быть адаптирован для работы с различными типами данных.

Масштабируемость: Добавление новых уровней словарей или увеличение размера кэша позволяет улучшить производительность.

Пример работы метода

Исходные данные: "00 01 10 11 00 01"

Уровень 0: Заменяем пары битов на коды:

"00 01" → "A"

"10 11" → "B"

"00 01" → "A"
Результат: "A B A"

Уровень 1: Заменяем пары кодов на новые коды:

"A B" → "X"
Результат: "X A"

Уровень 2 и 3: Продолжаем процесс сжатия.

Уровень 4: Сохраняем результат в кэше или на диске.

Заключение

Метод многоуровневого словарного сжатия с адаптивным кэшированием представляет собой мощный инструмент для эффективного сжатия данных. Его ключевые особенности — иерархия словарей, гибридное хранение и адаптивное кэширование — делают его универсальным и производительным решением для работы с большими объёмами информации.
New chat
Аноним 16/02/25 Вск 15:24:29 #121 №316649296 
>>316649177
Хорошо. Пруф концепта бы. Например, сложное вычисление.

Ты охуенен.
Аноним 16/02/25 Вск 15:24:44 #122 №316649303 
>>316649265
>New chat
Ты был близок
Аноним 16/02/25 Вск 15:25:02 #123 №316649323 
>>316649296
Фиббоначи
Аноним 16/02/25 Вск 15:25:43 #124 №316649354 
>>316649249
>8 килобайт
Почему не до одного бита тогда?
Аноним 16/02/25 Вск 15:26:04 #125 №316649369 
>>316649249

Уровень 0: 16 пар 8 байт/пара = 128 байт

Уровень 1: 256 пар 8 байт/пара = 2 КБ

Уровень 2: 65 536 пар 8 байт/пара = 512 КБ

Уровень 3: 4 294 967 296 пар 8 байт/пара = ~ 34 ГБ
Аноним 16/02/25 Вск 15:26:26 #126 №316649387 
>>316649167
Вам говноедам лишь бы в дилдоки долбиться и 100500 тред пилить про хуи и тяночкинидают.

Один нормальный тред за выходные и то ОПа шизом нонстоп клеимите. Было бы тут даже 10 таких постеров, двощ был бы совершенно другой бордой, дающей за щеку всем пикабу даже без ваших мамкиных джокеров с набегами. Чисто интеллектуально.
Аноним 16/02/25 Вск 15:27:51 #127 №316649445 
>>316649354
Палево жи. С одного бита хомяки догадаются что гонево всё что он пиздит. А 8 килобайт - это жи целых 8192 байта, блять! Многа, ага, целый фильм можна закодировать, лол.
Аноним 16/02/25 Вск 15:30:01 #128 №316649546 
>>316649387
Нет, это хуже чем дилдаки, блять. Те хоть простые пидорасы, чё с них взять. А оп-хуй этого треда походу тралль зелёный, спецом мозги заворачивает гуманитариям.
Аноним 16/02/25 Вск 15:30:50 #129 №316649585 
>>316643851 (OP)
А для каждого файла будут свои собственные словари или словари всегда одинаковые?
Аноним 16/02/25 Вск 15:31:34 #130 №316649613 
>>316649585
Словарь один
Аноним 16/02/25 Вск 15:32:27 #131 №316649652 
>>316649613
А события, которые еще не произошли, тоже будут в этом словаре?
Аноним 16/02/25 Вск 15:32:28 #132 №316649654 
>>316649323
Можно для тупеньких? Вот есть 10000 операций умножения и деления. Это занимает N времени на системе S. Можно ли при помощи фибоначи это оптимизировать или оно уже оптимизировано?

Допустим, возьмем твои словари. Это может сократить время операции над числами?
Аноним 16/02/25 Вск 15:32:28 #133 №316649656 
>>316649369
В гугл иди, дебил, деньгу зашибать будешь, россия скален, каждому двощеру по три тяночки. Тебе памятник поставят, ёпт. В виде дилдака самосжимаемого, лол.
Аноним 16/02/25 Вск 15:32:45 #134 №316649663 
3454545.jpg
вот код на С++ надо скомпилировать да но качается 20 гб IDE говна компиляторов

https://drive.google.com/file/d/1eUQYAwf3WmTADBu-ypTEnzjAKaDbaDOA/view
Аноним 16/02/25 Вск 15:33:50 #135 №316649699 
>>316649613
Дак зачем их хранить тогда на диске? Можно же в процессе шифровки\расшифровки динамически куски словаря генерить в памяти. Обращений к диску не будет, скорость в разы возрастет
Аноним 16/02/25 Вск 15:34:24 #136 №316649713 
>>316649663
Компилятор дай бог пару сотен мегабайт весит
Аноним 16/02/25 Вск 15:34:43 #137 №316649728 
>>316649699
До этого я еще не додумался
Аноним 16/02/25 Вск 15:35:13 #138 №316649747 
>>316649546
>мозги заворачивает гуманитариям
Конкретно твои доёбы до его концепции? Я вижу проблему в разжатии, с другой стороны если это ссылки и большая база, то почему нет? Мб не сильно медленнее текущих архиваторов.
Аноним 16/02/25 Вск 15:35:15 #139 №316649748 
>>316643851 (OP)
Под Болженос есть с поддержкой клавиаткры на равно устойчивых триггерах? Ну ч что бы не конфликтовала софтина с антивирусом Бабушкина.
Аноним 16/02/25 Вск 15:35:31 #140 №316649759 
>>316649656
вчера WD и сандиск распались, на две конторы раздельные а ты хочешь что бы всё IT легло и обанкротилось? у меня и тут есть математическое доказательство, но я не хочу что бы моё ебло в каждую школу лепили и везде обсуждали.

новый джобс. да?
Аноним 16/02/25 Вск 15:36:10 #141 №316649790 
>>316643851 (OP)
Это классическая попытка создать "вечное сжатие", но она нарушает фундаментальные принципы теории информации. Давай разберём, почему:

1. Ограничения теоремы Шеннона
Шеннон доказал, что любой источник информации с энтропией
𝐻
H бит/символ может быть сжат не менее чем до
𝐻
H бит/символ, но не бесконечно. Любая попытка сжимать файл ниже этого предела без потерь невозможна.

2. Обман со словарём
Ты предлагаешь использовать общий словарь размером 34 ГБ, который содержит 4 294 967 296 пар 8-байтовых значений.
Файл сжимается в ссылки на этот словарь, а не в реально меньший размер данных.
Но если словарь неизменный и общий, то вся магия рушится: ведь это не сжатие, а просто перекодирование, где ты зависишь от внешнего ресурса.
3. ZIP и RAR не доказывают сжатие
Ты пишешь, что "ZIP и RAR ещё уменьшают сжатый файл в 10-20 раз". Это прямо говорит о том, что "сжатый" файл на самом деле не хаотичный и содержит предсказуемую структуру, удобную для стандартных архиваторов. Если бы твой алгоритм работал как заявлено, ZIP/RAR не смогли бы ничего сжать.

4. Рекурсия сжатия — невозможна
Если бы твой метод позволял повторно сжимать данные без потерь, это означало бы, что можно взять любой файл (например, 1 ТБ), запустить твой алгоритм 1000 раз и получить 1 байт, а потом восстановить его обратно. Это нарушает всю физику информации.

Вердикт
Это не "вечное сжатие", а просто кодирование ссылками на огромный словарь.
Такой метод не уменьшает информационную энтропию, а лишь маскирует её через внешний источник данных.
Для реального применения потребуется иметь этот словарь у всех пользователей, а значит, файлы уже нельзя считать "самодостаточно сжатыми".
Любая попытка реальной рекурсии приведёт к информационному парадоксу: или энтропия растёт, или ты просто создаёшь цепочки ссылок, которые нельзя сжать бесконечно.
Что делать дальше?
Если ты хочешь реальный эффективный алгоритм сжатия, нужно:

Изучить существующие методы (LZ77, LZMA, BWT, ANS).
Оптимизировать работу со словарём, но не думать, что это "магическое сжатие".
Оценивать энтропию данных перед сжатием, чтобы понимать, насколько их можно ужать.
Но "вечное сжатие" — это просто красивая мечта, которая физически невозможна.
sage[mailto:sage] Аноним 16/02/25 Вск 15:36:53 #142 №316649813 
лол 1 канал0.png
>>316649748
Аноним 16/02/25 Вск 15:37:17 #143 №316649823 
>>316643851 (OP)
пегги дудочник ты?
Аноним 16/02/25 Вск 15:37:56 #144 №316649848 
Есть словарь под видео? Там же чисто надо все оттенки сколько их там миллионов запихнуть в словарь и все. В видосах же все одинаково в принципе. И пусть сжимает видосы до пары мегабайт хотя бы бд ремуксы.
Аноним 16/02/25 Вск 15:38:01 #145 №316649852 
>>316649790
Как заебали долбоебы с нейросетками
Аноним 16/02/25 Вск 15:38:58 #146 №316649886 
>>316649852
Типа ОПа, да?
Аноним 16/02/25 Вск 15:39:38 #147 №316649913 
>>316649886
В том числе
Аноним 16/02/25 Вск 15:40:07 #148 №316649928 
СКИНЬТЕ ШРЕКА ПОЖАЛУЙСТА ИЛИ ДРУГИЕ ФИЛЬМЫ.
Пишу с PSP vita , и не хватает памяти! дайте посмотреть.
Аноним OP 16/02/25 Вск 15:40:31 #149 №316649949 
ребята, сказки не сказки, а всё реально

https://replit.com

Функция AUTOMATIC DEVELOPER - пишет полностью прогу, исправляет все ошибки, проводит все тесты, всё силами ИИ, эменно этот ИИ написал для линукса сжималку по ТЗ
минусы
стоит 15 $ в месяц

мне кубики за 3 мин с полным дебагом скодило АВТОМАТИЧЕСКИ
погромизды не нужны уже ))

https://codepen.io/procoders000001/pen/EaxjLvm
Аноним 16/02/25 Вск 15:40:37 #150 №316649955 
>>316649852
Потому что разъебывают опа по фактам, да?
Аноним 16/02/25 Вск 15:41:48 #151 №316649995 
17394545804430.webm
>>316649928
Аноним 16/02/25 Вск 15:43:58 #152 №316650068 
Почему ОП ещё не сжал дамп Флибусты до 1 килобайта? Сколько можно ждать?
sage[mailto:sage] Аноним 16/02/25 Вск 15:45:05 #153 №316650113 
>>316643851 (OP)
Это классический пример мошенничества или просто шутки, связанной с невозможностью «вечного сжатия» данных без потерь.
🚨 Почему это невозможно?

Теорема Шеннона и предел сжатия
Клод Шеннон математически доказал, что существует минимально возможный размер для хранения информации без потерь.
Если бы можно было «бесконечно сжимать», то любой файл можно было бы представить в одном байте, что абсурд.

Парадокс вечного сжатия
Если ты сжал файл и получил меньший размер, это значит, что там была избыточность.
Если файл уже сжат до предела (например, ZIP, PNG, MP3), его невозможно сжать дальше без потерь.
Любая система, обещающая «вечное сжатие», либо теряет данные (lossy compression), либо блефует (использует огромные внешние словари, которые сами по себе весят больше).

Фокус со словарём на 34 ГБ
Авторы идеи предлагают сжимать файлы, заменяя их на ссылки в огромном предопределённом словаре.
Но этот словарь сам занимает 34 ГБ, а значит, реальная экономия отсутствует.
Это похоже на попытку закодировать файлы, но если словарь заранее не знает данные, он их не сможет восстановить.

Фейковые обещания «Zip и RAR сжимают ещё больше»
ZIP и RAR используют стандартные алгоритмы сжатия (Huffman coding, LZ77 и пр.).
Если у тебя уже максимально сжатый файл, второй раз его сжать невозможно.
Если ZIP или RAR вдруг «сжимает» этот якобы «сжатый» файл ещё сильнее, значит, он был не сжат на самом деле!

⚠️ Вердикт:

Это либо обман, либо эксперимент с большими предопределёнными словарями, который на практике не даёт никакого выигрыша.

Лучше не скачивай эти файлы — они могут быть вредоносными! 🚨
Аноним 16/02/25 Вск 15:46:02 #154 №316650141 
>>316643949
Зашёл в тред и сразу проиграл
Аноним 16/02/25 Вск 15:46:40 #155 №316650159 
>>316649995
spasibo!
Аноним 16/02/25 Вск 15:47:10 #156 №316650184 
>>316650068
Че вы носитесь со своей флибустой? Там хоть годнота есть или там один просроченный никому не нужный кал, написанный литературными неграми?
sage[mailto:sage] Аноним 16/02/25 Вск 15:49:05 #157 №316650255 
Допустим можно сделать словарь N-уровня. Его можно хранить в облаке, а аннигилятор опа - тонкий клиент.
Аноним 16/02/25 Вск 15:49:42 #158 №316650281 
>>316645088
если мы говорим про 60 гб
то это 480 миллиардов бит.
якобы уникальной информации

но если сделать к этой информации +12 это уже можно сжать?
Аноним 16/02/25 Вск 15:50:21 #159 №316650301 
1b5464ff-e3ac-456c-95a3-b8efbe63a172729x595.webp
does-anyone-know-who-is-the-person-in-the-image-v0-ymktjt37qhge1.webp
>>316649823
Хороший сериал. И хорошо что на дваче есть как минимум 1 такой персонаж. Значит трушная панк культура не проебана. Не удивлюсь если ОПу за тридцатник, потому-что он больше похож на олда, который стремится что-то пилить и кайфовать от этой хуйни.

Даже если он не прав, он по крайней мере что-то делал, набивал шишки. Это охуенно.
Аноним 16/02/25 Вск 15:50:51 #160 №316650319 
>>316650184
Это его домашнее задание, я сам книги не читаю и хз чё там (быдло)
Аноним 16/02/25 Вск 15:51:51 #161 №316650353 
>>316649949
Фри тайер?
Аноним 16/02/25 Вск 15:54:56 #162 №316650452 
image.png
СЖАЛ КУРСАЧ
@
ПОЛУЧИЛ 1 БИТ + СЛОВАРЬ
@
СЖАЛ СЛОВАРЬ
@
ПОЛУЧИЛ БИТ КУРСАЧА + БИТ СЛОВАРЯ
@
ПОСЛАЛ ПРЕПОДУ 01
@
ПРЕПОД РАЗОРХИВИРУЕТ
@
ВМЕСТО КУРСАЧА ПОЛУЧИЛИСЬ НЮДЕСЫ МАМЫ ОПА
Аноним 16/02/25 Вск 15:57:43 #163 №316650567 
>>316650452
Норм бугурт.

ОП, что по коллизиям словаря?
Аноним 16/02/25 Вск 15:59:57 #164 №316650650 
4543444.jpg
>>316650113
все считали LPU невозможным поэтому никто не инвестировал даже в научные работы по математике а сейчас такое, у Nvidia выпали волосы на жопе. впрочем просвящайся.
Аноним 16/02/25 Вск 16:01:35 #165 №316650708 
>>316643851 (OP)
Я так и не понял как 34 гб будет достаточно для всех комбинаций в мире существующих. Объясни на пальцах.
Аноним 16/02/25 Вск 16:01:38 #166 №316650712 
>>316649949
И чем этот репит лучше бесплтных чатагпт или китайской хуйни?
Аноним 16/02/25 Вск 16:04:27 #167 №316650824 
Ну наконец-то полезные треды в /b
sage[mailto:sage] Аноним 16/02/25 Вск 16:05:45 #168 №316650886 
>>316648303
>7z бесплатный
интерфейс говно
Аноним 16/02/25 Вск 16:06:04 #169 №316650897 
>>316650650
>все считали LPU невозможным
Кто? Просто сейчас там дикий запад сейчас в работах и инвесторов засыпают миллионами пегов дудочников. OpenAI вообще из мутной лабы вышел. Посмотри их старые ролики. LPU под узкую задачу, когда гуглам нужны универсальные чипы для того же дипмаинда под белки итп.

Бабки важны, но они не являются истинной причиной прогресса. Сейчас со старгейтом хотят залить деньгами, при том что инвесторы кремниевой вливают в разы МЕНЬШЕ даже за несколько лет.
Аноним 16/02/25 Вск 16:06:20 #170 №316650904 
>>316650708
Ты ключевое не понял, этот дебил 3 раза сжимает уже сжатое. Дебилу говорят что уже сжатое не сжать, ибо нет избыточности, но дебил упорный и ебанутый, и гнёт свою дебило-линию.
sage[mailto:sage] Аноним 16/02/25 Вск 16:07:31 #171 №316650954 
>>316648298
ахахах зачет ОП тупой даун не шарит)
Аноним 16/02/25 Вск 16:09:22 #172 №316651018 
ЕСТЬ ИТОГИ РАБОТЫ ОПа?!

ЧТО БЫЛО СЖАТО ЗА ВСЕ ЭТИ ТРЕДЫ?
ЕСТЬ РЕЗУЬТАТ?!
sage[mailto:sage] Аноним 16/02/25 Вск 16:11:15 #173 №316651086 
>>316650886
Какой нахуй интерфейс, там его нет. И нахуй не нужен.
Аноним 16/02/25 Вск 16:16:40 #174 №316651307 
>>316646437
Он берёт слэб 34 гб информации и делает его общим для множества файлов с помощью ссылок. Эти ссылки хорошо сжимаются.
В мире программирования есть два ресурса на весах: память и цпу. Сократить потребление одного можно только за счёт увеличения потребления второго. Вот оп экономит память за счёт цпу. Технически в этом может быть смысл для длительного хранения бэкапов каких-то больших, наверное.
Аноним 16/02/25 Вск 16:17:39 #175 №316651352 
>>316651018
Итог один - оп-хуй просто зелёный тралль и регулярно подрывает жопы. Я не могу имаджинировать ебало того идиёта, что всерьёз начнёт эти дебилопроги проверять.
Аноним 16/02/25 Вск 16:19:31 #176 №316651409 
>>316643851 (OP)
>Уровень 0: 16 пар 8 байт/пара = 128 байт
Это не 16 пар, а 4294967295 пар если в битах и 256 если 1 байт кодирует только 0/1.
Аноним 16/02/25 Вск 16:19:51 #177 №316651416 
>>316650712
Чат гопота даёт битый кривой код который не запускается с 1 раза а ток с 10

тут же Функция AUTOMATIC DEVELOPER - ТЕБЕ БЛЯ автоматически пишет и ТЕСТИРУЕТ Что бы было без ошибок и тебя спрашивает, вы видите сайт, задание выполнено?

Функция AUTOMATIC DEVELOPER ток для богатых, за 15$ в месяц. но любое ТЗ тебе выполнит С НУЛЯ, с полным ДЕБАГОМ. те ИИ адекват. трудяга, разраб.
Аноним 16/02/25 Вск 16:20:24 #178 №316651438 
image.png
РЕШИЛ ЗАПОСТИТЬ В ШЕБМ ТРЕД
@
1 ГБ СЖАЛ ДО 1 МБ
@
1 МБ СЖАЛ ДО 1 КБ
@
1 КБ СЖАЛ ДО БИТА
@
НАПИСАЛ 0 И НАЖАЛ ОТПРАВИТЬ
@
СЕРВЕРА MAIL СРУ РАЗАРХИФИРОВАЛИ 0 КАК ЖЕСТКИЙ ГУРО ПРОН С ЛОЛЯМИ
@
Т-Т-Т-Т-ТАВАРИЩ ПРОКУРОР ВЫ ВСЕ НЕПРАВИЛЬНО ПОНЯЛИ

@
sage[mailto:sage] Аноним 16/02/25 Вск 16:20:54 #179 №316651461 
>>316651086
Терпи кал
Аноним 16/02/25 Вск 16:30:56 #180 №316651808 
YOBA.jpg
заводчане Y.jpg
>>316647219
СОСРЕДОТОЧЬТЕСЬ НА ИЗУЧЕНИИ РЕАЛЬНЫХ АЛГОРИТМОВ СЖАТИЯ ДАННЫХ И ПРИНЦИПОВ ТЕОРИИ ИНФОРМАЦИИ. ЭТО БУДЕТ ГОРАЗДО ПОЛЕЗНЕЕ.
Малолетний долбоёб без вышки ты?
Аноним 16/02/25 Вск 16:32:21 #181 №316651863 
>>316651461
Ботяра спок.
Аноним 16/02/25 Вск 16:34:10 #182 №316651932 
>>316651307
Он писал что это поможет также и для быстрого вычисления.
Аноним 16/02/25 Вск 16:34:22 #183 №316651944 
>>316643851 (OP)
> СОЗДАНА ПРОГРАММА ВЕЧНОГО СЖАТИЯ ИНФОРМАЦИИ БЕЗ ПОТЕРЬ
А программа вечной автономной капсулы когда будет создана, позволь узнать?
Аноним 16/02/25 Вск 16:34:35 #184 №316651951 
>>316643851 (OP)
а есть какой-то пруф того что оно работает? Хотя бы ссылка на какой-то другой источник информации, где это обсуждают менее именитые ученые чем на дваче? Типа технология должна быть безумно прорывной
Аноним 16/02/25 Вск 16:35:37 #185 №316651996 
pupu
Аноним 16/02/25 Вск 16:40:09 #186 №316652175 
автономная капсула.png
>>316651944
Её мужики уже вскрыли.
Аноним 16/02/25 Вск 16:44:19 #187 №316652336 
>>316651808
В юникоде есть 140 тысяч символов

берём англ и русский словарь и маркируем 140 тысяч слов частых в 1 юникод

вуаля, 2 словарям передача инфы в 20 раз выше слов.

? учёные мочёные, ничего не хотят. поэтому всё через научный отдел двоща.
sage[mailto:sage] Аноним 16/02/25 Вск 16:50:42 #188 №316652590 
>>316644234
>>316643974
Давай я тебе 15 баксов скину и сделаешь вайпалку двача которая сама будет вайпать с телефона / компа и сама решать капчу.
Аноним 16/02/25 Вск 16:53:25 #189 №316652694 
>—Æ»šKš/O
Малолетний филолог, ты? Ты в курсе, что языки обходятся максимум 40 символов? Может всё таки хоть на заочное поступишь?
Блядь, теперь понимаю что вуз это база, отсеивающая даунов. Пусть малоэффективная, убивающая лучшие годы. но база.
Аноним 16/02/25 Вск 16:59:25 #190 №316652905 
>>316652694
Кому ты отвечал?
Аноним 16/02/25 Вск 17:00:02 #191 №316652933 
>>316652590
там он может запрогать локальный ИИ который обходит любую капчу сложную, при этом он не хочет комилировать под EXE а на линуксе без консоли не запустишь с мозго еблей
Аноним 16/02/25 Вск 17:03:51 #192 №316653069 
Фоторобот-5.5-рис-2.jpg
1540746477184580084.png
Вы можете не уметь рисовать но есть программы фото роботов там есть все шаблоны всех лиц и национальностей

не умея рисовать вы можете скрафтить любое лицо.

вес программы 100 мб шаблонов 3 тысячи

так вот, по поводу сжатия, шаблонов бинарного кода всех прог в мире всего 60 гб. или 4 миллиарда меток для пар 16 бит которые кодируют 64 бита.
Аноним 16/02/25 Вск 17:04:22 #193 №316653090 
>>316652933
Что у вас там за ебля с консолью? Пишешь тулзу с аргументами, компилируешь, пердишь. Можешь сверху вообще вебинтерфейс (админку) въебать, чтобы не ебаться с терминалом. Будет кроссплатформенная залупа.
Аноним 16/02/25 Вск 17:06:55 #194 №316653200 
>>316653069
Пчел, у тебя получается оооооочень медленный архиватор. Ты сам это пруфанул в треде, где 100кб заняли 1с. Это даже для бюджетного железа из 2010 очень медленно.
Аноним 16/02/25 Вск 17:14:17 #195 №316653481 
1122.jpg
Метод и прога кстати решает задачу теории 3 тел.

Думайте.

>>316653200
уже готово на С++ но компиляция оборвалась так как нету злиб в визуал студио 2022

все среды разработки говно, и ты просто так не создашь EXE
Аноним 16/02/25 Вск 17:19:27 #196 №316653655 
4323434.jpg
435342.jpg
434234.jpg
>>316650904
Сжатое можно разобрать на кортежи бинарного кода. и комбинировать и ставить метки парам а потом и самим парам. метод позволяет делать ссылки короче самого бинарного с помощью словаря древ.
Аноним 16/02/25 Вск 17:33:26 #197 №316654141 
>>316644615
Так это потери в памяти, т.к например 111 = 1 11 = 11 1; Если идти по картинке 1, не выполняется условие беспрефиксности.
Аноним 16/02/25 Вск 17:34:39 #198 №316654185 
>>316647189
Я так понял, ты на питоне это написал, и пытаешься на плюсы переделать, чтоб побыстрее работало, но в С++ у тебя опыта нет. Если хочешь попробовать сжать большой файл на питоне, чтобы это было быстро, попробуй использовать just in time компилятор для питона - @njit из модуля numba
Аноним 16/02/25 Вск 17:35:10 #199 №316654206 
>>316646915
почему тебя ещё не обоссали?
>нужно 25 гб библиотек и зависимостей?

долбоебина, ты сам нахуярил вагон лишней хуеты вроде ДИАГНОСТИКА JAVASCRIPT и жалуешься, что зависимостей дохуя
Аноним 16/02/25 Вск 17:36:03 #200 №316654250 
>>316643851 (OP)
### Анализ текста о «вечном сжатии информации без потерь»
Рассмотрим заявленные тезисы и их соответствие реальности, опираясь на теорию сжатия данных и предоставленные источники.

---

#### 1. Утверждение: «Шеннон доказал, что существует предел сжатия, определяемый энтропией источника»
Правда: Да, это корректно. Теорема Шеннона о кодировании источника утверждает, что минимальный размер сжатых данных без потерь для источника с энтропией \( H(X) \) стремится к \( N \cdot H(X) \) бит для \( N \) символов .
Комментарий: Это фундаментальный принцип, который действительно ограничивает сжатие. Однако автор не учитывает, что энтропия зависит от статистических свойств данных. Если данные уже сжаты (например, архиватором ZIP), их энтропия близка к максимальной, и дальнейшее сжатие невозможно .

---

#### 2. Утверждение: «Создан словарь 4 уровня для рекурсивного сжатия»
Ложь/Неточность:
- Многоуровневые словари существуют (например, в алгоритмах типа LZ77/LZ78 или современных методах для бинарных изображений ). Однако их эффективность зависит от контекста и типа данных.
- Рекурсивное сжатие противоречит теории информации. После первого сжатия данные теряют избыточность, и повторное применение алгоритма не уменьшит размер, а может даже увеличить его из-за накладных расходов .
- Словарь 34 ГБ технически возможен, но непрактичен. Хранение и обработка такого объёма данных требуют огромных вычислительных ресурсов, а использование SSD вместо RAM замедлит работу в сотни раз .

---

#### 3. Утверждение: «Сжатый файл в ZIP/RAR становится в 10–20 раз меньше оригинала»
Ложь:
- Если исходные данные уже сжаты (например, текстовый файл, преобразованный в ZIP), повторное сжатие тем же алгоритмом не даёт выигрыша. Это подтверждается тем, что ZIP и RAR используют комбинацию LZ-методов и кодирования Хаффмана, которые устраняют избыточность на первом этапе .
- Для несжатых данных (например, текста) такие коэффициенты возможны, но не для всех типов файлов. Например, случайные данные (шифрованные файлы) сжать невозможно .

---

#### 4. Утверждение: «Метод даёт возможность сингулярности и AGI»
Спекуляция:
- Связь между сжатием данных и искусственным интеллектом (AGI) — это метафора, а не техническая реальность. Нейросетевые архиваторы (например, NNCP) действительно улучшают сжатие за счёт предсказания паттернов, но они не создают «сознание» .
- Заявление о «сингулярности» — маркетинговый приём, не имеющий научного обоснования.

---

#### 5. Практичность метода
Критические проблемы:
1. Ресурсоёмкость: 34 ГБ словаря — это гигантский объём даже для современных систем. Реализация на Python без оптимизации (как указано в тексте) будет крайне медленной .
2. Рекурсивное сжатие: Невозможно из-за теоретических ограничений. Даже если использовать GPU (CUDA), это не обойдёт энтропийный барьер .
3. Восстановление из общего словаря: Если словарь статичен, он должен содержать все возможные паттерны данных, что нереализуемо на практике. Динамические словари (как в LZ77) адаптируются под конкретные данные, но их размер ограничен .

---

#### Вывод
- Правдивые аспекты:
- Теорема Шеннона о пределе сжатия .
- Использование словарей в алгоритмах (LZ77, LZ78) .
- Ложные/Спекулятивные утверждения:
- Вечное рекурсивное сжатие.
- Уменьшение размера ZIP/RAR-архивов в 10–20 раз.
- Связь с AGI и сингулярностью.
- **Практичность**: Метод непрактичен из-за гигантских требований к памяти, неэффективности рекурсии и противоречия теории информации. Современные алгоритмы (PAQ, CMIX, NNCP) достигают лучших результатов без таких затрат .

Если цель автора — провокация или художественная метафора, текст интересен. Если же это попытка представить рабочий инструмент — это мистификация. Для реального сжатия стоит использовать проверенные методы: Brotli, Zstandard, или нейросетевые архиваторы вроде NNCP.
Аноним 16/02/25 Вск 17:37:21 #201 №316654302 
>>316653481
>все среды разработки говно, и ты просто так не создашь EXE
Мне похер, я на линухе компилю и в хуй не дую. Прогаю в VScode вообще.
Аноним 16/02/25 Вск 17:42:40 #202 №316654485 
>>316654185
если такой крутой то пиши на CUDA И получай нобеля.

>>316654206
мразь. ненавижу.
Аноним 16/02/25 Вск 17:43:08 #203 №316654498 
1597824405336.png
>>316654250
> NNCP
Сжатие нейронками
https://bellard.org/nncp/
Винда (CUDA): https://bellard.org/nncp/nncp-2024-06-05-win64.zip
Линух (CUDA): https://bellard.org/nncp/nncp-2024-06-05.tar.gz
Линух (Python+PyTorch, GPU required): https://bellard.org/nncp/nncp_v2-2021-02-06-1.tar.gz
sage[mailto:sage] Аноним 16/02/25 Вск 17:44:08 #204 №316654540 
>>316651932
Ну он долбаеб, оп придумал хуйню которой уже лет 70 ее тот винрар использует, только у него словари на 64 гига а пара мб. Если бы сжимание с 64гб словарем не занимало 15 секунд на 1мб файл его бы все использовали, но оно к сожалению занимает и хуй ты что с этим сделаешь.
Аноним 16/02/25 Вск 17:44:39 #205 №316654558 
>>316654185
Ему надо промт грузануть с нуля, чтобы тот сваял чисто на плюсах, ничего не зная про питон версию. И попросить как всю эту ебу компилить под его версией windows.
Аноним 16/02/25 Вск 17:46:26 #206 №316654626 
>>316654141
Нахуй ты его так жёстко приложил?
Аноним OP 16/02/25 Вск 17:48:10 #207 №316654699 
>>316654250
Чел, я с юристами бегала, и математиком пол года, хотела продать метод за 100 млн р а потом $

как правило эйчары и есть сами директора,,

Так в чём смысл в 95% случаев меня просили изложить полный метод и демонстрацию что БЫ МЕТОД СПИЗДЕТЬ, до меня дошло что нельзя продемонстировать метод, что бы не догадались, а догадаются всегда. А это значит, что я просто подарю метод корпорации или эйчару

у гугла и майков формула эта есть, они тупо не хотели даже собез делать

повторяю.,у меня есть математическое доказательство, и оно продемонстированно в виде кода. в первом посте.

1 ) в мире и странах нету патентования методов и интерфейсов алгоритмов
2) создавать сервис писать готовую прогу на C++ и CUDA дохуя вложений.

так что лучше общественный прогресс будет. чем лишнее внимание
Аноним 16/02/25 Вск 17:49:03 #208 №316654732 
1702749053130.png
>>316654498
Аноним 16/02/25 Вск 17:52:28 #209 №316654864 
112112.mp4
>>316654141
вот такая база на 60 гигов рекурсивно сжимает инфу

Пары бинарного кода 2 битного маркируются метками, а те пары тоже метками и так до 4 уровня. файл это метки 4 уровня.

или же 32 бита в 128 бит или же 16 бит в 64 бита и обратно
Аноним 16/02/25 Вск 17:55:42 #210 №316654967 
>>316654699
Тухлодырку ты хотела свою продать за сто лямов, а не метод сжатия
Аноним OP 16/02/25 Вск 17:56:00 #211 №316654983 
РАЗРАБЫ ГУГЛА И МАЙКОВ, ВАШИ ИИ НЕ МОГУТ КОМПИЛИРОВАТЬ ПРОГУ В EXE. ебланы.

OPEN AI звездаразы, мразИ, за 3 года не могут в EXE прогу отдебажить и скомпилировать

мрази. вам тут сингулярность показывают что всё есть дубликаты бинарного кода у 4 бит 16 комбинаций всего
Аноним 16/02/25 Вск 17:59:07 #212 №316655101 
>>316654967
ога. ток 95% Эйчаров и есть сами директора и пиздят методы и код. Так что удачи на себезах инсайды своей логики давать. лул

и свои методы и код ты нихуя не защитишь никак. ПРОБЕЛ. ТУПИК.
Аноним 16/02/25 Вск 17:59:58 #213 №316655132 
>>316643851 (OP)
>>316654699
Давайте проанализируем предоставленный код и его соответствие заявленным возможностям в тексте.

---

### Общее описание кода

Код представляет собой программу для сжатия данных, использующую рекурсивные словари (4 уровня) для замены повторяющихся блоков данных на более короткие метки. Программа реализует графический интерфейс пользователя (GUI) на основе библиотеки `tkinter`, а также поддерживает сохранение словарей между сессиями.

Основные компоненты:
1. Словари для сжатия:
- Четыре уровня словарей (`NUM_LEVELS = 4`), где каждый уровень отвечает за замену пар блоков данных на числовые метки.
- Первые три уровня используют статические словари, хранящиеся в `.npy` файлах.
- Четвертый уровень — динамический словарь, который хранит данные в оперативной памяти и на жестком диске.

2. Разбиение данных на блоки:
- Данные разбиваются на блоки по 2 бита (`BIT_BLOCK_SIZE = 2`).
- Эти блоки объединяются в пары, которые затем заменяются на метки из соответствующих словарей.

3. Хэширование:
- Используется пользовательская функция `int_to_hash` для преобразования чисел в строки фиксированной длины (`HASH_LENGTH = 7`).

4. Архивация:
- После сжатия данные дополнительно сжимаются с помощью `zlib`.

5. Графический интерфейс:
- Позволяет выбирать файлы для сжатия/распаковки, отображает информацию о размерах файлов и состоянии словарей.

---

### Что делает программа?

Программа выполняет следующие действия:

1. Сжатие:
- Исходные данные разбиваются на блоки по 2 бита.
- Пары блоков заменяются на числовые метки, используя словари четырех уровней.
- Результат записывается в выходной файл вместе с дополнительным сжатием через `zlib`.

2. Распаковка:
- Процесс обратный сжатию: метки извлекаются из файла, восстанавливаются пары блоков, а затем собираются в исходные данные.

3. Управление словарями:
- Словари первого уровня загружаются из предварительно созданных `.npy` файлов.
- Четвертый уровень использует кэш в оперативной памяти и постоянное хранилище на диске.

---

### Соответствие заявленному

#### 1. "Вечное сжатие без потерь"
- Анализ: Это утверждение ложно. Программа не обеспечивает "вечное" сжатие. На каждом уровне сжатия создаются новые словари, которые занимают место. В какой-то момент объём всех словарей превысит объём исходных данных.
- Практичность: Несмотря на это, программа может быть полезна для сжатия небольших файлов или данных с высокой степенью повторяемости.

#### 2. "34 ГБ словаря хватит всем"
- Анализ: Утверждение завышено. Размер словарей зависит от входных данных. Для больших объемов уникальных данных словари будут расти до тех пор, пока не достигнут ограничений системы.
- Практичность: Ограничение размера словарей (например, `np.uint32`) делает невозможным их бесконечное расширение.

#### 3. "Файл становится в 10-20 раз меньше после сжатия"
- Анализ: Это возможно только для данных с высокой избыточностью. Если данные уже оптимально сжаты, дальнейшее сжатие не даст значительного эффекта.
- Практичность: Эффективность сжатия зависит от типа данных. Для высокоструктурированных данных (тексты, логи) результат может быть хорошим, но для случайных данных — нет.

#### **4. "Использование метода Яна Слоота"**
- **Анализ**: Метод Яна Слоота никогда не был научно обоснован и считается мистификацией. Упоминание его имени здесь скорее маркетинговый ход.
- **Практичность**: Нулевая.

---

### **Практичность программы**

#### **Плюсы**:
1. **Наличие GUI**: Программа удобна для использования благодаря графическому интерфейсу.
2. **Модульность**: Код разделен на функциональные блоки, что упрощает его понимание и модификацию.
3. **Поддержка словарей**: Использование словарей позволяет эффективно сжимать данные с высокой степенью повторяемости.

#### **Минусы**:
1. **Ограниченная масштабируемость**: Размер словарей ограничен типом данных (`np.uint32`), что делает невозможным работу с большими объемами уникальных данных.
2. **Высокие требования к памяти**: Четвертый уровень требует значительного количества оперативной памяти для кэширования.
3. **Отсутствие инноваций**: Алгоритм не предлагает ничего нового по сравнению с существующими методами сжатия (например, LZ77, Huffman).

---

### **Заключение**

Программа работает как инструмент для сжатия данных с использованием словарей, но её заявления о "вечном" сжатии и универсальности ложны. Она может быть полезна для сжатия небольших или высокоизбыточных данных, но не является решением для масштабных задач.

Если вас интересуют практические применения, лучше рассмотреть современные алгоритмы сжатия, такие как Zstandard (Zstd), Brotli или LZMA, которые обеспечивают более высокую производительность и эффективность.
Аноним 16/02/25 Вск 18:07:51 #214 №316655461 
4354545.jpg
>>316655132
вот. поляки делают AAA екшены в то время как 99% населения в говне
Аноним 16/02/25 Вск 18:08:33 #215 №316655488 
>>316655132
Для улучшения кода данной программы можно предложить несколько подходов, основанных на общепринятых практиках рефакторинга и оптимизации кода. Ниже приведены конкретные рекомендации:

### 1. Удаление закомментированного кода
Закомментированные фрагменты кода могут сбивать с толку других разработчиков, которые будут поддерживать или модифицировать программу в будущем. Если такие фрагменты больше не нужны, их следует удалить [[3]].

### 2. Оптимизация использования памяти
Программа использует значительное количество памяти, особенно для четвертого уровня словаря. Чтобы минимизировать использование памяти:
- Рассмотрите возможность хранения словарей на диске вместо оперативной памяти.
- Ограничьте размер кэша для четвертого уровня, чтобы избежать переполнения памяти.

### 3. Использование более эффективных алгоритмов
Выбор правильных алгоритмов может значительно повысить производительность. Например:
- Используйте библиотеки сжатия данных, такие как Brotli или LZMA, которые показывают лучшие результаты по сравнению с `zlib` [[8]].
- Рассмотрите возможность применения алгоритмов с предварительно определенным словарем, если это соответствует вашим задачам [[9]].

### 4. Минимизация операций внутри циклов
Чтобы ускорить выполнение программы, минимизируйте количество операций внутри циклов. Например, вычисления, которые не зависят от итерации, можно вынести за пределы цикла [[5]].

### 5. Логирование ошибок
Текущая реализация логирования ошибок уже хороша, но можно добавить более детальную информацию о состоянии программы при возникновении ошибок. Это поможет быстрее находить и исправлять проблемы.

### 6. Улучшение структуры кода
- Разделите функциональность на более мелкие, специализированные функции. Это сделает код более читаемым и легким для понимания.
- Используйте классы для группировки связанных функций и данных, что также улучшит организацию кода.

### 7. Тестирование и проверка производительности
Добавьте юнит-тесты для ключевых функций программы. Это поможет убедиться, что изменения не приводят к регрессии. Также проведите профилирование производительности, чтобы найти узкие места в коде [[4]].

### 8. Документация
Добавьте комментарии и документацию к функциям и классам, чтобы облегчить понимание кода для других разработчиков. Хорошая документация также помогает поддерживать код в долгосрочной перспективе.

### Пример улучшений

#### Оптимизация функции `compress`
```python
def compress(data, dictionaries):
current_data = split_into_2bit_blocks(data)
original_length = len(current_data)

for level in range(NUM_LEVELS):
code_to_pair = dictionaries[level]
pair_to_code = code_to_pair if level < NUM_LEVELS - 1 else {}

# Предварительная подготовка данных вне цикла
if len(current_data) % 2 != 0:
current_data.append(0)

new_data = []
for i in range(0, len(current_data), 2):
pair = tuple(current_data[i:i+2])
if pair in pair_to_code:
code = pair_to_code[pair]
else:
code = len(code_to_pair)
if code >= np.iinfo(np.uint32).max:
logging.error(f"Dictionary level {level} reached maximum size limit.")
return None
code_to_pair[pair] = code
new_data.append(code)

dictionaries[level] = code_to_pair
current_data = new_data

return current_data
```

#### Добавление тестов
```python
import unittest

class TestCompression(unittest.TestCase):
def test_compress_decompress(self):
data = b"testdata"
dictionaries = [{} for _ in range(NUM_LEVELS)]
compressed = compress(list(data), dictionaries)
self.assertIsNotNone(compressed)
decompressed = decompress(compressed, dictionaries)
self.assertEqual(data, bytes(decompressed))

if __name__ == "__main__":
unittest.main()
```

Эти изменения помогут сделать код более эффективным, надежным и удобным для поддержки.
Аноним 16/02/25 Вск 18:09:35 #216 №316655528 
>>316647407
слушай, у тебя проблема в том, что чтобы разметить, все значения 64х битного слова из словаря. тебе потребуется 64битная ссылка.

тоесть прежде чем словарь можно будет использовать универсально для любых последовательностей. размер его ссылки достигнет размера слова на которая она ссылается.

ты конечно можешь ссылать только на "популярные" комбинации слов. но так и обычные архиваторы работают.

а пока что твой алгоритм похоже просто упорядочивает битовые маски внутри файла вынося энтропию запределы основного файла, поэтому архиватор хорошо его сжимает но ты не сожмешь через полученный словарь другой файл
Аноним 16/02/25 Вск 18:10:30 #217 №316655575 
>>316654983
ебучее тупое уёбище, ты же даже не понимаешь, что и зачем пихаешь в IDE
Аноним 16/02/25 Вск 18:11:28 #218 №316655610 
>>316655575
Анон, полегче будь. ОП просто мирный шиз, а не воюющий тупой дилетант. Не стоит на больного человека гнать.
Аноним 16/02/25 Вск 18:11:45 #219 №316655620 
>>316655488
На основе предоставленного кода и анализа его структуры, а также с учётом общих принципов оптимизации программного обеспечения, предлагаю следующие дополнительные улучшения для программы:

### 1. Оптимизация использования словарей
- В текущей реализации словари используются для хранения пар блоков данных. Однако размер этих словарей может быстро расти, особенно на четвёртом уровне. Чтобы минимизировать использование памяти:
- Рассмотрите возможность использования более компактных структур данных, таких как `array.array` или даже битовые массивы, если это возможно.
- Ограничьте размер словарей на каждом уровне, чтобы избежать их чрезмерного роста. Например, можно периодически очищать словарь, если он достигает определённого предела [[6]].

### 2. Параллельная обработка
- Для больших файлов процесс сжатия может быть довольно медленным. Использование многопоточности или многопроцессорности может значительно ускорить работу:
- Разделите входной файл на части и обработайте каждую часть в отдельном потоке или процессе.
- После завершения обработки всех частей объедините результаты. Это можно сделать с помощью модуля `concurrent.futures` или `multiprocessing` в Python [[9]].

### 3. Улучшение алгоритмов
- Алгоритмы сжатия могут быть оптимизированы для достижения лучших результатов:
- Рассмотрите использование более эффективных алгоритмов сжатия, таких как Brotli или Zstandard, которые показывают лучшие результаты по сравнению с `zlib` [[10]].
- Если данные имеют специфическую структуру, можно разработать специализированный алгоритм сжатия, учитывающий эту структуру.

### 4. Оптимизация работы с файлами
- Текущая реализация загружает весь файл в память перед обработкой. Для очень больших файлов это может быть проблематично:
- Реализуйте потоковую обработку файлов, где данные читаются и записываются по частям, не занимая всю доступную память.
- Это можно сделать с помощью буферизованного чтения и записи файлов [[2]].

### 5. Улучшение пользовательского интерфейса
- Графический интерфейс уже имеет базовый функционал, но его можно улучшить:
- Добавьте индикатор прогресса для операций сжатия и распаковки, чтобы пользователь мог видеть, сколько времени осталось до завершения.
- Улучшите визуальное оформление интерфейса, используя современные стили и темы, например, через библиотеку `ttkthemes`.

### 6. Добавление тестов
- Хотя в коде уже есть базовая проверка ошибок, добавление юнит-тестов поможет гарантировать правильность работы программы:
- Напишите тесты для основных функций, таких как `compress`, `decompress`, `split_into_2bit_blocks` и других.
- Проверьте работу программы с различными типами данных и большими файлами [[4]].

### 7. Оптимизация логирования
- Логирование ошибок уже реализовано, но можно улучшить его:
- Добавьте возможность настройки уровня детализации логов (например, DEBUG, INFO, ERROR).
- Включите в логи дополнительную информацию, такую как время выполнения ключевых операций, что поможет в диагностике проблем.

### 8. Работа с большими данными
- Для работы с действительно большими данными можно рассмотреть использование внешней памяти:
- Храните временные данные на диске вместо оперативной памяти, используя файлы временных данных.
- Это позволит обрабатывать файлы, размер которых превышает доступную оперативную память.

### 9. Документация
- Убедитесь, что код хорошо документирован:
- Добавьте комментарии к каждой функции, описывающие её назначение, входные параметры и возвращаемые значения.
- Создайте руководство пользователя, которое объясняет, как использовать программу и какие возможности она предоставляет [[5]].

### Пример улучшений

#### Реализация потоковой обработки
```python
def stream_compress(input_file, output_file, dictionaries):
buffer_size = 1024 * 1024 # Размер буфера: 1 МБ
with open(input_file, 'rb') as fin, open(output_file, 'wb') as fout:
while chunk := fin.read(buffer_size):
compressed_chunk = compress(list(chunk), dictionaries)
if compressed_chunk is None:
return False
compressed_bytes = zlib.compress(compressed_chunk.encode('utf-8'), level=9)
fout.write(compressed_bytes)
return True
```

#### Добавление индикатора прогресса
```python
def update_progress(progress_bar, value):
progress_bar['value'] = value
progress_bar.update()

progress_bar = tk.ttk.Progressbar(root, orient="horizontal", length=300, mode="determinate")
progress_bar.pack(pady=20)

# При сжатии или распаковке обновляйте индикатор
update_progress(progress_bar, percentage_completed)
```

Эти изменения помогут сделать программу более производительной, удобной для использования и надёжной.
sage[mailto:sage] Аноним 16/02/25 Вск 18:13:35 #220 №316655693 
я хуею шизов ПОЛОН ТРЕД!!!!!!!!!!!! они заполонили планету!!!1111
Аноним 16/02/25 Вск 18:16:12 #221 №316655790 
>>316655620
Вот ещё советы

https://chat.qwenlm.ai/s/3dde27e3-c1a1-4f25-8785-80ba722a0222

А теперь сиськи с супом на стол или будет бунт.
Аноним 16/02/25 Вск 18:16:55 #222 №316655829 
>>316643851 (OP)
Ваша идея о "вечном сжатии информации" звучит интригующе, но требует критического анализа с точки зрения теории информации и компьютерных наук. Давайте разберем ключевые моменты:

1. Теоретические ограничения сжатия данных
Теорема Шеннона о кодировании источников действительно утверждает, что данные можно сжать без потерь до размера, близкого к их энтропии. Однако это не означает, что можно создать алгоритм, который будет сжимать данные бесконечно. Энтропия — это предел, ниже которого сжатие без потерь невозможно.

Ваш метод, основанный на "словаре 4 уровня", предполагает, что можно достичь бесконечного сжатия за счет рекурсии. Однако рекурсивное сжатие не может преодолеть энтропийный предел. Каждый уровень сжатия будет добавлять свои накладные расходы (например, метаданные, необходимые для восстановления данных), что в конечном итоге ограничивает эффективность сжатия.

2. Практические ограничения
34 ГБ словарь: Хотя вы утверждаете, что 34 ГБ достаточно для описания "бесконечной рекурсии", на практике это не так. Словарь такого размера может быть полезен для сжатия данных, но он не может охватить все возможные комбинации данных, особенно если данные имеют высокую энтропию.

Скорость работы: Если ваш алгоритм работает медленно, это может быть связано с тем, что он требует значительных вычислительных ресурсов для обработки рекурсивных структур. Переписывание на C++ или CUDA может ускорить выполнение, но не устранит фундаментальные ограничения алгоритма.

Использование SSD вместо RAM: Это возможно, но приведет к значительному замедлению работы программы, так как доступ к SSD намного медленнее, чем к оперативной памяти.

3. Рекурсивное сжатие
Идея рекурсивного сжатия (сжатие уже сжатых данных) интересна, но на практике она имеет ограниченную эффективность. После первого этапа сжатия данные обычно становятся ближе к своему энтропийному пределу, и дальнейшее сжатие либо невозможно, либо дает минимальный выигрыш.

4. Магия сжатия в ZIP/RAR
Если сжатый файл занимает меньше места в ZIP или RAR, это может быть связано с тем, что эти алгоритмы используют свои собственные методы сжатия, которые могут быть более эффективными для определенных типов данных. Однако это не означает, что ваш метод обеспечивает "вечное сжатие". Это просто демонстрирует, что разные алгоритмы сжатия могут давать разные результаты.

5. AGI и сингулярность
Утверждение, что ваш метод может привести к созданию искусственного общего интеллекта (AGI) или сингулярности, является спорным. AGI требует не только огромных вычислительных мощностей, но и сложных алгоритмов обучения, понимания контекста и адаптации к новым задачам. Сжатие данных, даже если оно эффективно, не решает этих проблем.

Что можно сделать:
Оптимизация кода: Переписать код на C++ или CUDA для повышения производительности. Однако учтите, что это не решит фундаментальных ограничений алгоритма.

Использование внешней памяти: Реализовать механизм работы с SSD, чтобы уменьшить нагрузку на оперативную память. Это может быть полезно для работы с большими объемами данных.

Тестирование и анализ: Провести тщательное тестирование алгоритма на различных типах данных, чтобы понять его реальную эффективность и ограничения.

Публикация и обсуждение: Выложите код и метод в открытый доступ, чтобы научное сообщество могло его проанализировать и предложить улучшения.

Заключение
Ваш метод, безусловно, интересен и заслуживает внимания, но он не преодолевает фундаментальных ограничений, установленных теорией информации. Бесконечное сжатие невозможно, и рекурсивные методы не могут обойти энтропийный предел. Однако дальнейшая оптимизация и исследование могут привести к созданию полезного инструмента для сжатия данных в определенных сценариях.

Если у вас есть конкретные вопросы по реализации или теории, я готов помочь!
Аноним 16/02/25 Вск 18:17:17 #223 №316655839 
>>316655528
>размер его ссылки достигнет размера слова на которая она ссылается.

Вот, сжатый файл, не меняется в размере, но если добавишь его потом в сжатую папку или вин рар или 7zip то будет в 10 раз меньше

пример словарь 1
А = 111000
словарь 2
А=1111000

бинарный код один и тот же, но метка словарей разная. также и тут существует 4 миллиарда древ всевозможных комбинаций. а разными словарями

те 4 миллиарда разных меток. которые кодируются бинарно 32 бита в 128 бит.
Аноним 16/02/25 Вск 18:17:20 #224 №316655842 
>>316643851 (OP)
C/C++ дев с 6 годами опыта ттт. Так уж и быть после работы посмотрю что ты там придумал, но ничего не обещаю.
Аноним 16/02/25 Вск 18:18:50 #225 №316655914 
>>316655842
Текст и код ОПа уже разобрала нейронка, так что можешь не париться
Аноним 16/02/25 Вск 18:19:38 #226 №316655954 
>>316654983
ОПче, не заводись. Там же буквально нехер осваивать чтобы скомпилировать. Ты хочешь лениво не разбираясь собирать проги. Попроси нейросетку научить. Кидай ей ошибки. Зачем тебе готовый бинарник? Компиль прямо на машине, тем более кода немного будет.
Аноним 16/02/25 Вск 18:22:15 #227 №316656052 
doc.mp4
Че за хуйню перегруженную вы навыдумывали? Учитесь, чурки тупые. Храню свой бекап с рарными пикчами в zip архиве в числе пи начиная с 246 523 886 149 знака, кому охота, скачайте, пароля на нём нет. На всякий на всякий случай обозначу, что переводить всё в шестнадцатеричную систему, конец заканчивается последовательностью "54681216814323464314358468412" в десятеричной.
Аноним 16/02/25 Вск 18:22:36 #228 №316656069 
>>316655914
Там и нейронка не нужна, любой первокур айтишной специальности без проблем поймёт, почему идеи ОПа неосуществимы. Даже код смотреть необязательно, по описанию всё ясно.
Аноним 16/02/25 Вск 18:22:36 #229 №316656070 
345443.jpg
4553434.jpg
454534.png
3454343.jpg
>>316655693
всю информатику основали эти 2 чела, без них у тебя не было бы пеки.

они прошивали спектрумы, делали копии компьютеров IBM в 50 раз ДЕШЕВЛЕ разбирая печатные машины то что стоило 40к $ они за 1к$ делали

Понятия персональных компьютеров не было, компьбютеры были ток у корпораций и институтов,

тут мы подошли к черте, когда вся информатика, становится квантовой те , с помощью кода выше ты можешь хранить зетабайты в 1мб рекурсивно с помощью словаря на 60 гигов. и рекурсивно ускорять ИИ и вычисления и память

записи с камер можно хранить в 16 к битрейтом 500мб в сек. ВЕЧНО

Задай себе воппрос как была запрогана первая цифровая клава? если все носились с набивом перфокарт
Аноним 16/02/25 Вск 18:24:01 #230 №316656122 
>>316655954
>ОПче, не заводись. Там же буквально нехер осваивать чтобы скомпилировать.
ЗЛИБ И графическая оболочка требует зависимостей которых нет в 40 гб ИДЕ визуал студио.
Аноним 16/02/25 Вск 18:24:17 #231 №316656132 
Я из треда вынес следующую хуйню.
ОП мирный полезный шиз. Но именно такой, что находится в пределах нормы и гения, а не чисто негативка.
Если бы он получил хорошее образование, он бы нашел свое место в жизни создав какую-нибудь интересную хуйню.
Сейчас он упирается в недостаток своего образования, не может использовать накопленное знание другими и наступает на грабли. Обидная хуйня.
Аноним 16/02/25 Вск 18:26:15 #232 №316656220 
>>316648298
>4
Бля это чё за магия, была 1 фотка собаки, а стало 4 точно таких же!
Аноним 16/02/25 Вск 18:26:51 #233 №316656245 
>>316656122
Ну я над этим покекал конечно. Не знаю кто использует полноценную вижуал, кроме надрочившихся программистов. Я предпочитаю делать все на минималках, ставить конкретные вещи если они нужны. На твоем месте просто бы попросил какую-нибудь нейросеть объяснить как тебе собрать программу под твою винду, что и как поставить. А вижуалстудио нахуй на помойку бы выбросил - только лишнее место занимает.
Аноним 16/02/25 Вск 18:32:52 #234 №316656476 
>>316655829
Эта нейронка права
Аноним OP 16/02/25 Вск 18:33:17 #235 №316656499 
3454343234344.mp4
https://codepen.io/procoders000001/pen/qEWLeaV
Аноним 16/02/25 Вск 18:33:32 #236 №316656515 
>>316655839
неважно насколько словарей ты разобьешь, на 2 или 4 миллиарда но тебе придется так или иначе ссылаться на все значения 64 битного слова.

твоя конечна ссылка всеравно будет занимать 64 бита. например 32 бита из нее будет занимать адрес самого словаря, и еще 32 бита поиск значения в этом словаре чтобы покрыть все значения.

а иначе будет потеря данных

еще раз, у тебя файл который ты кидаешь содержит упорядоченные битовые ссылки типа 1.2.3.4.5...n это лучшие условия для арфиватора
а все данные исходного файла просто вынесены в исходный файл.
Аноним 16/02/25 Вск 18:34:09 #237 №316656537 
>>316656132
Гении получаются, когда знаний много, а шизы мало, она под контролем и не прогрессирует. ОП же, к сожалению, ошизел конкретно и серьёзно, имея при этом крайне скудные познания в базовой части относительно теории информации. Шизы практически не поддаются обучению, вот он и застрял на своей сверхценной, но изначально неправильной идее.
Аноним 16/02/25 Вск 18:35:41 #238 №316656607 
>>316655829
https://replit.com

Функция AUTOMATIC DEVELOPER

попроси провести тест кода питона на место и пары. он проведёт на сожрёт токены на 4 $ и место на 60 гигов.

Функция AUTOMATIC DEVELOPER это чат бот полный дебагер, те лучше чат гопоты в 50 раз
Аноним 16/02/25 Вск 18:38:46 #239 №316656742 
>>316656515
>>316656515
>>316656515
>на все значения 64 битного слова.

эти слова могут быть одинакоымми под разными алфавитами.

Это значит что имея триллион алфавитов я могу файл запрогать как бесконечное 11111111111111 но логика сборки будет словарь где это запрогано точнее порядок.

у меня в 60 гигах запроган порядок для всей всей информатики. и так получилось что 32 бит ссылка даёт 128 бит. Как? читай и изучай код. магия.
Аноним 16/02/25 Вск 18:49:48 #240 №316657156 
>>316656742
ну нет я почитал твой тред. ты просто формулой разворачиваешь 1 допустим в последовательность 1.2.3..8

но эта формула будет работать только на этой последовательности.

если ты захочешь закодировать допустим 9.8.7..1
тебе потребуется уже другая формула. и так для каждого значения.

а так как твой словарь должен быть универсальным, тебе придется эти формулы упорядочивать для каждого значения.
как не разбивай.
Аноним 16/02/25 Вск 18:54:05 #241 №316657318 
112.jpg
3342234.jpg
>>316657156
вот, там древа всех значений. в базе данных 60 гб в сыром виде юникода 144 гб но можно сделать алгоритм без словарей

Можно не хранить все карты, если знать широту и долготу и азимут. можно летать без карт. куда хочешь
Аноним 16/02/25 Вск 18:56:10 #242 №316657394 
image.png
>>316654699
>Чел, я с юристами бегала
>бегала
У НЕЁ СИСИК И ПИСИК СЖАТЫЙ ПИСИК
Аноним 16/02/25 Вск 18:56:47 #243 №316657417 
12.jpg
22112.jpg
32112.jpg
112 (4).jpg
>>316657156
вся вселенная работает на принципах чётных и нечётных степеней
2) сбрутить все синусы можно будет также 60 гб всех вариантов
- эти синусы можно применить к бинарному коду
Аноним 16/02/25 Вск 19:02:31 #244 №316657619 
>>316657318

чтобы записать все вариации значений слова в 64бита тебе потребуется сторедж в 264+1 бит информации.
посчитаешь столько это?
Аноним 16/02/25 Вск 19:06:33 #245 №316657748 
>>316648209
>Показывай учёную степень в области ДНК. Иначе в твой бред никто верить не будет

Я скажу больше. вот что. почему вакцину можно сделать только из нулевого пациента? -

В лесу 1000 деревьев на каждом дереве 100 веток на каждой ветке 50 листьев или же 50 дубликатов листье, веток и деревьев

Или же 1 настоящее дерево, а все остальные дубликаты это ссылки на это дерево откуда и берут команды днк, ведь иначе не было бы леса, или же дерево было бы одно.

также и тут, все днк в россии это ссылка на днк медвепута также как и в сша ссылки на днк байдена и трампа, они использовали технологии и создали клонов по этой технологии.
Отсюда и терпильство.
Аноним 16/02/25 Вск 19:07:58 #246 №316657808 
>>316657619

Это записано в 4 уровневом словаре где пары кодируют пары

простой пример 01 - это 1 а 10 это 2

12 это 1
а 21 это 2

Ресурсия. началась.
Аноним 16/02/25 Вск 19:08:40 #247 №316657836 
>>316657417
какие ты там синусы собрался срезать?

для того чтобы закодировать большое число тебе понадобятся меньшие числа, но занимающие такое же количество информации в сумме что и большое.
Аноним 16/02/25 Вск 19:14:20 #248 №316658018 
>>316657808
а 00 и 11 куда делись? съелись? как мы их будем записывать? 3 и 4 лол? нашлась пропадающая при рекурсии информация получается?
Аноним 16/02/25 Вск 19:22:50 #249 №316658312 
>>316649995
бляяять так вот откуда у нормипидоров этот уёбищный юмор в стиле теории большого взрыва, из пендостанского брейнрота.
Аноним 16/02/25 Вск 19:23:14 #250 №316658326 
>>316657836
кодируются не числа, а пары чисел. метками. потом пары метки кодируются метками и так до 4 уровня. в итоге файл это ссылка на метки 4 уровня. все варианты меток 60 гб

В итоге, код квантовый можеи излекать бессконечное количество, памяти и вычислений.

по типу не нужно хранить терабайты карт, если есть азимут и широта.
Аноним 16/02/25 Вск 19:28:13 #251 №316658501 
443344.jpg
332234.jpg
4323433.jpg
>>316657836
ты не понимаешь тогда логику много многоуровневого словаря.

Представь.... базу данных где индексы индексируют индексы, когда наступает рекурсия? скажем для всех вариантов пар АБ? при условии что все пары кодируются 1 символом но разным алфавитом?
Аноним 16/02/25 Вск 19:29:01 #252 №316658521 
>>316658018
>а 00 и 11 куда делись?
Они все из разных алфавитов. алфавитов можно напридумывать бессконечное количество как и цифр, и знаков но у них у всех один паттерн.
Аноним 16/02/25 Вск 19:31:58 #253 №316658632 
1233434.jpg
112.gif
4325455.webp
>>316657836
В движке хитман 1 модель но 400 ссылок, в итоге толпа не жрёт ресурсов. также рекурсия бинарноного кода визуально это 2 пикрол
Аноним 16/02/25 Вск 19:33:47 #254 №316658694 
>>316658326

ну так чтобы разбить двухбитное число тебе надо четыре метки. что
простым пересчетом что в дереве.
на эти четыре метки надо сослаться что по азимуту и широте что простой ссылкой. в дереве широта и долгота будет также кодироваться. в нашем случае одним однобитным числом за номер строки и одним двубитным числом за ветвь. получается 2битное число мы с помощью дерева закодировали 3хбитным.

один лишний бит получается накладные расходы за реализацию слоев.

чем сложнее будет дерево теи больше информации потребуется передавать чтобы гулять по его ветвям
Аноним 16/02/25 Вск 19:34:15 #255 №316658718 
>>316650281
>>316648961
не ответил = слитый оп питух
Аноним 16/02/25 Вск 19:35:39 #256 №316658757 
>>316658501
ты не учитываешь у тебя объем ссылки = заказодированной информации.
ты просто не хожешь через словарь сжимать. хоть сколько гоняй эту рекурсию.
Аноним 16/02/25 Вск 19:40:11 #257 №316658900 
11221 (2).jpg
11221 (3).jpg
11221 (4).jpg
11221 (1).jpg
>>316658694
Ты опять ничего не понял у 4 бит - 16 комбинаций.

сбруть их и сделай новый словарь что бы постоянно был один и тот же бин код, но словарь разный. Не могешь придумать? -

Окей простые примеры. ЛУК. И ЛУК?
ЗАМОК и ЗАМОК? КОТ, КИТ?

Как ты понял, от расположения, меняется смысл Возможно квантовый словарь всего так и работает. Ты то прогу тестировал или нет? -
sage[mailto:sage] Аноним 16/02/25 Вск 19:43:50 #258 №316659000 
1590606224196413423.png
>>316646086
>законы роскомнадзора
Аноним 16/02/25 Вск 19:45:52 #259 №316659049 
>>316648961
>что каждое фото сожмется до невероятного 1 бита,

В информатике всё пишется в кластерах по 5 кб. меньше нельзя.

Метод на самом деле, логичный, в книгах есть страницы, есть справочники где есть все книги, есть справочники по библиотекам где эти книги находятся

оп предлагает метод генерации всех этих справочников и библиотек точнее вавилонская библиотека для бинарного кода.

>В информатике всё пишется в кластерах по 5 кб. меньше нельзя.
следовательно вся информатика ужимается в кластер уникальных 5кб.
Аноним 16/02/25 Вск 19:46:39 #260 №316659066 
>>316658757
так цепочка ссылок, и сама ссылка и есть тело конечного файла )
Аноним 16/02/25 Вск 19:49:17 #261 №316659148 
173972438216024700.jpg
А можно по русски? Как эта хрень работает? Ниче не понял
Аноним 16/02/25 Вск 19:54:50 #262 №316659264 
ВНИМАНИЕ ЛОР БЕСКОНЕЧНОГО СЖАТИЯ
ЕСЛИ ВЫ В ПЕРВЫЙ РАЗ ТУТ ПРОЧИТАЙТЕ
Иеди ОПа, изложенные простым языком:
1) ОП предлагает сжимать информацию методом словаря (самый примитивный метод сжатия)
2) ОП предлагает вычислять функции не алгоритмически, а с помощью поиска готового ответа в таблице по индексу.
3) Таблицы значений функции так же сжаты по словарю
4) Сами словари так же сжаты по словарю
5) Функция разжатия словаря выполняется мнгновенно, тк она не вычисляется, а берёт значение из готовой таблицы
6) Таким образом разжатие данных любых размеров выполняется мнгновенно и благодаря этому так же возможны любые вычисления мнгновенно

Проблемы метода, которые ОП не понимает:
1) Лимит Шенона - если повторно кодировать словарь по словарю, то в какой-то момент размер данных станет равен размеру словаря и не меньше.
2) Когда данные восстанавливаются из хэша с помощью функции (табличной), то структура данных сохранена в структуре функции. Соответственно никакой экономии не происходит

Интересная тема, о которой стоит задуматься, которая раньше интересовала ОПа, но он от неё отказался в силу тупости:
1) Регенеративное сжатие, где относительно простая алгоритмическая функция из небольшого сида может сгенерировать огромный набор данных. Размер функции и сида в сумме на порядки меньше, чем размер данных.
2) Проблема в том, что поиск регенеративной функции НП-хард задача.
3) Может быть можно решать эту задачу с ИИ в приближении как поступили с протеинами.
>>316643851 (OP)
я тебя просил же так часто не постить
sage[mailto:sage] Аноним 16/02/25 Вск 19:57:00 #263 №316659322 
>>316659264
Ты забыл написать что оп говорит о себе в женском роде и шитпостит своей хуйней больше года
Аноним 16/02/25 Вск 19:58:21 #264 №316659364 
>>316643851 (OP)
>>316648332
Их УЖЕ ВЫЧИСЛИЛИ недавно, произошел ПРОРЫВ, я не пизжу. По идее в ближайшие лет 10 должны нахуярить чудо лекарств ебовых.
Аноним 16/02/25 Вск 20:00:52 #265 №316659428 
>>316659264
>1) Регенеративное сжатие, где относительно простая алгоритмическая функция из небольшого сида может сгенерировать огромный набор данных. Размер функции и сида в сумме на порядки меньше, чем размер данных.

окей вот это имеет смысл, возможно тут и "квантовые " алгоритмы применимы
Аноним 16/02/25 Вск 20:02:27 #266 №316659470 
>>316650301
Блядб брат если ты понимаешь чето в основах информатики в самой блядь базе ты внатуре за секунду врубаешься что ОП изобретает вечный двигатель и пососёт хуёв. Это блядь как дважды два очевидно.
Аноним 16/02/25 Вск 20:03:19 #267 №316659494 
>>316650452
У него там должна быть функция специальная которая правильно разжимает, а функцию он тоже сожмёт, пониматься надо.
Аноним 16/02/25 Вск 20:05:26 #268 №316659554 
>>316656245
И че ты потом делаешь с освободившимся местом?
Аноним 16/02/25 Вск 20:11:05 #269 №316659709 
>>316643851 (OP)
Нихуя не пойму в чем алгоритм заключается, ТЗ говно, тут то и человек с таким описанием не напишет, не то что ИИ
Аноним 16/02/25 Вск 20:12:41 #270 №316659763 
>>316659428
Я не думаю что тут причём то квантовые алгоритмы, я в этом нихуя не шарю. Эта задача называется формально Smallest Context Free Grammar и доказали что она NP-hard, то есть практическим образом не решаема.
https://en.wikipedia.org/wiki/Smallest_grammar_problem
Может если ты будешь искать не smallest а в какой-то границе, то можно решить с помощью ИИ достаточно хорошо.
В принципе ты врятли сможешь как зип использовать этот алгоритм, он будет ОЧЕНЬ медленный в запаковке и медленный в распаковке, итеративная генерация данных будет до жопы времени занимать, особенно если они в память не влезают. НО эта тема может быть очень рабочей для архивации, если сделать готовое решение, то все, кто хранит большие архивы данных, купят лицензию за до жопы денег.
Блядь нахуй я вам рассказываю лучше бы стартап сделал хахаха. Я больше не буду про это пиздеть, это идея на миллион внатуре.
Аноним 16/02/25 Вск 20:14:16 #271 №316659815 
>>316659264

Это не сжатие. Это востановление по шаблонам но шаблоны кодируются шаблонам из 256 алфавитов ( знаков юникода)

простой пример. не нужно пересылать книгу, и страницы целиком, когда можно 1 раз скопировать книгу и обмениватся потом номерами страниц.

метод генерирует и книгу и страницы со всеми вариантами.

>Проблема в том, что поиск регенеративной функции НП-хард задача.
эта проблема мною решена, пеки смогут ускорять рекурсивно свои вычисления и память.

Сетевая карта может умножать файлы, на сами себя, мой метод 60 гб словарей может делить файлы бесконечно.

простой пример . словарь 1
1=100 ( сжатие в 100 раз )

словарь 2
1 = 1000 сжатие в 1000 раз 1000=1 разжатие в 1000 раз

почему это не изучалось? а потому что алгоритмы компресисии сформировались и закончились в 90 годах, там было всего 100мб 4гб памяти. словарей не создашь .почему вин рар и 7 зип не сделают 4 уровневые словари где пары кодируются парами в рекурсии? ах нет. не разрешают.

Задаём вопросы.
Аноним 16/02/25 Вск 20:15:44 #272 №316659864 
>>316659470
> Это блядь как дважды два очевидно.

имея ссылку на файл ты можешь скопировать файл с сервера.
Экономия в миллионы раз если файл будет скопирован миллион раз

таким же образом файл можно обратно делить сам на себя с помощью словаря из 60 гигов.

Уровень 0: 16 пар 8 байт/пара = 128 байт

Уровень 1: 256 пар 8 байт/пара = 2 КБ

Уровень 2: 65 536 пар 8 байт/пара = 512 КБ

Уровень 3: 4 294 967 296 пар 8 байт/пара = ~ 34 ГБ
Аноним 16/02/25 Вск 20:18:04 #273 №316659936 
112 (2).jpg
1221323.jpg
>>316659709
Аноним 16/02/25 Вск 20:19:46 #274 №316659996 
>>316659763
нейросеть это поидее и есть такой алгоритм, по сиду приближенно восстанавливает информацию.

вот только я боюсь чем точнее нужно будет восстановить тем больше будет сид и стремиться к размеру конечного объекта.
не ссы че думаешь только на дваче о передовых алгаритмах сжатия информации думают ахаха.
Аноним 16/02/25 Вск 20:22:35 #275 №316660093 
>>316659996
Нейросеть это не то же самое вообще. Я тебе говорю про детерминированный алгоритм, который 100% точную копию разворачивает. Посмотри что такое Context Free Grammar, ты поймёшь суть алгоритма. Для него просто найти параметры вычислительно очень сложно.
Аноним 16/02/25 Вск 20:28:30 #276 №316660253 
>>316659864
>Уровень 3: 4 294 967 296 пар 8 байт/пара = ~ 34 ГБ
Короче, то, что ты 100 раз одно и то же повторил нихуя не делает это правдой.
У тебя 2^32 последовательностей длиной 8 бит. Знаешь сколько таких последовательностей всего может быть разных? 2^64 блядь. Что равно 18,446,744,073,709,551,616
То есть как только ты встречаешь ЛЮБУЮ одну из 18,446,744,069,414,584,320 последовательностей ты уже не можешь её своим словарём закодировать, долбоёб. А ты её встретишь, потому что ты записал в свой словарь только 1/4,294,967,296 возможных пар блядь.
Всё, оватливай нахуй.
Аноним 16/02/25 Вск 20:30:03 #277 №316660304 
image.png
>>316643851 (OP)
Попробуй сжать что то большее чем 100гб оборёшься.
Аноним 16/02/25 Вск 20:33:03 #278 №316660413 
>>316660093
>>316659763

конкретно тут метод квантового словаря на 60 гигов так как сбручены все пары для пар комбинаций для пар комбинаций, да можно найти алгоритм который без словаря, но смысл?

С помощью само кодирования эти 60 гигов всю информатику в рекурсии разгонят, память зетабайты, триллионы флопсов, и всё по словарю в кристале те в триллионы раз быстрее текущих H100,

запомните, 1 мб можно будет развернуть в 10000 терабайт за 1 сек. и это не шутки достаточно лишь переписать код выше на CUDA

да в 2025 учёные не могут умножать и делить бинарный код.

Мною же метод этот реализован, но с помощью словарей на 60 гб
Аноним 16/02/25 Вск 20:35:44 #279 №316660523 
>>316660253
эти пары 32 бита кодируют древо обратно в 128 бит. дупло.

32 бита дубликаты из разных алфавитов, это не один и тот же бинарный код

Алфавит 1

А - 111000

Алфавит 2

А - 111000

ток, в алгоритме алфавит это новая, строка, ( не её порядковый номер) А чем маркируется пустота?подумай.
Аноним 16/02/25 Вск 20:37:42 #280 №316660590 
>>316660253
у 4 бит 16 комбинаций. у 16 комбинаций 256 комбинаций у 256 комбинаций 65к комбинаций у 65к комбинаций 4лярда комбинаций

следовательно генерирует 4 миллиарда знаков, из разных алфавитов

получаем файл 1111111111111111111111111 но логика его построения будут разные алфавиты, те правило замещения генерации хеша. детерминированного

по типу 001 -002 но для 4 миллиадов алфавитов
Аноним 16/02/25 Вск 20:40:29 #281 №316660702 
34543434.jpg
bfbd6dc20b2e5d21e950e7aab0eb5286.jpg
ss1a2a783901398a39be84cd84efa62da9fd050b41.1920x10801.jpg
>>316660253
давай пойдём по другому. это движок хитман и дид ризинг занимает 32 мб рамы консоли PS2
сама модель занимает 200кб. по карте гуляют 400 ботов. Вопрос. КАК? есть только один метод как это сделать. что бы 400 ботов не занимали в 400 раз больше памяти. те это ссылки. но как физический движок это учёл? давай. догадывайся.
Аноним 16/02/25 Вск 20:46:03 #282 №316660905 
>>316660702
ты не учитываешь что больванчики в хитмене не уникальные . это КОПИИ, заранее определенные копии. захочешь другой тип перса, тебе нужно записать в словарь еще одного.
Аноним 16/02/25 Вск 20:56:39 #283 №316661296 
1649021842p12479936c9359e65.webp
51DIji0vmFL.ACUF894,1000QL80.jpg
56656.jpg
>>316660905
вот, разрабы сделали невозможное они 800 ботов запекли как поведение 1 бота. в толпе с физикой в итоге движок помнит все 20 видов и не тратит 400 раз лишних действий

в мирорс эдж 1 2008 запекли тени и текстуры в итоге у тебя фото реал графика уровня 4090 в 4к которая идёт на GT9800 - 512 мб

также и в методе и коде выше, запечены все пары и пары для пар бинаного кода, всех кодируемых файлов. но они создаются динамически
Аноним 16/02/25 Вск 20:57:32 #284 №316661335 
Бля, интересная идея, конечно

Если правильно понял принцип, у ОПа словарь со всеми комбинациями из двух битов которые мапятся в в буквы (ascii символ 1 байт или 8 бит)
То есть при первом переборе файла побитово у нас каждые 2 бита привратятся в 8, т.е. файл увеличится в 4 раза
Но у ОПа есть еще ожин словарь где каждая комбинация двух символов мапится в 1 символ
Т.е. рекурсивно сжимая один и тот же файл он по идее будет сжматься в два раза
Ссылки на словарь ему хранить не нужно потому что каждый байь файла и есть ссылка на словарь

В словаре комбинаций битовых пар будет всего 4 значения 00=а 01=b 10=c 11=d
Сколько будет вариаций в соваре пар буков мне лень считать, но количство больше 4(aa = a, ab=b, ac=c, ad=d, ba=e ...), то есть это второй словарь
В третьем прогоне у опа будет еще один словарь со всеми вариациями букв из предыдущего
И потом еще раз с уже охуевшим 60 гиговым словарем с вариациями букв из предыдущего
Потом ОП хочет засунуть плучившийся текст в 7zip, лол, а потом опять превратить байты в буковы

В первом шаге файл вырастает в 4 раза, в следущих трех уменьшается в 2 раза, то есть после каждой итерации мы получим исходный файл сжатый в два раза

Но 7zip хорршо сжимает текстовые файлы где есть человеческие слова и похо сжимает файлы где символы редко повторяются, что и нагенерит скрипт опа
Так что уже после первого прогона алгоритма (который будет пидорасить файл газиллион лет) мы получим файл сжатый в два раза
А потгм бужем бесконечно тратить мамкино электричество
sage[mailto:sage] Аноним 16/02/25 Вск 20:59:21 #285 №316661397 
>>316646374
неудобный пост. скипаем
Аноним 16/02/25 Вск 21:00:35 #286 №316661439 
>>316661335
А ну и еще на четвертом а то и на третьем прогоне индексы словари опа перестанут влазить в аскей таблицу и индексы будцт весить столько же сколько же или больше чем пары буков
Возможно файл еще и расти будет, лол
sage[mailto:sage] Аноним 16/02/25 Вск 21:01:37 #287 №316661474 
>>316646374
>Restrictions: Must run in ≲50 hours using a single CPU core and <10GB RAM and <100GB HDD on our test machine.
У опа по всем параметрам не проходит.
Аноним 16/02/25 Вск 21:07:24 #288 №316661675 
>>316661296
>мирорс эдж
Ты просто даун, у которого яркость освещения ассоциируется с качеством графики. Помню, когда только вышла gta-5, то там тоже были такие графические моды, которые тупа делали солнце ярче, но при этом они позиционировались как улучшающие графики и не понижающие производительность. И такие же дауны их скачивали и облизывались ДООО ВОТ ЭТО ГРОФОНИЙ СТАЛ ПАЧИМУ РОКСТАР ТАК НЕ МОГЛИ СДЕЛОТЬ.
Аноним 16/02/25 Вск 21:07:58 #289 №316661699 
>>316659864
Хаааа я понял, ты просто перепутал байт и бит, короче.
Получается у тебя на уровень ноль ты кодируешь 8 бит информации с помощью восьми бит информации в словаре. Гениально.
Блядь я щас реально завизжал потому что я понял, что на уровне 4 у тебя словарь это просто все 32 бит числа. И ты короче кодируешь точно так же с помощью 8 бит индекса 8 бит. Это ёбнуться можно, типа коэффициент сжатия у тебя получает ОДИН.
Ааааааа хахахха.
Аноним 16/02/25 Вск 21:10:05 #290 №316661792 
>>316661335
>Так что уже после первого прогона алгоритма

CPU И RAM также можно разложить на 60 гигов и получить бесконечную рекурсию.

ты просто не можешь регистр блоками кодировать. 32 бита в 128 бит
Аноним 16/02/25 Вск 21:11:25 #291 №316661846 
43554545.jpg
>>316661699
вечная рекурсия, информатики
Аноним 16/02/25 Вск 21:13:48 #292 №316661943 
1221 (5).jpg
1221 (6).jpg
56454543.jpg
>>316661699
Неясно почему перельман молчит, или не догадался до этого
Аноним 16/02/25 Вск 21:17:54 #293 №316662123 
>>316661943
Сколько бит в байте скажи быстро.
Аноним 16/02/25 Вск 21:19:24 #294 №316662192 
Пидоры, че вы там вечно сжимаете, ебучие шакалы бля?
Аноним 16/02/25 Вск 21:21:48 #295 №316662278 
1221 (1).jpg
1221 (2).jpg
>>316661699
суть в том, что я должна была работать в Nvidia за 400к$ месяц год, но их Эйчар хотел на собезе спиздить метод и код, мой юрист и математик это просёк и послал их куда подальше, осознав что метод и код нельзя сохранить - решено сделать опен сорс. радикальными методами. Месяц назад инвидия сделали метод блочного кодирования текстур снизив затраты памяти в 3 раза.

но... мой метод позволяет рекурсивно сжимать1 гб в 1 мб имея на ssd словари на 60 гигов.

фильмы и игры можно со 100 гигов ужать в 1 мб. и сжатие распаковка будет 10 гб сек

капитализм и социализм это форма рабовладельческого строя, эти строи будут замещены автоматическими технологиями на основе моего кода, бессконечнного сжатия

так что знайте айчары пиздят ваши методы и коды на собезах
Аноним 16/02/25 Вск 21:22:09 #296 №316662297 
>>316662123
Два. Или 1 или 0.
Аноним 16/02/25 Вск 21:22:56 #297 №316662330 
>>316662123
Запрогать можно как хочешь. не ток 8
Аноним 16/02/25 Вск 21:23:59 #298 №316662373 
>>316662278
Хуйня твоей метод, потому что уже давно есть архиватор Бабушкина, который сжимает терабайт до килобайта.
Аноним 16/02/25 Вск 21:26:59 #299 №316662494 
12212.jpg
>>316661792
даю инсайд и нобелевку.

Полносвязанный граф маркова после 60 гб, повторяет себя, те идёт рекурсия, и этих графов можно бесконечное количество плодить

тоже самое пи, круг, вечная рекурсия но идиоты там терабайты вычисляют вместо создания универсального словаря для всех пар и для пар пар комбинаций.
Аноним 16/02/25 Вск 21:30:01 #300 №316662613 
>>316662278
Так ты ещё в израиле живешь, чтоли?
Как тебе хезболы приколы?
Аноним 16/02/25 Вск 21:34:00 #301 №316662751 
>>316643851 (OP)
Давай на простом примере покажи. У нас есть два файла. Информация в первом: 1
Информация во втором: 1 000 000 000

По твоим словам размер файла уменьшится в 10 раз. 1 это минимальное значение (бит), а второе число это 10 бит, в десять раз больше. А ты говоришь что можешь дать словарик и ключ, который будет весить в 10 раз меньше чем файл. Давай свой словарь, неважно какого он размера, и покажи какой ключ ты к нему дашь, чтобы вес ключа был меньше веса второго числа.
Аноним 16/02/25 Вск 21:36:12 #302 №316662825 
>>316643851 (OP)
Скинь почту, есть деловое предложение. Не фокусник.
Аноним 16/02/25 Вск 21:37:31 #303 №316662876 
>>316662825
[email protected]
Аноним 16/02/25 Вск 21:40:23 #304 №316662985 
>>316643851 (OP)
Хуйня. Таким же методом можно сжать файл до одного бита, просто нужен ещё один словарь в котором содержится этот файл и фото пизды твоей мамки.
Аноним 16/02/25 Вск 21:42:58 #305 №316663080 
17339229609690.jpg
>>316657748
>также и тут, все днк в россии это ссылка на днк медвепута также как и в сша ссылки на днк байдена и трампа, они использовали технологии и создали клонов по этой технологии.
Нихуя себе.
Аноним 16/02/25 Вск 21:44:55 #306 №316663163 
>>316662985
По задумке ОП-а словарь на 32гб описывает все возможные двоичные последовательности. Например строка 14, строка 576, строка 167236 итд. И любой файл можно записать как последовательность этих строк из словаря. Но ОП не понял, что в такой системе ключ к строке будет весить столько же, сколько сама строка.
Аноним 16/02/25 Вск 21:44:55 #307 №316663164 
>>316662192
Рот прикрой, а то иички тебе сожму до молекулы.
Аноним 16/02/25 Вск 21:48:09 #308 №316663289 
>>316661792
>>316661792
Посчитал
1 прогон битовые пары в байт = словарь 4 индекса
2 прогон пары байтов в байт = словарь 16 индексов
3 прогон пары байтов в байт еще раз = словарь 256 индексов
4 прогон пары байтов в байт чтоб ополовинить файл = словарь 65,536 индексов или ровно два байта
Тоесть надо в файле подменять каждые два байта на другие два байта
Или я не понял что там за словарь такой в котором в один байт влазит больше 256 значений
Или если ты не на байты будешь биты подменять то я хз у чего может быть 8 значений и чтоб оно было меньше двух битов
Аноним 16/02/25 Вск 21:52:33 #309 №316663462 
>>316663289
Она ещё думает что следующий уровень "словаря" это 60 гигабайт (34*2), хотя размер растёт экспоненциально и размер будет 2048 петабайт лол. Поэтому мы так скромненько остановились на 4 уровне и пока больше не сжимаем.
Аноним 16/02/25 Вск 21:54:29 #310 №316663528 
Сегодня у чатботов будет тяжелая ночь.
Аноним 16/02/25 Вск 21:57:51 #311 №316663645 
>>316663289
>Или я не понял что там за словарь такой в котором в один байт влазит больше 256 значений
Ну там в хитмане н-писи видел? А в лесу деревья? В один лес влазит больше одного дерева, понимаешь...
Аноним 16/02/25 Вск 22:02:48 #312 №316663789 
14770526242770.jpg
Хуйня, я могу сжать файл 1.11 ГБ до 61 килобайта! Стандартными средствами Шиндошс. Распаковка и сжатие за пару секунд на среднем процессоре (5700x). Кто не верит - ставьте анус в треде, покажу как это делается.
Аноним 16/02/25 Вск 22:08:05 #313 №316663973 
>>316643851 (OP)
ОП, идея интересная, но глобально твоя проблема в том что сами ссылки на словарь будут слишком длинными, и фактически не дадут сжатия. Нужно размышлять другую сторону, вместо ключ-значение попробуй использовать вектор внутри матрицы размера n на n - так сможешь вместить больше комбинаций. Думой.
Аноним 16/02/25 Вск 22:08:22 #314 №316663982 
Че, нет желающих анус свой проебать? Жаль...
Аноним 16/02/25 Вск 22:08:30 #315 №316663987 
>>316663973
И да, все ещё жду почту с галкой опа.
Аноним 16/02/25 Вск 22:10:57 #316 №316664076 
Эх как же жаль, что нельзя закодировать X уникальных значений, используя меньше, чем Х уникальных кодов
https://en.wikipedia.org/wiki/Pigeonhole_principle

Какая же пидорская наука математика, отнимает нобелевку.
Аноним 16/02/25 Вск 22:14:31 #317 №316664190 
>>316663987
[email protected]
Аноним 16/02/25 Вск 22:15:17 #318 №316664226 
>>316664190
А где галка?
Аноним 16/02/25 Вск 22:15:53 #319 №316664246 
>>316664076
Можно, если кодировать не в таблицу, а в вектор на матрице.
Аноним 16/02/25 Вск 22:16:29 #320 №316664262 
Ниче, пацаны, мне голоса сказали что скоро Аннунаки десятичную систему кодирования завезут, в один бит можно будет от 0 до 9 значения записывать, квантовые технологии! Вот тогда заживем. Властелин Колец театральная версия в 4к будет мегабайт весить, а на рыксах 580 можно будет протеины для вечной капсулы считать...
Аноним 16/02/25 Вск 22:20:55 #321 №316664396 
Что это, архиватор Бабушкина? Мне вернули мой 2007? Я сплю?
Аноним 16/02/25 Вск 22:21:48 #322 №316664431 
17396276584360.mp4
>>316647256


>спрошу у нейросетки бред у тебя или нет

А своей головы у тебя нет, таракан ебаный?
Аноним 16/02/25 Вск 22:22:06 #323 №316664437 
catsaint.webm
>>316663645
Чет не врубаюсь 16 пар чего?
Битов? Байтов?
Аноним 16/02/25 Вск 22:22:10 #324 №316664439 
babushkinogurec.jpg
babushkinRuki-arhivatory.jpg
babushkinalg.jpg
Petrosyanbabushkjin.jpg
>>316663789
>>316664396
Аноним 16/02/25 Вск 22:22:14 #325 №316664443 
Примеры сжатия будут?
Аноним 16/02/25 Вск 22:23:17 #326 №316664481 
>>316664437
16 пар днк.
Аноним 16/02/25 Вск 22:23:58 #327 №316664508 
>>316664443>>316664439

Анус ставишь что не смогу сжать "файл 1.11 ГБ до 61 килобайта! Стандартными средствами Шиндошс. Распаковка и сжатие за пару секунд на среднем процессоре (5700x)"? Тольк опо-честному, если проигрываешь - фото ануса с супом в тред кидаешь.
Аноним 16/02/25 Вск 22:25:21 #328 №316664565 
>>316664508
Ну так скидывай пример.
Аноним 16/02/25 Вск 22:26:29 #329 №316664606 
>>316664565
Нет, сначала анус ставь. Если поставишь - могу даже на твоем компе сжать, скажу какой алгоритм.
Аноним 16/02/25 Вск 22:27:05 #330 №316664626 
>>316664508
>файл 1.11 ГБ
В котором пара сплошных рядов единиц и нулей?
Аноним 16/02/25 Вск 22:27:09 #331 №316664630 
17395482448250.webm
>>316647681
Сука, умри.
Аноним 16/02/25 Вск 22:27:18 #332 №316664636 
>>316664437
Байт это два значения ноль или один уже сказали же.
Значит два байта это 4 значения.
Аноним 16/02/25 Вск 22:27:45 #333 №316664652 
>>316663645
Ну хз, слишком тупой и ленивый чтоб читать про многоуровневые словари куда помещается все включая дерево на котором сидит хитман с н-полной писькой в руке
Может потом почитаю
Но удачи че, я кайфану если взлетит и двачеру дадут нобелевку
Аноним 16/02/25 Вск 22:30:02 #334 №316664722 
008.jpg
>>316647681
>телефоны будут в 50 тысяч раз быстрее
Аноним 16/02/25 Вск 22:30:11 #335 №316664730 
>>316647962
Сукп, чтоб тебе большой энциклопедический словарь в жопу сунули, все тома разом. И желательно плашмя.
Аноним 16/02/25 Вск 22:30:27 #336 №316664736 
>>316664652
Да уже выяснили, что всё её сжатие заключается в том, что она перепутала бит с байтом.
Аноним 16/02/25 Вск 22:31:37 #337 №316664782 
>>316647962
Чтоб тебя вареным говном из кетайской канализации накормили.
Аноним 16/02/25 Вск 22:35:05 #338 №316664890 
332234.jpg
343243.jpg
443344.jpg
>>316662751
минимальный размер кластера во всех системах это 5кб те 5 тысяч знаков.

но если ты хочешь игратся не с блоками а единицами то вот тебе пример степеней обратимых
Аноним 16/02/25 Вск 22:35:09 #339 №316664893 
>>316648083
Нарыгал тебе за шиворот, пидарас.
Аноним 16/02/25 Вск 22:37:16 #340 №316664962 
>>316663080
>Нихуя себе.
как была запрогана первая цифровая клавиатура и драйвер для неё если клавиатур не было? сидят значит деды такие, схемку пайку делают, да перфо карты набивают, драйвер для цифровой мышки и клавы мутят.
Аноним 16/02/25 Вск 22:38:06 #341 №316665000 
>>316648298
Чтоб ты своим словарем подавился, мразь. Чтоб тебе им по ебалу наебошили, гнида.
Аноним 16/02/25 Вск 22:39:21 #342 №316665055 
>>316664962
Причем тут ДНК и клавиатура, шиз? Нахуй ты с темы на тему прыгаешь?
Аноним 16/02/25 Вск 22:39:46 #343 №316665076 
1360340334364.jpg
>минимальный размер кластера во всех системах это 5кб
Аноним 16/02/25 Вск 22:40:21 #344 №316665100 
>>316663645
>В один лес влазит больше одного дерева, понимаешь...

всё человечество это дубликат двух обезьян, ну или адама и евы.
мы все дубликаты наших предков

ведь не даром в майнкрафте было сказано, ничто не истино, всё дозволенпхо
Аноним 16/02/25 Вск 22:40:51 #345 №316665116 
>>316665055
Её когда к стенке припирают она всегда так делают.
Щас ещё туману напустит скажет типа "не все секреты простым смертным рассказывают............. . ... .... . .. ." (секреты уровня сколько бит в байте)
Аноним 16/02/25 Вск 22:42:10 #346 №316665167 
17087934532471.webm
>>316648475
Сука, аминазин в палату, быстро. Мы его теряем...
Аноним 16/02/25 Вск 22:42:58 #347 №316665199 
>>316664508
Щя я 100тб на изи запакую ток это спарс файл кек
Аноним OP 16/02/25 Вск 22:42:58 #348 №316665200 
image860201161905393014005.gif
c4ae9df6ba76f0808bbb965c6c6346d4.gif
1122.mp4
>>316663973
Аноним 16/02/25 Вск 22:44:54 #349 №316665270 
1373136122349.jpg
>>316664565
>>316664626
>>316664890
https://transfiles.ru/voymb
Держите, пацаны. 11 гигов в 610 килобайт влезло.
Аноним 16/02/25 Вск 22:45:35 #350 №316665300 
scale1200.jpg
>>316665100
Шиз с 9 классами образования не слышал про мутации.
Аноним 16/02/25 Вск 22:45:55 #351 №316665319 
>>316665199
Ну давай, запакуй, пиздобол ебаный.
Аноним 16/02/25 Вск 22:46:55 #352 №316665353 
14335912346280.png
>>316665100
>не даром в майнкрафте было сказано
Аноним 16/02/25 Вск 22:47:22 #353 №316665364 
>>316643851 (OP)
А чего рабочий стол пустой? Это точно твой компьютер?
Аноним 16/02/25 Вск 22:49:05 #354 №316665420 
17374562682730.mp4
>>316649181
Сожми мне войну и мир с помощью словаря русского языка. Позязя.
Аноним 16/02/25 Вск 22:49:33 #355 №316665435 
>>316665364
Так она сжала все ярлыки.
Аноним 16/02/25 Вск 22:49:45 #356 №316665440 
17374547812180.mp4
>>316649387
>Было бы тут даже 10 таких постеров

То мы бы поняли что в дурку анторнет провели.
sage[mailto:sage] Аноним 16/02/25 Вск 22:50:06 #357 №316665453 
>>316643851 (OP)
Опять шизло на связь выходит.
Аноним 16/02/25 Вск 22:50:41 #358 №316665475 
14437499443070.png
У меня был друг, Дима, такой же шиз как ОП, тоже с двача (двач умер блять) осенью ркн-совершил нахуй, печально. Это хорошие ребята, но им нихуя не объяснишь, это как вера, фанатизм такой у них в голове.
Аноним 16/02/25 Вск 22:51:31 #359 №316665512 
>>316665440
Хуй знает че хуже - ОП, который явно душевнобольной или блядь просто типичные мочехлёбные кретины с 1 извилиной, которые нихуя ни в чём не понимают и такие ООО ДА ЧЕТО В ЭТОМ ЕСТЬ ТАК УМНО И ЗАГАДОЧНО ЗВУЧИТ.
Пиздец просто.
Аноним 16/02/25 Вск 22:51:46 #360 №316665520 
17338576357040.webm
>>316649748
Она только с антивирусом Дедушкина, епт.
Аноним 16/02/25 Вск 22:52:28 #361 №316665556 
>>316665475
Я очень надеюсь, что ОПу не надоест и что ей родители не выпишут таблетки, потому что меня изрядно развлекает.
Аноним 16/02/25 Вск 22:52:58 #362 №316665564 
>>316665420
Сжал войну и мир с помощью азбуки.
|треад.
могу сжать всю музыку мира до семи нот, кста. Ннада?
Аноним 16/02/25 Вск 22:54:39 #363 №316665625 
>>316649852
Не говори.

Насекомые, сами жодуматься не могут где их ебут.

Тупое жвачное дебильное стадо.
Аноним 16/02/25 Вск 22:55:59 #364 №316665678 
17177347060770.jpg
>>316665200
Я нихуя не понял, что происходит на видео. Исходный файл получает другой формат такого же размера, зачем-то создается архив с сконвертированным файлом, а потом исходный файл конвертируется обратно в старый формат? В чем смысл этих действий?
Аноним 16/02/25 Вск 22:56:53 #365 №316665707 
>>316665420
С помощью словаря русского языка не выйдет. Догадаешься сам почему?
Аноним 16/02/25 Вск 22:56:59 #366 №316665714 
>>316665678
Код писала нейронка, которая заменит программистов, по запросу шизофреника. Вопросы?
Аноним 16/02/25 Вск 23:00:46 #367 №316665842 
>>316665714
А где обещанное вечное сжатие-то? Где вообще какое-то иное сжатие, кроме через старый добрый винрар? Что за наебка?
Аноним 16/02/25 Вск 23:02:19 #368 №316665894 
>>316665842
Ишь че захотел, может тебе сразу нобелевку принести?
Думаешь большие фирмы хотят для тебя свои секреты раскрывать?
Аноним 16/02/25 Вск 23:02:48 #369 №316665914 
>>316665842
Брат, вот где сжатие -->>316665270
Аноним 16/02/25 Вск 23:05:25 #370 №316666021 
>>316665678
>Исходный файл получает другой формат такого же размера,

Если поместить его в рар или зип он будет в 10 раз меньше

Архив можно сжимать по новой.

Прикол в том, что бы скомпилировать в C++ в ИДЕ визуал студио на 30 гигов нету зависимостей от злиб, 7зип и вин рара. поэтому рекурсию не прикрутить
Аноним 16/02/25 Вск 23:05:26 #371 №316666022 
>>316657417
Сука ебало тебе долотом сбрутил
Аноним 16/02/25 Вск 23:07:43 #372 №316666112 
>>316666021
Готов купить твою разработку, давай свой тг
Аноним 16/02/25 Вск 23:08:59 #373 №316666158 
image.png
Вот вы на ОПа гоните, а ответьте, почему Слоота УБИЛИ за день до сделки по продаже его кодирующей системы? И не пиздите, что сам умер, прям за день до сделки, ага-ага.
Аноним 16/02/25 Вск 23:10:32 #374 №316666239 
TychoBlackRage.webp
>>316666021
Так чучело на ОПе и не сжимает архив, оно зачем-то два не связанных процесса делает. Один конвертирует файл в другой формат, создает при этом файл в 6-7 раз больше, и разконвертирует обратно. Другой процесс это тупо сжатие винраром. Что это за демонстрация уровня /b/ сейчас была?
Аноним 16/02/25 Вск 23:12:24 #375 №316666310 
>>316662373
А Дедушкина есть?
Аноним 16/02/25 Вск 23:12:33 #376 №316666318 
17043053510603.webm
Что такое сжатие то, объясните?
Аноним 16/02/25 Вск 23:13:10 #377 №316666347 
Так, а ответьте ка мне серьёзно уже кто-нибудь. Почему энтропия данных высчитывается только по частоте символов, а не, например, ещё и по их расположению относительно друг друга, по крайней мере для некоторых данных типа картинок и т. п.? А то если считать по определению Шеннона, то белый шум из 12-битных цветов будет менее энтропичным, чем вменяемая картинка из 24-битных цветов (я именно на таком примере проверял сам). Мне кажется просто, что что-то с определением энтропии Шеннона не так, не особо универсально оно.
Аноним 16/02/25 Вск 23:14:18 #378 №316666382 
17374547812180.mp4
>>316663973
Блять, еще один дурачок попался...
Аноним 16/02/25 Вск 23:14:24 #379 №316666385 
>>316666158
понял, что пустышку с потенциалом у него не купят, что на демонстрации его ожидает ужасный позор и замутил мистификацию, чтобы запомниться непризнанным гением
/тхреад
Аноним 16/02/25 Вск 23:18:51 #380 №316666572 
17381642312451.mp4
>>316665707
Да
Аноним 16/02/25 Вск 23:21:55 #381 №316666745 
17395420829181.mp4
>>316665512
Меня больше забавляют хуесосы, которые бегут к нейросетке с вопросом почему дважды два равно пять это наебка.

Вот так они суки и разучатся думать, и пойдут строем в бараки швабраклауса кузнечиков жрать и кайлом 3 куба гранита в день хуярить, швабраклаусу на мавзолей.
Аноним 16/02/25 Вск 23:22:53 #382 №316666779 
>>316666382
Терпи
Аноним 16/02/25 Вск 23:22:58 #383 №316666784 
17384443486140.mp4
>>316665914
Сжатие хуя плоскогубцами
Аноним OP 16/02/25 Вск 23:23:07 #384 №316666790 
Inf ARCH 2.mp4
Второй обзор. Задаём вопросы

1) словарь не будет больше 60 гб. словарь универсальный на все комбинаии и на всегда
2) текущая производительность 100кб сек.
3) сжимать файлы можно рекурсивно до 600 байт
Аноним 16/02/25 Вск 23:23:49 #385 №316666809 
17311149178940.mp4
>>316666021
Прикол в том что аминазин по тебе плачет
Аноним 16/02/25 Вск 23:24:25 #386 №316666830 
>>316666790
>Второй обзор
Поясни за первый, что за хуйня у тебя там происходит?
Аноним 16/02/25 Вск 23:24:30 #387 №316666833 
>>316666790
ОП, сожми вот этот файл и сделай видео:
https://limewire.com/?referrer=48k1433kko
Аноним 16/02/25 Вск 23:24:47 #388 №316666847 
>>316666779
Защеку тебе.
Аноним 16/02/25 Вск 23:26:55 #389 №316666924 
>>316666847
Моя щека - это твоя щека, мы оба анонимы
Аноним 16/02/25 Вск 23:27:30 #390 №316666945 
>>316666790
Да ты хуйню показываешь, нет смысла сжимать такое мелкое говно по пять мегабай. Сожми фильм на 20-30 гигов, покажи какой будет конечный размер, сколько времени займет сжатие, сколько времени займет распаковка, может он и нахуй не нужен твой архиватор ебаный, может он сжимать-разжимать шесть часов будет, я скачаю оригинальный файл быстрее.
Аноним 16/02/25 Вск 23:28:32 #391 №316666984 
>>316665199
Пидор, где твой файл на 100 тб, защекан пиздливый?
Аноним 16/02/25 Вск 23:29:08 #392 №316667013 
Разве сжатие байтов в биты это не про общую алгебру?
Аноним 16/02/25 Вск 23:29:10 #393 №316667015 
>>316666924
И сжаты мы по одному словарю... словарю Ожегова блеать...
Аноним OP 16/02/25 Вск 23:29:26 #394 №316667027 
4543444.jpg
5befa25aaaab2851d23e5f13.jpg
>>316666385
>понял, что пустышку с потенциалом у него не купят, что на демонстрации

Я, как тян, математически при их и своих юристах и их кодерах доказала, и показала мат формулу они нарушили договор, они не выполнили требование и не дали 400к$ - нвидия кидалы. они хотели меня кинуть ещё раз, что бы показала программу. рабочую эту.

Метод слишком простой, что бы все поняли, но слишком опасный что бы моя команда его защищала публично в одиночку. 15 человек о нём в мире знают, 5 крупных хостеров его используют. Это топ 5 IT компабний. ( майки, эпол, гугл ) Но они строят шизу, что этого метода нет, и что вечного сжатия и рекурсии вычислений и памяти нет.

логично, что с помощью этой оптимизации, я бы могла и моя команда иметь миллионы и миллиарды, но у меня в жизни и так всё есть, и гнилые империи под управлением стариков идиотов мне не к чему.

LPU считали невозможным. знайте, всё есть повторение 60 гб словаря.
Аноним 16/02/25 Вск 23:29:34 #395 №316667033 
Разве сжатие байтов в биты это не про общую алгебру?
sage[mailto:sage] Аноним 16/02/25 Вск 23:31:04 #396 №316667083 
>>316643851 (OP)
Размер индекса = размеру индексируемых данных. Долбоебский шиз. Поясни ка за эту хуйню.

2 бита информации это 4 возможных значения. Помещаем их в словарь, ок. Какого размера нужен индекс в словаре чтоб указывать минимум на 4 разных значения. Внезапно, тоже 2 бита. Ну и хули ты сжал? Ни-ху-я. Только еще и словарь в нагрузку получил. И хоть блядь 100500 уровней сделай этих словарей. К тебя всегда размер индекса такой же как и индексируемых данных.

Сажа и /thread
Аноним 16/02/25 Вск 23:32:04 #397 №316667127 
image.png
image.png
>>316666984
Виндовый тар не умеет в спарсовость к сожалению. Сам пидор кстати
Аноним 16/02/25 Вск 23:32:22 #398 №316667141 
>>316667083
А если вместо индекса будем использовать вектор на матрице?
Аноним 16/02/25 Вск 23:32:44 #399 №316667155 
17257919368080.mp4
>>316667027
Ты блять шизло а не тян.
Аноним 16/02/25 Вск 23:33:09 #400 №316667169 
>>316666790
>>316666830
И во втором такая же хуйня, шиз тупо меняет формат файла с помощью специально сделанной микропрограмки, сжимает его, а потом разжимает и конвертирует в исходный формат взад. В чем изобретение-то заключается, я спрашиваю?
Аноним 16/02/25 Вск 23:33:09 #401 №316667170 
>>316667083
Ты че, пидор, у нее эпл и гугл алгоритм юзают, не веришь что ли, петух дырявый? Это тян, она слово дала бля.
Аноним 16/02/25 Вск 23:33:47 #402 №316667186 
>>316667141
Это одно и то же.
Принцип голубей в ящике блядь почитай, это элементарно.
Аноним 16/02/25 Вск 23:33:58 #403 №316667196 
>>316667127
Значит ты пиздобол ебаный, а кто пиздит - тот пидорас.
Аноним 16/02/25 Вск 23:34:16 #404 №316667201 
Что думаете о не ассоциативном сжатии?
Аноним 16/02/25 Вск 23:34:26 #405 №316667211 
>>316643851 (OP)
А что так мало, всего 400 постов? Давайте покормим ещё этого шиза, нам же не трудно потратить на него несколько часов жизни
Аноним 16/02/25 Вск 23:35:48 #406 №316667256 
>>316667196
Ты шутки не понял
https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D0%B7%D1%80%D0%B5%D0%B6%D1%91%D0%BD%D0%BD%D1%8B%D0%B9_%D1%84%D0%B0%D0%B9%D0%BB
Аноним 16/02/25 Вск 23:36:25 #407 №316667275 
>>316667027
>я бы могла и моя команда иметь миллионы и миллиарды, но у меня в жизни и так всё есть
скинешь тысячу рублей мне на кошелёк? для меня это деньги, неделя питания
Аноним 16/02/25 Вск 23:37:19 #408 №316667317 
17395482448250.webm
>>316667211
Я лично сюда поорать зашел)

И с вас всех заодно. Я и есть оп)
Аноним 16/02/25 Вск 23:37:34 #409 №316667329 
>>316667169
Я пытаюсь этот код понять.
Аноним 16/02/25 Вск 23:39:36 #410 №316667399 
>>316667329
Кто "я"? ОП? Ты не можешь код понять, по которому файл формат меняет и обратно, который тебе чат гопоты нагенерил?
Аноним 16/02/25 Вск 23:40:02 #411 №316667410 
>>316643851 (OP)
Чувак, попробуй с chatgpt в шахматы сыграть, и поймешь, чего стоит твой машинописный проект
Аноним 16/02/25 Вск 23:40:45 #412 №316667433 
>>316667399
Нет, я фанат творчества ОПа и мне интересно стало че ему там чат нагенерил.
Аноним 16/02/25 Вск 23:41:13 #413 №316667444 
>>316667186
Нет, это другое по закону тождества.
Аноним 16/02/25 Вск 23:41:51 #414 №316667459 
>>316643851 (OP)
Оп, ты еще тут? Выкладывай блять код на гитхабе, заебал, сейчас гляну ебана рот нахуй что ты там понаписал и высру свое мнение. Надеюсь ты еще тут нахуй
Аноним 16/02/25 Вск 23:42:04 #415 №316667466 
>>316667169
>В чем изобретение-то заключается, я спрашиваю?
В прогреве богатых гоев, сперва изображать аскета-Перельмана, потом "поддаться" на уговоры инвесторов дать ему деняк. Как варик.
Аноним 16/02/25 Вск 23:43:06 #416 №316667492 
>>316643949
Проблема в том, что тебе постоянно нужно будет что-то более жесткое, пока ты не упрешься в лимит порно. Это будет ад.
Аноним 16/02/25 Вск 23:43:13 #417 №316667501 
>>316667433
Я пока что вижу там по итогу злиб сжамает, лол.
Аноним 16/02/25 Вск 23:43:25 #418 №316667509 
>>316667466
Я уже готов дать деняк, но оп не хочет оставлять контакты
sage[mailto:sage] Аноним 16/02/25 Вск 23:44:32 #419 №316667549 
>>316667170
>это тян
У тян конечно меньше размер мозга и аналитическое мышление развито слабее. Но не на столько же лол
Не, там просто шиз, у которого видимо некоторые отделы головного мозга бесконечно сжались.
Аноним 16/02/25 Вск 23:47:04 #420 №316667621 
>>316667509
Ишь разбежался, это как если бы сиськостримерша дала своему первому зрителю за донат в 100 рублей. Сперва надо популярной стать, цену себе набить, потом уже устраивать аукцион на сигну
Аноним 16/02/25 Вск 23:47:48 #421 №316667643 
image.png
Что думаете о не ассоциативном сжатии байтов как о алгебраических свойствах композиций?
Аноним 16/02/25 Вск 23:48:07 #422 №316667652 
>>316647535
>То есть теперь 40 гигов достаточно чтобы оцифровать всю инфу на земле? А гугол то не знает, блять.
Может и знает. Рассказал бы он всем, если бы знал?
Сейчас вот возьмёт и закроется нахуй со своими миллиардами, потому что надо добро сделать людям))))
Аноним 16/02/25 Вск 23:51:12 #423 №316667775 
>>316643851 (OP)
Пиздец, оп, там тупо zlib compress-decompress. Тебе нейронка нагенерировала код который - да, создает словарь, да, делает кучу телодвижений с numpy, но все сжатие-разжатие это тупо zlib строки, он даже словарь не использует. Словарь там просто как мертвый груз который есть просто чтобы был, как и 99% кода
Мне даже немного жаль, хотя идея у тебя интересная так то, структурировал бы ты ее получше
Аноним 16/02/25 Вск 23:52:55 #424 №316667826 
>>316667775
>хотя идея у тебя интересная так то
У неё идея пронумеровать каждое 32 бит число тем же самым 32 бит числом и называть это сжатием.
Аноним 16/02/25 Вск 23:53:27 #425 №316667844 
>>316652590
>Давай я тебе 15 баксов скину и сделаешь вайпалку двача которая сама будет вайпать с телефона / компа и сама решать капчу.
А я капчу не решаю вообще
Сижу с взломанного ichan
В чём я не прав?
Аноним OP 16/02/25 Вск 23:54:55 #426 №316667891 
inf 3.mp4
>>316666945
Тут. 1.5 мб в 4 кб. словарь вырос на 10мб. но после 60 гб он перестанет расти.
Аноним 16/02/25 Вск 23:56:13 #427 №316667952 
image.png
>>316667891
Аноним 16/02/25 Вск 23:56:30 #428 №316667957 
>>316667891
Злиб из кода убери, подруга.
Аноним 16/02/25 Вск 23:57:14 #429 №316667981 
>>316667652
>>То есть теперь 40 гигов достаточно чтобы оцифровать всю инфу на земле? А гугол то не знает, блять.

у них есть алгоритм вечного сжатия как у меня, просто у них свернулся план американской глобализации но план геноцида.

яндекс браузер имеет переводчик на все языки вслух, и все видео ютуба он перевёл. у гугла в их же хроме нету языкового переводчика с нейросетями те только текст
Аноним 16/02/25 Вск 23:59:03 #430 №316668052 
Кстати, оп, можешь оставить контакты? Хоть какие нибудь? В идеале писал бы ты на гите и я там бы напрямую что нибудь оставил бы если что, тот же пулл реквест или тряпку моченную иссуй. Завтра планирую к вечеру всерьез посмотреть что там у тебя и поднять это хрень, может чего и натыкаю, и у тебя рил бесконечное сжатие
Хотя все равно странно, ведь на то чтобы хранить указатель на объект в настолько большом словаре для каждого бита, тебе нужно в лучшем случае столько же бит, сколько число и занимает само по себе
Аноним 17/02/25 Пнд 00:00:02 #431 №316668095 
>>316668052
Я сейчас этот код смотрю там каша ебовейшая, как будто нейронка насренькала.
Аноним 17/02/25 Пнд 00:01:00 #432 №316668129 
17385910102330.mp4
>>316667981
>план американской глобализации но план геноцида
Аноним 17/02/25 Пнд 00:02:33 #433 №316668164 
>>316668095
Так он же и написал что там нейронка насрала. Но сама теория интересная, если эта хрень может хотя бы сделать из одной строки другую, которая легче сжимается, даже тем же zlib, то уже можно смотреть что да как. Или в целом привести код в порядок и понять что нейронка его наебала
Аноним 17/02/25 Пнд 00:02:46 #434 №316668172 
Докажи, что 2 * 2 не равно 5.
Аноним 17/02/25 Пнд 00:03:51 #435 №316668208 
>>316668172
2*2=2.

Следовательно их произведение не равно 5.
Аноним 17/02/25 Пнд 00:04:03 #436 №316668215 
>>316667891
Почему твои .ctxt такого же размера, как и оригинальный файл? Где сжатие-то?
Аноним 17/02/25 Пнд 00:04:50 #437 №316668230 
>>316667981
>яндекс браузер имеет переводчик на все языки вслух, и все видео ютуба он перевёл
чушь, у него есть какой-то кэш для трендовых видосов, но если запускаешь что-то новое или непопулярное, он требует время на обработку
у прямых эфиров дилей перевода в 30сек - 1 минуту
Аноним 17/02/25 Пнд 00:04:50 #438 №316668231 
Бамп
Аноним 17/02/25 Пнд 00:05:42 #439 №316668257 
>>316668208
Ещё раз, при умножении 2 2 при аргументе стремящемся к бесконечности, мы будем иметь, что 2 2 будет стремиться к 5.
Аноним 17/02/25 Пнд 00:06:38 #440 №316668281 
>>316668257
Ты вообще про что?
Аноним OP 17/02/25 Пнд 00:07:03 #441 №316668291 
>>316667083
>>316667083
Индекс имеет 4 индекса вложенности в итоге 32 бита кодируют все 128 бит. Как? код и метод выше.

Простой пример. Имея две одинаковые книги. Можно не пересылать страницы, а говорить только номер.

так вот, метод генерирует сами страницы и книги

таким образом сжатие в 5-10 раз. за 1 цикл.
Циклы можно повторять до 800 бит.
если разлодить RAM и CPU на 60 гигов словарей то будет рекурсия без вычислений, лучше напомни сколько в X86 запрогано словарей в мб.
Аноним 17/02/25 Пнд 00:08:08 #442 №316668317 
>>316668281
Вот они ваши "интеллектуалы" и "не шизофреники". Когда хоть малейший намёк на неудобную информацию, они сразу уходят в игнор и якобы непонимание. Агенты лженауки.
Аноним OP 17/02/25 Пнд 00:08:22 #443 №316668327 
>>316668215
окей давай попробуем сжатую папку NTFS.
Аноним 17/02/25 Пнд 00:08:55 #444 №316668346 
17397397132169704.jpg
>>316667952
>>>316667891
Ты ему упрости задачу
Так будет проще
Аноним 17/02/25 Пнд 00:09:49 #445 №316668373 
Чё творится то нахуй.png
>>316668164
Я знаю, что она писала, это шутка такая.
Первые находки анализа кода.
Аноним 17/02/25 Пнд 00:11:08 #446 №316668413 
>создали сжатие-тред в полдень
Блядь, опять всё проспал.
Аноним 17/02/25 Пнд 00:13:47 #447 №316668501 
Несчастная нейронка пыталась написать обычный словарь с хэш таблицей, представляю как она тряслась нахуй.
Аноним OP 17/02/25 Пнд 00:14:46 #448 №316668537 
inf4.mp4
>>316668215
почему файлы весят столько же ?что бы был понятен метод разложения 4 уровневого индекса. Я могу добавить 5 уровень, тогда словари будут не 60 гб а 100гб но ссылок можно сделать ограничить до 10 млрд на 5 уровне потом на 4.

на 5 уровне файл в виде ссылок будет 30 кб вместо 1мб.

вин рар 7 зим и злиб имеют свои словари и лучше сжимают чем сжатая папка NTFS
Аноним 17/02/25 Пнд 00:15:33 #449 №316668556 
Эх, много таких по весне оттаивает... У меня мамка в ПНД работала раньше, частенько рассказывала про таких вот изобретателей вечных двигателей. Бред изобретательства достаточно распространён, и всегда эти изобретатели строят сложнейшие теории, базируясь на детсадовских ошибках в логике или мышлении.
Аноним 17/02/25 Пнд 00:15:38 #450 №316668558 
>>316668537
ZLIB из кода убери он всё сжатие делает у тебя.
Аноним 17/02/25 Пнд 00:20:33 #451 №316668700 
Если бы я изобрел имба технологию, то вряд на двач бы ее постил и местным обезьянам, думающим что американцы были не Луне, что-то еще доказывал. Логический вывод - тред пиздёж
Парируйте
Аноним OP 17/02/25 Пнд 00:20:37 #452 №316668701 
>>316668501
Существует заговор шизофрении.

За деньги целый год прогеры не хотели прогать вечный словарь. Словно великая тайна за этим стоит.

Поэтому, Я, как Тян, долбила ИИ запросы. и только месяц на питоне была готова программа. все считали это невозможным
Аноним 17/02/25 Пнд 00:21:23 #453 №316668714 
>>316668700
Парирую тебе за щеку. Парируй.
Аноним 17/02/25 Пнд 00:22:18 #454 №316668739 
>>316668701
Ты могла за месяц питон выучить уже, ты же всё равно ниче не делаешь особо целыми днями.
Аноним OP 17/02/25 Пнд 00:22:41 #455 №316668750 
>>316668558
зачем? он сжимает и словарь и файл. что бы по новой рар его смог. в рекурсии. ты ещё не понял о чём метод?Это словарь всех сжатых состояний в сыром виде словарь бы занимал 144гб постоянных
Аноним 17/02/25 Пнд 00:23:24 #456 №316668767 
>>316668739
Так ты за неделю мог бы аниме нарисовать. Почему не научился? ты годами особо ничего не делаешь
Аноним 17/02/25 Пнд 00:23:31 #457 №316668771 
>>316668701
Жду пруф сжатием 150гб игры, пруфы то будут?
Аноним 17/02/25 Пнд 00:24:21 #458 №316668789 
>>316668537
>Я не обосрался, это я показываю, как кролик из шляпы вылезать будет
Ясно.
Аноним 17/02/25 Пнд 00:24:31 #459 №316668791 
confused-john-travolta.gif
>>316668701
>За деньги целый год прогеры не хотели прогать вечный словарь.
Бажное ТЗ не запрограммируешь и за 100 лет с безлимитным бюджетом. Но можно его отдать маркетологам, и тогда уже на второй бете у тебя как бы будет результат.
Аноним 17/02/25 Пнд 00:24:46 #460 №316668802 
>>316668767
>ты годами особо ничего не делаешь
Ну во-первых я как минимум выучил питон.
Во-вторых аниме за неделю не нарисует никто.
В-третьих аниме я тоже умею рисовать.
Твоё le еблейшен в этой ситуации?
Аноним 17/02/25 Пнд 00:25:43 #461 №316668832 
png file (2).png
Какие вообще есть пруфы, что после 64 гигабайт универсальный словарь перестанет расти? Это же натуральная шиза, ебанушка сам это придумал и поверил в это. Он не перестанет расти, и для архивации 100 гигабайт до 1 гигабайта потребуется словарь 200+ гигабайт.
Аноним 17/02/25 Пнд 00:26:10 #462 №316668847 
>>316668556
>про таких вот изобретателей вечных двигателей.

Река и гидроплотина вечный двигатель, рентабельность выше затрат, река течет миллионы лет.

в чём траблы? а точн, все психушки созданы, что бы родствеников байдена, медвепута, трампа, маска туда, что бы не говорили что министр печатает бабло в подвале цб, а мигрантов рхяботать заставляет, все ресурсы рентабельны, всё есть для всех - но как видишь не для всех и все люди не одного сорта.

что не так?
Аноним 17/02/25 Пнд 00:26:14 #463 №316668850 
>>316668537
Что за хуета на видео
Аноним 17/02/25 Пнд 00:26:52 #464 №316668870 
>>316668373
Потому что эту хуйню нейронка писала фулл, оп даже синтаксис не знает
Аноним 17/02/25 Пнд 00:27:22 #465 №316668883 
Это же настоящая шиза, так умело уходить от ответов и из разу в раз повторять одно и тоже троль бы не смог. Это физически больно читать.
Аноним 17/02/25 Пнд 00:28:01 #466 №316668895 
>>316668883
Поясните базу по треду и форсу, лень читать
Аноним 17/02/25 Пнд 00:28:08 #467 №316668896 
>>316668750
Ой да да начался пиздёж. Твоя программа пакует файл с помощью ЗЛИБ, плюс какает помойными данными и на том всё.
Аноним 17/02/25 Пнд 00:28:12 #468 №316668898 
>>316668832
окей сколько будут весить комбинации на 3 уровне?

Уровень 2: 65 536 пар 8 байт/пара = 512 КБ

Уровень 3: 4 294 967 296 пар 8 байт/пара = ~ 34 ГБ

Гопота, клауди говорили что 40 гб, потом 60 гб потом 80 потом 144гб потом опять 45 гб.

Где правда?
Аноним 17/02/25 Пнд 00:28:17 #469 №316668899 
Секунду, а если отвечает тоже нейронка
Аноним 17/02/25 Пнд 00:28:44 #470 №316668908 
Почему еще нету статьи на какой нибудт вики о форсе?
Аноним 17/02/25 Пнд 00:29:25 #471 №316668928 
>>316668832
Ну так проаерьте
Аноним 17/02/25 Пнд 00:29:47 #472 №316668943 
>>316668832
>Какие вообще есть пруфы, что после 64 гигабайт универсальный словарь перестанет расти?
У изобретателя кончились аппаратные ресурсы. Значит - точно перестанет.
Аноним 17/02/25 Пнд 00:29:56 #473 №316668946 
>>316668832
Ещё больший прикол в том, что ключи к этому словарю будут длиннее, чем данные, которые они заменяют. Получится скорее раздуватор, чем архиватор.
Аноним 17/02/25 Пнд 00:31:03 #474 №316668977 
>>316668895
Золота медалистка по математике узнала про метод вечного сжатия Яна Слоота, но он умер до анонса технологии

поэтому в рамках независимого расследования, за год долбёжки ИИ была создана прога на питона, но кто же знал что питон не копилиируемый язык и работает в 40 раз медленнее компилированнного С++ в EXE
Аноним 17/02/25 Пнд 00:31:26 #475 №316668989 
>>316647962
>вся инфа в мире это 60 гб. всё остальное это дубликаты этих 60 гб в разных частотных порядках
"разные частотные порядки" тоже надо как-то обрабатывать и запоминать
но оп предложит их сжать этим же рекурсивным механизмом словарей (который, внезапно, не закончен, и потом потребуется очередной костыль с заплаткой из того же механизма, и так до бесконечности)
Аноним 17/02/25 Пнд 00:31:26 #476 №316668990 
articlemainAvengers2titulka11.jpg
>>316668847
>Река и гидроплотина вечный двигатель

Интересный вопрос! На самом деле, термин "вечный двигатель" обычно относится к гипотетическим машинам, которые могут работать бесконечно без внешнего источника энергии, что противоречит законам термодинамики. Река и гидроплотина не являются вечными двигателями в этом смысле, но у них есть свои особенности:

1. Постоянный поток: Река действительно имеет постоянный поток воды, который можно использовать для генерации электроэнергии. Это делает гидроплотины надежным источником возобновляемой энергии.

2. Зависимость от природных факторов: Однако работа гидроплотин зависит от уровня воды в реках, который может меняться из-за климатических изменений, засух или других факторов. Это означает, что, хотя река может течь долго, ее способность производить электроэнергию не является бесконечной.

3. Экологические ограничения: Как уже упоминалось, гидроплотины могут негативно влиять на экосистемы, что также может ограничивать их эксплуатацию.

Таким образом, хотя река и гидроплотина могут обеспечивать стабильный источник энергии, их нельзя считать вечными двигателями в строгом смысле этого слова. Они требуют управления и учета экологических факторов для обеспечения устойчивости. 🌊⚡️
Аноним 17/02/25 Пнд 00:31:28 #477 №316668991 
>>316668750
Сожми этот файл.
>>316666833
Смотри какой номер поста красивый. А то я щас у себя сожму блядь.
Аноним 17/02/25 Пнд 00:31:39 #478 №316668996 
>>316668899
2025 год, нейронка, косящая под унылого шизофреника, создаёт тред на харкаче. Тред уходит в бамплимит. Как мы вообще до такого дошли?
Аноним 17/02/25 Пнд 00:31:46 #479 №316668998 
>>316663163
Приведи пример
Аноним 17/02/25 Пнд 00:32:15 #480 №316669014 
17044693807893.jpg
>>316668946
Это заговор с двойным дном. Производители носителей не гоняются за ОПом, а наоборот заплатили ему и требуют создавать треды.
sage[mailto:sage] Аноним 17/02/25 Пнд 00:32:24 #481 №316669017 
>>316643851 (OP)
1. Энтропия
2. Код говно
3. Тесты, доказывающие теоретическую базу, в программе отсутствуют
Аноним 17/02/25 Пнд 00:33:09 #482 №316669037 
image.png
>>316668895
Аноним 17/02/25 Пнд 00:33:11 #483 №316669041 
>>316668908
Статье про Бабушкина на Лурке возможно больше лет, чем тебе.
Аноним 17/02/25 Пнд 00:33:25 #484 №316669046 
>>316669014
Не стоит вскрывать эту тему...
Аноним 17/02/25 Пнд 00:33:45 #485 №316669059 
Какие конкретные патенты были зарегистрированы Ромке Ян Бернхардом Слоотом.png
Почему технология Слоота считается без вести пропавшей с 1999 года.png
Слоот, Ромке Ян Бернхард сжатие данных компилят и реальные факты демонстрации работы и патенты.png
Слоот, Ромке Ян Бернхард сжатие данных.png
>>316668946
>>316668895
Аноним 17/02/25 Пнд 00:34:13 #486 №316669079 
6128592.jpg
>>316668701
>Существует заговор шизофрении.
Банда Елькина всех шизокодеров под себя подмяла!
Аноним 17/02/25 Пнд 00:34:17 #487 №316669081 
Матрица.webm
>>316643851 (OP)
Ебать, анончик, спасибо. Смотрите, целый фильм сжал. СЛАВА НАУКЕ!
Аноним 17/02/25 Пнд 00:34:20 #488 №316669082 
>>316669014
Я вместо того, чтобы готовиться к экзамену по теории вычислений весь вечер сидел в этом треде блядь.
Аноним 17/02/25 Пнд 00:36:47 #489 №316669141 
>>316669082
За кого воевал, стесняюсь спросить? Тебе по идее ещё до сотого поста должно было стать понятно, скучно и грустно.
Аноним 17/02/25 Пнд 00:36:58 #490 №316669147 
>>316668895
>лень читать
прочти любой пост, это одно и тоже нахуй
Существует ахуенный метод сжатия. Основанный на словарях (нет,не как код Хаффмана), вот только словарь этот рекурсивный и магическим образом позволяет все 2 битные комбинации в 1 бит уместить. А потом 4 битные в 2 и так по кругу. На вопрос как алгоритм двух битные комбинации (4 комбинации ) уместить в 1 бит (2 комбинации) () высераются несколько вариантов.
1.Игнор.
2. 10=2 Происходит подмена понятий. Бинарный код и компы идут нахуй
3. Скидывается ебаные картинки и код с нейронки. Который просто библиотекой сжимает файл. И даже не разжимает его, поскольку демонстрации разжатия не было. (Этот ебанат скорее всего просто файл в буфере держит и вставляет в нужное место.)
Аноним 17/02/25 Пнд 00:37:32 #491 №316669160 
png file (62).png
>>316669059
> Нетрадиционное сжатие данных
Вот ты и попался, прозападный чушок. Отправил жалобу за пропаганду, жди наряд. Не вздумай запираться, потом придётся ещё и дверь новую ставить.
Аноним 17/02/25 Пнд 00:38:05 #492 №316669175 
>>316669141
За теорию вычислений.
Аноним 17/02/25 Пнд 00:39:16 #493 №316669206 
Помогите понять чё именно нейронка какает в словари в питон коде, а то я уже засыпаю, а пойти спать не могу.
Аноним OP 17/02/25 Пнд 00:40:34 #494 №316669226 
930.jpg
NL1009908C2.nl.rupage-0001stitch.jpg
Chip05.jpg
ChipBox.jpg
Аноним 17/02/25 Пнд 00:40:34 #495 №316669227 
>>316669206
> какает
Хорошее слово для кода на питоне. Там весь язык - продукт каканья. Отвратительный, нечитабельный, всё в куче.
Аноним 17/02/25 Пнд 00:41:23 #496 №316669246 
111 (2).jpg
цифровой код Ромке Ян Бернхард Слотов - кодирование и сжатие информации.mp4
Ян Слоот.mp4
>>316669226
Аноним 17/02/25 Пнд 00:41:43 #497 №316669255 
16976234049212.jpg
>>316669082
Смотри завтра не ляпни чё-нибудь отсюда.
Аноним 17/02/25 Пнд 00:41:53 #498 №316669258 
>>316669227
Питон классный язык, просто он блядь для этого не предназначен что с ним делают.
Аноним 17/02/25 Пнд 00:42:29 #499 №316669270 
>>316669255
А, экзамен то на следующей неделе только, но надо готовиться будет реально.
sage[mailto:sage] Аноним 17/02/25 Пнд 00:43:14 #500 №316669287 
https://patentimages.storage.googleapis.com/1a/9b/3e/9e8b26f5ca3f08/US5533051.pdf

Оп хуй все спиздил старую технологию пиндосов из 1996 года, ясно. Расходимся.
Аноним 17/02/25 Пнд 00:43:47 #501 №316669303 
>>316667492
>Проблема в том, что тебе постоянно нужно будет что-то более жесткое, пока ты не упрешься в лимит порно

Блин я хочу чтобы ученые провели многолетнее исследование до чего можно в итоге дойти если дрочить, как будут меняться фетиши и будет ли достигнут так называемый предел порно когда жестче и ебнутее просто некуда уже.
Аноним 17/02/25 Пнд 00:43:55 #502 №316669309 
image.png
>>316669226
Ааа сука мои глаза
Что это нахуй? Это гугл-транслятор так распидорасил текст?
Аноним OP 17/02/25 Пнд 00:44:33 #503 №316669320 
>>316668989
>
>но оп предложит их сжать этим же рекурсивным механизмом словарей (

питон код закончен и рабочий. его надо переписать на C++ И CUDA

моих навыков не хватило, так как нету зависимостей и не может скомпилировать в EXE

да без, злиб словари будут в 2 раза и файл тоже сжатый но рар пожмёт его снова в 3-4 раза.

ВЫ НЕ СКОМПИЛИРУЕТЕ EXE с зависимостью RAR так как в визуал студио 2022 на 50 гб IDE НЕТУ ТАКОГО
Аноним 17/02/25 Пнд 00:44:34 #504 №316669321 
>>316667492

ТЕБЕ 12 ЛЕТ, РЕШАЕШЬ ПРИКОСНУТЬСЯ КО ВСТАВШЕМУ ВО ВРЕМЯ ПРОСМОТРА ЭРОТИКИ ПО РЕН-ТВ ПОСЛЕ ПОЛУНОЧИ ПИСЮНУ, КОНЧАЕШЬ, ТЕБЕ ПРИЯТНО
@
ИНЕТА ЕЩЕ НЕТ, В ПОИСКАХ ФАП МАТЕРИАЛА ПЕРЕРЫВАЕШЬ ВСЕ СВАЛЕННЫЕ В БАНЕ НА РАЗЖИГ ГАЗЕТЫ, ИЗ НЕМНОГО НАЙДЕННЫХ СПИД-ИНФО, ЖИЗНЬ И ЭКСПРЕСС ГАЗЕТ ДОСТАЕШЬ НЕСКОЛЬКО ПИКОВ С ТОПЛЕСС ТЯН, ХОДИШЬ ПО ДРУЗЬЯМ С ДИСКОМ И КОПИРУЕШЬ У НИХ ЧТО У НИХ ЕСТЬ
@
16 ЛЕТ, ПОЯВИЛСЯ ИНЕТ. ВЫКАЧИВАЕШЬ ГИГИ ЗА ШАГИ МЕТ-АРТА, ФЕМДЖОЯ И Т.Д. ЗНАЕШЬ ВСЕ ВАРИАЦИИ, ЦВЕТА, ФОРМЫ И РАЗНОВИДНОСТИ СИСЕК, ПОЛОВЫХ ГУБ, ПЕНИСОВ, АНУСА У ЛЮДЕЙ/ЖИВОТНЫХ/КСЕНОМОРФОВ, КАЖЕТСЯ УВИДЕЛ ВСЕ
@
20 ЛЕТ, ЗАМЕЧАЕШЬ ЧТО ПРОСТО ГОЛЫЕ ТЯН УЖЕ КАК-ТО ВЯЛО ЗАВОДЯТ, СЛУЧАЙНО НАТЫКАЕШЬСЯ НА ВИДЕО, ГДЕ ТЯН БЬЮТ ПО ЖОПЕ РЕМНЕМ, ЗАВОДИШЬСЯ, ВЛИВАЕШЬСЯ В БДСМ, БРЫЗГАЕШЬ НА ФИОЛЕТОВЫЕ КАК СЛИВА ОТ УДАРОВ РЕМНЯ ЖОПЫ, ПЛАЧУЩИЕ ЛИЦА ТЯН И Т.Д.
@
22 ГОДА, БДСМ ТОЖЕ КАК-ТО УЖЕ НЕ ЗАВОДИТ,СЛУЧАЙНО НАБРЕЛ НА ВИДЕО ССУЩИХ ЯПОНОК, ЗАВОДИШЬСЯ, ВЛИВАЕШЬСЯ УЖЕ В ЗОЛОТОЙ ДОЖДЬ
@
24 ГОДА - НУ ТЫ ПОНЯЛ, ИЩЕШЬ НОВЫЙ ФЕТИШ, ЕЩЕ СТРАШНЕЕ ПРЕДЫДУЩЕГО - СТАРЫЕ ТЕТКИ, ПОТОМ И ОН ПРИЕДАЕТСЯ, ИЩЕШЬ ЕЩЕ ПОЖЕСТЧЕ - ПРОЛАПСЫ, ROSEBUDDING, ВОМИТ, ШОКОЛАДНЫЙ ГРАД, ТЫ ДЕГРАДИРУЕШЬ ХУЖЕ И ХУЖЕ
@
И ТАК 8 ЛЕТ, ЧЛЕН УЖЕ ДАВНО НЕ ВСТАЕТ САМ И ЕГО НАДО НАДРАЧИВАТЬ, А ТВОЙ ФАП МАТЕРИАЛ ВСЕ СТРАШНЕЕ И СТРАШНЕЕ, ВЫНУЖДЕН В СОВЕРШЕНСТВЕ ОСВОИТЬ ЗД-МАКС ЧТОБЫ МОДЕЛИРОВАТЬ СУЩЕСТВ И ДЕЛАТЬ С НИМИ РОЛИКИ СО СВОИМИ СЮЖЕТАМИ ДЛЯ ФАПА ИДЕАЛЬНО ПОД СЕБЯ, ТАК КАК ЛЮБОЕ ЧУЖОЕ ПОРНО УЖЕ НЕИДЕАЛЬНО. КОГДА СОХРАНЯЛ СДЕЛАННЫЙ МАТЕРИАЛ, ТО ИНОГДА ПОЯВИВЛЯЛОСЬ ОКНО С НАДПИСЬЮ "ДА ТЫ ЕБАНУЛСЯ?"
@
ТЕБЕ 32, ТЫ ДРОЧИШЬ НА ТО,ОТ ЧЕГО ОБОСРЕТСЯ В УЖАСЕ ОБИТАТЕЛЬ ДИПВЕБА, И ОТ ЧЕГО СЛОВИТ ИНФАРКТ ПРОСТОЙ ЧЕЛОВЕК. СЛОВАМИ ЭТО НЕ ОПИСАТЬ. САМ САТАНА УЗНАВ О ТЕБЕ В АДУ ПИШЕТ СЛУЖЕБНУЮ ЗАПИСКУ СТОРОЖУ ВРАТ ЗАГРОБНОГО МИРА,ЧТОБЫ ПОСЛЕ СМЕРТИ В АД ТЕБЯ НЕ ПУСТИЛИ, ТАК КАК ДАЖЕ ДЕМОНАМ СТРЕМНО ОТ ТВОИХ МЫСЛЕЙ
@
ПРИ ЭТОМ В ЖИЗНИ ТЫ ОБЫЧНЫЙ ТАКОЙ ЧЕЛОВЕК, РАБОТАЕШЬ, КОЛЛЕГИ СЧИТАЮТ ТЕБЯ НОРМАЛЬНЫМ, У ТЕБЯ ЕСТЬ ЗНАКОМЫЕ, С КОТОРЫМИ НОРМАЛЬНО КОНТАЧИШЬ
@
ЗНАКОМЫЕ ЗНАКОМЯТ ТЕБЯ С 9/10 ТНЕЙ, ТЫ ЕЙ ОЧЕНЬ НРАВИШЬСЯ, ОНА ЛЕЗЕТ ОБНИМАТЬСЯ, САДИТСЯ ТЕБЕ НА КОЛЕНИ, ПЫТАЕТСЯ ПОЦЕЛОВАТЬ
@
СМОТРИШЬ НА НЕЕ И ЕЕ УПРУГИЕ СИСЬКИ И КРУГЛУЮ ПОПКУ ВЗГЛЯДОМ ПОЛНЫМ БЕЗРАЗЛИЧИЯ
@
ЭХ ПРИШЛА БЫ ТЫ КО МНЕ ЛЕТ 15 НАЗАД, ПОКА МЕНЯ МОЖНО БЫЛО БЫ СПАСТИ
Аноним 17/02/25 Пнд 00:46:43 #505 №316669372 
>>316669320
>визуал студио 2022 на 50 гб IDE НЕТУ ТАКОГО
Ты не знаешь просто, что для с++ когда собранный библиотеки не распространяют, так как для успешного подключения библиотеки она должна быть собрана с теми же настройками и теми же тулами, что и весь остальной проект.
Аноним 17/02/25 Пнд 00:47:28 #506 №316669391 
>>316669320
ОПчик, а расскажи немного о себе. Сколько тебе лет, с кем живёшь, где учился, когда последний раз у психиатра был? Если тебе были выписаны таблетки, почему не принимаешь их?
Аноним 17/02/25 Пнд 00:48:41 #507 №316669416 
>>316643851 (OP)

А флешку-маркер не придумал еще?
Аноним 17/02/25 Пнд 00:49:13 #508 №316669434 
>>316669320
У сгенеренного гопотой кода отрицательный кпд нахуй. Он не сжимает файл, а просто формат меняет и еще вдобавок серит дополнительный мегабайт в твой "словарь", который никак не используется блять. Ебаный в рот, если ты файлы не будешь своим говнонейронкокодом обрабатывать перед сжатием, нихуя не изменится! Понимаешь???????!??!?
Аноним 17/02/25 Пнд 00:49:41 #509 №316669443 
image.png
>>316669320
Постойте.
То-есть словарь для твоего метода ты собираешься пожать через ZLIB и RAR?
Аноним OP 17/02/25 Пнд 00:50:42 #510 №316669466 
112.jpg
3342234.jpg
17232216110511.jpg
energyconsumptionintel.jpeg
>>316669309
да
Аноним 17/02/25 Пнд 00:51:02 #511 №316669474 
>>316669434
> Понимаешь???????!??!?
Почему ты требуешь понимания от психически больного человека со сломанным мозгом? Разве не очевидно, что он не понимает?
Аноним 17/02/25 Пнд 00:51:48 #512 №316669492 
>>316669474
А вдруг поймет?
Аноним 17/02/25 Пнд 00:51:59 #513 №316669497 
>>316669372
возможно, ты и станешь триллионером оптимизатором и купишь банкрота Маска...........
Аноним 17/02/25 Пнд 00:52:00 #514 №316669498 
>>316669434
Я всё еще пытаюсь понять че этот код вообще со словарями делает, я ебунсь уже щас от этих макарон. Это абсолютная бессмыслица.
Аноним 17/02/25 Пнд 00:52:57 #515 №316669523 
>>316669497
Может быть, я злиб как то на досуге собирал уже для с++ проекта.
Аноним 17/02/25 Пнд 00:54:46 #516 №316669574 
>>316643851 (OP)
>64 ГБ СЛОВАРЯ ХВАТИТ ВСЕМ!
биткоины тоже бесплатно раздавали, а теперь они все в одном архиве,и нихуя не стоят,ТК США террористы и мошенники всех наебывают как Мавроди и тура триллионы долларов печатают, лепят в свою хуйню, кароче на дело говорит, буков всего немного, а все что вы можете сказать только лишь слова, так что не вертите жопами итак коричневых линий начертили чертилы
Аноним 17/02/25 Пнд 00:56:14 #517 №316669609 
bdecead1f3f1262a4378d46390239fa6.jpg
>>316669498
>я ебунсь уже щас от этих макарон
Зачем ты туда полез вообще, если ОП не может объяснить как 4 бита в 2 ужимать собирается. Похвально конечно, только голову береги.
Аноним 17/02/25 Пнд 00:56:32 #518 №316669616 
>>316648340
>для размеров суммарных файлов больше словаря.
зис
у опа словарь растет
Аноним OP 17/02/25 Пнд 00:57:34 #519 №316669644 
Телемастер обещал уместить все фильмы на CD Диск.png
>>316669443
Слоот хранил 65 тысяч DVD фильмов в 16 кб ссылках на 350 мб базу

на презентациях он говорил что ТВ станция, умножает сигнал в миллионы раз, так как миллион ТВ могут принять сигнал и посмотреть его

он нашёл метод как бесконечно сжимать сигнал и делить его, через универсальный словарь. А КАК, догадки
Аноним 17/02/25 Пнд 00:57:52 #520 №316669653 
>>316669609
Я хочу понять где именно он не прав и чё этот код вообще делает. Чето же он делает, согласись. Там столько движений, только блядь бессмысленных.
Аноним 17/02/25 Пнд 00:58:25 #521 №316669664 
>>316669609
На изи сжимаю 4 бита в 2, а при распаковке нужно будет всего лишь правильно использовать квантовую механику для устранения неопределённости и выбора правильного оригинального набора бит.
Аноним 17/02/25 Пнд 00:58:29 #522 №316669666 
>>316669644
Наконец то я узнал источник сверхидеи ОПа.
Аноним 17/02/25 Пнд 00:59:35 #523 №316669696 
4354234.jpg
>>316669523
С кодом осторожней, но как закончишь, создавай треды каждый день,корпоратов надо наказать
Аноним 17/02/25 Пнд 01:00:58 #524 №316669732 
>>316669644
>65 тысяч DVD фильмов
Где он в 90-х годах надыбал столько DVD-фильмов? А если тупо размножил одинаковые, о какой чистоте метода можно говорить?
Аноним 17/02/25 Пнд 01:01:48 #525 №316669748 
ОП - ты же чатгпт юзаешь? Можешь у него спросить, как сделать бесконечное сжатие и прислать что он ответит?
Аноним OP 17/02/25 Пнд 01:01:58 #526 №316669755 
112 (7).jpg
112 (8).jpg
112 (9).jpg
>>316669666
так работает вселенная посмотри на номер своего поста.

Он нашёл алгоритм который сбрутил все синусы по 4 уровням словаря. как у меня но без хранения словарей.

всё есть дубликаты бинарного кода из 60 гб словаря.
Аноним 17/02/25 Пнд 01:03:04 #527 №316669779 
Как же ебуче читать этот питон без типов данных когда даже не понятно о чём речь идёт о словаре, листе, числе или строчке.
Аноним 17/02/25 Пнд 01:03:42 #528 №316669796 
cfcc3815d043b811fbac4113b04b2867.jpg
>>316669653
>Там столько движений, только блядь бессмысленных.
Берёшь технически невоможную идею.
Косноязычно описываешь нейронке.
Нейронка крутит пальцем у виска, но что-то выдать обязана.
Результаты этой продуктивной работы за год равномерно перемешиваешь.

А ты сидишь дебажишь, и ещё и фидбек автору шлёшь. Тебе нужен памятник, ящитаю.
sage[mailto:sage] Аноним 17/02/25 Пнд 01:03:51 #529 №316669799 
>>316668291
Код хуйня. Поясни мне про индексы вложенности.
Используя вложенные индексы ты не закодируешь больше информации. Чтоб закодировать 32 бита нужен 32 битный индекс. Хоть сколько раз ты их делай вложенными. Просто часть идекса начинает указывать номер словаря а остальная адресует запись внутри него. Можно так указывать на бесконечное количество вложенных словарей но на это тоже тратится часть индекса. И это ровно столько же информации сколько ты пытаешься закодировать.
Предполагаю на том конце троль рофлит, ну либо чувак реально шиз. Ладно, покормил, хуле. Мы докатились до того что это один хуй самый "интересный" тред в помойке
Аноним 17/02/25 Пнд 01:04:26 #530 №316669813 
343434.jpg
>>316669732
филипс обслуживал европейских богатеев, и ремонтировал им телеки, у них у всех были DVD плееры с 1995 годов.

Джон Кармак программировал за 28" FullHD-монитором в 1995

>Где он в 90-х годах надыбал столько
Записи телепередачь, эфиры, трасляции.
Аноним 17/02/25 Пнд 01:06:51 #531 №316669879 
>>316669644
> ТВ станция, умножает сигнал в миллионы раз, так как миллион ТВ могут принять сигнал и посмотреть его
На этом месте любой, кто минимально разбирается в радиотехнике, начинает вести себя как Риситас на той самой телепередаче.
Аноним 17/02/25 Пнд 01:06:52 #532 №316669880 
>>316669799
Процесс сжатия (compress)

Разбиение на 2-битные блоки: Исходные данные разбиваются на последовательность 2-битных блоков функцией split_into_2bit_blocks. Это делается для того, чтобы алгоритм работал с небольшими элементами данных.

Итерация по уровням: Цикл for level in range(4): проходит через каждый уровень словарей, начиная с уровня 0 и до уровня 3.

Работа со словарем на каждом уровне:

code_to_pair = dictionaries[level]: Получает словарь для текущего уровня. Этот словарь хранит соответствие между кодами (индексами) и парами 2-битных блоков (или кодов предыдущего уровня).

pair_to_code = {pair: idx for idx, pair in enumerate(code_to_pair)}: Создается обратный словарь для быстрого поиска кода по паре.

Поиск и замена пар: Код итерируется по текущим данным (на первом уровне это 2-битные блоки, на последующих уровнях - коды предыдущего уровня) парами.

pair = (current_data, current_data[i+1]): Формируется пара из текущих данных.

if pair in pair_to_code:: Если пара найдена в словаре текущего уровня:

new_data.append(pair_to_code[pair]): Пара заменяется на соответствующий код из словаря.

else:: Если пара не найдена в словаре текущего уровня (новая пара):

code = len(code_to_pair): Паре присваивается новый код - следующий доступный индекс в словаре.

code_to_pair.append(pair): Новая пара добавляется в словарь текущего уровня.

pair_to_code[pair] = code: Обновляется обратный словарь.

new_data.append(code): В выходные данные добавляется новый код.

combination_count += 1: Увеличивается счетчик новых комбинаций (для статистики, не влияет на логику сжатия).

dictionaries[level] = code_to_pair: Обновленный словарь уровня сохраняется в списке dictionaries.

current_data = new_data: Результат обработки текущего уровня (new_data, содержащий коды) становится входными данными для следующего уровня.

if len(current_data) <= 1: break: Сжатие может остановиться, если данные сильно сжались и стали очень короткими.

Сохранение обновленных словарей: После обработки всех уровней, обновленные словари для каждого уровня сохраняются в соответствующие .npy файлы функцией save_dictionary_level.

Финальное сжатие и вывод: Конечные данные, после прохождения всех уровней, преобразуются в строку хэшей с помощью int_to_hash и возвращаются в формате "{original_length}:{compressed_str}".

Как работают словари 4-го уровня (уровень 3 в коде):

Словарь 4-го уровня (dictionary_level_3.npy) работает точно так же, как и словари уровней 1, 2 и 3.

На вход уровня 4 поступают коды, которые были сгенерированы на уровне 3.

Словарь 4-го уровня содержит пары этих кодов и соответствующие им новые коды.

Алгоритм на уровне 4 ищет пары кодов из уровня 3 в словаре 4-го уровня.

Если пара кодов найдена, она заменяется на более короткий код из словаря 4-го уровня.

Если пара кодов новая, она добавляется в словарь 4-го уровня, ей присваивается новый код, и этот новый код используется в выходных данных.

Ключевые моменты работы словарей 4-го уровня:

Иерархическое сжатие: Каждый уровень словаря работает с данными, сжатыми на предыдущем уровне. Уровень 4 применяет словарное сжатие к данным, которые уже были сжаты уровнями 1, 2 и 3.

Повторное использование словарей: Словари сохраняются в файлы .npy и загружаются при следующем запуске. Это позволяет алгоритму "обучаться" на данных и использовать накопленные знания для более эффективного сжатия в будущем.

Уменьшение размера данных: На каждом уровне словари заменяют пары элементов на более короткие коды, что приводит к постепенному уменьшению размера данных.

Уровень 4 - последний уровень: Уровень 4 является последним уровнем словарного сжатия в этой реализации. Данные, сжатые на уровне 4, считаются окончательно сжатыми (перед дополнительным zlib сжатием).

В итоге:

Словари 4-го уровня в этом коде являются частью многоуровневой системы сжатия. Они работают по тому же принципу, что и словари предыдущих уровней, но применяются к данным, уже прошедшим сжатие на трех предыдущих уровнях. Цель - дальнейшее уменьшение размера данных за счет обнаружения и замены повторяющихся пар кодов, сгенерированных на уровне 3. Это позволяет достичь более высокой степени сжатия, чем при использовании одноуровневого словарного сжатия.
Аноним 17/02/25 Пнд 01:07:24 #533 №316669891 
>>316669799
Но при этом хочу сказать спасибо что не даешь мозгам старых анонов заржаветь окончательно и провоцируешь подумать, пусть и о несбыточной хуйне. Все лучше чем погружаться в местные биоппоблемы или хохлосрач.
Аноним 17/02/25 Пнд 01:09:10 #534 №316669928 
>>316669653
Друже, эту хуйню написала нейронка. Так скорми это ей же, хай объясняет.
Аноним 17/02/25 Пнд 01:10:26 #535 №316669949 
>>316669928
ОП уже сам скормил >>316669880
Проблема в том, что он в объяснениях такую же невразумительную хуйню пишет как в коде.
Аноним 17/02/25 Пнд 01:11:03 #536 №316669963 
>>316669799
>Мы докатились до того что это один хуй самый интересный тред в помойке
Подпишусь, даже без кавычек.
Аноним 17/02/25 Пнд 01:12:29 #537 №316669996 
>>316669949
Garbage in - garbage out
Аноним OP 17/02/25 Пнд 01:12:39 #538 №316669998 
32434.jpg
jan sloot.jpg
нейрокешопераций.mp4
формула 2.jpg
>>316669799
Представь у двух челов одинаковые книги.

так вот можно не передавать страницы. А только номера.

Как ты будешь генерировать страницы и номера? по какой логике? числа ограничены, буквы и юникоды, тоже, КАК? Удачи убить год на долбёжку ИИ когда в коде всё понятно до лампочки

рандом можно либо сбрутить, либо запрогать, либо алгоритмизировать

у меня запроган метод словарей. а алгоритмизиировать у тебя мозгов не хватит составить запрос а у ИИ цифровых нейронаф обработать.

Как было сказано в майкрафте, ничто не истино, всё. дозв.....
Аноним 17/02/25 Пнд 01:14:03 #539 №316670028 
>>316669998
Как передать информацию, которой нет в книге у чуваков?
Аноним 17/02/25 Пнд 01:14:13 #540 №316670034 
>>316669949
Короче, смотри, тут как в понятиях, только для компуктера. Словари эти, 4 уровня, это как 4 типа "раскладов", чтоб инфу твою ужатую сделать, чтоб весила меньше, понял?

Представь, как гопник базарит, вот так и словари эти работают:

Режем на "куски" мелкие: Сначала твою инфу (ну там файл какой) режут на мелкие-мелкие кусочки, прям как семечки. Эти кусочки - они по 2 бита, ну не вникай, просто мелкие, как будто азбука Морзе, только еще проще.

Словарь "первого уровня" (как для пацанов с района): Вот есть у тебя эти мелкие кусочки. И есть словарь "первый" - как будто словарь пацанского сленга. В этом словаре записаны часто встречающиеся пары этих кусочков. Например, два кусочка "01" и "10" часто вместе идут. И в словаре им дают кличку - короткий номер, типа "номер 5".

Как работает: Программа смотрит на твои кусочки парами. Если пара есть в словаре "первого уровня", она берет ее кличку (номер) и записывает вместо пары. Если пары нет в словаре - ну, значит, новая тема, добавляем ее в словарь и даем ей новую кличку. Словарь "первый" пополняется, понял?

Словарь "второго уровня" (для тех, кто постарше): Теперь у тебя уже не кусочки, а клички из первого словаря. Берем второй словарь, он уже "для тех, кто постарше", там понятия покруче. Там тоже пары, но уже пар кличек из первого уровня. И для часто встречающихся пар кличек дают свои, еще более короткие клички, типа "номер 12".

Как работает: То же самое, что и с первым словарем, только теперь работаем с кличками из первого уровня. Ищем пары кличек в словаре "второго уровня", заменяем на новые клички, если есть. Если нет - добавляем пару кличек в словарь и даем новую кличку. Словарь "второй" тоже пополняется.

Словари "третьего" и "четвертого уровня" (для "авторитетов"): И так далее. Третий словарь работает с кличками из второго, четвертый - с кличками из третьего. Каждый словарь "верхнего уровня" - как будто словарь для "авторитетов", там понятия еще круче, клички еще короче.

Как работает: Все по той же схеме. На каждом уровне ищем пары "кличек" из предыдущего уровня, заменяем на новые, еще более короткие "клички" из словаря текущего уровня. Словари "третий" и "четвертый" тоже пополняются.

В итоге:

После всех этих 4 уровней у тебя вместо кучи мелких кусочков получается набор коротких "кличек" из последнего, четвертого словаря. Эти "клички" занимают меньше места, чем исходные кусочки. Вот тебе и сжатие.

Как словари "учатся" и сохраняются:

Словари "учатся" на ходу: Когда ты сжимаешь файл, словари пустые сначала. Но по мере сжатия они пополняются новыми парами и кличками. Как будто гопник учится новым словам, когда с новыми людьми общается.

Словари сохраняются: Эти словари (ну, "понятия" эти) сохраняются в файлах на компе (dictionary_level_*.npy). Чтобы в следующий раз, когда ты будешь сжимать что-то похожее, программа уже знала эти "понятия" и сжимала еще лучше.

Короче говоря, эти 4 уровня словарей - это как 4 круга "понятий". На каждом круге инфа становится все короче и понятнее для "своих", то есть для программы, которая умеет эти словари читать и обратно все разжимать.

Понял, братюнь? Если че, спрашивай еще, растолкую по понятиям. ;)
Аноним 17/02/25 Пнд 01:14:32 #541 №316670041 
>>316669998
>Удачи убить год на долбёжку ИИ
А могла бы учить С++. До уровня твоей программы добралась бы за месяц.
Аноним 17/02/25 Пнд 01:16:20 #542 №316670084 
>>316670034
Блядь фу нахуй.
Ты бы блядь питон читать научилась чтобы за нейронкой проверять, вместо того, чтобы кирпичами говна серить.
Аноним 17/02/25 Пнд 01:17:36 #543 №316670113 
>>316670028
логика составления словарей у кода одинакова и пропустив файл белый шум на 60 гб - словари при 1 запуске будут запроганы одинаковы от меньшего порядка к большему.
Аноним 17/02/25 Пнд 01:18:24 #544 №316670134 
>>316670034
Расскажи лучше как теперь имея 4 словаря разжать файл обратно нахуй.
Вот у тебя информация и в ней число 10. Чё происходит по шагам распиши до получения исходных данных.
Аноним 17/02/25 Пнд 01:18:38 #545 №316670140 
image.png
[сжатие треды]
https://arhivach.hk/thread/1011265
https://arhivach.hk/thread/1011831/
https://arhivach.hk/thread/1043536/
https://arhivach.hk/thread/1131968/
https://arhivach.hk/thread/1133132/
Аноним 17/02/25 Пнд 01:19:33 #546 №316670163 
>>316669813
"Первый привод, поддерживающий запись DVD-R, выпущен компанией Pioneer в октябре 1997 г. Стоимость этого привода, поддерживающего спецификацию DVD-R версии 1.0, составляла 17 000 долл. Чистые диски объёмом 3,95 ГБ стоили по 50 долларов США." - вики
Допустим, к началу 98-го приводы и диски подешевели и все начали пользоваться DVD. До кончины Слоота остаётся полтора года, за которые он обработал 65 тысяч дисков - т.е. в среднем примерно 120 дисков в день. Звучит как вымысел.
Аноним 17/02/25 Пнд 01:19:41 #547 №316670167 
>>316670113
На вопрос то ты не ответила. Че делать с информацией, которой нету в книге. 60 гигабайт это не все числа 64 бита даже. Даже не близко.
Аноним 17/02/25 Пнд 01:22:17 #548 №316670222 
На самом деле, аноны, архиваторы - очень интересная тема для тех, кто хочет байтоёбить. Принципы их работы мало менялись ещё с 80 годов. Последние лет 10-15 считается удачей, если если за год был достигнут прогресс в минус 0.5-1% от предыдущего рекорда.

Не нужно никаких многократных сжатий или антинаучной хуйни как у ОПа. Любой, кто сумеет выжать каким-то своим принципиально новым алгоритмом условные -5-10% относительно последней версии cmix, уже обессмертит своё имя в науке. Это будет конечно не революция, но на премию Тьюринга потянет легко.
Аноним 17/02/25 Пнд 01:25:30 #549 №316670295 
3244323.jpg
11 (1).jpg
maxresdefault.jpg
>>316670163
Из книги были слова его сына. 400 тысяч CD Дисков, 65 дисков DVD

Возможно это передачи фильмов эфиров, или эквивалент, которые он писал с радио эфира, или в какой то студии засел

Он же в филипсе у вице директора работал
Аноним 17/02/25 Пнд 01:26:27 #550 №316670314 
image.png
image.png
>>316670222
>Это будет конечно не революция, но на премию Тьюринга потянет легко.

Есть постоянный compression contest с призовым фондом в 500к евро, причём можно откусить часть, если хоть какой-то прирост будет.
Аноним 17/02/25 Пнд 01:29:34 #551 №316670377 
cool-gif-train-view-snow-summer.gif
>>316670167
> 60 гигабайт это не все числа 64 бита даже.

64 бита это два по 32 бита

32 бита это два по 16 бит

16 бит это два по 8 бит

4 это два по 8 бит

В итоге имея алгоритм комбинаторная чехорда свинья, ты можешь факторизовать любой код

приведу пример

Регистры процессора могут содержать 8 битные значения. Например RAX/EAX/AX/AH(L) это один и тот же регистр, допускающий 64,32,16,8 битные значения, причем даже в 64 битном коде можно запросить 8 битное значение регистра обратившись к нему как к 8битному
Аноним 17/02/25 Пнд 01:30:02 #552 №316670390 
>>316670222
Касаемо видео, перспективнее имхо внедрять вектора, градиенты и ограничивающие их маски. В фильмах полно однородных плоскостей типа неба, и простых линий, проводов, деревьев и т.п.
Аноним 17/02/25 Пнд 01:32:55 #553 №316670446 
>>316670377
И? 60 гигабайт всё еще не все числа 64 бита.
Ты понимаешь, что чтобы сжатие по словарю что-то сжимало у тебя ключ должен быть меньше значения? Пока что у тебя ключ и значение одинакового размера во всех уровнях словарей, так что ты сжимаешь ничего.
Аноним 17/02/25 Пнд 01:33:00 #554 №316670448 
>>316670390
Лет через 50 алгоритмы сжатия фильмов будут депромптить видео в текстовое описание сцены и действия, а локальная нейросеть будет генерировать видео по промтпам, только каждый раз немного новое.
Аноним 17/02/25 Пнд 01:34:28 #555 №316670475 
>>316670448
>Лет через 50
Через 10. И это будет жопа, DLSS в квадрате.
Аноним 17/02/25 Пнд 01:35:09 #556 №316670496 
>>316670222
>алгоритмом условные -5-10% относительно последней версии cmix, уже обессмертит своё имя в науке.

ПРиведи примеры как это сделать? и снять сливки? меня Nvidia кинула на 400к$
Метод был доказан при юристах, а баунти не было.! вы будете конечно, впечатлены какой бред творится.

С этими компилируемыми и не компилилируемыми языками
Аноним 17/02/25 Пнд 01:35:45 #557 №316670510 
>>316670390
Ну тут речь об универсальных архиваторах, и lossless. Для конкретного формата данных и при допустимости некоторых потерь понятно что можно что-то более специфическое придумать.

>>316670448
Ебать хайв, я ровно о том же хотел написать. Только мне кажется, что уже лет через 15-20 в каждом устройстве будет нейроускоритель стоять. Сетки допилят, контекст увеличат и всё. Ебать будущее конечно, киберпанк, но не такой, какой бы хотелось.
Аноним 17/02/25 Пнд 01:40:41 #558 №316670595 
>>316669653
>где именно он не прав
В самом-самом-сука-САМОМ начале. Если переменная принимает 2 однобитных значения, то вынь да полож бит на хранение её состояния. Вынешь да положишь меньше - проебёшь какие-то из возможных состояний.
Аноним 17/02/25 Пнд 01:41:21 #559 №316670602 
>>316670134
это метод для блоков.

у 4 бит всего 16 комбинаций. все 16 комбинаций между собой записаны метками и парами

потом пары меток снова в пары меток и так до 4 уровня. 32 бита кодируют 128 бит и обратно

упрощённо, мы создали рекурсивный словарь для RLE который бесконечно будет повторятся.
Аноним 17/02/25 Пнд 01:41:33 #560 №316670605 
>>316670496
> меня Nvidia кинула на 400к$
Пруфани хоть американскую визу в заграннике тогда, ведь ты был у них в офисе в Калифорнии
Аноним 17/02/25 Пнд 01:43:19 #561 №316670636 
>>316670605
Куртка к ней в Барнаул приезжада, в новостях было же.
Аноним 17/02/25 Пнд 01:44:11 #562 №316670655 
112.mp4
>>316670595
>>316670510
>>316670446

чёрный цвет 0 белый 1

Алгоритм без словарей будет с помощью верчения собаки извлекать и кодировать инфу в этот видео рол рекурсивно
Аноним 17/02/25 Пнд 01:45:26 #563 №316670685 
>>316670655
В огороде бузина а в киеве кучма.
Аноним 17/02/25 Пнд 01:45:34 #564 №316670688 
>>316670605
ога что бы меня ебнули за разорение всего IT в течении полугода? вон сан диск и WD разделились. из за 2 тредов. А так лучше пусть за шизу все считают, умные поймут.
Аноним 17/02/25 Пнд 01:46:42 #565 №316670713 
>>316670688
Тебя уже раскуили, ты работаешь на WD, SanDisc и Samsung.
Аноним 17/02/25 Пнд 01:50:21 #566 №316670785 
>>316670688
Так речь не о методе, ты просто пруфани визу, что ты вообще в США ездил
Аноним OP 17/02/25 Пнд 01:51:47 #567 №316670811 
434332433.jpg
чел на хабре выпустит статью и ускорил пеку в 14 млн раз.

это значит что можно запустить 14 млн копий крайсиса и киберпанка

https://habr.com/ru/articles/882802/
Аноним 17/02/25 Пнд 01:53:14 #568 №316670840 
16970131089920.jpg
>>316670811
>на 14 млн операций
>ускорил в 14 млн раз
ясно
Аноним 17/02/25 Пнд 02:00:39 #569 №316671001 
>>316670448
>а локальная нейросеть будет генерировать видео по промтпам
>>316670510
>Ебать хайв, я ровно о том же хотел написать. Только мне кажется, что уже лет через 15-20 в каждом устройстве будет нейроускоритель стоять.
Чё-т я не разделяю ваш оптимизм. Нейронки жрут дохуя энергии, для рилтайм генерации кина её нужно будет раз в 10 больше, чем доступно человечеству сейчас, а судя по нефтегазовым тёркам в мире, перспективных альтернативных источников до сих пор не видят
Аноним 17/02/25 Пнд 02:02:59 #570 №316671057 
>>316671001
Ну я с запасом бахнул. Так-то через 50 лет или падишах, или ишак или термояд...
Аноним 17/02/25 Пнд 02:06:07 #571 №316671116 
Но вообще конечно дикость, тратить такие вычислительные и энергетические ресурсы на генерацию видосиков, которые ещё сто лет назад можно было просто снять на плёнку, а уже лет 30 как обсчитать в 3D на пеке. Учёные с симуляторами вселенной от зависти лопаются.
Аноним 17/02/25 Пнд 02:07:51 #572 №316671150 
>>316671001
Хуй знает, сложно уже что-то прогнозировать. У меня на компе с 2023 года установлен SD. Если б за 10 лет до этого, в 2013 (а я тогда уже в вузике учился) мне показали такое, я бы охуел конкретно. И не столько с самой технологии, сколько с того, что оно работает не где-то далеко на мощном сервере за миллионы баксов, а локально на моём железе стоимостью в обычный геймерский ПК.

Видимо, как бы над этим не шутили, технологическая сингулярность перестаёт быть мемом.
Аноним 17/02/25 Пнд 03:55:48 #573 №316672992 
>>316669081
Ебанутый.
comments powered by Disqus