Шеннон доказал, что существует предел, до которого можно сжать данные без потерь. Этот предел определяется энтропией источника. В идеальных условиях, если данные имеют энтропию ( H ), то их можно сжать до размера, близкого к ( H ) бит на символ.
Но Шеннон не предполагал что можно создать словарь 4 уровня, где пары бинарного кода кодируются метками бинарного кода, а сами метки тоже бинарным кодом и так до 4 уровня. Таким образом достигается вечное сжатие в рекурсии! Вся информатика это бинарный код, все данные и программы. у 4 бит всего 16 комбинаций, если мы будем маркировать, и пары для пар в словаре ТО:
Уровень 0: 16 пар 8 байт/пара = 128 байт
Уровень 1: 256 пар 8 байт/пара = 2 КБ
Уровень 2: 65 536 пар 8 байт/пара = 512 КБ
Уровень 3: 4 294 967 296 пар 8 байт/пара = ~ 900 ГБ
34 гб описывают бесконечную рекурсию информации! Следовательно информацию и вычисления можно бесконечно сжимать и снова раскладывать без потерь!
Код создан с нуля ИИ, по подсказкам метода Яна Слоота. Он работает медленно, любая попытка ИИ его улучить ломает код и работу программы Что нужно сделать: 1) переписать на С++ или CUDA 2) переписать логику что бы не ел 34 ГБ RАМ постоянного словаря а ток с SSD 3) Добавить рекурсию после сжатия для нового сжатия
Принцип Работы, файл сжимается, размер его сохраняется но это теперь файл это ссылки на 34 гб словарь. Магия в том, что если поместить сжатый файл в ZIP и RAR то его размер в 10-20 раз МЕНЬШЕ ОРИГИНАЛА, И его можно восстановить из ОБЩЕГО СЛОВАРЯ. который постоянный 900 гб!
код и метод выложен на общее обозрение в Open source - вы можете редактировать и изменять его, но уважайте себя и научное сообщество, метод даёт возможным сингулярность и AGI
Получив бесконечные вычислительные мощности и память что будете делать с этим?
Вчера чел дебагером питона в пошаговом режиме посмотрел код и окурел, знаешь что делает код по простому? - Он сжатый несжимаемый белый шум файла, отрезками по 80 бит 10101010100101101001101010 Разглагает на 1111111000000000 или сжимаемый формат. При этом, в сыром виде словарь 900 гб минимален. Если сделать меньше уровней сжатия расжатия рекурсивного не будет. Так вот на выходе файл по размеру тот же, но там бинарный код в сжимаемом формате по типу 11110000011111000000 вместо 10101010010010, при этом проц ничего не читает он перемножает этот сжимаемый формат по типу 16x16x32x64 = 10001000100010001 Это значит что на C++ код можно ускорить в тысячу раз.
Для вас специально сделано. это было на железе Ps2 в 2006 году. вершина кеша и оптимизации PlayStation 2 - Emotion Engine с тактовой частотой 294 МГц, 32 МБ оперативной памяти и 4 МБ видеопамяти PlayStation 2 имеет производительность около 6.2 гигафлопс.
На уровне хитман блуд мони 4 уровень тысячи ботов, из кеша. и всё это в памяти 32 мб и 4 видеопамяти, Какие вам киберпанки на 5 гб движка? тут весь движок это 32 мб и диск 4.5 гб DVD и всё это с физикой тел как в GTA4, всё предвычислено
Словарь изнутри, 4.5 млрд ссылок меток занимают 900 гб.
Но позволяют сжимать 100тб в 1мб. без потерь и расжимать за 1000 циклов. 1 цикл сжимает файл в 10 раз. без потерть. ( точнее разбирает на инструкции ) все инструкции в рекурсии занимают 900 гб
вся информация на дисках и носителях информации это 1 и 0
1 Мб ( мегабайт ) это 1 миллион 1 и 0 где примерно 50% 1 и 0 файл это 101001010011001010011110010010100110100101001
Эти последовательности нельзя сжать потому что описание сжатого состояние будет больше чем сама информация.
что мы делаем ?правильно. Создаём словарь, ссылок на пары, индексов пар для индексов пар.
Для 4 бит кода всего 16 состояний, из 16 состояний 256 пар, из 256 состояний пар 65 тысяч пар, из 65к пар 4.5 миллиарда Это словарь 4 уровня ( как лук или капсута ) или 900гб постоянных словарей где 4.5 миллиарда ссылок.. Где научное сообщество? почему это никто не изучает?
что такое цикл? Цикл это начало повтора, которого был ДО. Рекурсия это когда повторы повторяются всегда. Так вот словарь в 900 гб и 4.5 млрд пар описывают всё в информатике и раскладывают бинарный шум на более структурированный бинарный код, который и можно сжать в 10 раз. Можете получать нобеля, или выводить формулы, так как это квантовый код сингулярности или же словарь "Бога"в этом словаре всё есть .он всё описывает. Вообще всё. Из букв и алфавита можно написать любое слово и бессконечное количество книг и предложений Так вот этот словарь из 900 гб может рекурсивно сжимать информацию и вычисления. скажем минимальный размер кластера в винде и линуксе это 5кб или 680 байт. следовательно 2 тб можно ужать в 680 байт. с помощью 900 гб словаря.
>>317036374 Что бы безопасно опробовать код ты можешь поставить 2 систему которая будет работать поверх твоей но в 4 раз медленнее
Нужно установить виртуальную машину или "виртуалку" Virtyal box ОТ оракла или официально от майкрософта, скачать образ системы и установить на виртуальный раздел в 40 гб. отведя 4 гб оперативной.
виртуалок есть порядка 4 штук как платных так и бесплатных VMware Workstation
>>317037114 Попроси его описать код, а не спорить со старыми методами и выводами учёных прошлых эпох
Его архитектура параметров и количество нейронов как у мухи не может сформировать мировоззрения что старые научные знания устаревают а новые методы возникают. Этот новый метод вообще нобелевская премия.
ещё лучше можно сделать сжатие в 1 трлн раз 2 = 1 000 000 000 000 или 1 000 000 000 000 = 2
Но у вас не хватит цифр, и комбинаторики цифрами что бы сделать из всех цифр рекурсию цифр не хватает нужно придумать 4.5 млрд новых цифр. НО КАК? . Мой метод может и он описан в коде.
>>317037296 С таким кейсом и кодом можно в любой конторе мира работать,но я не хочу бегать в офлайне, могут ебнуть, засекретить, или наказать. А скрывать метод и давать кому то сверх преимущество это какой то математический фошизм
>>317037406 2024 @ у школьника нету 100 $ на 1тб постоянный словарь. который сможет рекурсивно сжимать другую информацию хоть 100тб в 1 мб хоть 10000тб
Для справки что бы запустить windows или android ты имеешь систему на 10 гб.
>>317037627 Дело не в деньгах, дело в целесообразности. Сколько времени уйдет на сжатие и разжатие? Если дохуя тотне проше ли просто не сжимать или сжимать так чтобы потом не ждать неделю на распаковку? Ты вообще знаешь где сжатие использовать целесообразно?
>>317037812 у него там словарь волшебный какой то, не просто перебор подряд. Но не рассказывает подробностей, а тот код что в доступе для словаря просто последовательно генерит словарь
О, ебать, помню кто-то архиватор на дваче посоветовал "FreeArc" с полосатой папкой. Что какая-то часть NFS (вроде шифт) для "пиратского стима" (это не торрент, а был какой-то клиент стима, где крякнутые игры были) сжималась до 100 мегабайт из скольки-то там гигов. Было хуй пойми сколько лет назад.
>>317037728 Вот успешное сжатие и расжие 100 гб в 1 мб и обратно на колаб питоне. ( проверка целостности по хешам )
дальше был отвал и обруб
У меня начальные и средние навыки кодинга, ИИ ломает код, самому писать невозможно сложно так как логика ломается при изменении. Требую внимания всего сообщества.
Средства дебага и средства аналитики говорят что код можно ускорить в 1000 раз, те 1000 гб в 1 гб за 1 сек.
>>317038666 1 гб отличается от 1 мб что бинарный код и размер файла больше в тысячу раз. Ты мне предлагаешь в тысячу раз бльше потратить RAM и 5 часов времени? нет дружок. смотри на сжатие расжатие 1 мб в 40 кб и радуйся что вечное сжатие возможно.
В колабе успешно удалось сжать и расжать 1 гб без потерь в 1кб. за 3 часа.
полный словарь будет генерироваться 8 часов. те 900
>>317037588 >По моему это нахуй никому не надо просто.
можно собрать рекурсивную пеку которая будет себя бесконечно ускорять через разложение CPU И RAM по вычислениям и памяти, ну как ускорять? всё есть словарь 900 гб и её рекурсия. это бесконечная карусель вселенной
пробрасывать рекурсиии можно за 1 такт.
можно будет моделировать вселенные, всех людей да что угодно! те финал математики, за этим уже ничего не стоит, только дубликаты 900 гб словаря!
>>317039163 Что нужно сделать: 1) переписать на С++ или CUDA ( C++ работает в 40 раз быстрей на CUDA в 80 раз быстрей. ) на ASIC = FPGA в 600 раз быстрей. 2) переписать логику что бы не ел 34 ГБ RАМ постоянного словаря а ток с SSD 3) Добавить рекурсию после сжатия для нового сжатия
Успешная реализация на ASIC и словарём 900гб даст вам возможность 900 гб в 1 гб за секунду. а 1 гб в 1 мб за вторую.
Атомов нет, все атомы и элементарные частицы это ссылки, на сами ссылки. Днк и клеток нет, всё это сссылки на клетки оригиналы те материнские, словарные, все дубликаты это ссылки на оригинал. Как это трактовать ?
>>317039433 1) Попроси нейрокал переписать на c++ 2) Попроси нейрокал переписать логику 3) Попроси нейрокал добавить рекурсию после сжатия для нового сжатия
>>317040099 Это всё потому что на жёстком диске появилась чёрная дыра из за твоего словаря кодирование и туда уже засосало половину твоего класса, а так да, прорывная технология
Скажу на ламерском, словарь твой нахой не нужен, как диски себя изжили, да и флецки, быстрее скачать с инета чем с физического носителя, пару лет и еще навалят скорости передачи данных по кротовой норе. Вот это прорыв, а не х100 сжатие. Да и передача не нужна будет, домашний ии будет генерить все начиная от контента, до хуй знает чего. Но удачей тебе.
>>317041375 >диски себя изжили, да и флецки, Зумероок, а нахуй сходить, не? Это ты себя изжил, средство для оплаты подписок. Как раз дело наооборот обстоит, ну в миреп нормальных людей, а не моднипргагрсивне, которые с трудом понимают как это все работает, но все такие пиздос в теме..
>>317036374 Додики типа тебя заходят в тред и байтятся на софизмы шиза ОПа как ты сейчас. Софизм - это когда ты закладываешь в рассуждения незаметную ошибку и "доказываешь" этим ложный тезис.
>>317042201 науку, протеины и атомы не вычислить без этого алгоритма кстати. Я как тян, разобралась во всех науках. поэтому ломану твой смарт и пеку если будешь обиж
>>317041718 Все парадоксы решены и разложены на 900гб словарь. в нем всего 4.5 пар у каждой пары 32 ветки. вот и всё. все ветки и пары разложены. Смотри код и не позорься.
>>317042492 чел с видео рола сжал все фильмы на дискету, а тебе все власти и правтельства скрывают и секретят что плотины это вечный двигатель с рентабельность 10 к 1 те доход 1 млрд расход и амортиазация 100 млн.
>>317035599 (OP) у тебя у самого есть этот словарь в 900гб или ты по заполняемости мелкие генерируешь? Они же уникальные получаются в зависимости от порядка заполнения
>>317042726 Ну смотри есть "вавилонская библиотека" весом в несколько килобайт кода но в которой есть все существующие варианты текста. То есть обычной ссылкой на страницу книги что сгенерирована по примитивному алгоритму можно зашифровывать любые данные. То есть буквально зумеры изобрели https://libraryofbabel.info/ и теперь пытаются на ее базе сделать алгоритм сжатия.
>>317042543 Если бы ты понимал что-то в своём коде, то сделал бы рабочую программу, предлагаешь заняться отладкой галлюцинаций нейросети запрошенные тупым шизиком? Довольно неблагодарное занятие.
>>317035599 (OP) Оп, мне похуй даже если есть пока незаметные ограничения по железу, мне похуй, я в тебя верю, сама концепция звучит как чтото реальное, да мы скорее всего упремся в физический уровень, почему то мне кажется, но в целом я тебя охуенно поддерживаю и этот тред разжёг огонёк в моём сердце.
>>317035716 >Для вас специально сделано >PlayStation 2 >4 уровень тысячи ботов
Схоронил видос. Удивляет, однако, оптимизация игр серии Hitman. Насколько помню, это одна из первых игр, где для персонажей была скелетная анимация. Обычно, в те годы анимация была записана по кадрам, а в некоторых играх, так вообще, морфингом модели (на персонажах была шевеленка полигонов).
Программисты у них очень крутые какие-то. ⨻ Или им дали технологии от иллюминатов.
В играх вечное сжатие используется в виде оптимизации, к примеру 5 кб ссылка на 100кб текстуру. тысячи таких ссылок, тысячикратно экономят память
В старых играх 2002 и 2005 года, моделировались целые генеральные сражения где несколько тысяч ботов и у каждого бота своя логика и свобода действий. А все действия и логика всех ботов уже есть в кеше и предвычисленных таблиц
Всё что вы видите на скриншотах работает на 32-64 мб RAM
Сама игра весит 600мб. с саунтреками и редактором 800мб.
Исходный код + программа на python
Это пошаговая версия.
https://drive.google.com/file/d/1V6j4iDV0YeZXDTadlnpawXyUKgHgkfoW/view
Вот автоматическая V5.
https://drive.google.com/file/d/1SuTGcCMEDa_PVglfmwccYzJu_-pcQ8D8/view
900 ГБ СЛОВАРЯ ХВАТИТ ВСЕМ!
Шеннон доказал, что существует предел, до которого можно сжать данные без потерь. Этот предел определяется энтропией источника. В идеальных условиях, если данные имеют энтропию ( H ), то их можно сжать до размера, близкого к ( H ) бит на символ.
Но Шеннон не предполагал что можно создать словарь 4 уровня, где пары бинарного кода кодируются метками бинарного кода, а сами метки тоже бинарным кодом и так до 4 уровня.
Таким образом достигается вечное сжатие в рекурсии!
Вся информатика это бинарный код, все данные и программы. у 4 бит всего 16 комбинаций, если мы будем маркировать, и пары для пар в словаре ТО:
Уровень 0: 16 пар 8 байт/пара = 128 байт
Уровень 1: 256 пар 8 байт/пара = 2 КБ
Уровень 2: 65 536 пар 8 байт/пара = 512 КБ
Уровень 3: 4 294 967 296 пар 8 байт/пара = ~ 900 ГБ
34 гб описывают бесконечную рекурсию информации! Следовательно информацию и вычисления можно бесконечно сжимать и снова раскладывать без потерь!
Код создан с нуля ИИ, по подсказкам метода Яна Слоота.
Он работает медленно, любая попытка ИИ его улучить ломает код и работу программы
Что нужно сделать:
1) переписать на С++ или CUDA
2) переписать логику что бы не ел 34 ГБ RАМ постоянного словаря а ток с SSD
3) Добавить рекурсию после сжатия для нового сжатия
Принцип Работы, файл сжимается, размер его сохраняется но это теперь файл это ссылки на 34 гб словарь. Магия в том, что если поместить сжатый файл в ZIP и RAR то его размер в 10-20 раз МЕНЬШЕ ОРИГИНАЛА, И его можно восстановить из ОБЩЕГО СЛОВАРЯ. который постоянный 900 гб!
код и метод выложен на общее обозрение в Open source - вы можете редактировать и изменять его, но уважайте себя и научное сообщество, метод даёт возможным сингулярность и AGI
Получив бесконечные вычислительные мощности и память что будете делать с этим?