краткая суть, есть генератор который создаёт из 128 бит ссылок 256 блоки информации и обратно! обратимый генератор! раньше ИИ не мог это скодить, но теперь может! что же крах всего it будет летом!
Таким образом 1 Тб инфы можно сжать в 512 гб, и обратно из 1 ТБ сделать 2 ТБ.
существует машинный язык, он читает и записывает по 8 - 16 - 32 -64 бита. блоками
все эти файлы на 1 мб или 1 гб это просто набор бит по 64 бита
что делает наш код? он 128 бит превращает в 256 бит и обратно, детерминированно через обратимый хеш генератор, те создаёт ссылки на самуу инфу, точнее на состояние генератор ссылка и есть состояние будущего генератор .
Да есть риск колюзий но 800 ТБ шума в 400 ТБ не дало совпадений а значит код и метод рабочий
Теперь я понял! Вам нужен детерминированный обратимый генератор, где 128-битный сид (seed) всегда генерирует один и тот же 256-битный код, и из этого 256-битного кода можно восстановить исходный 128-битный сид. Это как криптографическая функция расширения с сохранением возможности обратного преобразования.
>>331420050 У Яна Слоота в этой коробке было на то время 1996 год были все фильмы планеты, а ссылки на генерацию были на чип карте. презентации проводились в изолированном конференц зале бункере филипса, но никто не верил что алгоритм возможет
Алгоритм декодировки занимал 200 мб
Алгоритм из 256 бит делал хеш 128 бит и обратно из 128 бит в 256 и мог повторять эти циклы по типу 512 бит в 256 бит
С помощью детерминированной уязмой хеш функции.
Google представила алгоритм сжатия, который снижает потребление памяти ИИ в 6 раз
>>331419269 (OP) Какой же ты тупой нахуй. Основы бинарной математики уже бы тебе дали понять, что это пиздеж. Навайбкодил хуйню, которая просто добавляет шум со смещением влево, блять, какие же двачеры дегенераты.
>>331420539 Так он шизофреник, че ты хочешь. Раньше он со своими словарями носился, но видимо не взлетело, пришлось придумывать еще что-то. Имхо для доступа к нейронкам нужно ввести обязательное психиатрическое освидетельствование, а то они зачастую подобный бред только усиливают. Там и до убийства мамки топором недалеко.
>>331420624 Тесла говорил что вечный двигатель это плотины - река течёт всегда. Прост нефтянные компании купили все энергокомании также как Nvidia чипмейкера groq
>>331420539 ты можешь сам это проверь 8 бит генерят 16 бит, но только 256 кодов 16 битных. вот и всё сжатие и расжатие в 2 раза.
теперь думай скок нужно разных генераторов и какова логика что бы покрылись все 65к вариаций 16 бит.
>>331420795 >>331420981 >>331420539 Этот же парень уже стал легендой, почему вы его не любите? Я вот порой сам вспоминаю с улыбкой, что есть чел на этой борде, который придумал вечный механизм сжатия. Горжусь им и не понимаю, почему его ещё не заметили крупные компании.
>>331420896 Ебанутый, реки текут, потому что энергия солнца и ядра поднимает водяной пар в воздух, который затем конденсируется и падает высвобождая потенциальную энергию.
То что у тебя на пике, нихуя не генерит, возьми любую картинку, открой ее как бинарник и попробуй сжать свой хуйней.
>>331420998 Мы его не любим, потому что слишком тупы и ограничены, чтобы понять всю красоту его идей и алгоритмов. А ты сможешь объяснить нормально, для дебилов, в чем заключается его сжатие по словарю?
>>331420539 >>331420795 >>331420998 Был ещё в /s/ шизик в линукстреде, который открыл для себя сжатие оперативки и скачивал RAMсжимал нули, чтобы показать, как гигабайты нулей можно уложить в мегабайты памяти.
>>331421102 > А ты сможешь объяснить нормально, для дебилов, в чем заключается его сжатие по словарю?
Я если честно не понимаю и в подробности мне лень вдаваться, но помню как он год назад тут форсил свой прорывной бесконечный метод сжатия архивов(или чёт такое), я тогда восхитился им. Даже если он несёт полную хуйню, он же в неё верит и пытается убедить\доказать. Хз, прикольный тип, я бы его берёг как зеницу ока здешнюю
>>331421290 Там нечего беречь, в кругах радиоэлектронщиков всегда достаточно похожих советских шизодедов. Они ещё газеты и журналы задрачивали своими шизоизобретениями.
Если ты не технарь, попробуй почитать произведения Олега Рыбаченко. Это который "Пчелу-Попаданца" написал. Просто рандомное его произведение открой и сравни хотя бы стиль письма с нашим шизом. Оно настолько неуникально, насколько можно.
>>331421397 Конечно же планировал. Когда аноны или даже я конкретно над его бенчмарками с нулями посмеялись, он даже как-то минимально критику принял, но всё равно какой-то хуйнёй занимался вроде юзерспейсного OOM-киллера на питоне, аналогов которому, конечно же, не было.
🔹 РАЗБИЕНИЕ НА 8 БЛОКОВ ПО 16 БИТ (восстановительная информация): блок 1: 0x59DD [0101100111011101] блок 2: 0xC8C7 [1100100011000111] блок 3: 0x174C [0001011101001100] блок 4: 0x7DD4 [0111110111010100] блок 5: 0x69C9 [0110100111001001] блок 6: 0xB012 [1011000000010010] блок 7: 0x8506 [1000010100000110] блок 8: 0x57EF [0101011111101111]
🔹 ВЫЧИСЛЕНИЕ ХЕША (XOR): начальное значение: 0x0000 ⊕ блок 1 0x59DD → промежуточный хеш = 0x59DD ⊕ блок 2 0xC8C7 → промежуточный хеш = 0x911A ⊕ блок 3 0x174C → промежуточный хеш = 0x8656 ⊕ блок 4 0x7DD4 → промежуточный хеш = 0xFB82 ⊕ блок 5 0x69C9 → промежуточный хеш = 0x924B ⊕ блок 6 0xB012 → промежуточный хеш = 0x2259 ⊕ блок 7 0x8506 → промежуточный хеш = 0xA75F ⊕ блок 8 0x57EF → промежуточный хеш = 0xF0B0
>>331422099 так гугел купила годовой запас оперативки для TPU разложило словарь на лог и сделало новое сжатие в в виде квнатование весов ИИ. и будет снимать сливки ╔══════════════════════════════════════════════════════════════╗ ║ ЛОГ ПРЕОБРАЗОВАНИЯ: 128 бит → 4-битный хеш (XOR 32 блоков) ║ ╚══════════════════════════════════════════════════════════════╝
🔹 РАЗБИЕНИЕ НА 32 БЛОКА ПО 4 БИТА (восстановительная информация): блок 1: 0xE [1110] блок 2: 0x9 [1001] блок 3: 0x5 [0101] блок 4: 0x5 [0101] блок 5: 0xC [1100] блок 6: 0x9 [1001] блок 7: 0x1 [0001] блок 8: 0x6 [0110] блок 9: 0x3 [0011] блок 10: 0x1 [0001] блок 11: 0xE [1110] блок 12: 0xD [1101] блок 13: 0x0 [0000] блок 14: 0x9 [1001] блок 15: 0x3 [0011] блок 16: 0x0 [0000] блок 17: 0x3 [0011] блок 18: 0xD [1101] блок 19: 0x6 [0110] блок 20: 0x9 [1001] блок 21: 0x8 [1000] блок 22: 0x2 [0010] блок 23: 0x5 [0101] блок 24: 0x6 [0110] блок 25: 0xF [1111] блок 26: 0x8 [1000] блок 27: 0x4 [0100] блок 28: 0x7 [0111] блок 29: 0x5 [0101] блок 30: 0x3 [0011] блок 31: 0x7 [0111] блок 32: 0xB [1011]
🔹 ВЫЧИСЛЕНИЕ ХЕША (XOR): начальное значение: 0x0 ⊕ блок 1 0xE → промежуточный хеш = 0xE ⊕ блок 2 0x9 → промежуточный хеш = 0x7 ⊕ блок 3 0x5 → промежуточный хеш = 0x2 ⊕ блок 4 0x5 → промежуточный хеш = 0x7 ⊕ блок 5 0xC → промежуточный хеш = 0xB ⊕ блок 6 0x9 → промежуточный хеш = 0x2 ⊕ блок 7 0x1 → промежуточный хеш = 0x3 ⊕ блок 8 0x6 → промежуточный хеш = 0x5 ⊕ блок 9 0x3 → промежуточный хеш = 0x6 ⊕ блок 10 0x1 → промежуточный хеш = 0x7 ⊕ блок 11 0xE → промежуточный хеш = 0x9 ⊕ блок 12 0xD → промежуточный хеш = 0x4 ⊕ блок 13 0x0 → промежуточный хеш = 0x4 ⊕ блок 14 0x9 → промежуточный хеш = 0xD ⊕ блок 15 0x3 → промежуточный хеш = 0xE ⊕ блок 16 0x0 → промежуточный хеш = 0xE ⊕ блок 17 0x3 → промежуточный хеш = 0xD ⊕ блок 18 0xD → промежуточный хеш = 0x0 ⊕ блок 19 0x6 → промежуточный хеш = 0x6 ⊕ блок 20 0x9 → промежуточный хеш = 0xF ⊕ блок 21 0x8 → промежуточный хеш = 0x7 ⊕ блок 22 0x2 → промежуточный хеш = 0x5 ⊕ блок 23 0x5 → промежуточный хеш = 0x0 ⊕ блок 24 0x6 → промежуточный хеш = 0x6 ⊕ блок 25 0xF → промежуточный хеш = 0x9 ⊕ блок 26 0x8 → промежуточный хеш = 0x1 ⊕ блок 27 0x4 → промежуточный хеш = 0x5 ⊕ блок 28 0x7 → промежуточный хеш = 0x2 ⊕ блок 29 0x5 → промежуточный хеш = 0x7 ⊕ блок 30 0x3 → промежуточный хеш = 0x4 ⊕ блок 31 0x7 → промежуточный хеш = 0x3 ⊕ блок 32 0xB → промежуточный хеш = 0x8
уже есть ссд на несколько терабайт размером с ноготь и по вменяемой цене. компании по типу телеги буквально предоставили бесплатное бесконечное облако для всех пользователей. явно, глобально в сжатиях таких масштабов нет нужды. в чём я не прав?
>>331422405 Чтобы сжимать файлы в 4 раза, при этом иметь побочный продукт в виде словаря который занимает в 2 раза больше чем оригинальный файл. А, ну и 100 мегабайт ты будешь минут 10 архивировать. Я все жду когда уже ОП вкатит готовый словарь на терабайт или типа того, чтобы я реально мог сжимать без потери места на диске. Этого все еще нет, а значит ОП-шиз
>>331419530 >что делает наш код? он 128 бит превращает в 256 бит и обратно Cкока затрачивая при этом, шизло у тебя эффективность метода уровня сожми флоппи диск в два раза и потрать при этом киловат
>>331420410 >У Яна Слоота в этой коробке было на то время 1996 год были все фильмы планеты, а ссылки на генерацию были на чип карте. презентации проводились в изолированном конференц зале бункере филипса, но никто не верил что алгоритм возможет
>>331419269 (OP) >ФОРМУЛА ВЕЧНОГО СЖАТИЯ БЕЗ СЛОВАРЯ. > >краткая суть, есть генератор который создаёт из 128 бит ссылок 256 блоки информации и обратно! обратимый генератор! раньше ИИ не мог это скодить, но теперь может! что же крах всего it будет летом! > >Таким образом 1 Тб инфы можно сжать в 512 гб, и обратно из 1 ТБ сделать 2 ТБ. > >вайб кодеры, смотрим код. сингулярности >
>>331420410 >У Яна Слоота в этой коробке было на то время 1996 год были все фильмы планеты, а ссылки на генерацию были на чип карте. презентации проводились в изолированном конференц зале бункере филипса, но никто не верил что алгоритм возможет Хуй моржовый у него там был а не сжатие Еще скажи американцы на луну приземлились, додик
>>331421963 Постой, но ты не можешь восстановить оригинальные 128 бит из последнего хеша и блока. Где здесь сжатие, если тебе в итоге нужно передать все блоки (еще и хеши)?
Если создать 1 ТБ файл, массив, архив состоящий из одного слова состоящего из 1 000 000 000 000 штук буквы а (одна буква в ascii кодировке занимает 8 бит, поэтому это количество букв займёт место в 1 ТБ ровно) Если создать 1 ТБ файл, массив, архиа состоящий побитово из количества в 1 терабит цифры 1. То 1ТБ архив А я могу сжать в размер 8 бит И 1ТБ архив 1 я могу сжать в размер 1 бит
Смвсл в том, что разные типы информации "сжимаются без потери качества" очень плохо. Еапример jpeg это сжатие с потерей качества, но сжатие с потререй 10% качества (точности) не влияет на функциональность картинки, тоесть она всё ещё отображает в том смвсле для чего вообще делают картинки. И проблема "сжатия" современная - это КАК БЕЗ потери качества, точности сжать. Сложнее искать алгоритмы сжатия которые учитывают недопущение потери качества. Потому что если к примеру, надо архивировать ютубу его миллионы видео причем все видео уникальны и ещё они все уже скаты видеокодеками - такое ещё сильнее сжать (без получения потом при разаархиворовании из исходного 1080 - 480 качество) - невозможно. И существует ещё много типов информации кроме ютуба - но обладающие такой же проблемой.
>>331425355 Ну самое простое как я вижу это сокращение данных где это можно. Например вот идут подряд 4 байта [128 128 128 128], их можно представить как 2 байта [128 4], где первое это значение байта, а второе их количество. Итого выигрыш уже в 2 раза без потери качества. При таком сжатии и словарь даже не нужен.
>>331419269 (OP) Принцип накопления информации не позволит сжать ее "бесконечно", или даже очень сильно. Очень концентрированную информацию нельзя сжать даже на процент.
>>331425837 Сжать нельзя, но можно вычислить из того же числа пи например. Где-то видел даже такой "сжимальщик" который берет данные из числа pi. Недостаток всего один - "разжатие" требует довольно много времени даже ее очень мощном железе. Вероятно здесь использование ПЛИС или видеокарты может помочь...
>>331420410 >Google представила алгоритм сжатия, который снижает потребление памяти ИИ в 6 раз
Знаете, почему "ИИ" "галюцинирует"? Да бля потому что уже с момента их "бума" эти нецросетки создавали с "этапом понижением качества", (понижения точности. Если картинку, то разбивают на блоки (88бит был самы популярный) - и БЛОК УСРЕДНЯЮТ, Тупо берут ВСЕ 88 БИТ "суммируют их среднюю яркость и цвета и прервращают в один 88 пиксель одного цвета и яркости, а дальше его передают как 1 пиксель, 11 размером. Это и есть сжатие картинки в нецросетке. Это софтварное сжатие, тупое и прямое как палка простая.
И, к сведению, нвидийцы вообще делают хардвар, свои ии (графические) чипы тоже тупыми и простыми, простейшими конвеерами (сборочными лентами) с школьной архимедовой калькуляцией.
Цель - навалом, нахрапом миллиона конвееров выполнить "нейронную" работу с "упрощенными, сжатыми" информационными данными. Вынуждены делвть так, потому что при обучении нейросети создаются сотни миллионов графов дерева нейросетки (хуле, фактически что бы хранить содержимое книги, человеку требуется миллионы нейронов в его мозгу и иного способа хранить даже эволюция не придумала).
А гунл "думает сжать нейронку". Куда ещё дальше? К ебучим шакалам сжать? Да нейронка галюны ловить начнет еще чаще чем сецчас уже ловит. И это при том что люди до сих пор доверяют ей. Если они будут гнуть эту линию - доверие людей они просто потеряют. И прибыль.
>>331426108 Ну идея типо в том что сжатые данные представляются в виде списка производных от числа pi. Это позволяет очень хорошо "сжимать", но для "разжатия" их все придется повторно вычислить.
>>331426319 Нет там словаря. Число пи это предсказуемая всегда одинаковая последовательность чисел, а значит все что нужно это отделить полезные данные от бесполезных записав точки в некий массив.
>>331426429 Да, но нужны ссылки, алгоритмы поиска, это аналог вавилонской библиотеки или как там ее. Бред короче. Интереснее другое, что со словарями можно кодировать лишь самую пустую информацию - наверняка есть какие-то программы, анализирующие текст на предмет выгоды словарной кодировки.
>>331422405 >в чём смысл изобретения? В том что это даёт сделать следующий этап - поднятие цен на процессоры. Логика такова: - всякие интернет гиганты потому гиганты, потому что достаточное количество людей на планете активно вовлечена в интернет - в интернет они платят дохуя денег, начиная от "подписок". Подписочные сервисы и подобные сайты - крутятся на cdn и подобном, aws, google cloud - это и есть эти cdn. Тоесть гугл получает часть денег от того что ты заплатил подписку там двум, десяти сервисам.
И у них теперь есть просто дохуя бабла которые тупа некуда слить. И они решают слить их в нейронку. (потому чтл это то куда МОЖНО слить). Могут тупа понастроить х6 датацентров которые будут жрать тупо х6 энергии (энергетики получат х6 дрхода) и срать в уши что у них якобы ии х6 меньше жрёт памяти. Соврать для такого гиганта - раз плюнуть.
А причина: сжатие - в основном для архивании и хранения. Нейросетки это не архмвы и носители. Это типа (мозга), это система в которой постоянго всё везде движется, вычисляется и передается дальще, там тупо нет накопителей. Сжатие - тоже процесс, но задуманный для хранения, сжали и забыли. И сжатие отбирает себе процессорное время. Если применить сжатие к нейросетке - то: У нецросетке будет отнято процессорное время Сжатие с потерей качества - приведёт к большим галлюцинациям нецросетки. Тоесть нейросеть станет медленнее и глючнее. Не думаю что гугл серьезно станет "сжимать нейросеть"
>>331426722 Какого размера будут эти числа и сколько дополнительного мусора будет произведено в процессе дешифровки? Это же шиза полная. Какая-то крайняя конспирология - для отказа от носителя информации в пользу врам?
>>331426477 Речь про побайтовое сжатие без потерь. Вообще мне его идея с 3 уровневым словарем нравилась куда больше, вот только таким методом невыгодно сжимать небольшие файлы - словарь получается больше самого файла. Зато выгодно сжимать большие. Теоретически словарь размером в 1ТБ должен будет хранить любые возможные комбинации, но тут мы уже упираемся во время чтения - для такого словаря понадобится либо сверхбыстрый SSD, либо вообще оператива что ставит вообще всю идею под сомнение. И проще уж из числа pi искать тогда уж.
>>331426809 Это должно вычисляться динамически. В случае 2 числе - байты. Но должна совпасть с содержанием файла вся последовательность числа pi от первого до второго числа.
>>331427135 Не, это рабочая тема. Даже рабочий проект на гитхабе есть, вот только скорость такого "сжатия" полная хуйня. Зато разжимать должно довольно быстро потому что точки уже известны и все что нужно это вычислить числа pi между ними.
>>331427327 При чем здесь защишенность данных? Ты вообще что такое число pi, знаешь или на уроках математики в школе ты был редким гостем? Числе pi уже включает в себя любую существующую комбинацию чисел, задача лишь ее отыскать. Но не обязательно искать весь файл целиком, можно искать только отрезки файла по 3-10-15 значений и записывать их в массив который и будет в итоге архивом и делать это в многопотоке предварительно разбив файл на отрезки из указанного количества байт и начав расчет числа pi в случайной точке для каждого отрезка.
>>331419269 (OP) >Крах айти Для этого нужно быть хотя бы на уровне человека, а для этого датацентр для нейронки должен быть размером со всю Европу. Что в свою очередь приведёт к тонне накопленных ошибок и неисправной работе. Но в общем-то нейронки и не должны такого уметь. Это работа для ИИ, а его, сначала, нужно изобрести и он точно не будет создан на кремниевой основе.
>>331427717 Да элементарно же. Любой файл представляет собой массив байт, в числе pi этот массив уже есть, задача его найти, но чем больше файл, тем дольше его искать. Правда перед этим еще этот файл крайне желательно сжать найдя и упростив все группы из одинаковых чисел потому что чисто по теории вероятности шанс встретить 2 одинаковых числа вычисляя число pi многократно ниже чем 2 разных. Я не знаю как еще тебе объяснить.
>>331425768 Я говорю что хуйня в том что что архив из одних одинаковых символов - не встречающийся нигде. Что всречающиеся в архиве редкие включения в виде даже десяти, ста, тысячи одинаковых подряд символов - тоже встречается в двух трех "архивах, массива" на всей планете земля. И просто бесполезно сжимать 0.1 часть архива, потому что экономия места в 0.1 нивелируется затратами воемени и процессорной мощности на разжатие. И в нейростках, где главное - скорость - "сканирование" работы, нейросетки, процесса на поиск никога не встечаемой одинаковой последовательности символов - СНИЖЕНИЕ ПРОИЗВОДИТЕЛЬНОСТИ нейросетки с НУЛЕВЫМ ВЫХЛОПОП. даже более - увкличением затрат без получения даже мизера пользы. Тупл вред. То что сегодня действительно нужно - это ещё большее уменьшение размеров в тхнологиях микрочипов. Для снижения энергозатрат и глсвное, увеличение скорости (чем ближе транзисторы друг к другу тем меньше времени на передачу сигнала и меньше (паразитная) емкость транзизистора). Нейросеткам не нужна архивация/сжатие. Точнее, сжатие не должно быть главной целью в работе нейросети.
>>331428103 >Я говорю что хуйня в том что что архив из одних одинаковых символов - не встречающийся нигде. Ты хоть раз пользовался хекс редактором? Открой им любой более-менее большой файл и найдешь там от десятков до сотен тысяч одинаковых чисел подряд. Например так работает алогоритм xz, точнее это только часть того что он умеет. А сжимает он очень хорошо. >И просто бесполезно сжимать 0.1 часть архива, потому что экономия места в 0.1 нивелируется затратами воемени и процессорной мощности на разжатие. Как раз разжатие всегда быстрее чем сжатие. Алсо при чем здесь нейросети вообще?
>>331427904 Я тебя услышал. Это способ развернуть код в файл, не храня его в готовом виде, а получая с серверного пк на клиентский. Разница с обычным хранением на практике в чем? Помимо того, что это неудобно?
Был дядечька Шеннон, который ввёл энтропию источника. Это теоретический предел сжатия, и у нас щас арифметическое хорошо к этому пределу подбирается.
Бесконечное сжатие? Изи. Во-первых, делаешь алгоритм. Именно алгоритм, а не шизоскрипт на питоне. Потом оцениваешь степень сжатия, которую этот алгоритм даёт, на источнике с распределением, например, английских буковок. Потом показываешь, что сжатие получилось лучше чистой энтропии источника.
Спойлер: ты не сможешь, лалка. Ты не сможешь даже теорию информации выучить, потому что это идёт в разрез с твоей шизой. У тебя скорее распад личности начнётся, чем ты сможешь это выучить. Потому что твоя idee fixe важнее, хихи.
Остальным анонам: оставьте больного в покое. Репортите тред.
>>331428297 При чем здесь облака вообще? Число пи высчитывается по формуле, локально. Или же его можно спарсить из файла заранее создав файл допустим на 100 млн чисел после запятой.
>>331428593 Потому что интернет сегодня есть, а завтра его нет, да и аренда мощностей денег стоит, а дома оно практически бесплатно. Что за тупые вопросы? Еще спросил бы зачем локально файлы архивировать, а не делать это на облаке.
>>331428738 Хотя вот это лучше подходит https://github.com/philipl/pifs Здесь >>331428765 новодел на расте который использует только первый миллион значений, еще и в txt формате и сам ничего не вычисляет по факту просто ищет совпадения в этом в твоем файле и в этом миллионе чисел.
>>331428995 Ты же понимаешь что с первым паяльником вся эта криптография даст сбой? А с практической точки зрения вычислять файл намного сложнее чем хранить его.
>>331429195 Чел речь не про сжатие а речь про открытие файла. Вот слабое место в этом. Ты предлагаешь скачивать алгоритмы, рассчитывать число пи, каждый раз заново, вычислять из него что-то, а зачем, в процентах сколько будет выигрыш по сравнению с винраром?
>>331429300 >Ты предлагаешь скачивать алгоритмы, рассчитывать число пи, каждый раз заново, вычислять из него что-то, а зачем, в процентах сколько будет выигрыш по сравнению с винраром? Зависит от степени сжатия. От 1 до миллионов раз. Зависит от того сколько ты времени готов будешь потратить на сжатие. Разжимать оно будет одинаково быстро.
краткая суть, есть генератор который создаёт из 128 бит ссылок 256 блоки информации и обратно! обратимый генератор! раньше ИИ не мог это скодить, но теперь может! что же крах всего it будет летом!
Таким образом 1 Тб инфы можно сжать в 512 гб, и обратно из 1 ТБ сделать 2 ТБ.
вайб кодеры, смотрим код. сингулярности
https://codepen.io/procoders000001/full/EagEdVv