Копьютерщики, хацкеры, погромисты, нужна ваша помощь! Есть текст, содержащий в себе 100500 ссылок на фоточки, их надо скачать. Делать это вручную - пиздец, надо это дело автоматизировать. Задача №1 - вычленить из текста именно ссылки, потому что помимо ссылок есть куча мусора. Ссылки, к счастью, в адекватном формате - начинаются с http и заканчиваются .jpg, что по идее облегчает задачу. Задача №2 - запихнуть эти ссылки в какую-нибудь качалку файлов. Вопрос - куда? Download Master и ему подобные говноедские программы принимают только по одной ссылке. Еще там вроде бы можно загрузить xml файл с ссылками, но я не знаю как именно этот файл должен быть устроен. Просто список ссылок или с какими правильным оформлением - хз. Предполагаю, что поможет мне в этом обычный Word. Через поиск я выделю все ссылки, используя какой-то паттерн. Ссылки скопирую, получится список. Вопрос - а хули дальше то? Как вы решаете подобные задачи?
Да, вот еще момент. У того же Download Master есть функция закачать все ссылки со страницы. Почему я не пользуюсь этой функцией - потому что все ссылки под спойлерами. То есть на каждый нужно кликать вручную, в автоматическом режиме это не работает. Но в исходном коде все ссылки видны. Теперь их просто надо как-то вычленить и добавить в закачку.
>>210399513 Оппик - это то, что качать надо будет? Вероятно можно соснуть, кажется у фастпика какая-то защита от хотлинкинга и макакинга была >>210399467-кун
>>210399552 >кажется у фастпика какая-то защита от хотлинкинга и макакинга Не, сейчас проверил в Download Master - картинка напрямую скачивается, с этим без проблем. Проблема исключительно в автоматизации, как закачать все пикчи разом, а не в вручную. Просто там в одной раздаче по 300 файлов, а мне их штук 50 надо внимательно изучить. То есть это тысячи файлов в конечном итоге, что однозначно требует автоматизации.
>>210400150 Ох лол. На странице с пастой нажал закачать все ссылки и процесс пошел! хоть и через жопу, но результат достигнут. Правда, не все ссылки работают, некоторые битые почему-то.
>>210399495 Оно и видно, что ты не программист. Никогда не показывай заказчику, что задача лёгкая. Иначе он не захочет тебе платить. "Это ж было легко! Если было легко - то и платить незачем!"
>>210401062 Я бы такое делал бесплатно либо не делал вообще. Всякую мелочёвку брать - себя не уважать. Надо, чтобы работы было минимум на пару недель. Мимо другой анон
>>210399376 (OP) >Download Master и ему подобные говноедские программы принимают только по одной ссылке. Он может кушать текстовые файлы со списком ссылок, ты плохо ищешь.
Так, что-то я застрял на этой хуйне. Научился искать в документе ссылки как таковые. Ок. А как мне теперь сохранить только их и обрезать все лишнее? По идее должна где-то быть функция инверсия выделения или что-то подобное.
>>210402382 У меня пастбин почему-то не открывается, забанен он в моих краях, что ли. У меня не получается вот эта хуйня: >Delete all unmarked step 3) find everything before http:// and delete it. Step 4) Find everything after .html and delete it. –
>>210399376 (OP) 1) Копируешь в саблайм текст, работаешь над регулярками 2) Ищешь утилиту которая выполняет эту задачу, наверняка какой-нибудь wget это может
>>210403778 >lil peep install Команда 'lil' не найдена, возможно вы имели в виду: Команда 'lilo' из пакета 'lilo' Команда 'lli' из пакета 'llvm-runtime' Команда 'pil' из пакета 'picolisp' Команда 'cil' из пакета 'cil' Команда 'uil' из пакета 'uil' Команда 'lie' из пакета 'lie' Команда 'lid' из пакета 'id-utils'
>>210403810 Бля, вспомнил как писал функции на постресе. Это говно указывает, что ошибка находится где-то в окрестности, например, ")", но не указывает какой именно скобки (есть номер линии, но номер этой линии как правило за пределами описания функции находится), и не указывает, в чём заключатся ошибка. Ну, если эта ошибка на уровне лексера, а не компайл-тайма.
Есть текст, содержащий в себе 100500 ссылок на фоточки, их надо скачать.
Делать это вручную - пиздец, надо это дело автоматизировать.
Задача №1 - вычленить из текста именно ссылки, потому что помимо ссылок есть куча мусора.
Ссылки, к счастью, в адекватном формате - начинаются с http и заканчиваются .jpg, что по идее облегчает задачу.
Задача №2 - запихнуть эти ссылки в какую-нибудь качалку файлов.
Вопрос - куда? Download Master и ему подобные говноедские программы принимают только по одной ссылке.
Еще там вроде бы можно загрузить xml файл с ссылками, но я не знаю как именно этот файл должен быть устроен.
Просто список ссылок или с какими правильным оформлением - хз.
Предполагаю, что поможет мне в этом обычный Word. Через поиск я выделю все ссылки, используя какой-то паттерн.
Ссылки скопирую, получится список. Вопрос - а хули дальше то?
Как вы решаете подобные задачи?