Есть такой сайтец как вап сасиса, олды наверняка знают его, на этом сайте имеется ДОХУЯ фотоконтента любительского содержания и причем много эксклюзивного. Как понимаю, раньше там обменивались фотками своих жен примерно в 2010-2019 год ВОПРОС к погромист-кунам! Как спарсить все фотографии с хостинга? Там имеется уебищная мобильная верстка html говна, которое надо постоянно тыкать на кнопку Скачать оригинал Короче нужна помощь, как это сука сделать, я уверен что можно через api выйти на хост где можно схоронить тонну этого контента чтобы передать потомкам Поддержите пожалуйста тред анонче! без говняка, просто по человечески жалко контент который в одночасье может пропасть с нихуя...
>>313011554 (OP) когда нейронкодауны займутся реальными проблемами? когда сделают нейронку с базой шлюх, типо загружаешь фото своей еот или "ЕЕ КОМНАТЫ собаки хуя пятки левой" и нейронка выдает тебе тот самый пак где он позировала ашоту с хуем во рту или те фотки на даче где она в бане с максалбеком ебалась и пила сочу литрами это ведь просто огромные есть базы домашней порнухи это реальные наташки орксанки и мадинки слитые в сеть ведь любой контент попадает туда дак научите нейронку находить шлюх блять...назовите шлюхосканер..еотову загружаешь и тебе выдает пак с её участием
>>313012211 будь добр, сделай форму по которой можно хотяб по альбомам скачать, вы же все тут пиздатые наносеки я в погромировании не силен, на уровне найти среди кода ссылки на фото или видео способен
>>313011637 import os import requests from bs4 import BeautifulSoup
# Настройки BASE_URL = "https://s.sasisa.me/" # Замени на корректный URL OUTPUT_DIR = "downloaded_photos" # Папка для сохранения фото
# Создаем папку для сохранения фотографий if not os.path.exists(OUTPUT_DIR): os.makedirs(OUTPUT_DIR)
# Функция для скачивания фотографии def download_photo(url, filename): try: response = requests.get(url, stream=True) if response.status_code == 200: filepath = os.path.join(OUTPUT_DIR, filename) with open(filepath, 'wb') as file: for chunk in response.iter_content(1024): file.write(chunk) print(f"Скачано: {filename}") else: print(f"Ошибка при скачивании: {url}") except Exception as e: print(f"Ошибка: {e}")
# Парсинг страницы def scrape_photos(url): try: response = requests.get(url) if response.status_code != 200: print(f"Не удалось загрузить страницу: {url}") return
soup = BeautifulSoup(response.text, 'html.parser') # Находим все ссылки на фотографии photo_links = soup.find_all('a', href=True)
for link in photo_links: if "original" in link['href']: # Фильтруем ссылки, если нужно photo_url = BASE_URL + link['href'] if not link['href'].startswith('http') else link['href'] filename = os.path.basename(photo_url) download_photo(photo_url, filename)
except Exception as e: print(f"Ошибка парсинга: {e}")
# Главный процесс if __name__ == "__main__": # Укажи начальную страницу, с которой нужно начинать start_url = BASE_URL + "index.html" # Заменить на нужный URL scrape_photos(start_url)
>>313011554 (OP) Если не хочешь программировать, то попробуй погуглить ручную автоматизацию браузера. Есть ZennoPoster, BAS и Automa. Еще есть вариант заказать на FL у фрилансеров, уверен они даже за 500 рублей будут готовы взяться.
>>313012575 >>313012547 >>313012419 ребятки, сделайте оболочку простую чтобы можно было качать альбомом, реально готов скинуть 500 рэ с пруфами, я уверен что не займет это дело и 20 минут вам, эх!
Сука, нашел фотки где мужик ебет жену между сисек и кончает прямо на крестик. Немного в ахуе, нахуя так делать и зачем она это позволяет, если верующая
>>313012828 Ты сам себе это придумал? Если ты не бухаешь, у тебя есть работа - то это уже вин для нее в наше то время. Конечно стейси 10 из 10 не светит, но обычную вполне найдешь
>>313012789 Верой тут и не пахнет, over 90% людей, утверждающих о своей религиозности, соблюдают лишь несложную внешнюю атрибутику предписанной им их религией, лицемерие особо ярко видно к примеру у высоких санов церкви, вплоть до митрополитов и пап римских, в библии чётко написано нести слово божье, где его не услышали, но что-то не видно, что бы они шарахались по африкам или иракам с афганистанами, проповедуя, миссионеры тут приятное исключение, я их даже уважаю, несмотря на свое абсолютно атеистическое мировоззрение. Было у меня видео украденное с парой из моего города, так так парень ублажал своё хозяйство промеж сисек любимой, после чего кончил прямо на крестик на её шее, такое нередко бывает..
>>313011554 (OP) >которое надо постоянно тыкать на кнопку Скачать оригинал Открываешь PowerShell 7 Core (не путать с Windows PowerShell 5 ) Найди ссылку в HTML-редакторе которая отвечает за скачивание, рассмотри все ее атрибуты.
Дальше сканируешь все адреса со страницы через стандартный текстовый код определения символов Windows тупо очищая ссылки скачивания от говна, заносишь каждый в коллекцию переменных и перебираешь циклом с помощью команды Invoke-WebRequest. Все просто. Я так с сосача вебм-треды скачиваю в обход API и пасскодов.
>>313012875 >Если ты не бухаешь, у тебя есть работа - то это уже вин для нее в наше то время. Конечно стейси 10 из 10 не светит, но обычную вполне найдешь
Ахахах, вот это копиум... Меня отшивала 32-летняя с двумя детьми, которую бывший муж пиздил. Сказала, с чертами лица не повезло.
>>313012483 Да. Без Пайтон не фурычит. Он там в два тычка ставится.
Мжно и на другом языке программирования парсить сайты. Я писал парсеры на ноде ,питоне, даже на связке плюсов и libcurl+tinyxml. Смотря что надо спарсить. Из последнего писал парсер чтоб качал манги со слешлиба, попросила подруга ,так как там скачивание нихуя не работает.
>>313012575 Умничка! >>313012651 С мелким у тебя тян до ближайшего большого хуя. >>313012600 Там надо сначала спарсить все разделы, потом ещё с пагинацией разобраться
>>313012600 Гарантирую что эта хуйня не работает. Из 100% нужных правильных вариантов, ChatGPT-4o выдает 36% - и ЭТО СТАТИСТИКА OPENAI. Править баги за ним заебешься, проще самому написать. ChatGPT - это оверхайпленая параша. Местный пидорок, который тут отдельно бегает со своими тредами как ему якобы нейросетка сделала код сам написал этот код, чтобы тролить даунов.
>>313013004 Конкретно этот код может быть и не работает, не проверял, но в 90% случаев он решает мои проблемы, он может написать косячно, но если ему в ответ отправить ошибку, он все исправит, либо даст понять где ты накосячил.
может быть совсем с 0 знаниями он вам и не поможет, но примерно зная, что нужно делать, и как это все работает, он это сделает
>>313013004 Да и похуй, я его для другого использую, просто зарофлил с погромиста который воспользовался метаиронией на тему гпт.
>>313012962 import os import time import requests from bs4 import BeautifulSoup
# Настройки BASE_URL = "https://s.sasisa.me/" # Базовый URL OUTPUT_DIR = "downloaded_photos" # Папка для сохранения фото HEADERS = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/110.0.5481.77 Safari/537.36'}
# Создаем папку для сохранения фотографий if not os.path.exists(OUTPUT_DIR): os.makedirs(OUTPUT_DIR)
# Функция для скачивания фотографии def download_photo(url, filename): try: response = requests.get(url, stream=True, headers=HEADERS) if response.status_code == 200: filepath = os.path.join(OUTPUT_DIR, filename) with open(filepath, 'wb') as file: for chunk in response.iter_content(1024): file.write(chunk) print(f"Скачано: {filename}") else: print(f"Ошибка при скачивании: {url}") except Exception as e: print(f"Ошибка: {e}")
# Функция для парсинга одной страницы def scrape_page(url): try: response = requests.get(url, headers=HEADERS) if response.status_code != 200: print(f"Не удалось загрузить страницу: {url}") return []
soup = BeautifulSoup(response.text, 'html.parser') photo_links = [] # Ищем ссылки на фото (здесь нужно проверить структуру сайта) for link in soup.find_all('a', href=True): if "original" in link['href']: # Фильтрация ссылок на фото photo_url = BASE_URL + link['href'] if not link['href'].startswith('http') else link['href'] photo_links.append(photo_url)
# Функция для обработки раздела с пагинацией def scrape_section(section_url): page = 1 while True: print(f"Обрабатывается страница {page} раздела {section_url}...") paginated_url = f"{section_url}?page={page}" # Если пагинация через параметр page photo_links = scrape_page(paginated_url)
if not photo_links: # Если ссылок больше нет, выходим print("Пагинация завершена.") break
# Скачиваем фотографии for photo_url in photo_links: filename = os.path.basename(photo_url) download_photo(photo_url, filename)
page += 1 time.sleep(1) # Задержка для предотвращения блокировки
# Главная функция для парсинга всех разделов def scrape_all_sections(): try: response = requests.get(BASE_URL, headers=HEADERS) if response.status_code != 200: print(f"Не удалось загрузить базовый URL: {BASE_URL}") return
soup = BeautifulSoup(response.text, 'html.parser') # Ищем ссылки на разделы section_links = [BASE_URL + link['href'] for link in soup.find_all('a', href=True) if "section" in link['href']] # Уточни критерий поиска разделов
for section_url in section_links: print(f"Обрабатывается раздел: {section_url}") scrape_section(section_url) except Exception as e: print(f"Ошибка парсинга разделов: {e}")
# Запуск if __name__ == "__main__": scrape_all_sections()
>>313018152 А у меня такое неистовое семяизвержение, что она сразу бы тройню начала вынашивать от меня, если бы весь этот фонтан влился в матку. Идеальное тело, красивое лицо, такая женщина не может быть столько доступна.
>>313018396 >Ну так у тебя хуец уже все А нихуя. Я спущаю во сне по кд просто... Раз в неделю стабильно просыпаюсь с полными трусами малафьи. Так что всё там работает у меня на отлично.
>>313018846 Ну тогда еще ладно. Просто, чем старше, тем менее разборчивый становится человек. Я в 16 или 18 хотел только фотомоделей, а чем старше становился планочка понижалась. Теперь вот скоро думаю и на эту тётеньку засматриваться буду... 29лвл
Как понимаю, раньше там обменивались фотками своих жен примерно в 2010-2019 год
ВОПРОС к погромист-кунам!
Как спарсить все фотографии с хостинга?
Там имеется уебищная мобильная верстка html говна, которое надо постоянно тыкать на кнопку Скачать оригинал
Короче нужна помощь, как это сука сделать, я уверен что можно через api выйти на хост где можно схоронить тонну этого контента чтобы передать потомкам
Поддержите пожалуйста тред анонче! без говняка, просто по человечески жалко контент который в одночасье может пропасть с нихуя...