Screaming Frog SEO Spider 23.0 x86 x64 [20.10.2025, Multi, NO RUS]

Страницы:  1
Ответить
 

vlad-com

Стаж: 13 лет 11 месяцев

Сообщений: 46

vlad-com · 28-Окт-25 21:08 (1 месяц 13 дней назад, ред. 28-Окт-25 21:22)

Screaming Frog SEO Spider 23.0 x86 x64 [20.10.2025, Multi, NO RUS]
Версия программы: 23.0
Релиз состоялся: 20.10.2025
Официальный сайт: ссылка
Язык интерфейса: Английский и другие
Лечение: в комплекте
"Внимание. Возможна негативная реакция антивируса"
Тип лекарства: замена файлов
Системные требования:
Windows 7 и более поздние версии

Описание:
Screaming Frog SEO Spider 23.0 — новейшая версия одного из самых популярных десктопных инструментов для технического SEO-аудита и сканирования сайтов. Последний релиз получил внутреннее название "Rush Hour" и направлен на обновление интеграций, оптимизацию хранения данных и внедрение современных функций для профессионального анализа сайтов. Screaming Frog SEO Spider официальное видео на YouTube.
Основные возможности программы:
  1. Полная поддержка Windows, macOS, Linux (эта раздача только для Windows).
  2. Сканирование сайтов любого размера: Эффективно обходит даже очень крупные ресурсы, используя комбинированное хранение данных в ОЗУ и на диске.
  3. Поиск битых ссылок и ошибок: Автоматическое выявление битых (404), недоступных (5xx), перенаправленных страниц и экспорт отчетов для устранения проблем.
  4. Аудит редиректов: Детектирует цепочки и петли переадресаций (301, 302, JS-перенаправления, meta-refresh).
  5. Обнаружение дублированного контента: Находит точные и частичные дубликаты страниц, заголовков, описаний, H1-H2, а также почти дубликаты (near duplicates).
  6. Глубокий аудит мета-данных и структурированных данных: Проверка длины, уникальности, наличия и корректности Title, Description, Keywords, H1/H2, canonical, alternate, hreflang.
  7. Валидация hreflang и локализации: Аудит многоязычных атрибутов, поиск ошибок в hreflang-разметке.
  8. Валидация mobile usability и AMP: Проверка мобильной совместимости, анализ AMP-страниц, выполнение тестов и валидации.
  9. Проверка robots.txt, X-Robots-Tag и meta robots: Отображает заблокированные урлы, noindex, nofollow, проверки директив, custom robots.txt.
  10. Генерация и аудит XML Sitemap: Создание карт сайта и изображений, проверка существующих sitemap на ошибки и пропуски.
  11. Анализ ссылочной структуры: Визуализация линковки, построение диаграмм переходов, просмотр inlinks/outlinks, распределение anchor-текстов.
  12. Визуализация архитектуры сайта: Построение интерактивных графов структуры, аналитика глубины вложенности и распределения страниц.
  13. Экстракция любых данных XPath, CSS, RegExp: Возможность получать любые поля или тексты со страниц, парсинг цен, артикулов, кастомных тегов.
  14. Интеграция с внешними сервисами: Поддержка Google Analytics, Search Console, PageSpeed Insights, Looker Studio, Ahrefs, Moz, Majestic.
  15. JavaScript-рендеринг: Полное сканирование сайтов на React, Angular, Vue и других JS-фреймворках через Chromium WRS.
  16. Аудит hreflang, rel=next/prev, canonical, AMP и других сложных атрибутов.
  17. Спеллинг и грамматическая проверка: Проверка текстов на орфографические и грамматические ошибки на 25+ языках.
  18. Проверка валидности structured data (Schema.org), поддержка rich snippets и microdata.
  19. Проверка мета- и HTTP-заголовков (response time, файловые размеры, кодировки, security headers).
  20. Формирование и экспорт отчетов: XLSX, CSV, Google Sheets, интеграция с BI-системами.
  21. Планировщик, автоматизация и работа по расписанию: Запланированные обходы, экспорт результатов, работа через CLI и API.
  22. Сравнение сканов между версиями (crawl comparison): Трекинг изменений между тестовой и продакшн-версиями, журнал изменений.
  23. Поддержка кастомных HTTP-заголовков, управление user-agent, авторизация на сайтах.
  24. Массовая валидация canonical, pagination, robots, alt-тегов, inlinks/outlinks, mixed content.
  25. Интеграция с OpenAI и Gemini для расширенного анализа страниц и ссылающихся структур (AI-функции).
Дополнительная информация:
Преимущества:
  1. Мощный профессиональный SEO-инструмент для аудита любых сайтов — от блогов до крупных порталов.
  2. Гибкая настройка: парсинг по любым правилам, использование XPath, CSS-селекторов и регулярных выражений.
  3. Бесплатная версия — до 500 URL в одном проекте; платная (от £199/год) — без ограничений и со всеми функциями.
  4. Поддержка Windows, macOS, Linux; высокая стабильность, быстрые обновления инструмента.
  5. Интеграция с Google Analytics, Search Console, PageSpeed Insights, Looker Studio, Ahrefs, Moz, Majestic.
  6. Встроенный планировщик и автоматизация: обходы по расписанию, экспорт в Google Sheets, работа через командную строку.
  7. Поддержка облачного режима, командная работа, импорт и экспорт проектов.
  8. Регулярные обновления, приоритетная техническая поддержка для платных пользователей.
Типовые задачи Screaming Frog SEO Spider:
  1. Поиск битых ссылок и серверных ошибок, экспорт проблемных URL для устранения.
  2. Глубокий аудит редиректов: выявление циклов, цепочек, JS и meta-refresh.
  3. Анализ мета-данных: Title, Description, Keywords, H1/H2, canonical, alternate, hreflang.
  4. Поиск точных и почти дубликатов страниц, микроразметки Schema, rich-snippets.
  5. Семантическое сравнение страниц, аудит их сходства и различий.
  6. Проверка robots.txt, X-Robots-Tag, meta robots, AMP и mobile usability.
  7. Генерация и аудит XML sitemap для сайта и изображений, анализ существующего sitemap.
  8. Валидация структурированных данных Schema.org, проверка rich snippets для Google/Yandex.
  9. Визуализация структуры сайта: построение графов, линковки между страницами, расчёт вложенности.
  10. Проверка доступности (WCAG / accessibility audit), спеллинг и грамматика на 25+ языках.
  11. Интеграция с внешними аналитическими и BI-системами: загрузка аналитики, автоматический экспорт отчётов.
  12. Аудит мобильной совместимости, AMP, canonical, pagination, alt-тегов, mixed content.
  13. Сравнение сканов между версиями (staging vs production), отслеживание изменений и прогресса SEO.
Screaming Frog SEO Spider 23.0 — универсальное решение для SEO-специалистов, агентств, веб-мастеров и разработчиков для глубокого технического аудита, автоматизации и оптимизации сайтов любого масштаба, с поддержкой современных технологий, интеграцией AI и облачных платформ.
Что нового в версии 23.0
  1. Полное обновление Lighthouse & PageSpeed Insights: интеграция самых новых показателей, консолидация и переименование аудитов в соответствии с последними стандартами Google (Lighthouse 13, PSI), учёт breaking changes, новые и удалённые метрики, автоматические уведомления о смене формата при экспорте отчётов.
  2. Интеграция Ahrefs API v3: теперь доступ ко всем данным через новый OAuth, поддержка любых тарифов (не только Enterprise), новые и переименованные метрики (backlinks, traffic, domain rating), расширенная аналитика ссылочного профиля.
  3. Автоматическое удаление старых сканов (Crawl Retention): настройка удаления старых проектов по расписанию, защита от случайного стирания через «Lock», использование всех преимуществ масштабируемого хранения сканов в базе данных.
  4. Embeddings Rules — семантическое сравнение страниц: новые правила для анализа и сопоставления контента через векторные embeddings, гибкая настройка URL-паттернов для поиска наиболее похожих страниц между разделами сайта или между staging и production.
  5. Расширенные визуализации ссылок: теперь можно в графах правой кнопкой выделять все входящие/исходящие ссылки, фиксировать "Inlinks", "Outlinks" как для узлов, так и для их дочерних элементов, мгновенно оценивать схему внутренней перелинковки для любой секции сайта.
  6. Визуализация ссылок в Content Cluster Diagram: аналогичное выделение Inlinks/Outlinks внутри семантических кластеров, возможность увидеть связи между похожими по смыслу страницами, поиск неохваченных внутренней ссылкой зон.
  7. Новые лимиты и доработки по управлению краулом: лимитирование обхода по поддомену, улучшенный подсчёт H1/H2 (теперь считается точное число по всей странице), настраиваемое percent encoding URL.
  8. Доработки и новые фильтры: экспорт отчёта по всем ошибочным inlinks в один файл, отдельный отчёт по редиректам на ошибочные страницы, новый фильтр для HTTP Refresh, сортировка «Move up & down» для Custom Search, Extraction & JS, поддержка ирландского языка для орфографии/грамматики.
  9. Апдейты AI-моделей: OpenAI теперь GPT-5-mini, Gemini — 2.5-flash, Anthropic — Claude Sonnet 4-5, актуализация возможностей анализа контента.
  10. Список изменений (Changelog) версии 23.0 на официальном сайте
Процедура лечения
Важно! Не запускайте программу после установки!
1. После завершения установки не открывайте Screaming Frog SEO Spider.
2. Откройте папку с установленной программой: C:\Program Files (x86)\Screaming Frog SEO Spider\
3. В скачанном архиве перейдите по пути: Screaming Frog SEO Spider v23.0\Crack\ и скопируйте файл ScreamingFrogSEOSpider.exe.
4. Вставьте этот файл с заменой в папку установленной программы (подтвердите замену оригинального файла, если потребуется) C:\Program Files (x86)\Screaming Frog SEO Spider\.
5. После замены файла можете запускать программу и пользоваться всем функционалом.
Если антивирус блокирует действия — добавьте файл в исключения перед копированием!
Скриншоты:
Download
Rutracker.org не распространяет и не хранит электронные версии произведений, а лишь предоставляет доступ к создаваемому пользователями каталогу ссылок на торрент-файлы, которые содержат только списки хеш-сумм
Как скачивать? (для скачивания .torrent файлов необходима регистрация)
[Профиль]  [ЛС] 

vlad-com

Стаж: 13 лет 11 месяцев

Сообщений: 46

vlad-com · 28-Окт-25 21:10 (спустя 1 мин.)

AI-интеграция в Screaming Frog SEO Spider: Пошаговый гайд и примеры промптов
Как подключить OpenAI, Gemini и другие AI в Screaming Frog для автоматизации SEO-задач
Пошаговая инструкция:
  1. 1. Получите API-ключ вашего AI-провайдера
    Зарегистрируйтесь на OpenAI или Google AI Studio (Gemini) и сгенерируйте API-ключ.
  2. 2. Введите ключ в настройках Screaming Frog
    Зайдите: Configuration → API Access → AI.
    Выберите нужного провайдера (OpenAI, Gemini и т.д.) и вставьте ваш API Key в соответствующее поле, затем нажмите Connect.
  3. 3. Включите хранение HTML для работы AI
    Откройте: Configuration → Spider → Extraction.
    Активируйте опции Store HTML и/или Store Rendered HTML.
  4. 4. Добавьте и настройте AI-промпты
    Перейдите в раздел Prompt Configuration.
    - Нажмите Add для создания промпта.
    - Укажите категорию модели (например, ChatGPT, Embeddings).
    - Выберите версию модели (например, gpt-5-mini).
    - Задайте тип входных данных (например, Page Text или HTML).
    - Введите сам промпт (см. примеры ниже).
  5. 5. Протестируйте промпты
    Используйте кнопку Play рядом с промптом для проверки результата на тестовом URL.
  6. 6. (Опционально) Ограничьте промпты сегментами
    Можно запускать промпты только для определённых частей сайта или на найденных ошибках (например, только для страниц без alt).
  7. 7. Запустите обход
    Введите адрес и начните сканирование. Результаты AI появятся в отдельной вкладке AI, а также добавятся в новые колонки/фильтры для дальнейшего анализа и экспорта.
Примеры AI-промптов:
  1. Генерация alt-текста для изображений:
    Ты — эксперт по SEO и описаниям изображений. Создай короткий, но точный alt-текст для данного изображения.
  2. Определение типа страницы:
    Определи тип страницы: коммерческая, информационная или нейтральная, исходя из текста страницы.
  3. FAQ по содержимому:
    Прочитай заголовок и сформируй 2-3 вопроса и краткие ответы для часто задаваемых вопросов на эту тему.
  4. Анализ тональности и релевантности:
    Оцени тональность текста (позитивный, негативный, нейтральный) и укажи, насколько он релевантен теме сайта.
Преимущества AI-интеграции:
  1. Мгновенная автоматизация рутинных SEO-задач.
  2. Анализ тысяч страниц за минуты.
  3. Повышение точности аудита и скорости SEO-отчётов.
  4. Поддержка современных нейросетей (OpenAI, Gemini, Anthropic и др.).
Подробнее — официальное руководство Screaming Frog:
AI-промпты: как использовать
User Guide: ConfigurationБазовый SEO-аудит сайта через Screaming Frog: Пошаговая настройка для максимальной эффективности
1. Установка и системные требования:
  1. Скачайте программу с раздачи.
  2. Установка на Windows проста: следуйте графическому мастеру (Install Wizard).
  3. Рекомендации: для аудита средних и крупных сайтов желательно иметь минимум 8–16 ГБ ОЗУ, SSD-диск и стабильный интернет — это ускоряет обработку больших проектов.
2. Настройка хранения данных:
  1. Перейдите в File → Settings → Storage Mode.
  2. Database Storage: рекомендуемый режим для высокой производительности — проект сохраняется в базе и доступен для анализа после аудита, удобно на объемных проектах.
  3. Memory Storage: сканирование происходит в RAM, всё очищается после завершения работы. Подходит для тестовых, небольших или одноразовых задач (до 5000 страниц).
  4. В поле Memory Allocation можно задать лимит RAM для Screaming Frog. При сбое или нехватке памяти увеличьте значение вручную!
3. Настройка User Agent:
  1. Откройте Configuration → User-Agent.
  2. Выбор «Googlebot Smartphone» или «Googlebot» позволяет эмулировать поведение поисковых систем: так сайты чаще отдают полный (не резанный) контент.
  3. Для технических аудитов обычного сайта подходит «Screaming Frog SEO Spider», но для определения индексации используйте Googlebot.
4. Скорость обхода и потоков:
  1. Configuration → Speed:
    Настройте количество потоков (5–20). Оптимум для стандартных сайтов — 5–10, для мощных серверов можно увеличить до 15–20.
  2. Учтите: слишком высокая скорость может привести к блокировке по IP, снижайте значение при первых признаках защиты или загруженности сервера сайта!
5. Выделение нужных разделов и лимиты обхода:
  1. Configuration → Include / Exclude:
    - Настройте включение или исключение поддоменов, отдельных разделов, типов страниц через правила и регулярки.
  2. Configuration → Spider → Limits:
    - Укажите глубину сканирования (Limit Crawl Depth: 3–7 обычно достаточно).
    - Задайте лимит общего числа страниц (например, 10000).
    - Регулируйте лимиты для ссылок, файлов, редиректов, и используйте фильтры для важных типов контента (HTML, XML).
6. Главные параметры Spider и Extraction:
  1. Configuration → Spider:
    - Активируйте чекбоксы: Follow Redirects, Crawl All Subdomains, Extract Microdata, Extract hreflang.
    - Отключите «Crawl SWF», «Crawl External JavaScript» и аналогичные пункты — это ускоряет проверку!
  2. Configuration → Extraction:
    - Выберите поля для анализа: Title, Meta Description, H1/H2, Canonical, AMP, sitemap, Alt-тексты, микроданные.
    - Для SPA и JS-сайтов активируйте Storage Rendered HTML для полного аудита.
7. Подключение к внешним сервисам и API:
  1. Configuration → API Access:
    - Подключите Google Analytics, Google Search Console для расширенного анализа индексации, конверсий, орфанных страниц и поведенческих факторов.
    - Screaming Frog автоматически загрузит данные и покажет их во вкладках/отчётах.
8. Работа с robots.txt и блокировками:
  1. В Configuration → robots.txt можно выбрать режим Respect или Ignore — Respect учитывает реальные ограничения сайта, Ignore сканирует весь контент без перерывов.
  2. Открывайте User Guide по robots.txt, чтобы узнать, как обойти специфические запреты для аудита!
9. Расширенные настройки (Advanced):
  1. Активируйте Store HTML и Store Rendered HTML для сохранения исходного и отрисованного кода (нужно для сложных JS-сайтов).
  2. Дополнительные опции: Extract JSON-LD и Images from img srcset (для расширенного аудита e-commerce/мультимедийных сайтов).
  3. Измените таймауты запросов/повторов, если сайт медленный или бывает недоступен.
10. Пользовательский поиск и парсинг (Custom Search & Extraction):
  1. Во вкладках Custom Search и Custom Extraction добавьте regex/XPath/css-селекторы — это позволяет искать уникальные ошибки (например, дубли шаблонов, некорректные скрипты, заводские данные).
  2. Для интернет-магазинов используйте парсинг цен, наличия, фильтров, микроразметки Schema.org.
11. Прокси и ротация User Agent (опционально):
  1. В Configuration → Proxy добавьте прокси или список прокси для обхода лимитов/защит сайта.
  2. Меняйте User Agent раз в 1000–2000 страниц для крупных ресурсов/-аудита сетки.
12. Сохранение и экспорт профиля настройки:
  1. Сохраните текущую настройку через Configuration → Profile — это ускоряет работу с повторными аудитами и проектами.
  2. Экспортируйте таблицы результата (Internal, Response Codes, Titles, Descriptions, Content и др.) для анализа в Excel, Google Sheets.
13. Запуск аудита и анализ результатов:
  1. Введите URL сайта в главное поле и запустите обход.
  2. Во время аудита отслеживайте статус Response Codes, Titles, Meta, Content, Images, Links, Canonical, Sitemap, Robots.txt.
  3. После завершения проверьте три группы ошибок: проблема индексации (robots, canonical), качество мета-данных, структурные и технические ошибки (404, дубли, недоступные страницы).
  4. Все отчёты можно экспортировать, фильтровать и сегментировать по нужным задачам.
Все настройки гибко дополняются под задачи любого проекта: от небольшого блога до гигантского интернет-магазина! Для максимально качественного аудита читайте инструкции по каждой вкладке Screaming Frog на официальном сайте.
[Профиль]  [ЛС] 

Slav-on

Стаж: 17 лет 3 месяца

Сообщений: 54

Slav-on · 31-Окт-25 17:29 (спустя 2 дня 20 часов)

Огромное спасибо! Отдельная благодарность про краткую инструкцию по настройке и подробному описанию приложения.
Проверил на Win11 работает без проблем.
[Профиль]  [ЛС] 

Volhat

Стаж: 15 лет 11 месяцев

Сообщений: 16


Volhat · 31-Окт-25 22:01 (спустя 4 часа)

Храни вас Господь, ребята!
[Профиль]  [ЛС] 

Peradona Yuna

Стаж: 10 месяцев

Сообщений: 3


Peradona Yuna · 02-Ноя-25 02:37 (спустя 1 день 4 часа)

У вас есть версия для macOS?
[Профиль]  [ЛС] 

kostys2

Стаж: 16 лет 4 месяца

Сообщений: 24


kostys2 · 02-Ноя-25 15:02 (спустя 12 часов)

Доброго дня!
При запуске с включенной настройкой Configuration - Spider- Crawl - Rendering "Javascript" не парсит сайты. Долго думает а потом показывает строку с главной страницей со Status Code "0" и прекращает работу
У кого-то подругому?
В любом случае благодарю за проделанную работу. Эта ошибка не связанна с автором раздачи, это проблема Лягушки
[Профиль]  [ЛС] 

Slav-on

Стаж: 17 лет 3 месяца

Сообщений: 54

Slav-on · 02-Ноя-25 18:51 (спустя 3 часа)

kostys2 писал(а):
88405865При запуске с включенной настройкой Configuration - Spider- Crawl - Rendering "Javascript" не парсит сайты. Долго думает а потом показывает строку с главной страницей со Status Code "0" и прекращает работу
Уверены что сайт не под защитой CF или скрипты могут выполняться в таком режиме?
[Профиль]  [ЛС] 

paulg2

Стаж: 17 лет 2 месяца

Сообщений: 48

paulg2 · 04-Ноя-25 11:11 (спустя 1 день 16 часов)

если после лечения не запускается и висит в Диспетчере процесс, что делать?
[Профиль]  [ЛС] 

Slav-on

Стаж: 17 лет 3 месяца

Сообщений: 54

Slav-on · 04-Ноя-25 15:41 (спустя 4 часа)

paulg2 писал(а):
88413588если после лечения не запускается и висит в Диспетчере процесс, что делать?
Ставить драйвер прямые руки. В некоторых сборках он отсутствует.
[Профиль]  [ЛС] 

DooM-T

Стаж: 15 лет 5 месяцев

Сообщений: 5


DooM-T · 11-Ноя-25 21:35 (спустя 7 дней)

Что можно интересного с ии поделать в лягухе?
[Профиль]  [ЛС] 

eagleorion

Стаж: 10 лет 6 месяцев

Сообщений: 2


eagleorion · 29-Ноя-25 11:51 (спустя 17 дней)

possible to update or leave it same version always?
[Профиль]  [ЛС] 
 
Ответить
Loading...
Error