ajax.js in Empire CMS
ajax.js in Empire CMS
Категория: Разработка Теги: Уязвимости Опубликовано: 9 мая 2023

Что за атака GET /e/data/js/ajax.js HTTP/1.0

Начнем с того, что я нашел в логе nginx такую запись (сайт не этот):

51.142.146.242 - - [28/Apr/2023:10:56:12 +0300] "GET /e/data/js/ajax.js HTTP/1.0" 404 18977 "-" "Mozilla/5.0 (Windows NT 10.0; WOW64; rv:48.0) Gecko/20100101 Firefox/48.0"

Что пытался сделать злоумышленник? 

Безусловно, этот запрос направлен не вручную, а из специальной программы или подготовленного скрипта / бота, но управляет этим человек, поэтому для упрощения я буду говорить именно про этого злоумышленника.

Разберём HTTP-запрос

Строка 404 после запроса в кавычках говорит о том, что запрашиваемый файл не существует и соответственно ему вернулся статус 404 Not found. На самом деле, сам по себе статус 404 не означает, что вектор атаки не сработал - тут нужно повторить запрос и посмотреть, не добавилось ли что-то лишнее в запрос, а в случае со слепыми XSS (Blind XSS) вектор атаки может сработать не в том месте, где ввели команду.

IP-адрес злоумышленника 51.142.146.242 и он принадлежит Дата-центру Microsoft Limited, который находится в United Kingdom - Cardiff.

Сам запрос "GET /e/data/js/ajax.js HTTP/1.0" говорит о том, что потенциальный злоумышленник хочет прочитать проверить наличие файла ajax.js по указанному в запросе пути.

В базе AbuseIPDB указано, что данного уже было более 477 атаки на другие сайты.

Технические детали

Сам по себе файл /e/data/js/ajax.js не содержит никаких конфиденциальных данных, но он позволяет однозначно определить CMS сайта, и в данном случае это Empire CMS.

Файл ajax.js в Empire CMS содержит функции для работы с XMLHttpRequest и обработки AJAX-запросов. Он используется для обновления контента на страницах без перезагрузки страницы. Файл определяет функции, которые отправляют запросы на сервер с помощью XMLHttpRequest и обрабатывают ответы от сервера. Файл также содержит функции для работы с изображениями и обработки событий колеса мыши. Код в файле предназначен для облегчения выполнения AJAX-запросов и обработки ответов от сервера.

Однако, передать в него что-либо не получится и найти там какие-то конфиденциальные сведения тоже не получится - их там нет, но определив CMS можно попробовать эксплоиты, которых, кстати, в открытом доступе для Empire CMS очень мало.

Тот факт, что сервера принадлежат Microsoft может означать, что это поисковая машина Bing определяет CMS вашего сайта. Каждая поисковая машина это делает. Хотя в этих диапазонах может располагаться и сервера Azure, которые могут использовать злоумышленники, поэтому сказать однозначно сложно.

Если посмотреть другие атаки с этого IP-адреса в базе abuseipdb, то становится ясно, что либо этот робот оценивает безопасность сайтов и пытается искать уязвимости на них, либо этот сервер под контролем злоумышленников.

Как защитить веб-сервер?

Немного информации

Скорее всего злоумышленник выполнял сканирование веб-приложения на наличие уязвимостей, используя инструменты для автоматического сканирования уязвимостей.

Любой админ скажет, что реагировать на такие записи в журнале не нужно, но любой опытный пентестер скажет, что реагировать на такие записи в журнале нужно!

Автоматические сканирования на наличие уязвимостей веб-серверов ботами со всего мира - это не просто неприятное явление, но и серьезная угроза для безопасности веб-сервера. Согласно отчету, опубликованному в 2019 году, боты составляют около 37,2% всего трафика Интернета, и это число продолжает расти. Боты, сканирующие веб-серверы, могут искать уязвимости, которые можно использовать для получения несанкционированного доступа к серверу или к данным, которые он содержит.

Теперь скажите честно, последней ли версии у вас всё ПО и библиотеки как на веб-сервере, так и в самом сайте? Уверен, что у большинства будут далеко не последние версии, так как при обновлении много придется настраивать заново. Пора задуматься и понять, что риск не равен нулю.

С чего начинается атака хакера или пентестера на веб-сервер? 

Первым этапом является именно OSINT, но если упростить, то сначала ему нужно собрать информацию. Все прочие виды атак мы опустим, так как тут речь идет о конкретной. В данном случае, злоумышленник собирает информацию о сайте и сервере из открытых источников.

Далее через кучу прокси-серверов сканирует сервер на наличие уязвимостей. При таком сканировании на сервер отправляет множество запросов, но фишка в том, что он использует целый пул прокси-серверов, поэтому каждый 1-2 запроса выполняются с разных IP-адресов. Однако, при частых сканированиях они все будут присутствовать в спам базах.

Если его сканер найдет уязвимость, тогда злоумышленник уже сам будет производить атаку, хотя некоторые так называемые сканирования выполняли через пентестерский фреймворк metasploit методом check.

Рекомендации по противодействию атакам на веб-сервер

Для защиты от автоматических сканирований наличия уязвимостей веб-серверов ботами со всего мира, рекомендуется использовать следующие технические меры защиты на nginx или apache:

  1. Установка модуля ModSecurity: ModSecurity - это модуль для HTTP-сервера Apache, который позволяет обнаруживать и предотвращать атаки на веб-приложения. Он может блокировать запросы, которые соответствуют известным атакам, а также запросы, которые слишком часто повторяются, что может указывать на сканирование.
  2. Использование Fail2ban: Fail2ban - это программное обеспечение, которое может анализировать логи веб-сервера и блокировать IP-адреса, которые слишком часто отправляют запросы на сервер. Это может предотвратить сканирование и другие виды атак на сервер.
  3. Использование CrowdSec: CrowdSec - это бесплатный open source-инструмент для выявления и блокировки вредоносных IP-адресов на основе шаблонов их поведения. Он умеет подключать индивидуальные бан-листы, настроенные администраторами, а также использовать общие бан-листы, в формировании которых принимают участие пользователи CrowdSec.
  4. Настройка Cloudflare или его аналога: Cloudflare - это сервис, который может использоваться в качестве прокси-сервера для вашего веб-сайта. Он может блокировать запросы от известных ботов и других источников нежелательного трафика, а также предоставлять другие инструменты защиты.

Важно блокировать автоматические сканирования на наличие уязвимостей веб-серверов ботами со всего мира, чтобы защитить данные и обеспечить безопасность веб-сервера. Использование рекомендуемых технических мер защиты поможет предотвратить сканирование и другие виды атак, которые могут привести к серьезным последствиям для вашего веб-сервера.

В качестве дополнительных рекомендаций можно назвать весьма очевидные вещи:

  1. Обновлять все используемое ПО на веб-сервере и на промежуточных устройствах до последних версий (включая Empire CMS, если её используете).
  2. Обновлять используемые веб-приложениями библиотеки до последних версий.
  3. Производить сканирование на наличие уязвимостей доступными средствами (в Kali Linux для этого множество инструментов).
  4. Использовать средства для аудита кода на безопасность (например, Codacy, Codeac, deepcode или SonarCloud).
  5. Отслеживать новые уязвимости в Vulners - Vulnerability DataBase, NATIONAL VULNERABILITY DATABASE и в Банке данных угроз безопасности информации.
  6. В идеале нужно установить WAF, но такие продукты очень дорогие, а бесплатные неэффективны.

Также можно рассмотреть блокировку посетителей из других стран при помощи GeoIP, но в спорных территориях могут быть неправильные определения, а также необходимо сделать исключения для пула адресов поисковых роботов Google и Bing.

Алексей Черемных
772