Skip to content

Latest commit

 

History

History
58 lines (42 loc) · 3.93 KB

search-engine-guide.md

File metadata and controls

58 lines (42 loc) · 3.93 KB

Нетсталкинг и поисковые системы

Google is your friend.

Поисковые Системы (далее ПС) индексируют все, до чего только могут дотянуться. Это играет на руку тем, кто хочет находить всякие необычные вещи в интернете, то есть нам! Чтобы искать и находить то, что нужно именно тебе, надо уметь пользоваться его синтаксисом запросов.

Сталкер, помни: поисковики индексируют данные по ссылкам. Это значит, что все камеры или документы, которые знает гугл, скорее всего, кто-то запостил на форумах в виде ссылки.

Google

Лидер среди поисковых систем, этот гигант найдет все, что только пожелаешь. Существует даже специальная дисциплина у хакеров-любителей - "google hacking" - процесс нахождения уязвимостей и ценной информации через google.

Поисковый синтаксис.

Сам запрос в гугл, который помогает найти нужную инфу, называется google dork. Примеры самых простых дорков:

Ошибки SQL серверов:

site:gov "error in your sql syntax"

"Секретные" материалы:

filetype:pdf site:gov "top secret"

Всевозможные бекапы:

intitle:"index of /backup/"

Поиск по pastebin.com откроет для тебя много нового:

site:pastebin.com password @gmail.com

Ищем в гугле гугл дорки:

site:pastebin.com dorks

База данных дорков тут. Запросы для поиска IP камер здесь.

Yandex

Яндекс имеет другой поисковый синтаксис, более заточен на российского пользователя. С ним легче находить всякие артефакты и окаменелости в рунете.

Shodan

Shodan - особая поисковая система, которая ищет устройства, подключенные к интернету. Можно находить все - от роутеров, до промышленных систем автоматизации. Поиск дальше 1 страницы доступен после регистрации, а если захочешь полный доступ, то прийдется платить создателю.

Censys

Censys - похожая на Shodan поисковая система, созданная в качестве интерфейса к огромным архивам полного сканирования интернета (https://scans.io/). Обновление производится ежедневно с помощью скана через ZMap и ZGrab. Бесплатна, но нужна регистрация для > 5 поисков в день. Поддерживается гуглом.

robots.txt

robots.txt - специальный файл в корневой папке сайта, который вебмастеры используют для ограничения доступа поисковикам. Бывает, вебмастер скрывает то, что должно быть скрыто от наших любопытных глаз: админку, папку с логами, бекапы и т.д.