Hakrawler: Herramienta de Hacking Web
Hakrawler: Herramienta de Hacking Web
Hakrawler es una herramienta esencial para cualquier entusiasta del hacking ético o investigador de seguridad que utilice Kali Linux. Básicamente, es un "rastreador" (crawler) rápido diseñado para descubrir puntos de entrada en una aplicación web.
Aquí tienes una guía rápida de qué es y cómo exprimirlo al máximo.
¿Qué es Hakrawler?
Desarrollada por HackerOnel, esta herramienta escrita en Go se encarga de navegar por una web de forma automática para encontrar:
URLs (enlaces internos y externos).
Archivos JavaScript (donde suelen esconderse rutas de API).
Subdominios.
Endpoints (puntos finales de servicios).
Su gran ventaja es la velocidad y su capacidad para integrarse en "pipelines" o cadenas de herramientas mediante el uso de tuberías (|).
Instalación en Kali Linux
Si ya tienes Go configurado en tu Kali, puedes instalarlo con un solo comando:
go install github.com/hakluke/hakrawler@latest
Asegúrate de tener tu carpeta $GOPATH/bin en el PATH de tu sistema para poder ejecutarlo desde cualquier sitio.
Comandos y Uso Común
La filosofía de Hakrawler es: "Toma una URL por la entrada estándar y escupe los resultados".
1. Escaneo básico
Para rastrear un sitio web simple:
echo "https://ejemplo.com" | hakrawler
2. Controlar la profundidad (-depth)
Por defecto, hakrawler no llega muy lejos. Si quieres que profundice más en los enlaces que encuentra, usa el flag -d:
echo "https://ejemplo.com" | hakrawler -d 3
Cuidado: A mayor profundidad, más tiempo y más ruido generarás en los logs del servidor objetivo.
3. Extraer solo tipos específicos
Si solo te interesan los archivos JavaScript (oro puro para encontrar vulnerabilidades), puedes filtrar la salida con grep:
echo "https://ejemplo.com" | hakrawler | grep "\.js"
4. Modo "Raw" (Crudo)
Si quieres ver de dónde viene cada enlace (si es un formulario, un script, un enlace, etc.), usa -plain:
echo "https://ejemplo.com" | hakrawler -plain
El "Combo" Ganador
Los profesionales suelen combinarlo con Subfinder (para encontrar subdominios) y Httpx (para verificar cuáles están vivos):
subfinder -d ejemplo.com | httpx | hakrawler
Este comando buscará todos los subdominios de "ejemplo.com", comprobará cuáles responden por HTTP/HTTPS y luego rastreará cada uno de ellos automáticamente.
Resumen de Flags útiles
| Flag | Descripción |
-d | Profundidad del rastreo (Depth). |
-h | Muestra la ayuda. |
-subs | Incluye subdominios encontrados en el rastreo. |
-u | Solo muestra URLs únicas (evita duplicados). |