Advertisement

header ads

AUDITAR PAGINAS DE LA DEEP WEB EN KALI LINUX

El otro día se me había ocurrido que estaba cansado de encontrar los mismos errores de algunos sitios web (hoteles, universidades, etc) entonces se me ocurrió encontrar vulnerabilidades a sitio de la deep web.



Antes de empezar quiero agradecer dos grandes amigos por escucharme y darme consejo sobre este método Augusto, Rafael.
Obviamente vamos a intentar leer algunos post anteriores que he escrito que te puede servir:
Configurar Privoxy Aquí
Proxychains y tor AQUÍ.
Obviamente después de haber leído mis post anteriores van a entender este post.
/etc/init.d/tor start
/etc/init.d/privoxy start
Obviamente vamos a conseguir nuestro target “http://hosting6iar5zo7c.onion/”




Un sitio que almacena host de la deep web, aunque para hacer sincero en la deep web hay muchos sitios vulnerables.

Configuración

Primero vamos a configurar el host y el puerto de nuestro proxy para owasp-zap que será la herramienta que usaremos para esta auditoria.
– Proxy configuración de tu O.S
 – Proxy configuración owasp-zap
Tools > Options > Connection > ./ use an outgoing proxy server > Doname 127.0.0.1 > Port 8118.
  Tools > Options > Local Proxies
 Listo también puedes usar el navegar en caso de usarlo desde firefox.
 Pero creo que no será tan importante porque desde que configuraste la conexión de tor directamente por owasp solo tenes que colocar la URL y darle a attack.
  Este proceso es automático entonces solo te falta esperar como tuve el siguiente resultado.
 Puede ser que Owasp-Zap no siempre te dé la información correcta pero puede darte pista.

Segundo método de auditoria

Tengo un código escrito en python que puede hacerte una auditoria pero también usaremos otra herramienta de KALI LINUX.
#! /usr/bin/env python
import urllib2, sys, re, urlparse, datetime, optparse, os, socks, socket

#Funcion proxy TOR
def create_connection(address, timeout=None, source_address=None):
    sock = socks.socksocket()
    sock.connect(address)
    return sock

#Funcion que recupera todos los enlaces de una pagina
def getLinks(page):
    links = []
    try:
        #Recuperamos el codigo de la pagina
        f = urllib2.urlopen(page)
        code = f.read()
        f.close()
        #Recuperamos los enlaces
        urls = re.finditer('href="(.*?)[\'"]', code)    
        for url in urls:
            links.append(url.group(0).replace("'", '').replace('"', "").replace('href=', ""))
        return links
    except HTTPError, e:
        print "Ocurrio un error"
        print e.code
    except URLError, e:
        print "Ocurrio un error"
        print e.reason

if __name__ == '__main__':
    parser = optparse.OptionParser('usage %prog -u ')
    parser.add_option('-u', dest='url', type='string', help='url')
    (options, args) = parser.parse_args()
    url = options.url
   
    #Lanzamos proxy TOR
    socks.setdefaultproxy(socks.PROXY_TYPE_SOCKS5, "127.0.0.1", 9050)
    socket.socket = socks.socksocket
    socket.create_connection = create_connection   

    #Procesamos la pagina
    for link in getLinks(url):
        print link
Tan fácil de usar.
nano tor.py
python tor.py -u  http://hosting6iar5zo7c.onion favicon.png
Usa curl
curl --socks5-hostname localhost:9050 http://hosting6iar5zo7c.onion
Ahora vamos a guardarlo y hacer una pequeña auditoria.
curl --socks5-hostname localhost:9050 http://hosting6iar5zo7c.onion > index.html
grep "href=" index.html | cut -d "/" -f 3 | grep "\." | cut -d '"' -f 1 | sort -u
Observamos las URL que están en el dominio.
Listo! Tenemos muchos más métodos ahora si te gusto, no te olvides en compartilo.
GRACIAS!



Publicar un comentario

0 Comentarios