Screaming Frog è uno strumento eccezionale per chi si occupa di SEO, funziona da crawler di un sito web (la versione gratuita analizza i primi 500 URL). Solitamente serve per studiare l'architettura di un sito web, visualizzare a colpo d'occhio tutta una serie di informazioni (meta tag, heading tag, ecc) ed eventualmente capire dove intervenire per fare dei miglioramenti, ottimizzazioni.
Probabilmente nessuno ha pensato che Screaming Frog possa diventare un importante alleato prima di iniziare un attacco hacking, in particolare di tipo DDoS. Ci arriviamo un passo alla volta:
Procedura classica, semplice:
apro il terminale, digito:
ping sito.it -s 1000
(ammesso che quel server consenta pacchetti di dimensione 1000 byte, forse di più, forse di meno, altrimenti trovo il limite consentito)
Restituisce 1000+8=1008 byte per ogni richiesta ping, quindi diciamo 1KB
Uso più terminali contemporaneamente (magari in modo automatizzato, es. tramite uno script in Python), ottengo N * 1KB: oltre a dipendere dalle mie disponibilità di connessione, le dimensioni sono queste
Usando Screaming Frog:
- a titolo di esempio, scriviamo bing.com. Verranno analizzati i primi 500 URL di questo dominio, attendiamo il termine dell'operazione
- sezione "internal", spostiamoci nella colonna "size" e ordiniamo per dimensione. In questo caso ad esempio ho trovato una pagina da 806 KB (un filtro di ricerca dello Shop, nel caso di un sito web generale può essere qualsiasi cosa)
- altrimenti nella sezione "immagini", se effettivamente sono hostate su quel server, ci possono essere sorprese interessanti! Specialmente immagini non ottimizzate per il web (avevo già parlato di come ottimizzare le immagini e qui anche un caso pratico), si possono raggiungere dimensioni di qualche MB!!
- prima col ping parlavamo di 1KB, più o meno, magari moltiplicato per qualche richiesta; qui si parte dalla pagina "più conveniente per i nostri scopi" (pagina HTML oppure immagine o altro file hostati sul server) che può superare il MB (nei cai più "pesanti" si arriva anche a una decina di MB).
- altro che ping, richieste via browser (magari più dispositivi, più connessioni... consente comunque scalabilità) degli URL specifici delle pagine più pesanti (HTML o immagini, PDF, quello che sia), metaforicamente uno spara col fucile e l'altro spara col cannone
Nulla vieta di abbinare comunque un'insieme di strategie diverse ;)
Ci tengo a precisare che è un'osservazione interessante, magari un ulteriore spunto per ottimizzare le dimensioni delle proprie pagine web (ridurre tutto ciò che non è necessario), motivi per farlo ce ne sono un'infinità (SEO, esperienza utente, crawl budget, ecc). Non vi invito a fare attacchi di hacking, solo a riflettere ed estendere la vostra conoscenza :)