Un crawler – altrimenti detto robot, spider o bot – è un software che, in modo sistematico, cerca e analizza contenuti testuali all’interno una rete per conto di un motore di ricerca allo scopo di inserirli in un indice consultabile. Normalmente questi software cercano di scovare il maggior numero possibile di dati da catalogare ed è quindi opportuno indirizzare le loro scansioni.
Come sappiamo infatti, molto spesso all’interno di un sito sono presenti pagine che non si vuole appaiano nei risultati dei motori di ricerca. Il file robots.txt ci aiuta nel compito di regolamentare le visite dei crawler.
La prima cosa che fa uno spider quando visita un indirizzo è cercare il file robots.txt nella directory principale. Una volta trovato, ne legge il contenuto e ne segue le indicazioni, sem … Continua
Web Clip è una funzione di Safari per iOS grazie alla quale è possibile aggiungere un’icona – la Apple Touch Icon – alla SpringBoard dei dispositivi touch della casa ed avere così un collegamento alla pagina web desiderata (come i segnalibri del browser).
L’icona assegnata di default è lo screenshot della pagina e si crea automaticamente cliccando il simbolo “+” o, nei dispositivi piu recenti, l’icona a forma di freccia presente nel browser e selezionando “Aggiungi a Home”. È possibile inoltre scegliere il titolo che iden … Continua
Holmes è un file CSS che, grazie all’utilizzo di pseudo-classi, pseudo-elementi e selettori d’attributo, è in grado di evidenziare markup HTML non valido, inaccessibile o errato.
Utilizzando holmes.css possiamo individuare, attraverso bordi di colori differenti, errori, avvertimenti ed elementi CSS deprecati per le seguenti categorie:
Utilizzare holmes.css è molto semplice: una volta scaricato il file, basterà richiamar … Continua