Robots.txt è un file di testo appartenente a un gruppo di protocolli web chiamato Robots Exclusion Protocol o REP. Questo file comanda ai robot dei motori di ricerca come Googlebot su quali pagine scansionare e indicizzare. Robot.txt aiuta i siti Web a evitare di essere bombardati da troppe richieste. Svolge un ruolo enorme nell'avere un buon punteggio SEO.