Escrito por Antonio Fernández Alonso, Consultor SEO Freelance (Sevilla & Madrid).
El comportamiento de los rastreadores (“crawlers”) de los buscadores puede controlarse con el fichero robots.txt. Sin embargo, errores de concepto y algoritmos de búsqueda cada vez más inteligentes, configuraciones optimizadas años atrás ahora perjudicarían la eficacia de los rastreos, penalizando el posicionamiento orgánico de una web. Un fichero robots.txt actualizado y adaptado a la estructura del sitio web evitará estos problemas.
Contenido original del Blog sobre SEO y Posicionamiento Web, de Antonio Fernández Alonso (Consultor SEO Freelance, Sevilla & Madrid).
This post first appeared on Blog El SEO De Los Anillos • Antonio Fernández, please read the originial post: here