Desindexar varias paginas url google robots Noindex

El dia de hoy he utilizado esta extension google chrome para hacer el envio de las urls a google webmasters y eliminar varias url que aparecen indexadas en el buscador google y en realidad son paginas de mi blog que ya se encuentran eliminadas en su totalidad, apoyandome en conjunto con la herramienta robots.txt le agrege la etiqueta o restriccion Noindex a cada pagina indexada no deseable.

desindexar-varias-paginas-url-google-robots-noindex

Agregar Noindex a robots.txt

Noindex: url-a-desindexar

  • Deveriamos checar en este momento las url a desindexar y que no haya conflictos en las restricciones del robots.txt, como por ejemplo burdo.
  1. Quiero desindexar la pagina example.com/tips/meta-etiqueta-robots-noindex-follow
  2. Checar en el robots.txt que no exista una restriccion a los hijos o dependientes de la carpeta /tips/ por ejemplo Disallow: /tips/ ya que de existir, habra un conflicto y simplemente se tomara la de mayor restriccion y no funcionara.

Extension para desindexar url paginas google search console

Posteriormente agrege la extension a chrome (buscala en github como google-webmaster-tools-bulk-url-removal), el numero total de urls que me aparecian en google con la busqueda de site://uniq.edu.mx era de proximadamente de 300 paginas, no son muchas, pero fue porque como novato, instale una plantilla de esas que ya vienen con todo y paginas , lamentablemente no actualize el contenido rapido, por lo que google realizo la indexacion procedente y como sabras es contenido que ya existe en google....

Procedi a descargarme desde google webmasters....perdon en este año ya no se llama asi, es search console... :) desde alli en cobertura y excluidas, fui descargando los csv , pero ya no eran 300 sino un millar.....Lo que no me percate fue que no solo eran las que habia indexado al buscador, habia; error 404, alternativa canonica, rastreada sin indexar, sufijos...

Procedi sin pensarlo y descargue todo,active la extension en google chrome, y en search console me pase a la opcion que dice ir a la version anterior (bueno hasta hoy aun esta esa opcion).

En el apartado eliminar url, cargue el archivo y le di comenzar, estuvo trabajando hasta que me arrojo un texto en rojo que dice.

Has alcanzado el límite de envíos. Vuelve a intentarlo más tarde.

Ya es "mas tarde" y aun no me funciona, esperare un poco mas y volvere a intentarlo, creo que eran muchas urls a desindexar y lo que no me convenze es que las urls que envio tienen esta terminacion.

,19 nov. 2018

Puedes percatarte que llevan una coma al final? despues la fecha , pues no me convenze y me descargare la lista de las url en forma limpia solo de las que esten en site://uniq.edu.mx.

Elabore el archivo con las url limpias en csv con el procesador de textos y despues le cambie la extension a csv, deje solamente las que quiero desindexar , ahora si a:

Desindexar varias paginas url google robots Noindex

Ya tengo:

  • El archivo robots sin restricciones y con la meta etiqueta Noindex a cada pagina a eliminar del buscador google.
  • Actualize el robots.txt desde webmasters tools (lo volvi a enviar)
  • El archivo csv limpiecito con solo las url a desindexar de google.
  • La extension para desindexar varias paginas o url desde search console desde la version anterior google webmasters.
  • El explorador chrome por supuesto.

Cargue el archivo a la extension y he procedido a eliminarlas desde el indexado de google, todo funciono perfecto y solo queda esperar y hacer un ping a google para que rastree nuevamente la pagina web.

Si tienes un sitemap haces un llamado colocando en la barra de direcciones lo siguiente, reemplaza mi link con la url de tu web.

https://www.google.com/ping?sitemap=https://uniq.edu.mx/sitemap.xml

Los cambios en la desindexacion google han tardado en mi caso 3 dias, espero que haya funcionado para ti.

Blog Comments powered by Disqus.

Next Post Previous Post