No indexar / Desindexar la paginación En WordPress Sin Plugins!!

Desde hace ya tiempo me había dado la tarea de escribir sobre este tema, ya que el desgraciado plugin de Yoast SEO quito la opción para no indexar las paginaciones de nuestras web, muchas personas que utilizan su plugin como “YO” Quedamos a la deriva con nuestras web y con contenido duplicado que esta indexando Google.

Para los que hemos empezado Con este plugin quitarlo seria quizás un verdadero dolor de cabeza ya que toda nuestra configuración esta ya en este plugin.

Luego de que Yoast Quitara esta opción, la deje de este manera un tiempo por que según ellos ya no era muy importante y bueno, decidí probar y ver los resultados. Luego de un mes mi Search Console empezó a tirarme mensajes de error con contenido duplicado, tanto en metadescripciones como en títulos.

Contenido duplicado detectado por Search Console

De seguro tu, en este momento puede que tengas esto mensajes de alerta en tu cuenta con tus sitios web. Puedes verlos en Search Console / Aparición en Búsquedas/ Mejoras de HTLM. por este motivo te enseñare a como no indexar y bloquear las paginaciones que son la principal fuente de contenido duplicado y ademas de esto te mostrare como solucione los mensajes de error de contenido duplicado.

Como No Indexar Paginaciones en WordPress 

Primero lo primero y por lo tanto te explicare que es lo que vamos hacer en este articulo con todas esas paginas que no tiene por que Google indexarlas ni están para que el las vea.

Lo que haremos es bloquear el acceso a todas esas paginas incluyendo las paginaciones que no tiene por que Google indexarla y tampoco verlas por que no son nada importante para la indexación de nuestro sitio esto utilizando el robots.txt.

Con esto le estamos diciendo a Google que no quiero indexar estas paginas y que no quiero ni siquiera que pase por ellas, con esto ahorraremos recursos de rastreo para las paginas de nuestra web importantes.

Crear robots.txt para tu web

Ya que sabemos que haremos y como funcionara es necesario que crees tu robots.txt y no te asustes es muy fácil de hacer lo primero que tienes que hacer es ver si ya tienes un robots.txt si es así solo necesitarías editarlo y pegar el código que esta un poco mas adelante de estas lineas. 

Como Saber si ya tengo un robots.txt ?

Para saber si tienes un Robots.txt  puedes utilizar tu CPANEL y entrar al Administrador de archivos, nos vamos donde están los archivos de nuestra web y buscamos el archivo, si no esta es por que no lo tienes.

Crear robots.txt desde el CPANEL.

  1. Tenemos que estar seguros que estamos en la raiz de nuestra web.
  2. Daremos clic en +Archivo ubicado en el lateral izquierdo.
  3. Verificamos la ruta y colocamos como nombre robots.txt
  4. Damos clic en Crear Nuevo Archivo, LISTO!!

Otra forma mucho mas sencilla es utilizar YOAST SEO para esto tenemos que entrar en la sección HERAMIENTAS/EDITOR DE ARCHIVOS si este existe te dará la opción para editarlo de lo contrario te pedirá si quieres crearlo.

Una ves des clic en crear el archivo este sera creado y podrás editarlo desde Yoast SEO sin problemas, es una forma muy sencilla de editar fácilmente nuestro robots.txt

Configurar robots.txt 😁

Te lo tengo todo preparado para que solo tengas que copiar y pegar el código en tu robots, esta lista es la que yo estoy utilizando actualmente y que bloqueara contenido que no tiene nada de interés para ti o para Google.

De igual forma puedes quitar las lineas que tu consideres que pueden afectar tu proyecto, pero es una lista general para cualquier sitio WordPress por lo que no tendría que darte problemas.

Solo tienes que copiar y pegar este codigo en el robots.txt que has creado para tu sitio web y con esto solucionaremos el problema de indexaciones de contenido duplicado y ahorraremos recursos de rastreo para nuestra web.

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-login
Disallow: /wp-admin
Disallow: //wp-includes/
Disallow: /*/feed/
Disallow: /*/trackback/
Disallow: /*/attachment/
Disallow: /author/
Disallow: *?replytocom
Disallow: /tag/*/page/
Disallow: /tag/*/feed/
Disallow: /comments/
Disallow: /xmlrpc.php
Disallow: /*?s=
Disallow: /*/*/*/feed.xml
Disallow: /?attachment_id*
Disallow: */page/*

Con esto ya tendremos nuestro robots.txt configurado y funcionando podemos probarlo desde search console para verificar que de verdad esta bloqueando las url que hemos mencionado en las lineas de nuestro archivo .txt

Verificar y Enviar nuestro Robots.txt

Ahora que ya tenemos nuestro archivo configurado tenemos que decirle a Google que hemos creado este archivo, actualizarlo de su lista de cache si ya existía y probarlo.

Para esto iremos a Search Console y daremos clic en la sección Rastreo/Probador de robots.txt. Lo que veremos es la ultima versión guardada, lo que aremos es enviar nuestro nuevo robots dando clic en el botón Enviar.

Hecho esto podemos ver si de verdad funciona nuestro Robots, por ejemplo colocare la url de una paginacion de mi WordPress, si todo funciona bien me dirá que esta bloqueado y resaltara en rojo el código del archivo que ha utilizado.

Como Solucionar Problemas de Contenido Duplicado 

Lo que nos falta es acelerar el proceso para solucionar el contenido duplicado en nuestra web, entre mas rápido solucionemos menos tiempo duran los avisos en nuestros Search Console.

Ademas que estamos diciendole a Google que nos interesa y damos mantenimiento a nuestras web al solucionar los problemas nosotros mismos.

Primero identificaremos las paginas que están ocasionando este problema para esto debes irte de nuevo a MEJORAS HTML y veremos cuales son las Metadescripcion duplicadas cliceando en ella.

Como puedes ver se esta generando a partir de las paginaciones de pagina principal y categorias. Lo que podemos hacer es eliminarlas de nuestros resultados manualmente.

listar todas las paginaciones indexadas

Para borrarlas necesitas primero tener que es lo que vamos a borrar. utilizaremos los comando de búsquedas de Googel para hacer una búsqueda mas personalizada y tratar de listar todas las url que tenga /page/ en su url.

Utilizaremos el comando : site:tudominio.com inurl:/page/

Este comando de búsqueda tratara de listar todas las paginaciones que estén indexadas, si tienes duda en alguna siempre es bueno confirmar la url antes de eliminarla.

Eliminar Contenido Duplicado

Ahora que tenemos las url que borraremos para evitar contenido duplicado entraremos en Search Console y daremos clic en  la sección INDICE DE GOOGLE/ELIMINAR URL.

Te aclaro que esto no eliminara tu contenido de tu web, solo lo eliminara de los resultados de búsqueda. Dicho esto daremos clic en Ocultar Temporalmente he introduciremos la url excluyendo el dominio que deseamos eliminar de los resultados de búsqueda.

Ejemplo : midominio.com/page/14  -Solo tendrás que poner-  page/14

Luego solo tendremos que confirmar y con esto la url sera eliminada de los resultados de búsqueda de Google y no volverán a indexarse mientras nuestro robots.txt este funcionando.

Esto tienes que hacerlo con cada una de las url de los resultados de búsqueda que tu creas que puede darte problemas de contenido duplicado.

Mostrar comentarios

Aún no hay comentarios

    Dejar Un Comentario