RECURSO SEO: URL AMIGABLES Y CONTENIDOS DUPLICADOS

Share
RECURSO SEO: SOLUCIONANDO URL AMIGABLES Y CONTENIDOS DUPLICADOS Asunto caliente. ¿Has implementado url amigables en tu proyecto web? ¿Crees que te ayudará a posicionarte? ¿tienes tu proyecto ya posicionado y después de poner url amigables has caido al vacío? Crees que has perdido el Norte en todo esto y no hay quien te encuentre? ¿Estás duplicando contenido y no te has dado cuenta? Si te amedrenta por dentro todas estas cositas, tenemos la solución a tus problemas. SOLUCIONES A URL AMIGABLES Y CONTENIDO DUPLICADO Bien, una opción sería decirle a google que no indexe las paginas webs que tuvieran parámetros pasados a través de la url, así evitaríamos que los robots, accedieran a los contenidos de tu proyecto en internet, que contendrián url como las de los siguientes ejemplos: www.midominio.com?contenido=4 www.midominio.com?web=empresa Para eso, para decirle a google que no indexe nuestras web con parámetros en la url, a través del archivo robots.txt. le ponemos la sentencia:
Disallow: /*?*
con eso le decimos a las arañas que no entren en las páginas y documentos web que se generan dinámicamente con parámetros en la url, como los que hemos puesto de ejemplo. Si necesitas saber más sobre como configurar como Dios manda un archivo robots.txt, aqúi os dejo el recurso... Recursos web | el archivo robots.txt Continuamos..... MI WEB YA LA HE PROMOCIONADO EN INTERNET, ¿COMO EVITAR CONTENIDO DUPLICADO Y PERDER MI POSICIONAMIENTO? ¿Que ocurre si ya he promocionado páginas webs con parámetros en campañas de marketing online, adwords, enlaces, blogs, etc.…? en ese caso nos encontramos que una vez puestas las url amigables nos encontramos que se pueden acceder a los contenidos de dos maneras distintas: a) tradicionalmente ==> poniendo la url con los parámetros que sean ejemplo: www.miweb.com?web=servicios b) accediendo amigablemente ==> poniendo la url amigable que nuestro sistema amigable haya realizado ejemplo: www.miweb.com/servicios ¿CÓMO SOLUCIONAR TODO ESTO? Para mejorar esto, realizaremos las siguientes cositas: a) a las url con parámetros le realizaremos redireccionamientos 301, a las url amigables b) insertaremos la restricción robots.txt, explicada anteriormente, para que no se continúen indexando los contenidos que pasamos por parámetros c) continuamos nuestras campañas de marketing estratégico en internet pero usando a partir de ahora las url amigables. d) esperar un tiempo prudencial En el próximo post, explicaré los tipos de redireccionamientos webs que existen y como conseguirlos. hay mucho en internet y no creo que tengais problemas cualquiero cosita, ya sabeis que se me encuentra fácil y rápido.... Recurso web | Juan García Delicado sugerencias | webmaster@4cuarenta.com
Share

← Entrada anterior

Entrada siguiente →

6 Comentarios

  1. Me ha gustado mucho.

    Te interesaría impartir cursos de SEO en http://escueladeprogramacion.com?

  2. Siguiendo pautas sencillas como las que explica el presente post se puede llegar a restringir la indexación de páginas que contengan parámetros indeseables en la url. Es recomendable analizar detalladamente los contenidos generados por un sitio que Google está indexando y ver si éstos de alguna manera no estan siendo duplicados.

  3. Esto no lo habia aplicado en mi web, gracias por la info y a ver cuando nos vemos, jeje.

  4. Interesante artículo que aplicaré en la nueva web que estamos creando.
    Aunque bien seguro ellos ya lo saben…se lo haré llegar a nuestros socios tecnológicos de http://www.advistel.com

  5. Espero me sirva, estoy cambiando mi web a las urls amigables y lo que no quiero es que google me penalize por contenido duplicado

  6. hevercking

    buenas, se que este articulo es de hace ya un tiempo, pero hace días que voy en busca de una solución y no la encuentro, a ver si tu sabes como solucionarlo, estoy creando un cms en el que me gustaría que solamente se pudiera acceder mediante las url amigables, para ello he realizado barias pruebas a través de htaccess y si lo pruebo por separado todo va bien, hasta que lo junto,

    # con esta regla le indico donde esta la url real que sola va perfecta
    RewriteRule ^pff/(.+) test.php?hola=$1 [L]

    #Y con esta redirecciono automáticamente al usuario de la url dianámica a la amigable
    RewriteCond %{QUERY_STRING} ^hola=(.*)
    RewriteRule ^test.php(.*) http://localhost/pff/%1? [R=301,L]

    El problema viene cuando las junto, que se me crea un bucle de redireccionamiento ya que no para de entrar en las dos reglas cuando solo necesito que en caso de que ponga la url dinámica le redireccione a la amigable pero no vuelva a entrar a la otra regla

Deja un comentario