Los Fallos Técnicos en un Sitio Web

Los Fallos Técnicos en un Sitio Web

Bienvenidos de nuevo al blog de Microsgandia. En esta ocasión, vamos a repasar los mayores fallos técnicos en un sitio web que solemos encontrar al realizar una auditoria SEO.

En muchas ocasiones, nos ha venido un cliente interesado en nuestros servicios porque su web no posicionaba nada. Esto es mayormente debido a una serie de errores que vamos a describir a continuación. Esto es, porque, cometer estas infracciones puede limitar la posición de nuestros contenidos. Y, ¿de qué sirve tener un contenido perfecto, si los usuarios y el Sr. Google no llegan a él?

El sitio web no tiene nombre y descripción

En ocasiones, nos preocupamos tanto en el contenido que nos olvidamos de que la página tiene que tener un nombre y descripción propiamente dichos. No hay que confundirlo con el meta-title y la meta-description de cada uno de las páginas internas, que pueden ser bastante distintos.

Por ejemplo, si fueras alguien que siempre viaja en autoestop y escribes un blog sobre ello, podrías llamarlo «Diario de un aventurero autoestopista«. Y su descripción, perfectamente podría ser algo como «Las desventuras y peripecias de un viajero que recorre el mundo gracias a la buena fe de los conductores«. ¿Vas pillando la idea? Claro que sí. Prosigamos.

No es necesario que esta información se muestre en las páginas del sitio web, pero sí que permite a los buscadores clasificar más fácilmente tu sitio web y asociarlo con búsquedas sobre su tema y relacionados. En WordPress, uno de los CMS más utilizados, esta opción aparece en el menú Ajustes > opción Generales, como se ve en la siguiente imagen:

La falta de un buen alojamiento o hosting

¿Eh? ¿Y qué tiene que ver lo uno con lo otro? Pues mucho. La velocidad de carga de tu página web depende, en gran parte, de un buen hosting, y esta afecta mucho al posicionamiento de tu página web o tienda online.

Y, en realidad, lo ideal sería optimizar todo el sitio web para reducir al mínimo posible el tiempo de descarga y mejorar la evaluación de Google PageSpeed Insights. Sobretodo en el apartado de móviles, muy relevante de cara a los buscadores, que saben que los usuarios ahora le dan mayor uso a los dispositivos móviles.

Por desgracia, esta optimización requiere de una cualificación técnica que un redactor de contenidos no tiene por qué conocer. Esto es como tener un coche: puedes saber conducir, aunque sin saber de mecánica para hacerlo. Entonces, necesito un buen servicio de mantenimiento y reparación para cuando se me estropee. En este caso, el equivalente al taller sería un buen proveedor de alojamiento y te ofrecerá dos ventajas indiscutibles:

  • Un bajo tiempo de respuesta del servidor, de forma que los usuarios puedan navegar fluida y rápidamente a través de tus páginas.
  • Un servicio de soporte oficial, que resuelva en pocas horas – si no minutos – cualquier incidencia técnica que puedas tener.

Son ventajas de las que no dispondrás si contratas hostings gratuitos o de baja calidad. Y piensa que, desde el punto de vista del usuario, una página lenta ofrece una pobre experiencia que Google penalizará en nuestro posicionamiento orgánico.

Nosotros recomendamos SiteGround, un proveedor de alojamiento fantástico que además incluye WordPress. Un servidor que destaca por la velocidad, como hemos dicho uno de los factores que más valora el Sr. Google. Puedes contratarlo a través de nosotros y obtener una serie de ventajas.

Paso cerrado en el fichero robots.txt

Si no sabes lo que es el fichero robots.txt, te bastará conocer que es el fichero de texto que indica qué partes de un sitio web se pueden indexar – y cuales no – para que los buscadores de buenas prácticas sigan sus instrucciones.

¿Qué quiero decir con buenas prácticas? Google, Yahoo, Bing, o cualquier otro buscador comercial sigue las instrucciones que le marques. Pero Internet, por desgracia, está plagado de crawlers y bots que indexan los sitios web sin leer este fichero. Si has leído sobre la posibilidad de utilizar este archivo para impedir que accedan a tu web, olvídalo. El robots.txt no impide, solo informa. Para el bloqueo de accesos hay que usar otras técnicas bastantes más avanzadas.

Dicho esto, el fichero robots.txt es uno que genera bastante polémica ya que no hay un consenso en cuanto a qué debería contener y qué no. Configuraciones que se consideraban imprescindibles hace unos años, hoy pueden resultar contraproducentes para el posicionamiento.

De hecho, salvo que tu caso sea un sitio web muy grande en el que tienes claro qué partes quieres que no sean indexadas, mi recomendación es que lo dejes con la versión mínima.

User-agent: *

Allow: /

A través de la Search Console de Google, puedes comprobar tu fichero robots.txt muy fácilmente. Si no sabes dónde o cómo editar el fichero robots.txt, posiblemente el soporte técnico de tu proveedor pueda hacerlo por ti, aunque habitualmente suele contener por defecto las líneas mencionadas arriba.

¡Mucho ojo! Una recomendación muy habitual, pero ya anticuada, es que se deshabilite el acceso a los directorios que solo contengan ficheros scripts vacíos. Y efectivamente, aunque no almacenan contenido, sí pueden intervenir en cómo se muestra el contenido a los usuarios. Los buscadores modernos son lo bastante inteligentes como para entender esos scripts. Por lo que, si les bloqueamos el acceso, pueden llevarse una idea equivocada de la apariencia y penalizarnos.

La ausencia del fichero sitemap en la Search Console

En términos generales, el fichero sitemap contiene la estructura jerárquica de las páginas de un sitio web. Es decir, qué páginas tiene y cómo están conectadas entre sí. Además, proporciona otra información adicional, como fecha de última modificación, número de imágenes, etc. En definitiva, podemos decir que se trata de un mapa del sitio web.

Como norma general, los buscadores no necesitan este fichero, dado que al indexar un sitio web ya tienen todo lo necesario para hacerse ellos mismos un mapa del sitio web. Sin embargo, si se lo proporcionamos nosotros nos aseguramos de dos cosas:

  • Que no queden fuera algunas páginas a las que sólo se puedan acceder a través de formularios. Los crawlers son tímidos y no rellenan formularios.
  • Que el buscador no deje en segundo plano alguna página o post que, sin embargo, sí que es importante para nosotros.

Generar el sitemap manualmente puede ser muy pesado y acaba siendo inmanejable, pues tendríamos que estar actualizándolo ante cualquier cambio del sitio web. Por ese motivo, es conveniente utilizar un plugin (como Yoast SEO) que lo genere automáticamente sin intervención por nuestra parte.

Finalmente, una vez que tengamos elaborado el fichero sitemap, debemos añadirlo a la Search Console, para que el rastreador de Google pueda utilizarlo.

Compártelo en tus Redes
CONTENIDO RELACIONADO