Guía de SEO para tu sitio Gatsby
Qué es SEO y por qué es importante
SEO son las siglas en inglés de Search Engine Optimization. Por decirlo mal y pronto, el arte de conseguir que tu web sea más visible en los buscadores. Pero como todo en la vida, evoluciona, y hoy día es más bien el arte de conseguir que los usuarios acaben haciendo lo que quieres que hagan. Esto, por supuesto, incluye el SEO tradicional, ya que si no tienes usuarios no puedes guiarlos para conseguir "conversiones", que es como en el gremio llaman a cuando un usuairo pasa por el aro.
Como puedes observar, el ¿para qué sirve? se traduce en ¿cómo monetizamos esto?, o en español de toda la vida, ¿cómo hacemos dinero con esto?
Cómo empezar con la optimización SEO
Si estás utilizando un framework como Gatsby para construir tu sitio, es importante comprender cómo optimizarlo para SEO. Aquí hay dos pasos fundamentales:
Análisis de tu sitio
El primer paso consiste en analizar tu sitio. Debes validar todos los elementos que influyen en un buen posicionamiento en los motores de búsqueda. Existen numerosas herramientas gratuitas que te permiten validar estas reglas y recomendaciones, muchas de las cuales han sido proporcionadas por expertos en SEO.
Además, los principales motores de búsqueda, como Google, ofrecen herramientas para ayudarte a analizar y mejorar tu sitio.
-
Google: Google ofrece una guía básica de SEO llamada Google SEO Starter Guide. Esta guía te proporciona una comprensión esencial de los principios que rigen su motor de búsqueda.
-
Sitemap: Asegúrate de que tu sitio esté indexado por los motores de búsqueda. Utiliza un sitemap automatizado para que los motores de búsqueda encuentren y accedan a tus páginas. Puedes encontrar información sobre cómo crear un sitemap en el artículo Cómo crear un sitemap automatizado para sitios Gatsby Remark.
En la starter guide que enlazaba arriba te explican cómo comprobar qué páginas han sido indexadas.
- Fichero Robots.txt: Este fichero controla cómo los motores de búsqueda rastrean tu sitio. Asegúrate de que se configure correctamente para evitar que se indexen ciertas páginas.
Salvo que tengas un caso especial sí es algo que te puedes permitr mantener a mano.
Es algo tan sencillo como un fichero de texto en la raíz de tu sitio. El fichero deberá llamarse robots.txt
y el contenido sigue la siguiente estructura:
Sitemap: https://vlone.es/sitemap-index.xml
User-agent: *
Disallow:
Como ves, el primer campo es la url de tu sitemap, o en mi caso, el índice del sitemap. User-agent es bot al que van dirigidas las siguientes reglas de Allow o Disallow. Y por último, Disallow es una lista de reglas con la URLs que no quieres que los sistemas automatizados no recorran.
Esto es útil en páginas dinámicas donde podría haber algún tipo de formulario que hiciera que todas las páginas bajo un directorio existan y generen contenido automático. No queremos que los robots de google y otros buscadores nos hagan desperdiciar recursos generando basura. También se puede usar para ocultar duplicados y páginas no públicas.
Aquí tienes una guía detallada sobre cómo configurar el fichero robots.txt.
Uso de herramientas como Google Search Console
Una vez hemos conseguido que Google lo indexe, las herramientas de análisis de URLs como Google Search console, nos servirán para poder observar qué ha entendido Google después de analizar nuestro sitio.
Esto es, qué paginas han sido indexadas, o qué páginas muestran problemas y demás.
Existen herramientas similares de otros motores de búsqueda, como Bing, Baidu, etc. En estas herramientas por lo general podemos enviar manualmente nuestro sitemap, o la referencia al mismo, para acelerar el proceso.
- Metadatos: Uno de los primeros problemas que probablemente encontrarás será la calidad de los metadatos de tu sitio.
Por lo general, el rastreador no se va a leer la página entera. Busca etiquetas específicas, con el título, descripción, etiquetas de palabras clave, etc.
Es importante que elijamos bien estos valores, ya que no sólo impactan a la percepción del usuario, pueden impactar al posicionamiento que el buscador nos va a asignar, si el rastreador decide que los metadatos de la página no son de buena calidad. Esto puede ocurrir si tenemos, por ejemplo, títulos duplicados, demasiado cortos, o largos, o las mismas etiquetas en todos sitios.
En la guía puedes encontrar varias recomendaciones al respecto. Los metadatos, como los títulos, descripciones y etiquetas de palabras clave, son fundamentales para el SEO. Asegúrate de que sean relevantes y únicos para cada página. Evita títulos duplicados o demasiado largos.
- Resultados Enriquecidos: Utiliza datos estructurados para enriquecer los resultados de búsqueda. Esto permite que los motores de búsqueda comprendan mejor el contenido de tu sitio. Aquí puedes encontrar información sobre cómo implementar datos estructurados.
Aprovecha la página de prueba de resultados enriquecidos de Google para comprobar cómo se verán tus resultados en los motores de búsqueda.
El SEO es una disciplina en constante evolución, y optimizar tu sitio Gatsby para los motores de búsqueda es un proceso continuo. Sigue aprendiendo y adaptándote a las nuevas tendencias y técnicas para asegurarte de que tu sitio obtenga el mejor rendimiento en los resultados de búsqueda.
Uso de herramientas de inteligencia artificial AI
Como última recomendación, al igual que el SEO evoluciona, así lo hacen las herramientas. Simplifica tu trabajo haciendo uso de las herramientas de inteligencia artificial disponibles de forma gratuita como ChatGPT. Puedes seguir esta guía para optimizar SEO en un blog Gatsby usando ChatGPT