SEO - La incertidumbre diagnosticada
En el mundo tecnológico en el que la sociedad occidental vive, marcado por el acceso instantáneo a la información, posicionarse en los primeros puestos del buscador es la diferencia entre “vivir” o “perecer” en el intento para las pequeñas o grandes empresas. Precisamente, es cuando la optimización SEO cobra más importancia que nunca. Por ello, se van a comentar algunas líneas generales sobre criterios marcados por el gigante Google para posicionar las webs.
A la hora de abordar el posicionamiento SEO en un proyecto web conviene elaborar una lista de expresiones claves relacionadas con el sitio. Para ello, resulta útil para posicionar nuestro sitio web dos grandes estrategias. Por un lado preguntar al cliente acerca de las expresiones que sus usuarios emplearán para buscarle, y por otro, visitar las webs de la competencia. Además, para evitar que grandes empresas ocupen los primeros diez puestos trataremos de segmentar nuestras expresiones.
La expresión clave principal de la página debería aparecer en la url, en el título, en el h1, en la meta descripción y a lo largo del contenido. Sin duda, cada página es una oportunidad de posicionamiento y por ello, es importante segmentar el listado de expresiones claves para cada página, tratando de posicionar únicamente algunas expresiones por página (3 o 4). De esta manera, aseguramos que las expresiones que deseemos posicionar sean coherentes con el contenido.
Existen dos tipos de acciones para posicionar las páginas. La primera es Onpage, centrada en las acciones que podemos hacer en nuestras páginas para el posicionamiento y, la segunda, es Offpage, que permite conseguir autoridad para el dominio y para las páginas. Esto se obtiene, principalmente, logrando enlaces de calidad a nuestro contenido.
Como acciones Onpage encontramos:
El title: donde indica al usuario y al motor de búsqueda el tema sobre el que trata la página, es conveniente que sea único y preciso. Ya que es el título que aparece en los resultados de búsqueda (Si ocupa más de 55 caracteres no aparecerá completo).
La Metaetiqueta description: donde se redactada la descripción breve de lo que hay en la página, debe ser relevante y apelar al interés del usuario. Si se utilizan adecuadamente las expresiones claves a posicionar, es posible que google la utilice en el snipet (descripción en el resultado de búsqueda).
El dominio: en cual trataremos de poner la expresión clave estructurando la url en directorios simples y coherentes.
El contenido: es la auténtica estrella del SEO, se debe de utilizar la “pirámide invertida” (el contenido más relevante al inicio de la página). Las expresiones claves que posicionan la página deben estar distribuidas de manera natural y fluida a lo largo del contenido (la más importante debería de aparecer en el primer párrafo). También se deberá de estructurar correctamente el contenido en forma de Jerarquía.
Las imágenes también posicionan, es muy importante, por tanto, el nombre que damos a la imagen, debe tener un atributo alt, éste debe ser breve y descriptivo, recalcar que el primer atributo debe ser el src, no el alt.
Por último en la css sólo deberían de ir las imágenes decorativas.
Por otra parte, tenemos las acciones Offpage, que se producen cuando hay páginas que Google considera relevantes y linkan a nuestras páginas, aumentando esa confiabilidad y autoridad. Existe un complemento para el navegador: Open SEO Stats (Google Chrome), que permite ver el pagerank, autoridad del sitio (número de visitas y cantidad de sitio). Recordar que si una página sólo tiene acceso mediante un link desde otra, google interpretará que no es muy relevante.
Para evitar el riesgo de ser desindexado debemos de evitar el keyword stuffing: ocultar palabras con fines de SEO en divs por CSS.
Los links son una parte muy importante de nuestro contenido, actualmente existen tres tipos, el primero es el Outbound: son links externos de tu sitio. Entre ellos, hay que distinguir los que transmiten pagerank (utilizando Dofollow, sitios con autoridad) y los que no (utilizando Nofollow, vínculo sin ningún atributo, debiendo establecer el valor “rel” del enlace). El segundo es el Inbound: son los enlaces de páginas externas que apuntan a nuestra web. Para que realmente mejoren nuestro SEO es muy importante que estos enlaces sean de calidad (procedentes de webs con autoridad con temática similar y con textos de ancla adecuados). Finalmente están los Internal: son enlaces en nuestra web que enlazan con otros contenidos de la misma.
También existen otras acciones que ayudan a posicionar nuestra web. Cabe mencionar el user experience: tiempo de permanencia en la página, es un buen indicador para los motores de búsqueda de que el contenido es de calidad. Al igual que el sitemap: donde los usuarios les ayuda a encontrar un contenido específico de manera rápida y a los motores de búsqueda encuentren las páginas del sitio. Por último está el Error 404: cuando hay que borrar una página que está muy bien posicionada, perdemos ese posicionamiento y si hay links externos, estos obtendrían un 404.
No podríamos despedirnos sin hablar del Robots.txt: Este archivo proporciona información a los motores de búsqueda sobre qué partes de tu sitio se pueden rastrear. Además, permite restringir el acceso a determinados directorios o páginas (en un resultado de búsqueda no serían de utilidad para el usuario) y especifica la ubicación del mapa del sitio xml. Una alternativa más segura para bloquear determinadas páginas, sería encriptar el contenido o protegerlo con .htaccess.
Finalmente, el tiempo de carga afecta al posicionamiento SEO. Las buenas prácticas indican que la carga de una página debería estar entre 1 y 2 segundos, tiempos superiores empeorarían la usabilidad por parte del usuario, disminuyendo el pagerank.
Por suerte, tenemos herramientas que nos ayudan de una manera fácil y sencilla a discernir sobre todos los aspectos anteriormente nombrados, en esta ocasión se va a comentar sobre Screaming Frog, es un ligero software de escritorio, que permite analizar los principales parámetros SEO On-Site de cualquier sitio web. La herramienta rastrea y analiza todas las URL del dominio deseado, extrayendo toda la información. El análisis se presenta de manera visual y es posible exportar toda la información de manera filtrada a ficheros CSV.
Además de ayudarnos a la optimización de títulos y descripciones con el número de caracteres recomendado, la herramienta resulta especialmente útil para detectar títulos duplicados, páginas problemáticas y enlaces apuntando a páginas 404 o a webs caídas o inexistentes. También es posible generar un archivo sitemap y acceder directamente a herramientas externas como Majestic SEO, el validator W3C o WayBack Machine, entre otras.
A continuación, se muestra un pequeño tutorial básico que permite la utilización de la herramienta: