agosto 17, 2011

Google y los nuevos sitelinks: una ayuda no solicitada

Hace tiempo ya que Google incluye "sitelinks" en sus resultados de búsqueda. Los "sitelinks" son enlaces secundarios de un sitio web que Google ofrece además del enlace principal. Por ejemplo, si un usuario ubicado en España busca "El Mundo", el primer resultado que verá será un enlace a la home page del periódico El Mundo, y debajo de él verá otros enlaces a las principales secciones. Google determina estos enlaces secundarios a partir del menú de navegación del site y de las estadísticas que obtiene sobre los clics que los usuarios hacen en los resultados.

Inicialmente, los sitelinks aparecían de corrido y comprimidos en un par de líneas sin mayor explicación.



Luego ganaron en cantidad y espacio:



Esta semana, Google ha anunciado en su blog oficial el aumento de la cantidad de sitelinks y de la información que los acompaña. Ahora lucen así:



¿Esto bueno o es malo? ¿Y para quién? La movida tiene esa característica dual que hace tan difícil valorar las acciones de Google, ubicado en la cúspide de un ecosistema al cual, a la vez, cultiva y depreda.

La reacción intuitiva del SEO frente a los nuevos sitelinks


La reacción inicial de los especialistas en SEO es poner el grito en el cielo por lo que el cambio representa en su campo diario de batalla: la página de resultados. El sitio que lidera la página de resultados puede tener ahora hasta 12 sitelinks que pueden fácilmente ocupar todo el espacio disponible en el monitor del usuario. Si ya antes la lucha por la primeras posiciones era cuestión de vida o muerte, con este cambio, asumen, lo único importante será ser el primero. El resto será invisible.

No creo que el efecto sea ese. En rigor, es posible que el principal perjudicado por este cambio sea el sitio que aparezca en la primera posición. La clave está en que los sitelinks funcionan como un ejercicio de "adivinación del deseo" para el creciente número de usuarios que hace búsquedas poco profundas, habitualmente orientadas a encontrar un sitio específico (por ejemplo, "Museo del Prado". Los sitelinks no suelen aparecer en las búsquedas más complejas, las que hacen los usuarios avanzados cuando investigan en detalle algún tema y en las cuales el foco del usuario está en encontrar un dato en particular, sin esperar un sitio determinado (por ejemplo, "definición de la distancia hiperfocal").

Google y la web: porque te quiero te aporreo


Puede decirse que Google está "secuestrando" el menú de navegación del primer site en su página de resultados, en presunto beneficio de los usuarios, pero también en beneficio propio y a expensas de los sitios a los cuales supuestamente ayuda. Al ofrecer resultados más específicos como respuesta a las búsquedas generales, Google está adelantándose al deseo del usuario y ayudándole a que resuelva en menos clics sus dudas. También puede decirse que está mejorando la probabilidad de que esas búsquedas poco específicas terminen en un clic efectivo, al exponer de un solo vistazo los destinos más populares del sitio. Pero en cualquier caso los clis que Google ahorra al usuario no son propios, sino los que el usuario debería haber hecho en el site de destino. No solo está privando al site de destino de las impresiones publicitarias asociadas a esos clics. Está eliminando en la práctica la oportunidad de atraer a ese usuario con otros temas para retenerlo y fidelizarlo (al fin y cabo, estamos hablando de usuarios que estaban intreresados en un sitio, no en un tema en particular dentro de él), de sorprenderlo con una organización particular de la información. Está acentuando (aún más) la pérdida de importancia de la portada como punto de contacto inicial con el usuario. Está deshuesando un sitio web para tirar a un lado el "contenido diferencial" (que curiosamente Google dice querer proteger) y ofrecérselo predigerido a un usuario que no le había pedido tal cosa.

En mi opinión, Google debería dar la opción a cada sitio de reducir el número de sitelinks que aparecen o bien de desactivarlos por completo. También debería parametrizar los enlaces para que sea más fácil para los webmasters detectar los accesos generados por este tipo de enlace. En cualquier caso, los sitios deberán seguir con interés los cambios en sus puntos de entrada de tráfico y volver a pensar la forma en que organizan y presentan su contenido diferencial al usuario, así como las propuestas de interacción que le hacen a este.

Esta decisión de Google es también un reconocimiento al uso creciente de su buscador como una manera rápida de acceder a los sitios favoritos de cada usuario. Es más fácil escribir el nombre del site en la caja de búsqueda que una URL en la barra de direcciones del navegador. Google se ocupa hasta de corregir los errores tipográficos. El cambio es una concesión de Google a un usuario cada vez más perezoso, que ya ni siquiera tiene que molestarse en formular claramente lo que busca para poder encontrarlo. Pero es una concesión hecha a costa de contenido ajeno.

Puede decirse que, de todos modos, la mayoría de los sitios web hace un pobre trabajo de presentar organizadamente la información a sus usuarios en la portada, y que Google les hace un favor indicando claramente cuáles son sus puntos de entrada más importantes, ayudando a distribuir el tráfico hacia los niveles inferiores de la arquitectura del sitio. Pero no saber sacar provecho de un derecho no es razón para perderlo. Si no, ¿por qué Google no usa sitelinks en los resultados de sus propios sites, como YouTube o Blogger?

abril 20, 2010

Cambios importantes en Webmaster Tools: cómo conocer en detalle el posicionamiento de tu sitio web en Google

Cambios importantes en Google Webmaster Tools. Durante mucho tiempo, la sección de "Consultas más habituales" de este servicio gratuito de Google fue uno de los misterios más herméticos de internet. se suponía que daba información sobre las palabras claves más exitosas con las que tu sitio web se posicionaba en los resltados de búsqueda, pero la evidente preocupación de Google por no revelar "demasiada" información (es decir, información suficiente para invitar a los "black hat SEOs" a hacer de las suyas) terminaba por volver casi inútil el recurso.

En su formato original, este servicio ofrecía dos tablas. La primera contenía las 20 claves más populares en las que hubiera aparecido un resultado de tu sitio web; se indicaba en cada una la posición exacta en que el contenido había aparecido en la lista de resultados y el porcentaje que esa clave representaba dentro del total de búsquedas generadas... por esas 20 claves. La otra tabla contenía las 20 claves de búsqueda que más clics habían aportado hacia tu sitio web; en cada caso se indicaba el porcentaje de clics aportado por esa clave, tomando como base 100 el total de clics aportados por la 20 claves. El que diga que puede entender esto a la primera leída, miente. La arbitraria limitación de la información a 20 elementos y, en particular, la elaboración de porcentajes basados en esos 20 elementos, hacía que la información obtenida, aunque atractiva en apariencia, fuera casi inútil en la práctica. Otro problema era que no se indicaba cuál era la URL que se había logrado posicionar. Peor: se asumía que, para cada palabra clave, tu sitio solo posicionaba una URL, y siempre en la misma ubicación en la lista de resultados. Estaba claro que los datos que se ofrecían estaban sobresimplificados.

En el nuevo formato, las dos tablas malditas son reemplazadas por una única tabla que contiene todas las palabras claves en las que tu sitio posicionó URLs. Y los arcanos porcentajes son reemplazados por impresiones, clics y tasa de clics. Además, cada palabra clave se puede desplegar para ver en detalle qué URLs obtuvieron cuántas impresiones/clics y en qué posiciones se ubicaron. El nuevo formato también se beneficia de la incorporación de muchos elementos de usabilidad e interfaz gráfica cocinados en Google Analytics, como una línea de tiempo gráfica y un calendario desplegable (aunque no tan sofisticado como el de GA) para seleccionar un rango de fechas específico. Se mantienen los filtros por tipo de búsqueda (web, imágenes, móvil; aunque "noticias" sigue misteriosamente ausente) y por Google local (para distinguir, por ejemplo, las búsquedas realizadas en España de las hechas en Google.com). Y hay una caja de búsqueda libre para detectar palabras claves similares, aunque por lo que he podido ver no soporta todavía expresiones regulares (a diferencia de los filtros de búsqueda en GA).

Con este cambio es posible pensar en un "circuito" íntegramente apoyado en herramientas gratuitas de Google para apoyar una estrategia de contenidos: detectar con Google Insights for Search las tendencias emergentes de búsqueda de contenido en tu mercado; determinar con Google Webmasters Tools la afinidad entre el "posicionamiento natural" de tu contenido con esas tendencias, para realizar ajustes en la estrategia de producción y distribución; comprobar las mejoras en posicionamiento y clics (otra vez en Webmasters Tools), y valorar los resultados en el contexto de tus métricas de tráfico en Google Analytics.

Sería interesante que Google se atreviera a dotar a Insights for Search y Webmasters Tools de APIs o mecanismos de exportación de datos similares a los que ya ha implementado para GA. Evidentemente, eso enfrenta a Google al riesgo de revelar demasiada información sobre sí mismo. Analytics informa sobre el sitio web del propio usuario, pero las otras dos herramientas descubren éstadisticas de los propios servicios de Google, y cuanta más información se ofrezca, más se crean oportunidades de SEO hacking. es el dilema que debe enfrentar (y resolver) la compañía que ha declarado públicamente que su misión es organizar toda la información del mundo. Incluida la propia.

junio 10, 2009

Ingeniería web según ingenieros no web


"Dime primero qué quieres hacer y yo luego te lo desarrollo". Pfff. Mirá si Leo Fender hubiera tenido que esperar a que le pasaran una definición documentada del rock antes de hacer la primera guitarra eléctrica.

diciembre 13, 2008

Qué.es: un pasito hacia el ID único en internet


Creo que en los cinco años que llevo haciendo blogging, nunca escribí sobre un desarrollo propio. Esta vez lo hago porque tengo la impresión de que, a fuerza de mantener un perfil tan bajo e imponerme que estos proyectos "hablen" por sí mismos, algunos detalles interesantes se pueden perder.

En los últimos meses he trabajado en el relanzamiento del sitio web del diario gratuito Qué!. Además del tradicional rediseño y de una herramienta de personalización de portada inspirada en el modelo de la BBC, hemos puesto la mayor parte de nuestro foco en la implementación de funciones sociales. El proyecto apenas ha empezado y, como todos los que se apoyan fuertemente en la participación de los usuarios, necesitará tiempo para desplegarse. Pero ya en esta primera versión hemos incorporado la posibilidad de que, en lugar de tener que crear una nueva combinación de ID y contraseña, el usuario pueda optar por conectarse a través de las cuentas y contraseñas que mantiene en servicios de gran popularidad, como Windows Live (incluido Hotmail), Yahoo! o Facebook. También ofrecemos la oportunidad de conectarse mediante el estándar OpenID.

Básicamente, esto significa que el usuario no necesita crear una combinación de ID y contraseña para registrarse en el Qué! y aprovechar los servicios que el periódico ofrece para usuarios registados, sino que simplemente puede utilizar para conectarse una cuenta que ya tenga en alguno de los servicios mencionados. Así se evita tener que recordar una nueva contraseña (o el riesgo de insertar en un nuevo sitio su contraseña habitual), ya que la validación al entrar al Qué! la hace el propio servicio externo. Si todos los sitios web siguieran este camino, en una situación ideal un usuario podría acceder a todos ellos validándose siempre con un mismo intermediario y con una única combinación de ID y contraseña.

Si no me equivoco, somos el primer medio de comunicación en España que incorpora este tipo de servicio, y probablemente también el primer sitio de cualquier categoría en este país que lo hace. De hecho, cuando empezamos el desarrollo solo sabíamos de alguna red social en Estados Unidos en la misma situación. Aún ahora, que el tema está algo más difundido, CNet ha anunciado esta misma semana con gran pompa que permitiría conexiones solo a través de Facebook.

Para ofrecer la mayor cantidad posible de opciones lo que hemos hecho por ahora es aceptar las reglas técnicas de juego establecidas por cada servicio para sus usuarios puedan conectarse, con toda la complejidad que esto significa a la hora de mantener el proyecto (hay que estar pendiente de los cambios y actualizaciones que en cualquier momento pueda fijar cualquiera de los proveedores), pero todo parece indicar que OpenID (o alguna implementación particular de OpenID) terminará por simplificar las cosas para los implementadores. Google, Yahoo!, Microsoft y MySpace ya han puesto en producción sistemas de interconexión con terceros basados en este estándar o bien han anunciado diversos grados de apoyo a esta iniciativa. Solo Facebook parece emperrado en mantenerse al margen.

octubre 10, 2008

Más acrónimos grecorromanos 2.0

En el marco del surgimiento de siglas con referencias mitológicas, como JSON (Javascript Object Notation) o AJAX (Asynchronous JavaScript and XML), sería interesante, a la manera de IKEA (que primero diseña la etiqueta y luego el mueble), ir almacenando acrónimos para futuras tecnologías. Un par de ideas:

-ILI.ON (Incredibly Light and Idiotic Objetc Notation)
-ZE.US (Zopilote Environment for Unified Scripting)

Oh Dioses del Monte Silicon, ¡asistidnos!