Sobre la personalización de contenidos en la Web

“It will be very hard for people to consume
something that has not in some sense been
taylored for them”
Eric Schmidt (Google).

Hace algún tiempo me reenviaron un correo electrónico a mi casilla de Gmail, cuyo “asunto” estaba en japonés (no tengo conocimiento alguno del idioma, sólo se suponía que debía leer cierto contenido del mensaje que estaba en inglés). Durante los días siguientes, la publicidad contextual de mi cuenta (esos recuadros que aparecen en los márgenes al abrir un mail) estaba repleta de caracteres nipones. Algo similar volvió a sucederme mientras realizaba búsquedas de departamentos en la Web: los avisos de inmobiliarias se multiplicaron como por arte de magia.

Empresas como Google, Yahoo, Microsoft y Facebook utilizan la publicidad contextual como un modo de segmentar la oferta de avisos en función del perfil de cada usuario, y aumentar así las posibilidades de alcanzar a potenciales clientes. El “perfil del usuario” es definido por sus búsquedas realizadas, las páginas que visita con frecuencia, y unas cuantas cuestiones más.

La oferta de contenidos personalizados, sin embargo, no se circunscribe sólo a la publicidad. Buscar un libro en Amazon, un video en YouTube o una canción en GrooveShark, abre las puertas de par en par a la “recomendación” o las “sugerencias”. (Facebook, por ejemplo, me sugiere la página de Joan Manuel Serrat “porque te gusta Joaquín Sabina”).

Estas recomendaciones, que en ocasiones pueden resultar útiles o atinadas, no necesariamente se adaptan con exactitud a nuestros gustos e intereses (fluctuantes, múltiples, que pueden no tener puntos de relación entre sí).

Es que, al fin de cuentas, los algoritmos no han logrado resolver cuestiones relacionadas con la semántica, o el significado real –y personal- de los mensajes que enviamos, las búsquedas que efectuamos en la Red, o los contenidos que nos interesan. La máquina siempre estará en desventaja frente al hombre.

Personalización de contenidos 
















Sobre estas cuestiones, y lo que en verdad representa la personalización extrema de los contenidos, reflexiona Eli Pariser (actual asesor digital de Barack Obama, y ex director ejecutivo de MoveOn.org) en este video, más que interesante, que forma parte de las conferencias TED:





















“Internet nos muestra lo que cree que nosotros queremos ver, pero no necesariamente lo que necesitamos ver”, argumenta Pariser, que escribió un libro al respecto: “The FilterBubble: What the Internet Is Hiding from You”.

Lo más “popular” muy pocas veces es lo más importante. Y sin embargo suele ser lo que domina los primeros puestos en la Web. Observemos, por citar un ejemplo, las noticias más leídas en el portal online de cualquier diario: notas superficiales, “blandas” y chismes del mundo del espectáculo protagonizan el listado. Aún cuando suceden cosas de considerable gravedad y mayor urgencia en el mundo, esas noticias llaman nuestra atención en primer lugar, y nos distraen de “lo importante”, que permanece relegado en lugares de menor visibilidad.


Algo similar comenta Eli Pariser respecto del famoso botón “Me gusta” de Facebook. Esta opción, argumenta Pariser, produce un notable desequilibrio: hay contenidos que se distribuyen con gran rapidez por ser más proclives a responder con un “Me gusta”, y otros que por su tenor - negativo, incómodo-, no admiten esa respuesta.

Sobre esto se hace referencia también en un artículo publicado por El País y titulado “La Red le adoctrina con su propio credo, si usted se deja”: 

"Tal vez Facebook debería tener un botón de Importante además del de Me gustaDe tal forma que el tema Genocidio en Darfur pueda tener la misma visibilidad que He hecho una tarta".
¿Bajo qué criterios se selecciona la información que aparece ante nuestros ojos y se oculta otra? ¿Será que estamos recibiendo contenidos que otros proponen y programan para nosotros en la Web, y no lo que en realidad queremos ver?

Y si la mayor parte de la Web está configurada para ofrecernos información en función de búsquedas anteriores, amigos en común, artículos leídos, canciones escuchadas y libros leídos… ¿no se anula entonces, la posibilidad de acceder a contenidos innovadores, que desafíen nuestras opiniones formadas, lo ya conocido, en definitiva, que alimenten la diversidad? Esto es, según Pariser (y adhiero en gran medida), lo que está en juego.

La neutralidad de la Red, -que desde sus inicios fue destacada como una de sus grandes ventajas- está mutando, y cada vez en mayor medida, las grandes empresas configuran y transforman la Red en pos de ofrecernos aquello que (supuestamente) queremos, sin que nosotros hayamos manifestado nuestro deseo de que así sea.

Si la información se brinda con sesgos, la libertad de elección se ve falseada, se vuelve ilusoria. Si desconocemos las reglas que operan tras esos sesgos, resulta más difícil aún poder sortearlos. De allí el reclamo a las empresas que gestionan contenidos en la Red: “transparencia, para que podamos saber cuáles son las reglas que determinan qué es lo que entra en nuestros filtros”.


0 comentarios:

Publicar un comentario