lunes, 27 de abril de 2015

Google y la verdad

IMAGE: Kchung - 123RFDesde su origen, Google se distinguió por ser un motor de búsqueda diferente a los demás: como es bien sabido, la compañía tiene su origen en un desarrollo académico, en un algoritmo que asigna relevancia mediante un elemento social como el contar el número de referencias a una página determinada: las páginas de resultados se ordenan en función de los enlaces externos con un término específico que reciben cada uno de sus elementos.
Este concepto, sobre el que Google ha elaborado toda una compleja teoría con innumerables variables que modifica de manera continua hasta quinientas o seiscientas veces al año, funcionó de manera espectacular a la hora de diferenciar a Google del resto de motores de búsqueda: la sensación que los usuarios tenían era la de que el buscador reflejaba realmente sus intereses en el proceso de búsqueda, una sensación muy diferente a la que experimentaban cuando utilizaban las herramientas de sus competidores.
Sin embargo, la idea que que sean variables fundamentalmente sociales las que determinen la relevancia tiene un problema fundamental: que los procesos sociales no solo miden la relevancia, sino también elementos como el sensacionalismo. Algo que recibe una atención diferencialmente elevada con respecto a un término determinado puede obtener esa condición por ser, en efecto, relevante, o por recurrir a factores como el amarillismo. A medida que los creadores de contenidos aprenden a retorcer el algoritmo de Google y a recrear procesos sociales, la web se convierte en un océano de clickbaiting, titulares intrigantes, listicles y recursos sensacionalistas de todo tipo diseñados para capturar los likes, los retweets y los enlaces que se establecen como auténtica moneda de la atención. Al tiempo, caemos en la cuenta de otra gran verdad: que determinados sitios que dicen auténticas barbaridades se convierten en relevantes por la cantidad de enlaces que reciben, importando poco que la gran mayoría de esos enlaces sean puramente peyorativos o destinados a señalar lo erróneos que son.
Los esfuerzos de Google para evitar esa progresiva contaminación de su algoritmo parecen estar desembocando en un intento de capturar ya no solo la relevancia establecida en torno a parámetros sociales, sino también alrededor de la idea de calidad de la información. Así, desarrollos como el Knowledge-Based Trust, o KBT, establecidos y probados en estudios académicos, apuntan a evaluar la fiabilidad de las páginas web en función de los datos que contienen dentro del contexto de lo que se define como su temática principal, incorporando a las tradicionales métricas exógenas (factores externos a la página web, como los sociales) un componente endógeno, propio de la página, evaluado de una forma objetiva. Algunos recursos interesantes de cara a entender el mecanismo son, por ejemplo, esta entrada en SEO Skeptic o esta otraen el Google+ de Aaron Bradley, que es quien más se ha destacado por el momento escribiendo sobre el tema.
La idea de cualificar la relevancia de una página en función de la calidad de la información contenida en ella parece muy interesante y potencialmente muy provechosa. Las fuentes sensacionalistas, las que se basan en información sesgada o las que deforman la realidad en función de sus intereses caerían, mientras aquellas que se esforzasen por ofrecer información verídica o contrastada ascenderían en las búsquedas. Obviamente, la importancia de la tarea requeriría modelos probabilísticos muy sofisticados capaces de estimar la corrección o incorrección de la información extraída de una página y considerada dentro de su temática principal, pero no parece, en función del progreso de tecnologías como el machine learning, algo técnicamente imposible. Por supuesto, existen campos semánticos en los que la verdad es cuestión de interpretación, pero para muchos otros, contrastar información contra un repositorio de “verdades universalmente aceptadas” en un tema determinado podría ayudar mucho a la hora de otorgarles una consideración de fiabilidad.
Sin duda, un avance así cambiaría el mundo tal y como lo conocemos. La trascendencia del desarrollo sería enorme, y afectaría a cómo nos informamos, a qué incentivos existen para elaborar información de una u otra manera… bien interpretado, podría suponer un brutal avance para la humanidad en su conjunto. Imaginemos un mundo en el que aquellos que mienten o difunden información falsa viesen su calificación disminuida, como quien se examina de manera constante ante un tribunal. Pensemos en el enorme reto que supondría para todos aquellos que se dedicasen a crear información, desde medios de comunicación hasta personas individuales, e intentemos imaginar el efecto que algo así podría tener en cuestiones como la relevancia o la marca personal. Sencillamente brutal.
¿Dónde está el problema? A mi entender, parece bastante claro: quién vigila al vigilante. Un sistema capaz de algo así nunca sería fiable, por principio, si su control estuviese en manos de una única compañía, fuese la que fuese. La potencia del sistema es tal que precisaría estar bajo el cuidadoso control de algún tipo de organismo cuya neutralidad se pudiese garantizar: no parece demasiado adecuado que la capacidad de evaluar qué es verdad y qué no lo es sea algo que esté bajo el control de una empresa determinada, y sujeto a sus posibles sesgos o intereses. Si hablamos además de que ese mecanismo lo desarrollase precisamente Google, de la que últimamente hemos sabido que no tuvo ningún problema en perjudicar artificialmente la posición de las páginas de sus competidores en sus resultados o en manipular esos mismos resultados para situar sus servicios en posiciones más visibles, las alarmas se encienden de manera todavía más evidente. Parece claro que acciones de Google como el extraer información de competidores (scraping) utilizando su privilegiada posición de motor de búsqueda predominante demuestran un tratamiento de las cuestiones éticas que alejan a la compañía de tener una posición de fiabilidad en ese sentido: pocos querrían poner “el oráculo de la verdad”, en el caso de que efectivamente fuese desarrollado, en manos de alguien que se ha demostrado que incurre en ese tipo de prácticas. 
Sin embargo estos son los hechos: Google parece contar con el talento adecuado para el desarrollo de la tecnología citada, y también con los medios suficientes como para ponerla en funcionamiento y dotarla de un desarrollo comercial. Lo que nos lleva a plantearnos, de nuevo, no solo la cuestión ética, sino también la del monopolio. ¿Qué ocurriría si una empresa llegase a desarrollar y a poseer un sistema de calificación universal de la verdad, capaz de encontrar entre millones y millones de resultados aquellos que son relevantes y ciertos? ¿Qué controles habría que desarrollar ante un sistema así?  E.Dans
 

Copyright © Poligonos Industriales de Petrer Design by BTDesigner | Blogger Theme by BTDesigner | Powered by Blogger