Desde
su origen, Google se distinguió por ser un motor de búsqueda diferente a
los demás: como es bien sabido, la compañía tiene su origen en un
desarrollo académico, en un algoritmo que asigna relevancia mediante un
elemento social como el contar el número de referencias a una página
determinada: las páginas de resultados se ordenan en función de los
enlaces externos con un término específico que reciben cada uno de sus
elementos.
Este concepto, sobre el que Google ha elaborado toda una compleja teoría con innumerables variables que modifica de manera continua hasta quinientas o seiscientas veces al año,
funcionó de manera espectacular a la hora de diferenciar a Google del
resto de motores de búsqueda: la sensación que los usuarios tenían era
la de que el buscador reflejaba realmente sus intereses en el proceso de
búsqueda, una sensación muy diferente a la que experimentaban cuando
utilizaban las herramientas de sus competidores.
Sin
embargo, la idea que que sean variables fundamentalmente sociales las
que determinen la relevancia tiene un problema fundamental: que los
procesos sociales no solo miden la relevancia, sino también elementos
como el sensacionalismo. Algo que recibe una atención diferencialmente
elevada con respecto a un término determinado puede obtener esa
condición por ser, en efecto, relevante, o por recurrir a factores como
el amarillismo. A medida que los creadores de contenidos aprenden a
retorcer el algoritmo de Google y a recrear procesos sociales, la web se
convierte en un océano de clickbaiting, titulares intrigantes, listicles y recursos sensacionalistas de todo tipo diseñados para capturar los likes, los retweets y
los enlaces que se establecen como auténtica moneda de la atención. Al
tiempo, caemos en la cuenta de otra gran verdad: que determinados sitios
que dicen auténticas barbaridades se convierten en relevantes por la
cantidad de enlaces que reciben, importando poco que la gran mayoría de
esos enlaces sean puramente peyorativos o destinados a señalar lo
erróneos que son.
Los
esfuerzos de Google para evitar esa progresiva contaminación de su
algoritmo parecen estar desembocando en un intento de capturar ya no
solo la relevancia establecida en torno a parámetros sociales, sino
también alrededor de la idea de calidad de la información. Así, desarrollos como el Knowledge-Based Trust, o KBT, establecidos y probados en estudios académicos,
apuntan a evaluar la fiabilidad de las páginas web en función de los
datos que contienen dentro del contexto de lo que se define como su
temática principal, incorporando a las tradicionales métricas exógenas
(factores externos a la página web, como los sociales) un componente
endógeno, propio de la página, evaluado de una forma objetiva. Algunos
recursos interesantes de cara a entender el mecanismo son, por ejemplo, esta entrada en SEO Skeptic o esta otraen el Google+ de Aaron Bradley, que es quien más se ha destacado por el momento escribiendo sobre el tema.
La
idea de cualificar la relevancia de una página en función de la calidad
de la información contenida en ella parece muy interesante y
potencialmente muy provechosa. Las fuentes sensacionalistas, las que se
basan en información sesgada o las que deforman la realidad en función
de sus intereses caerían, mientras aquellas que se esforzasen por
ofrecer información verídica o contrastada ascenderían en las búsquedas.
Obviamente, la importancia de la tarea requeriría modelos
probabilísticos muy sofisticados capaces de estimar la corrección o
incorrección de la información extraída de una página y considerada
dentro de su temática principal, pero no parece, en función del progreso
de tecnologías como el machine learning,
algo técnicamente imposible. Por supuesto, existen campos semánticos en
los que la verdad es cuestión de interpretación, pero para muchos
otros, contrastar información contra un repositorio de “verdades
universalmente aceptadas” en un tema determinado podría ayudar mucho a
la hora de otorgarles una consideración de fiabilidad.
Sin
duda, un avance así cambiaría el mundo tal y como lo conocemos. La
trascendencia del desarrollo sería enorme, y afectaría a cómo nos
informamos, a qué incentivos existen para elaborar información de una u
otra manera… bien interpretado, podría suponer un brutal avance para la
humanidad en su conjunto. Imaginemos un mundo en el que aquellos que
mienten o difunden información falsa viesen su calificación disminuida,
como quien se examina de manera constante ante un tribunal. Pensemos en
el enorme reto que supondría para todos aquellos que se dedicasen a
crear información, desde medios de comunicación hasta personas
individuales, e intentemos imaginar el efecto que algo así podría tener
en cuestiones como la relevancia o la marca personal. Sencillamente
brutal.
¿Dónde
está el problema? A mi entender, parece bastante claro: quién vigila al
vigilante. Un sistema capaz de algo así nunca sería fiable, por
principio, si su control estuviese en manos de una única compañía, fuese
la que fuese. La potencia del sistema es tal que precisaría estar bajo
el cuidadoso control de algún tipo de organismo cuya neutralidad se
pudiese garantizar: no parece demasiado adecuado que la capacidad de
evaluar qué es verdad y qué no lo es sea algo que esté bajo el control
de una empresa determinada, y sujeto a sus posibles sesgos o intereses.
Si hablamos además de que ese mecanismo lo desarrollase precisamente
Google, de la que últimamente hemos sabido que no tuvo ningún problema
en perjudicar artificialmente la posición de las páginas de sus competidores en sus resultados o en manipular
esos mismos resultados para situar sus servicios en posiciones más
visibles, las alarmas se encienden de manera todavía más evidente.
Parece claro que acciones de Google como el extraer información de competidores (scraping)
utilizando su privilegiada posición de motor de búsqueda predominante
demuestran un tratamiento de las cuestiones éticas que alejan a la
compañía de tener una posición de fiabilidad en ese sentido: pocos
querrían poner “el oráculo de la verdad”, en el caso de que
efectivamente fuese desarrollado, en manos de alguien que se ha
demostrado que incurre en ese tipo de prácticas.
Sin
embargo estos son los hechos: Google parece contar con el talento
adecuado para el desarrollo de la tecnología citada, y también con los
medios suficientes como para ponerla en funcionamiento y dotarla de un
desarrollo comercial. Lo que nos lleva a plantearnos, de nuevo, no solo
la cuestión ética, sino también la del monopolio. ¿Qué ocurriría si una
empresa llegase a desarrollar y a poseer un sistema de calificación
universal de la verdad, capaz de encontrar entre millones y millones de
resultados aquellos que son relevantes y ciertos? ¿Qué controles habría
que desarrollar ante un sistema así? E.Dans