Las noticias del día dejan lugar a pocas dudas: nos
dirigimos hacia un futuro en el que viviremos completamente rodeados de sensores
de todo tipo. Los auriculares de la foto son el último desarrollo de SMS Audio, la
empresa creada por el rapero 50 Cent,
basados en tecnología de Intel, y pensados para monitorizar variables
fisiológicas asociadas al ejercicio físico, un encaje que podría parecer
bastante más natural para la práctica del deporte que llevar puesta una pulsera,
una banda en el pecho o un reloj en la muñeca.
Pero los auriculares son solo una pequeñísima pieza en un rompecabezas enorme
que está detrás de muchos de los recientes desarrollos y movimientos en el
sector de la tecnología: ayer también se anunció la adquisición de SmartThings por parte de Samsung, doscientos
millones de dólares que posicionan al gigante coreano en el mundo del home
automation (iluminación, humedad, cerraduras… de todo) y que convierten
en millonarios a los fundadores de una compañía iniciada en Kickstarter. Claramente, la tendencia es hacia que
sensoricemos nuestros cuerpos, nuestro entorno, nuestros hogares y nuestros
automóviles, aunque ello nos lleve a no tener nada claro de quién va a ser la responsabilidad cuando la información
recogida por esos sensores desencadene una mala decisión.
Relojes inteligentes, brazaletes para la monitorización de personas mayores, nuevos
desarrollos en baterías pensadas específicamente para ese tipo de
dispositivos… y una auténtica riada de datos producidos cada vez que nos
movemos, hacemos ejercicio, o simplemente respiramos. Datos de todo tipo, con posibilidades de utilización muy imaginativas o muy peligrosas, que van a determinar nuevas reglas de negocio
que están poniendo en solfa incluso los acuerdos internacionales.
¿Qué hacemos con tantos datos generados por tantos sensores? Ya estamos
saturados, y solo estamos analizando en torno al 1% de los datos generados.
Lo lógico – o casi lo único – que podemos hacer es… poner a otras máquinas a
analizarlos. El machine learning se está evidenciando como la gran frontera, como la única forma de lograr que semejante
recolección constante de datos tenga un mínimo de sentido. El entrenamiento de
un algoritmo con datos de 133.000 pacientes de cuatro hospitales de Chicago
entre 2006 y 2011 logró un diagnóstico de situaciones de urgencia tales como problemas
cardiovasculares o respiratorios, emitido con cuatro horas de adelanto sobre el
realizado por los médicos. Una recopilación de parámetros de la historia
clínica del paciente, combinados con información sobre su edad, antecedentes
familiares, y determinadas analíticas, tras ser analizadas por un algoritmo, es
susceptible de dar lugar a una drástica reducción de fallecimientos relacionados
con este tipo de situaciones, en las que la provisión de asistencia médica unas
horas antes puede resultar vital.
Sin duda, estamos viviendo un auge de la sensorización. Pero el paso
siguiente, lógico o incluso imprescindible va a ser el desarrollo de
herramientas para que la inmensa cantidad de datos generados por esos sensores
puedan ser analizados con un mínimo de criterio. Un escenario muy interesante,
con un potencial brutal, y en el que sin duda veremos pronto algunos movimientos
importantes…E.Dans
Browse » Home