Go to Top

Big data y machine learning, a debate en el primer Congreso Internacional de Investigación sobre Salud y Bienestar Electrónicos

“Hoy en día disponemos de un gran número de datos. Sin embargo, ¿estamos haciendo algo significativo con ellos que nos ayude a mejorar el tratamiento de los pacientes?”, preguntaba el doctor Stein Olav Skrøvseth, director del Centro Noruego de Investigación de E-salud, durante la ponencia Construyendo sistemas de salud a partir del big data: desafíos y promesas, celebrada el 26 de enero durante el primer Congreso Internacional de Investigación sobre Salud y Bienestar Electrónicos.

El Palau Macaya fue el escenario del primer Congreso Internacional de Investigación sobre Salud y Bienestar Electrónicos , organizado por el Centro de eSalud de la Universitat Oberta de Catalunya (UOC), que tuvo lugar el pasado 26 de enero. Un congreso cuyo propósito fue el de abordar el papel de las tecnologías digitales para mejorar la salud de los ciudadanos, valorar las aplicaciones móviles de salud y evaluar hasta qué punto el big data puede ayudar a los sistemas de salud a hacer frente a los retos actuales. Por ejemplo, si es posible desarrollar una medicina basada en las evidencias científicas en la era de las historias clínicas informatizadas, tal y como cuestionaba el doctor Stein Olav Skrøvseth, durante la ponencia Construyendo sistemas de salud a partir del big data: desafíos y promesas.

¿Nos “ahogamos” en un mar de datos?

Entre los desafíos a los que debe hacer frente el Healthcare se hallan grandes cantidades de datos diversos, desestructurados (el 80% lo están) y almacenados en cientos de formatos -resultados de laboratorio, imágenes y transcripciones médicas- que crecen de manera exponencial, según datos de IBM sobre big data en Healthcare, expuestos por el doctor Olav Skrøvseth. Además, se calcula que 16.000 hospitales en todo el mundo recogen datos de pacientes, a la vez que 4,9 millones de pacientes usan dispositivos médicos. El segmento de los dispositivos médicos monitorizados creció a un ritmo del 18% anual a lo largo del periodo 2010-2016, y se prevé que siga al alza en los próximo años. Los datos fluyen constantemente a través de sensores interconectados, monitores e instrumentos en tiempo real, más rápido que un médico o una enfermera. A medida que los datos de salud ganan en velocidad y volumen, nuevas tecnologías como el stream computing, cuyos algoritmos analizan datos en tiempo real así como la gestión de grandes volúmenes de datos vía big data analytics pueden predecir el comienzo de enfermedades incipientes, lo que puede ayudar a los cuidadores  a tomar mejores decisiones. “Sin embargo, tener acceso a los datos supone un problema hoy en día, y debemos ser conscientes de ello. Existen obstáculos legislativos pero también técnicos. Además, los datos, en su mayoría  desestructurados, facilitan mucha información que se debe analizar para establecer coincidencias”, puntualizó el doctor Olav Skrøvseth.

Un sistema de atención sanitaria simplificado

A modo comparativo, el ponente explicó cómo había evolucionado la práctica clínica, saltándose pasos como plantear hipótesis, realizar ensayos clínicos y redactar un informe o análisis que diera respuesta a la misma. Este proceso, que ha tenido éxito durante más de 70 años, se ha ido acortando y hoy en día coexiste otra visión de práctica clínica donde prima la inmediatez: a partir de los datos facilitados, se genera un conocimiento sintetizado del caso que cierra el círculo, transmitiendo este conocimiento a la práctica clínica. “Esta visión, muy simplista del sistema de atención sanitaria, no está exenta de dificultades. Obtenemos datos de manera que no podemos usarlos ni tampoco nos ofrecen ningún tipo de información útil, dándose además un gran número de restricciones y retos técnicos. A partir de ahí, comienza la fase más analítica y complicada: la de generar ese conocimiento sintetizado que serviría para tomar decisiones en firme, etc. Eso no es nada trivial”, afirmó.

¿Y qué aporta este modelo simplificado de atención sanitaria? El director del Centro Noruego de Investigación de E-salud lo detallaba así: “Prevención, monitorización de aquellos pacientes que no se pueden desplazar y siguen un tratamiento en casa, creación de modelos predictivos que ayuden a mejorar resultados y mejora de la calidad”.

Big data, un término “engañoso”

“Todo el mundo habla de big data, pero yo creo que es un término engañoso. En el contexto en el que nos movemos, considero que big data no es una descripción adecuada. El tamaño no es la cuestión. Podemos contar con bases de datos de menores dimensiones, pero con las mismas características y sobre los mismos temas que las de datos a gran escala”, explicó el director del Centro Noruego de Investigación de E-salud, quien dio algunas observaciones a tener en cuenta sobre big data. Por ejemplo, que un sinfín de datos provienen de fuentes muy diferentes entre sí,

y no demasiado claras en ocasiones, sobre un paciente, una condición, etc. Es necesario combinarlas y ensamblarlas formando un todo. O que la calidad siempre importa. Es necesario asegurarse de que los datos apoyan las conclusiones a las que se llega o abordan las preguntas que uno se hace. El dato por sí solo no es suficiente.

Las claves del machine learning

Para el doctor Olav Skrøvseth, el machine learning se basa en aprender patrones de bases de “millones de datos”, por lo que es preciso un “dominio experto para llegar a algún sitio” mediante el uso de esta disciplina científica. “No se puede tomar una base de datos y analizarla, sin haberla discutido al menos con dos o tres de los expertos que generaron esos datos. Y a partir de ahí, te deben decir cuál es el problema actual”, recomendó. Respecto a la máxima en Data Science de que muchos datos triunfan sobre un algoritmo inteligente, el ponente afirmó que no siempre es así. “Es preciso estar muy seguro acerca de algo, y eso no siempre es posible”, apuntó. Por último, Olav Skrøvseth lamentó que el machine learning predice pero no facilita ninguna información sobre la causalidad, es decir, la relación entre causa y efecto.

Tecnologías como machine learning y deep learning se sitúan en la cima de la curva Gartner Hype Cycle for Emerging Technologies del año 2017, que mide el estado de las tecnologías más prometedoras a nivel global. “Una de las razones por las que la tecnología machine learning se halla en la cima es que existe un gran interés en ella. Es muy poderosa y realmente nos va a ayudar, pero debemos ser realistas sobre ella. Por su parte, el deep learning se descubrió en los años 70, aunque se empezó a hablar de él hace dos años. Al principio, conocer cómo trabaja el cerebro no era muy útil. En la actualidad, contamos con lo último en ordenadores y los algoritmos han mejorado mucho”, afirmó. En definitiva, machine learning e inteligencia artificial tienen un gran potencial en healthcare, aunque siendo conscientes de los puntos fuertes y débiles de ambas tecnologías.

Las nuevas tecnologías ya están transformando la realidad diaria de la sanidad /

http://galenia.net/5812/el-primer-congreso-internacional-de-investigacion-sobre-salud-y-bienestar-electronicos-aborda-las-lagunas-de-la-mhealth/ 

http://galenia.net/5399/tics-y-salud-el-futuro-esta-en-las-nubes/

http://galenia.net/5264/las-tics-necesarias-para-transformar-y-hacer-mas-sostenible-el-sistema-sanitario/

 

Share Button