Innovación /

Google utiliza la Inteligencia Artificial en la saludmartes, 03 julio 2018

El instrumento de Google utiliza redes neuronales para analizar grandes cantidades de datos y hacer pronósticos sobre las probabilidades que tienen los pacientes de permanecer en un hospital, reingresar o, incluso, morir.


Google está demostrando claramente que es más eficiente a la hora de analizar una multiplicidad de datos.

Sencillamente, lo hace mejor.

Ahora, está desarrollando una herramienta que podría pronosticar la evolución de los pacientes a partir del análisis de datos. El sistema, basado en Inteligencia Artificial (IA), utiliza redes neuronales para analizar información y hacer pronósticos sobre las probabilidades que tienen los pacientes de permanecer en un hospital, reingresar o, incluso, morir. Uno de los grandes problemas de los hospitales y servicios de salud es encontrar un sistema eficiente para procesar todos los datos sobre los pacientes. 

Investigadores de Google Brain y de la Universidad de Stanford publicaron recientemente un artículo en Nature detallando su trabajo usando Big Data y métodos de aprendizaje profundo para predecir el futuro de los pacientes hospitalizados.

Los primeros resultados de la investigación que está realizando Google Brain se dieron a conocer en mayo. Se basaron en el caso de una mujer con cáncer de mama en etapa avanzada. Con los datos obtenidos a través de radiografías y otros sistemas, los computadores del hospital calcularon que la mujer tenía un 9,3% de probabilidades de morir durante su ingreso. Cuando Google estudió el mismo caso, su algoritmo devoró 175.639 datos y dio como resultado una previsión de 19,9% de probabilidades de muerte. La paciente falleció a los pocos días. 

Lo que más impresionó a los médicos fue la capacidad del instrumento para asociar datos con los que ya contaban, pero que a veces eran notas antiguas tomadas a mano, o información que se encontraba perdida en un PDF. Las redes neuronales asimilaron y cruzaron todos esos detalles con naturalidad a una velocidad asombrosa. 

Nigam Shah, profesor de la Universidad de Stanford y coautor del trabajo publicado en Nature, explicó que más de las tres cuartas partes del esfuerzo de crear modelos predictivos es simplemente organizar los datos de manera tal que sean presentables. Lo que habitualmente se llama: “limpiar los datos”.

ENLACES

Comparte