Ver traducción automática
Esta es una traducción automática. Para ver el texto original en inglés haga clic aquí
#Novedades de la industria
{{{sourceTextContent.title}}}
Entendiendo la falla crucial de la IA de la salud y su próxima solución
{{{sourceTextContent.subTitle}}}
Aprenda sobre el defecto crucial de la IA y por qué, una vez resuelto, los proveedores podrán transformar su forma de diagnosticar, prescribir y cuidar.
{{{sourceTextContent.description}}}
Según el IDC FutureScape, en los próximos 5 años, el 30% de las decisiones empresariales y clínicas tomadas por las organizaciones de ciencias de la salud y la vida serán informadas por AI insight y en 2023 la colaboración moderada de AI entre los humanos y las máquinas transformará la forma en que operan 1 de cada 3 sistemas de salud.
El encaprichamiento de la atención médica con la IA
Los médicos y las enfermeras se ocupan de grandes cantidades de información y variables complejas. La IA ha hecho maravillas en el procesamiento de esta información. No sólo eso, incluso ha aprovechado esta información para hacer diagnósticos predictivos para los pacientes sin la ayuda de los médicos. La Fundación Trust del Hospital Oftalmológico de Moorfield del NHS probó esta capacidad de la IA con su proyecto DeepMind.
La IA del software fue entrenada en más de 15.000 escaneos oculares diferentes de 7.500 pacientes diferentes. Usando estos datos, el sistema fue capaz de recomendar los mismos tratamientos a un panel de 8 doctores con una tasa de éxito del 94%.
Desafortunadamente, cuando se trata de la visión o la vida de un paciente, incluso una inexactitud del 1% garantiza resultados de doble o triple comprobación. Y ahí radica el principal problema de la IA de la asistencia sanitaria. No hay un verdadero "doble control" de la respuesta de la IA porque no es transparente con la forma en que llega a esa respuesta.
El enigma de la "Caja Negra"
La IA no es humana, a pesar de que tratamos de difuminar esa línea. No puede proporcionar un fundamento o explicar su punto de vista. Todo lo que puede hacer es proporcionar ese punto de vista.
Esto se debe a que los algoritmos por los que pasa un sistema de IA cuando se obtiene una respuesta son a menudo tan complejos que difícilmente se puede trazar una línea entre la respuesta propuesta y los pasos dados para obtener esa respuesta. Esto lleva a muchos a referirse a la IA como una operación de "Caja Negra", una en la que el proceso detrás de la respuesta proporcionada se esconde detrás de una cortina y todo lo que ve el operador humano es el resultado. ¿Pero qué pasaría si la IA pudiera explicar su respuesta?
Explicación de la IA: Quitar la cortina
La IA explicable (XAI) es un conjunto de complejos algoritmos que pueden explicar el razonamiento detrás de su respuesta. Existen hoy en día, pero están limitados a algoritmos más simples que son más fáciles de rastrear, como los árboles de decisión. Desafortunadamente, los algoritmos más poderosos como las redes neuronales sacrifican la explicabilidad por la precisión.
Es probable que el próximo avance en la IA sean los sistemas de IA "interpretables", en los que también se pueden observar algoritmos complejos y poderosos por su razonamiento. Muchos intentan llegar al XAI mediante la implementación de un "Motor de Razonamiento" - un funcionamiento incorporado dentro de una IA diseñado para proporcionar vínculos entre pequeños bits de información transparente y la solución real propuesta. Las aplicaciones de ese sistema serían impresionantes.
Medicina de precisión asistida por IA
La medicina de precisión se refiere al tratamiento atendido y personalizado a un paciente basado en todo, desde su estilo de vida y hábitos hasta su entorno e incluso la genética. Por supuesto, los datos estadísticos sobre todas estas variables son grandiosos y amplios, haciéndolos candidatos perfectos para ser procesados por un programa de inteligencia artificial de aprendizaje profundo.
Los médicos podrán confiar en los planes de tratamiento que les entreguen los algoritmos porque el programa proporcionará un razonamiento exacto para el tratamiento propuesto.
Diagnóstico asistido de la IA
Un profesional puede usar la IA para comprobar o confirmar los diagnósticos.
Tomemos el caso de alguien que podría haber contraído la gripe. Un sistema XAI puede decirle a un médico: "No, este paciente no tiene la gripe", pasando a justificar esa afirmación añadiendo: "el paciente presenta estornudos y dolores de cabeza pero no fatiga, un síntoma muy común de la gripe"
A partir de aquí, el médico practicante puede estar de acuerdo. Por el contrario, podría estar en desacuerdo, tal vez porque notó algo que el sistema pasó por alto, como un síntoma diferente o una faceta del historial médico del paciente que aumenta la probabilidad de contraer la gripe.
Hacia una IA transparente y precisa
La IA continuará creciendo en versatilidad y aplicación a medida que continuemos afinándola a lo largo de los años. Para aprender más sobre estas emocionantes aplicaciones y lo que significan para el espacio de la salud, contacte con un profesional de Cybernet hoy.