Ver traducción automática
Esta es una traducción automática. Para ver el texto original en inglés haga clic aquí
#Novedades de la industria
{{{sourceTextContent.title}}}
IA, integridad de datos y ciencias de la vida: No esperemos a que alguien muera
{{{sourceTextContent.subTitle}}}
La idea de las máquinas que pueden pensar se convirtió en el tema de la ciencia ficción a principios del siglo XX y dio lugar a lecturas interesantes. La ciencia se puso al día y el término "inteligencia artificial" (IA) fue acuñado por John McCarthy en el Proyecto de Investigación de Verano de Dartmouth sobre Inteligencia Artificial (DSRPAI) en 1956, donde el primer programa de IA, el Logic Theorist, fue presentado por Allen Newell, Cliff Shaw y Herbert Simon.
{{{sourceTextContent.description}}}
La investigación sobre la IA floreció en los primeros años hasta que se vio frenada por los límites de la potencia computacional, pero se revitalizó en la década de 1980 gracias a las herramientas computacionales y a la inversión, cuando John Hopfield y David Rumelhart popularizaron las técnicas de aprendizaje profundo que permitían a los ordenadores aprender utilizando la experiencia.1 La siguiente limitación para el avance de la IA fue el almacenamiento de datos, que a finales de la década de 1990 ya no era un problema, ya que los avances en el campo del almacenamiento producían soluciones baratas y omnipresentes. En nuestro mundo moderno, llevamos en nuestra vida diaria dispositivos que empequeñecen la capacidad de almacenamiento de los superordenadores de hace sólo unas décadas. La IA se ha convertido en algo habitual, saliendo de los laboratorios y entrando en nuestras salas de estar con asistentes inteligentes (por ejemplo, Alexa y Siri) y televisores inteligentes. La IA está en las noticias y en nuestras lenguas, ya que apenas pasa una semana sin que un comercial de televisión o alguien en nuestros círculos sociales mencione a la IA. Pero, ¿qué es la IA y cómo podría impactar nuestras vidas cuando se aplica a las ciencias de la vida?
Basura adentro, basura afuera
Para el bien de esta discusión, podemos estar de acuerdo en que la IA puede resultar en predicciones, clasificaciones y decisiones a partir del análisis computacional de grandes conjuntos de datos que se basa en el aprendizaje automático (ML) a partir de fuentes de datos representativas y que además se basa en dichos datos y en los resultados relacionados. En este contexto, la IA puede, por ejemplo, presentar un potencial significativo para mejorar la eficiencia de las actividades de investigación y desarrollo, como la determinación de dianas de medicamentos viables para su posterior investigación. O bien, AI puede ofrecer una mayor capacidad de fabricación al reducir el potencial de defectos y acelerar la revisión, liberación y disposición del producto para su envío a través de la cadena de suministro. Sin embargo, sigue existiendo un gran riesgo con este potencial de gran recompensa, ya que los errores o pérdidas causados por los malos resultados de la IA podrían tener un impacto negativo en la salud pública
Uno de los retos actuales de la IA es el desarrollo y la gestión del LD y la IA para manejar el gran volumen de datos dispares y no estandarizados que están disponibles. La IA se está adoptando rápidamente en nuestras vidas, lo que se hace evidente en los ejemplos de la electrónica de consumo. Karan Bedi, COO de Blaupunkt Televisions India, informa que "las empresas de bienes de consumo no dejan piedra sin mover para potenciar sus productos con tecnologías digitales y de IA" y "muchos fabricantes de electrodomésticos integran la Internet de los objetos (IO) y la IA en los productos del hogar".2 Un ejemplo común es la televisión inteligente, cuya cuota de unidades globales se elevó a más del 70 por ciento de los televisores vendidos en 2018, frente al 55 por ciento en 2015.3
Considere cómo los malos datos pueden afectar la experiencia de la IA. La integridad y la calidad de los datos desempeñan un papel clave en los resultados de la IA. Una entrada de mala calidad puede producir una salida de IA inesperada o errónea. Tomemos, por ejemplo, el uso de un televisor inteligente en el que los datos de Netflix fueron introducidos de forma descuidada (por ejemplo, programas de interés seleccionados al azar) o una cuenta Hulu fue introducida por un huésped. Cuando se aplica al conjunto de datos un algoritmo utilizado para la publicidad dirigida o la programación sugerida en cualquiera de estos servicios, los resultados pueden no tener relevancia alguna para el espectador actual. Aunque esto puede ser irritante o poco útil, no es potencialmente mortal.
Sin embargo, la introducción descuidada de datos o los conjuntos de datos incorrectos relacionados con las aplicaciones de las ciencias de la vida podrían tener consecuencias que incluyen la mortalidad. "Los algoritmos de aprendizaje automático dependen en gran medida de datos de formación precisos, limpios y bien etiquetados de los que aprender para que puedan producir resultados precisos", dice Ron Schmelzer.4 Durante el ML, las entradas sesgadas o erróneas pueden causar salidas inexactas o anómalas que no tienen relevancia para el paciente en cuestión. Aunque los errores son poco probables, la aceptabilidad de los errores disminuye drásticamente cuando se considera cualquier impacto negativo para la salud del paciente y la seguridad pública. Ver anuncios de programación de Netflix que no son de interés es una cosa - ser dosificado con la medicina incorrecta es otra cosa completamente diferente.
Comience con el fin en mente
Ha surgido un mercado para soluciones de preparación de datos (incluyendo ClearStory Data, Datameer, Datawatch, Melissa Data, Oracle, Paxata, SAP, SAS, TIBCO Software, Trifacta y Unifi Software) que realizan el manejo de datos, la limpieza de datos y la preparación de datos para permitir el ML y la IA. De hecho, "la gran mayoría del tiempo del proyecto de aprendizaje automático" es ocupado por estas actividades.4 Sin embargo, a la velocidad a la que se están creando los datos, es probable que la capacidad de preparar los datos se vea superada por la acumulación de datos que hay que preparar.
La preparación de los datos sigue requiriendo cierto nivel de interacción humana. Como mínimo, un humano debe configurar la especificación para la transformación de datos durante el ETL (extraer, transformar y cargar) al recopilar datos de múltiples fuentes o al migrar datos a un almacén central de datos. Sin embargo, la discusión de datos representa una participación humana potencialmente mayor, ya que el contexto puede ser necesario para realizar un procesamiento avanzado para la transformación de datos sólidos
Independientemente de que las soluciones de preparación de datos puedan mantenerse o no, el argumento sigue siendo la mejora de la integridad y la calidad de los datos a medida que se crean, en lugar de intentar limpiarlos más tarde mientras se preparan para el LD y la IA. Esto se logra en gran parte a través de la gestión de datos y el gobierno de la información, donde la integridad y la calidad de los datos son los principios centrales. Incumbe a los creadores de soluciones de IA para las ciencias de la vida prestar la máxima atención a la integridad y calidad de los datos para mitigar el riesgo de un impacto negativo en la salud del paciente y la seguridad pública. Las soluciones de IA para las ciencias de la vida se mantienen a un nivel más alto que en otros sectores industriales.
La Integridad de los Datos Un Factor Crítico de Éxito
La integridad y la calidad de los datos son factores críticos de éxito para las soluciones de IA en ciencias de la vida. Se deben elevar los estándares y la verificación de la integridad y calidad de los datos para los conjuntos de datos en los que se pretende aplicar el LD/IA. La simple realización de la validación del sistema informático (CSV) o la gestión de los sistemas informáticos en condiciones CGMP no es suficiente para garantizar la integridad y la calidad de los datos.
La integridad y la calidad de los datos deben ser temas comunes en un sistema de gestión de calidad maduro y deben integrarse de forma proactiva en la gestión de datos y el gobierno de la información como una actividad empresarial central. Encontramos que cuando las empresas entienden que la integridad y la calidad de los datos son factores críticos de éxito, el resultado es una ventaja competitiva. Pueden ocurrir menos errores humanos, y las investigaciones pueden completarse más rápida y exitosamente cuando lo hacen. Las actividades de fusiones y adquisiciones son más eficaces y eficientes a medida que se facilita la diligencia debida y la valoración es más clara con datos defendibles y con recursos humanos que los entienden y pueden explicar. Estos factores de éxito conducen a mejores resultados de IA con una mayor capacidad para proporcionar productos a los pacientes y un mayor valor para los propietarios y accionistas.
Ahora que la IA se ha vuelto más común, se nos presentan cuestiones prácticas y éticas muy directamente, ya que "permitimos que la IA mejore constantemente y se desenfrene en la sociedad".1 ¿Cuándo terminará un resultado de IA basado en datos erróneos en una consecuencia de una lesión humana o incluso de la muerte? ¿En qué momento se producirá la intención maliciosa de influir en los resultados de la IA para que resulten en lesiones o muerte? Recordemos los "asesinatos de Tylenol de 1981" y cómo las acciones regulatorias e industriales resultantes cambiaron para siempre la forma en que envasamos los medicamentos.5 ¿Nos comportaremos de forma reactiva, a la espera de un "evento de nivel de Tylenol" que nos obligue a gobernarnos a nosotros mismos y a los malos datos que estamos obteniendo a través de la IA? ¿O nos comportaremos de forma proactiva para gestionar fervientemente nuestros datos para evitar impactos negativos en la salud del paciente y en la vida humana?