Ver traducción automática
Esta es una traducción automática. Para ver el texto original en inglés haga clic aquí
#Novedades de la industria
{{{sourceTextContent.title}}}
La red de aprendizaje profunda detecta, localiza fracturas en radiografías de la muñeca
{{{sourceTextContent.subTitle}}}
Un equipo de Singapur demostró que una red neuronal circumvolucional de la detección del objeto (CNN) podría detectar y localizar exactamente fracturas en radiografías de la muñeca, según un estudio del 30 de enero publicado en radiología: Inteligencia artificial. El método puede ser más comprobable que CNNs tradicional.
{{{sourceTextContent.description}}}
Los estudios anteriores han demostrado que CNNs puede detectar fracturas en las radiografías, escribieron a primer autor Yee Liang Thian, Doctor en Medicina, de la universidad nacional de Singapur y de los colegas, pero estos métodos se centran en clasificar imágenes como fracturas o no-fracturas sin componente de la localización. Esta clasificación amplia hace duro para que los clínicos verifiquen resultados.
“La tarea de la detección del objeto implica dos preguntas fundamentales sobre una imagen: qué objeto está en él, y donde está dentro de la imagen,” Thian y otros añadió. “Esto está en contraste con los estudios anteriores que implican el aprendizaje profundo que se acercó a la detección de la fractura como problema de la clasificación de la imagen, que describe cuál está en la imagen, pero no donde está.”
Los autores extrajeron más de 7.300 radiografías de la muñeca de un hospital PACS, y los radiólogos anotaron todas las fracturas del radio y del cúbito. El noventa por ciento de los datos fue utilizado para entrenar al modelo, el 10 por ciento de las imágenes fue ahorrado para la validación.
Total, el modelo detectado y localizado correctamente el 91 por ciento (310/340 de las imágenes) y el 96 por ciento (236/245 de las imágenes) de todas las fracturas del radio y del cúbito en las visiones frontales y laterales, respectivamente. Sobre una base de la por-imagen CNN alcanzó una sensibilidad, una especificidad y un AUC del 96 por ciento, el 83 por ciento y 0,92, respectivamente para la visión frontal. Para las visiones laterales esos números eran el 97 por ciento, el 86 por ciento y 0,93, respectivamente. La sensibilidad, la especificidad y los AUC del por-estudio eran el 98 por ciento, el 73 por ciento y 0,89, respectivamente.
“La red de la detección del objeto usada en nuestro estudio proporciona la clasificación así como la información espacial de la localización, que es más informativa que una sola etiqueta de la clasificación y fácilmente comprobable por el clínico,” los autores escribió. “Tal información de ubicación sería útil en desarrollar algoritmos clínicos de aprendizaje profundos para ayudar a radiólogos en la información.”
Thian y los colegas divulgaron su red hecha las etiquetas del falso positivo en fracturas viejas o las deformidades, que creyeron señalaron para coincidir en las características doctas de fracturas agudas. A pesar de esto, el grupo las escribió demostró la viabilidad de su red de la detección del objeto que puede proporcionar un trampolín importante para el desarrollo futuro del AI.
“La capacidad de predecir la información de ubicación de la anormalidad con las redes neuronales profundas es un paso importante hacia desarrollar clínico las herramientas útiles de la inteligencia artificial para aumentar al radiólogo que divulga,” los autores concluyeron.