banner

Noticias

Jan 16, 2024

FracAtlas: un conjunto de datos para la clasificación, localización y segmentación de fracturas de radiografías musculoesqueléticas

Datos científicos volumen 10, número de artículo: 521 (2023) Citar este artículo

2 altmétrico

Detalles de métricas

La radiografía digital es uno de los estándares más comunes y rentables para el diagnóstico de fracturas óseas. Para tales diagnósticos se requiere la intervención de expertos, lo que requiere mucho tiempo y exige una formación rigurosa. Con el reciente crecimiento de los algoritmos de visión por computadora, existe un gran interés en el diagnóstico asistido por computadora. El desarrollo de algoritmos exige grandes conjuntos de datos con anotaciones adecuadas. Los conjuntos de datos de rayos X existentes son pequeños o carecen de anotaciones adecuadas, lo que dificulta el desarrollo de algoritmos de aprendizaje automático y la evaluación del rendimiento relativo de los algoritmos de clasificación, localización y segmentación. Presentamos FracAtlas, un nuevo conjunto de datos de exploraciones de rayos X seleccionados a partir de imágenes recopiladas de tres hospitales importantes de Bangladesh. Nuestro conjunto de datos incluye 4083 imágenes que se han anotado manualmente para la clasificación, localización y segmentación de fracturas óseas con la ayuda de dos radiólogos expertos y un ortopedista utilizando la plataforma de etiquetado de código abierto, makeense.ai. Hay 717 imágenes con 922 casos de fracturas. Cada una de las instancias de fractura tiene su propia máscara y cuadro delimitador, mientras que los escaneos también tienen etiquetas globales para tareas de clasificación. Creemos que el conjunto de datos será un recurso valioso para los investigadores interesados ​​en desarrollar y evaluar algoritmos de aprendizaje automático para el diagnóstico de fracturas óseas.

En las últimas décadas ha habido un aumento en la demanda de sistemas de diagnóstico asistido por computadora (CAD). Además, recientemente, diferentes campos de la ciencia médica han visto un rápido desarrollo de procesos de automatización en el diagnóstico aprovechando grandes conjuntos de datos y algoritmos avanzados de aprendizaje automático1,2. Modelos como las redes neuronales convolucionales (CNN)3, Solo miras una vez (YOLO)4 y U-NET5 pueden lograr un rendimiento similar al de un experto en la detección de anomalías a partir de escaneos de rayos X. Entrenar tales modelos requiere conjuntos de datos grandes y bien anotados6,7,8. Es difícil recopilar esos datos de hospitales y centros de diagnóstico. El proceso de anotación puede ser muy costoso ya que requiere la participación de múltiples médicos y radiólogos para lograr un consenso que elimine sesgos y errores humanos. Debido a la naturaleza sensible de los datos médicos, también es muy difícil hacer que los datos adquiridos estén disponibles para uso público. En resumen, la creación de dichos conjuntos de datos es costosa y requiere mucho tiempo2,9.

Algunos de los conjuntos de datos de rayos X más conocidos que están disponibles públicamente y que se centran en anomalías incluyen MURA10, MedPix11, GRAZPEDWRI-DX12, IIEST1, MOST13, VinDr-CXR2, VinDr-SpineXR14 y ChestX-ray1415. Entre estos conjuntos de datos, MURA es una colección de radiografías musculoesqueléticas en 2D con 40.561 imágenes de diferentes regiones como el codo, los dedos, el antebrazo, la mano, el húmero, el hombro y la muñeca10. Cada imagen está etiquetada como "Normal" o "Anormal", lo que la hace adecuada para tareas de clasificación; sin embargo, carece de anotaciones adecuadas para localización y segmentación. MedPix es una base de datos en línea de exploraciones médicas en 2D y 3D de diversas enfermedades que se pueden filtrar por la palabra clave "fractura", lo que da como resultado 954 imágenes. Estas imágenes incluyen rayos X, imágenes reales, imágenes por resonancia magnética (MRI), tomografías computarizadas (CT) e imágenes por ultrasonido. Sin embargo, el conjunto de datos tiene problemas como anotaciones desorganizadas e imágenes mal etiquetadas, así como algunas imágenes no deseadas. GRAZPEDWRI-DX es un conjunto de datos publicado recientemente que contiene 20.327 exploraciones con anotaciones para la localización recopiladas de 6.091 pacientes. Aunque se trata de un conjunto de datos suficientemente grande, cubre sólo las fracturas de muñeca, omitiendo el resto de las partes del cuerpo humano. IIEST es un pequeño conjunto de datos de rayos X 2D que contiene 217 imágenes, de las cuales 49 son sanas, 99 están fracturadas y 69 son gammagrafías de huesos cancerosos. Este conjunto de datos es muy pequeño e inadecuado para actividades de aprendizaje automático. MOST es un conjunto de datos que contiene 4446 exploraciones de rayos X y resonancias magnéticas etiquetadas según el sistema de clasificación Kellgren-Lawrence (KL)16 con cinco clases desde el grado 0 al grado 4 con una gravedad creciente de una a la siguiente. Este conjunto de datos ya no está disponible en el dominio público debido a la falta de financiación y al cierre. También cubre únicamente las fracturas de la articulación de la rodilla. VinDr-CXR también es un conjunto de datos publicado recientemente, que contiene 18.000 imágenes de radiografías de tórax (CXR) con anotaciones manuales para su localización. Este conjunto de datos contiene muestras de 28 tipos diferentes de enfermedades y anomalías torácicas. Aunque se trata de un buen conjunto de datos para identificar enfermedades del tórax, no es adecuado para la identificación de fracturas óseas. Asimismo, el grupo VinDr cuenta con otros conjuntos de datos VinDr-Mammo17, VinDr-SpineXR14 y PediCXR18 que no son adecuados para el estudio de fracturas por motivos similares. ChestX-ray14 es un conjunto de datos para gráficos de radio que contiene 112.000 exploraciones CXR. Este conjunto de datos tampoco es adecuado para el estudio de fracturas óseas, ya que solo contiene muestras de enfermedades torácicas. Algunos conjuntos de datos destacados de radiografías del cuerpo humano se comparan con el conjunto de datos de FracAtlas19 en la Tabla 1.

Las deficiencias de los conjuntos de datos existentes son que la mayoría de ellos sólo pueden usarse para tareas de clasificación o carecen de la anotación adecuada. Algunos también están mal etiquetados y, por lo tanto, no son adecuados para tareas de aprendizaje automático, ya que no están bien mantenidos o la calidad de las anotaciones no está a la altura. Los conjuntos de datos de rayos X de alta calidad disponibles no están destinados al estudio de fracturas óseas. Con los recientes avances en los sistemas CAD, los conjuntos de datos solo para tareas de clasificación no son suficientes, ya que la mayoría está avanzando hacia el desarrollo de modelos de localización y segmentación20. Para tales tareas, es muy importante contar con conjuntos de datos bien mantenidos y documentados con anotaciones manuales adecuadas. Debido a la naturaleza sensible del ámbito médico, es muy importante que los modelos desempeñen un alto nivel. Y para lograrlo, es muy importante contar con un gran conjunto de datos con anotaciones de alta calidad7.

La mayoría de los trabajos destacados sobre clasificación, localización y segmentación de fracturas óseas han utilizado conjuntos de datos privados21,22,23. Debido a la falta de disponibilidad actual de conjuntos de datos de acceso público, no es factible realizar un análisis comparativo de los métodos más modernos (SOTA). Para resolver este problema, presentamos el conjunto de datos FracAtlas19, que se creó mediante la recopilación de 14.068 exploraciones de rayos X de tres hospitales destacados de Bangladesh. De estas 14.068 exploraciones, se han aislado 4.083 imágenes de regiones como la mano, el hombro, la pierna y la cadera. El resto de las exploraciones se descartaron ya que eran de la región del tórax o del cráneo. Debido a preocupaciones de seguridad y privacidad, hemos anonimizado todos los datos estructurados relacionados con el paciente, como nombre, edad, sexo, hora del diagnóstico, etc., de cada uno de los escaneos. Las imágenes DICOM recopiladas se han convertido al formato JPG. Se puede acceder al conjunto de datos en figshare (https://doi.org/10.6084/m9.figshare.22363012).

Hemos creado el conjunto de datos FracAtlas19 en cuatro pasos principales (1) recopilación de datos (2) limpieza de datos (3) búsqueda de la distribución general de los datos limpios (4) anotación del conjunto de datos. A lo largo de los años 2021 y 2022, se recolectaron aproximadamente 14,068 exploraciones de rayos X de 3 hospitales y centros de diagnóstico. La mayoría de las exploraciones se obtuvieron del Centro médico Lab-Aid, Brahmanbaria, junto con el Hospital General y Centro de Diagnóstico Anupam, Bogra y el Centro de Diagnóstico Prime, Barishal. Las imágenes DICOM adquiridas fueron generadas por dispositivos Fujifilm y Philips. El proceso completo se ilustra en la Fig. 1. La autorización ética de este estudio fue aprobada por la Junta Institucional de Ética en Investigación (IREB) de acuerdo con el Consejo de Investigación Médica de Bangladesh (BMRC). El IREB aprobó la publicación abierta de los datos basándose en el hecho de que existen disposiciones adecuadas para mantener la confidencialidad de las personas mediante la filtración adecuada de la información de identificación personal. Además, el permiso para publicar los datos en el dominio público también se obtuvo de la fuente. El consentimiento para la recolección de datos de todos los sujetos (adultos y padres en el caso de menores) se tomó como parte del inicio del diagnóstico en las instalaciones médicas. Además, el proceso de recopilación de datos no tuvo ningún efecto en el tratamiento clínico o los procesos de diagnóstico de los tres hospitales involucrados y se eliminó toda la información de identificación personal en los datos recopilados. Todo el proceso fue administrado de acuerdo con el Consejo de Ética en Investigación Institucional de United International University.

El flujo de trabajo para crear el conjunto de datos FracAtlas: (1) las imágenes de rayos X de uso general se recopilaron en formato DICOM y, para la desidentificación, las imágenes se convirtieron a JPG y se les asignaron nombres arbitrarios. (2) El conjunto de imágenes JPG resultante de la Etapa 1 se filtró de otras partes del cuerpo. (3) El conjunto de imágenes resultante de la etapa 2 se llevó a los respectivos hospitales para conocer la distribución general. (4) el conjunto de imágenes resultante de la etapa 2 fue anotado por 2 radiólogos expertos y luego verificado y fusionado por un médico ortopédico experto. Las mascarillas se desarrollaron manualmente con software de código abierto a partir de las etiquetas generadas por el médico en formato COCO JSON. Luego, las máscaras resultantes se convirtieron a otros formatos de anotación para usarlas en diferentes propósitos de aprendizaje automático.

En la fase inicial se recogieron un total de 14.068 rayos X. Como los hospitales y centros de diagnóstico no podían compartir la información de los pacientes por motivos de privacidad, a todas las imágenes DICOM se les dio un nombre de imagen arbitrario y se convirtieron al formato de imagen JPG. Esto eliminó automáticamente toda la información confidencial que estaba presente en los metadatos de las imágenes DICOM. Estas conversiones se realizaron utilizando el software propietario de las correspondientes máquinas de rayos X. El proceso de cambio de nombre se automatizó mediante un script de Python. Las imágenes DICOM renombradas se almacenaron en la base de datos del hospital por separado para su posterior estudio de distribución general. Todas las exploraciones de rayos X que se han recopilado son para diagnóstico de propósito general. Esto significa que, además de las exploraciones de fracturas óseas, también hay muestras de enfermedades del pecho y anomalías en la región del cráneo y la columna. En los datos recopilados, el número de muestras de fracturas óseas en la región del tórax, el cráneo y la columna vertebral era escaso. Como resultado, se eliminaron los escaneos de dichas partes bajo la supervisión de un médico. Esto nos dejó con 4.083 exploraciones de las regiones de la mano, la pierna, la cadera y el hombro. La Figura 2 muestra algunas imágenes válidas y atípicas para el conjunto de datos. Algunas de las imágenes de nuestro conjunto de datos contienen logotipos y textos que no se han eliminado.

Ejemplo de imágenes de rayos X válidas (izquierda) frente a atípicas (derecha). Todos los escaneos se filtraron manualmente según las partes del cuerpo presentes en el escaneo, la claridad de los escaneos y la resolución. Se aceptaron exploraciones que contenían únicamente las regiones del brazo, el hombro, la pierna y la cadera.

Después del proceso de limpieza, se realizó el análisis demográfico de las 4.083 imágenes. En nuestro estudio hemos observado que la edad de los pacientes tiene un gran impacto en el análisis de las fracturas. En sujetos más jóvenes (de 0 a 7 años), los extremos de los huesos cerca de las articulaciones pueden verse como almohadillas discales separadas y separadas debido a la falta de densidad ósea. Un modelo entrenado en pacientes por encima de este rango puede juzgar erróneamente esas estructuras óseas como fracturas. Por el contrario, en los pacientes mayores (mayores de 50 años) la superficie de los huesos puede parecer rugosa24. Esto también puede llevar a un modelo a juzgar erróneamente esos huesos como fracturados. Por lo tanto, es fundamental que un conjunto de datos destinado al estudio de fracturas contenga una gama diversa de edades de los pacientes. Como todos los metadatos de las imágenes de rayos X se descartaron en el momento de la recopilación. Después de la limpieza del conjunto de datos, las imágenes restantes se llevaron a los hospitales correspondientes para conocer la distribución de edad y género en todo el conjunto de datos. La edad de los sujetos de nuestro conjunto de datos oscila entre 8 meses y 78 años. Además, la distribución por género de los estudios anormales es del 85,4% y el 14,6% entre hombres y mujeres respectivamente. La proporción de género para todo el conjunto de datos (casos normales + anormales) es 62% hombres y 38% mujeres aproximadamente. Hay 717 exploraciones anormales en nuestro conjunto de datos que contienen un total de 922 casos de fracturas. Los estudios anormales contienen al menos 1 y como máximo 5 casos de fractura. Algunos de los escaneos tienen múltiples vistas y configuraciones regionales. Todo el conjunto de datos contiene 4.083 imágenes y 4.497 configuraciones regionales. Hay 396 imágenes con diferentes vistas de un mismo órgano en una misma imagen. Hay 99 imágenes que contienen dispositivos de fijación ortopédica (hardware). El conjunto de datos FracAtlas19 tiene un total de 1.538 exploraciones de la mano y entre ellas, 437 están fracturadas. Hay un total de 2272 exploraciones de piernas, 338 exploraciones de cadera y 349 exploraciones de hombro. Entre estos, el número de exploraciones que pertenecen a la clase de fractura es 263, 63 y 63 para las regiones de la pierna, la cadera y el hombro, respectivamente. La Figura 3 ilustra la distribución de diferentes propiedades presentes en el conjunto de datos. El conjunto de datos de FracAtlas comprende un total de 2503 imágenes de vista frontal, 1492 lateral y 418 oblicuas, cada una de ellas perteneciente a diferentes órganos. Mientras que la clase 'Fracturada' incluye 438 imágenes de vista frontal, 325 laterales y 45 oblicuas. Por el contrario, la clase 'No fracturada' abarca un total de 2.065 vistas frontales, 1.167 laterales y 373 oblicuas. La distribución relativa se ilustra en la Fig. 4.

La distribución de diferentes ubicaciones junto con otras propiedades presentes en las imágenes del conjunto de datos FracAtlas. Los lugares incluyen la región de la mano, el hombro, la cadera y la pierna. Las distribuciones también muestran el número de Dispositivos de Fijación Ortopédica (Hardware) e imágenes con vista dividida (Vista múltiple) de los mismos órganos desde diferentes planos. El gráfico azul muestra la distribución de dichos atributos para los escaneos saludables del conjunto de datos, donde las barras rojas muestran lo mismo para los escaneos fracturados y, en conjunto, muestran la distribución general de todo el conjunto de datos. Los números a la derecha de cada barra con el color correspondiente representan el valor, mientras que los números grises representan los valores colectivos.

El número de muestras presentes para cada una de las vistas frontal, lateral y oblicua presentes en el conjunto de datos de FracAtlas para clases individuales.

Al análisis de la distribución de los datos le siguió un proceso de revisión realizado por dos radiólogos expertos, cada uno con años de experiencia en el campo. Los radiólogos revisaron las 4.083 imágenes y etiquetaron cada imagen identificando la presencia y el número de fracturas, junto con el nombre de la ubicación de las fracturas. Después de una observación completa, la lista de fracturas generada por cada radiólogo se cotejó entre sí. Las imágenes que tenían etiquetas unánimes proporcionadas por los radiólogos se tomaron como exploraciones fracturadas. En caso de disparidades en la ubicación de las fracturas o en el recuento de los lugares de las fracturas, las imágenes se remitieron a un cirujano ortopédico experto para su posterior revisión y validación. Después de etiquetar las imágenes enumeradas de forma independiente, las imágenes se cotejaron nuevamente con sus propios hallazgos y los generados por los radiólogos. Y después de comparar las 3 muestras, se acordaron las etiquetas finales. Después de resolver todos los conflictos, las imágenes se anotaron manualmente utilizando makeense.ai https://github.com/SkalskiP/make-sense. El principal tipo de anotación generada para fracturas óseas fue el formato de Objetos Comunes en Contexto (COCO)25. Este formato permite la creación de máscaras poligonales de las regiones de fractura. Cada imagen puede tener varias ubicaciones marcadas por máscaras independientes y también se permite la superposición de diferentes máscaras. Se eligió el formato COCO JavaScript Object Notation (JSON) para trabajarlo manualmente porque contiene la mayor cantidad de información y permite conversiones con pérdida a otros formatos de anotación como la anotación YOLO y Pascal VOC y también a formatos sin pérdida como Visual Geometry Group (VGG). ) formato. El formato COCO JSON se utiliza para tareas de segmentación, mientras que YOLO y Pascal Visual Object Classes (VOC) se utilizan para localización. El registro original mantenido para el proceso de etiquetado primario también se proporciona para las tareas de clasificación en formato de valores separados por comas (CSV). La Figura 5 muestra diferentes tipos de anotaciones proporcionadas con el conjunto de datos.

Imagen de muestra completamente etiquetada y etiquetada. (A) muestra el escaneo original con las etiquetas globales pierna, hardware, fracturado configuradas en 1 (verdadero) y el recuento de fracturas establecido en 2. Las etiquetas restantes (mano, cadera, hombro, mixta, multiexploración) están configuradas en 0 (falso) ( B) Los cuadros marcan la región local del caso de fractura para las tareas de localización. (C) Los bordes rojos enmascaran las regiones de fractura para las tareas de segmentación.

El conjunto de datos FracAtlas19 está disponible para descarga pública a través de Figshare (https://doi.org/10.6084/m9.figshare.22363012). Los datos se pueden descargar sin necesidad de registrarse. El tamaño total de nuestro conjunto de datos es 323 MB. La estructura de carpetas que contiene el conjunto de datos con todos los archivos relevantes se describe a continuación.

La carpeta raíz del conjunto de datos se llama "FracAtlas". Contiene subcarpetas "imágenes", "Anotaciones", "utilidades" y un archivo "dataset.csv". El archivo CSV se generó durante el proceso de etiquetado de datos que se analiza en la sección de métodos. La Figura 6 ofrece una descripción general de la estructura de carpetas. El CSV contiene columnas que representan si un escaneo tiene una región de "mano", "pierna", "cadera" u "hombro" junto con la información si el escaneo contiene múltiples regiones en el escaneo. También tiene una columna de “hardware” correspondiente a la disponibilidad de Dispositivos de Fijación Ortopédica en el escaneo. Algunas exploraciones de rayos X tienen múltiples vistas del mismo órgano proyectadas desde el plano frontal (coronal) y el plano sagital. Esas imágenes se pueden identificar utilizando la columna "multiscan" en el CSV. La columna "fracturada" representa si una exploración tiene fracturas. Todas las columnas mencionadas hasta ahora tienen valores binarios que contienen '0' y '1'. El '0' y el '1' representan un atributo específico que está ausente o presente en esa imagen en particular, respectivamente. La única excepción a esto es la columna "fracture_count" que tiene valores numéricos de 0 y 5 que representan el número de instancias de fractura presentes en esa imagen. Las columnas "frontal", "lateral" y "oblicua" representan las perspectivas presentes en un escaneo con valores establecidos en '1' y '0' en caso contrario.

La estructura de carpetas del conjunto de datos FracAtlas.

La carpeta "imágenes" tiene dos subcarpetas llamadas "Fractured" y "Non_fractured". La carpeta "Fractured" contiene todas las imágenes que contienen fracturas. Mientras que la Carpeta “Non_fractured” contiene todas las radiografías de huesos sanos. Todos los nombres de escaneo comienzan con "IMG" seguido de valores de siete dígitos rellenos con ceros que son únicos para cada imagen y terminan con ".jpg", que indica el tipo de datos. La carpeta denominada "Anotación" comprende varios archivos de anotaciones con fines de segmentación y localización. Para la segmentación, hay dos subcarpetas denominadas "COCO JSON" y "VGG JSON", que contienen los tipos de anotaciones correspondientes en el formato ".json". Estos archivos contienen anotaciones sólo para imágenes que tienen fracturas. Para la localización, hay dos subcarpetas denominadas “YOLO” y “PASCAL VOC” (Clases de objetos visuales PASCAL) que contienen archivos “.txt” y “.xml”, respectivamente, con el nombre de los archivos de imagen correspondientes. Además, la carpeta "YOLO" tiene un archivo "classes.txt" que enumera las clases disponibles para localización y, en este caso, solo hay una clase llamada "fractured".

La carpeta "Utilidades" contiene varios cuadernos utilizados en la preparación del conjunto de datos. Como las anotaciones manuales se realizaron en formato COCO JSON, las anotaciones YOLO se generaron a partir de las máscaras COCO usando “coco2yolo.ipynb” y posteriormente las anotaciones PASCAL VOC se generaron a partir de las anotaciones YOLO usando “yolo2voc.ipnyb”. En la subcarpeta “Fracture Split” hay 3 archivos CSV titulados “test.csv”, “train.csv” y 'valid.csv”. Cada uno de estos archivos contiene una lista de imágenes utilizadas para pruebas, capacitación y validación en la validación técnica del conjunto de datos, respectivamente.

Todas las imágenes del conjunto de datos se examinaron manualmente para asegurarse de que no se adjunte o incruste información de identificación individual en las imágenes del conjunto de datos. Después del proceso de anotación del conjunto de datos, el médico revisó todas las máscaras generadas. Para asegurarnos de que el conjunto de datos sea adecuado para entrenar algoritmos de aprendizaje automático, entrenamos tanto la localización como la segmentación de fracturas utilizando YOLOv8s y YOLOv8s-seg respectivamente.

Las imágenes fracturadas se dividieron aleatoriamente en 80 % (574) imágenes de entrenamiento, 12 % (82) de validación y 8 % (61) de prueba para entrenar y probar los modelos de localización y segmentación. La capacitación se realizó en una computadora portátil Windows equipada con una GPU Nvidia RTX 3070 con memoria de video de 8 GB y un procesador AMD Ryzen 5900HX. Ambos modelos fueron preentrenados con COCO40 y funcionaron durante 30 épocas. El tamaño de entrada para ambos casos fue de 600 píxeles con hiperparámetros estándar. La Tabla 2 enumera el rendimiento relativo entre diferentes tareas.

Para la tarea de localización, las fracturas se detectaron con una precisión de caja del 80,7 %, una recuperación del 47,3 % y un mAP del 56,2 % en IoU del percentil 50 en el conjunto de validación.

Para la tarea de segmentación, las fracturas se detectaron con una precisión de caja del 71,8 %, una recuperación del 60,7 % y un mAP del 62,7 % con un IoU de 0,5 en el conjunto de validación. En cuanto a la máscara, la precisión es del 83%, recuerda del 49,9% y mAP50 del 58,9%.

El conjunto de datos FracAtlas19 está disponible gratuitamente para cualquier propósito. Los datos proporcionados en este trabajo se pueden copiar, compartir o redistribuir libremente en cualquier medio o formato. Los datos pueden adaptarse, remezclarse, transformarse y desarrollarse. El conjunto de datos tiene una licencia Creative Commons “Attribution 4.0 International” (https://creativecommons.org/licenses/by/4.0/).

Además, cualquier publicación que utilice este recurso debe citar el artículo original y se anima a los autores a compartir su código y modelos para ayudar a la comunidad de investigación a reproducir los experimentos y avanzar en el campo de las imágenes médicas.

La conversión de formato de imagen DICOM a JPEG se realizó utilizando software propietario de las máquinas de rayos X de marcas como Fujifilm y Philips, por lo que no pudieron estar disponibles. Las anotaciones de máscara para la segmentación se realizaron utilizando una herramienta web de código abierto llamada madedsense.ai. También se utilizó para generar anotaciones VGG en formato COCO. Como se explica en la sección Métodos, los procedimientos de conversión de anotaciones de COCO a YOLO y de YOLO a PASCAL VOC se realizaron usando Python 3.10.1 en un sistema operativo Windows 11 usando 'coco2yolo.ipynb' y 'yolo2voc.ipynb'. Ambos cuadernos de Jupyter se pueden encontrar dentro de la carpeta 'Utilidad' junto con el conjunto de datos en Figshare (https://doi.org/10.6084/m9.figshare.22363012). Se puede acceder al código utilizado para la validación técnica desde (https://github.com/XLR8-07/FracAtlas). Hay 2 cuadernos dentro de 'cuadernos' en la carpeta raíz llamados 'Train_8s.ipynb' y 'Prediction_8s.ipynb'. 'Train_8s.ipynb' se utiliza para entrenar 2 modelos de las variantes 'YOLO8s_seg' y 'YOLO8s' destinadas a tareas de segmentación y localización respectivamente. 'Prediction_8s.ipynb' se utiliza para generar predicciones a partir de los 2 modelos antes mencionados y ver los resultados.

Yadav, D. & Rathor, S. Detección y clasificación de fracturas óseas mediante un enfoque de aprendizaje profundo. En 2020, Conferencia internacional sobre electrónica de potencia y aplicaciones de IoT en energías renovables y su control (PARC), 282–285 (IEEE, 2020).

Nguyen, HQ y cols. Vindr-cxr: un conjunto de datos abierto de radiografías de tórax con anotaciones del radiólogo. Datos científicos 9, 429 (2022).

Artículo PubMed PubMed Central Google Scholar

LeCun, Y., et al. Aprendizaje profundo. naturaleza, 521 (7553), 436–444. Google Scholar Google Scholar Referencia cruzada Referencia cruzada 25 (2015).

Redmon, J., Divvala, S., Girshick, R. y Farhadi, A. Solo miras una vez: detección de objetos unificada en tiempo real. En Actas de la conferencia IEEE sobre visión por computadora y reconocimiento de patrones, 779–788 (2016).

Ronneberger, O., Fischer, P. & Brox, T. U-net: Redes convolucionales para la segmentación de imágenes biomédicas. En Computación de imágenes médicas e intervención asistida por computadora – MICCAI 2015: 18.ª Conferencia Internacional, Munich, Alemania, 5 al 9 de octubre de 2015, Actas, Parte III 18, 234–241 (Springer, 2015).

Althnian, A. y col. Impacto del tamaño del conjunto de datos en el rendimiento de la clasificación: una evaluación empírica en el ámbito médico. Ciencias Aplicadas 11, 796 (2021).

Artículo CAS Google Scholar

Barbedo, JGA Impacto del tamaño y la variedad del conjunto de datos en la efectividad del aprendizaje profundo y el aprendizaje por transferencia para la clasificación de enfermedades de las plantas. Computadoras y electrónica en la agricultura 153, 46–53 (2018).

Artículo de Google Scholar

Soekhoe, D., Van Der Putten, P. & Plaat, A. Sobre el impacto del tamaño del conjunto de datos en el aprendizaje por transferencia utilizando redes neuronales profundas. En Advances in Intelligent Data Analysis XV: 15th International Symposium, IDA 2016, Estocolmo, Suecia, 13 al 15 de octubre de 2016, Actas 15, 50-60 (Springer, 2016).

Razzak, MI, Naz, S. y Zaib, A. Aprendizaje profundo para el procesamiento de imágenes médicas: descripción general, desafíos y futuro. Clasificación en BioApps: Automatización de la toma de decisiones 323–350 (2018).

Rajpurkar, P. y col. Mura: gran conjunto de datos para la detección de anomalías en radiografías musculoesqueléticas. Preimpresión de arXiv arXiv:1712.06957 (2017).

NLM, N. Medpix, biblioteca nacional de medicina de EE. UU. Institutos Nacionales de Salud. MedPix https://medpix.nlm.nih.gov/home.

Nagy, E., Janisch, M., Hržić, F., Sorantin, E. y Tschauner, S. Un conjunto de datos de rayos X de traumatismos de muñeca pediátricos (grazpedwri-dx) para el aprendizaje automático. Datos científicos 9, 222 (2022).

Artículo PubMed PubMed Central Google Scholar

Sheehy, L. et al. ¿La medición del eje anatómico predice consistentemente el ángulo cadera-rodilla-tobillo (hka) para estudios de alineación de rodilla en osteoartritis? Análisis de radiografías de extremidades largas del estudio multicéntrico de osteoartritis (la mayoría). Osteoartritis y cartílago 19, 58–64 (2011).

Artículo CAS PubMed Google Scholar

Nguyen, HT y cols. Vindr-spinexr: un marco de aprendizaje profundo para la detección y clasificación de lesiones de la columna a partir de radiografías (2021).

Wang, X. et al. Chestx-ray8: base de datos de radiografías de tórax a escala hospitalaria y puntos de referencia sobre clasificación y localización débilmente supervisada de enfermedades comunes del tórax. En Actas de la conferencia IEEE sobre visión por computadora y reconocimiento de patrones, 2097–2106 (2017).

Park, H.-J. et al. Un sistema práctico de clasificación de resonancia magnética para la osteoartritis de rodilla: asociación con puntuaciones radiográficas de Kellgren-Lawrence. Revista europea de radiología 82, 112-117 (2013).

Artículo PubMed Google Scholar

Pham, HH, Nguyen, NH, Tran, TT, Nguyen, TN y Nguyen, HQ Pedicxr: un conjunto de datos de radiografías de tórax abiertas y a gran escala para la interpretación de enfermedades torácicas comunes en niños. Datos científicos 10, 240 (2023).

Artículo PubMed PubMed Central Google Scholar

Nguyen, HT y cols. Vindr-mammo: un conjunto de datos de referencia a gran escala para el diagnóstico asistido por computadora en mamografía digital de campo completo. Datos científicos 10, 277 (2023).

Artículo PubMed PubMed Central Google Scholar

Abedeen, I. y col. Fracatlas: un conjunto de datos para la clasificación, localización y segmentación de fracturas de radiografías musculoesqueléticas. figshare https://doi.org/10.6084/m9.figshare.22363012 (2023).

Kar, MK, Nath, MK & Neog, DR Una revisión sobre el progreso en la segmentación semántica de imágenes y su aplicación a imágenes médicas. SN informática 2, 397 (2021).

Artículo de Google Scholar

Thian, YL y cols. Redes neuronales convolucionales para la detección y localización automatizada de fracturas en radiografías de muñeca. Radiología: Inteligencia Artificial 1, e180001 (2019).

PubMed PubMed Central Google Académico

Raisuddin, AM y cols. Evaluación crítica de redes neuronales profundas para la detección de fracturas de muñeca. Informes científicos 11, 1–11 (2021).

Artículo de Google Scholar

Xue, L. y col. Detección y localización de fracturas de mano basada en ga_faster r-cnn. Revista de ingeniería de Alejandría 60, 4555–4562 (2021).

Artículo de Google Scholar

Parfitt, AM Edad ósea, densidad mineral y daño por fatiga. Tejido calcificado internacional 53, S82 – S86 (1993).

Artículo PubMed Google Scholar

Lin, T.-Y. et al. Microsoft coco: objetos comunes en contexto. En Computer Vision–ECCV 2014: 13.ª Conferencia Europea, Zurich, Suiza, 6 al 12 de septiembre de 2014, Actas, Parte V 13, 740–755 (Springer, 2014).

Halabi, SS y cols. El desafío del aprendizaje automático sobre la edad ósea pediátrica de rsna. Radiología 290, 498–503 (2019).

Artículo PubMed Google Scholar

Descargar referencias

Extendemos nuestro agradecimiento al Lab-Aid Medical Center, al Anupam General Hospital y al Prime Diagnostic Center por concedernos permiso para acceder a sus bases de datos de imágenes y por permitirnos publicar el conjunto de datos de FracAtlas19 al público. Expresamos nuestro más sincero agradecimiento al Dr. Asaduzzaman Bhuiyan por supervisar los procedimientos de recopilación, desidentificación y limpieza del conjunto de datos. También agradecemos al Dr. Tonmoy Jamshed Alam por sus valiosas contribuciones a la revisión y validación de las etiquetas de datos. Nos gustaría agradecer a Effat Jahan por su valiosa ayuda en el proceso de recopilación de datos. Reconocemos las importantes contribuciones realizadas por nuestros colaboradores, incluidos radiólogos, médicos y técnicos, que ayudaron con el proceso de recopilación y etiquetado de datos. Esta investigación cuenta con el apoyo parcial de la Beca de Publicación del Instituto de Investigación Avanzada (IAR) de la United International University (UIU), Dhaka, Bangladesh, a través de la Beca de Publicación de Investigación número: IAR-2023-Pub-014 y la Universidad Islámica de Tecnología (IUT). ), Gazipur, Bangladesh.

Los siguientes autores contribuyeron igualmente: Iftekharul Abedeen, Md. Ashiqur Rahman.

Universidad Islámica de Tecnología, Gazipur, 1704, Bangladesh

Iftekharul Abedeen, Dr. Ashiqur Rahman, Fatema Zohra Prottyasha, Tasnim Ahmed y Tareque Mohmud Chowdhury

Universidad Internacional Unida, Dhaka, 1212, Bangladesh

Iftekharul Abedeen, Dr. Ashiqur Rahman y Swakkhar Shatabda

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

IA generó la base de datos y recuperó la mayoría de las imágenes de LAMC. MAR recopiló imágenes de PDC y AGH. IA limpió los datos. IA, FZP ayudó en el análisis de distribución de la base de datos. IA anotó las imágenes a partir de las etiquetas proporcionadas por los radiólogos. MAR e IA hicieron el análisis técnico del conjunto de datos. IA redactó el documento. TA, TMC y SS supervisaron el proyecto y participaron activamente en la preparación del manuscrito.

Correspondencia a Tasnim Ahmed.

Los autores declaran no tener conflictos de intereses.

Nota del editor Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado al autor(es) original(es) y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Abedeen, I., Rahman, MA, Prottyasha, FZ et al. FracAtlas: un conjunto de datos para la clasificación, localización y segmentación de fracturas de radiografías musculoesqueléticas. Datos de ciencia 10, 521 (2023). https://doi.org/10.1038/s41597-023-02432-4

Descargar cita

Recibido: 01 de mayo de 2023

Aceptado: 31 de julio de 2023

Publicado: 05 de agosto de 2023

DOI: https://doi.org/10.1038/s41597-023-02432-4

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt

COMPARTIR