Un estudio publicado en Radiology encontró que los radiólogos tienen dificultades para distinguir radiografías reales de las generadas por ChatGPT. Solo el 41% de 17 radiólogos notó algo extraño al diagnosticar inicialmente con imágenes sintéticas. Incluso alertados sobre las falsificaciones, solo las identificaron el 75% de las veces. Las imágenes eran fáciles de generar con prompts simples. Cuatro modelos de IA multimodal solo detectaron deepfakes con precisión entre el 57-85%. Los hallazgos plantean serias preocupaciones sobre el posible uso indebido de imágenes médicas generadas por IA.