Estudio: Oncólogos turcos opinan sobre ética profesional del uso de la inteligencia artificial en la práctica clínica

To shared

La revista BMC Medical Ethics publicó hoy un estudio realizado por los doctores Efe Cem Erdat y Filiz Çay Şenler, titulado «Perspectivas de oncólogos médicos turcos sobre la integración de inteligencia artificial: conocimiento, actitudes y consideraciones éticas».

El artículo, enviado el 14 de enero y aceptado el 16 de junio, explora en profundidad cómo los especialistas perciben el uso de herramientas de IA, incluyendo modelos de lenguaje avanzados (LLM), en oncología.

Objetivos del estudio

El propósito principal fue evaluar tres dimensiones clave entre profesionales de la oncología en Turquía:

  1. Nivel de familiaridad y uso actual de herramientas de IA, en especial LLMs.
  2. Actitudes hacia su uso en la práctica clínica y en investigación.
  3. Cuestiones éticas relacionadas con implementación: privacidad, responsabilidad médica, sesgos y confianza.

Metodología

Se utilizó un diseño mixto cuantitativo y cualitativo. La encuesta incluyó preguntas sobre experiencia previa, frecuencia de uso de tecnologías de IA y escenarios hipotéticos en el entorno clínico. Además, hubo secciones abiertas para que los médicos expresaran sus preocupaciones éticas específicas.

Resultados principales

  • Un porcentaje significativo de oncólogos turcos reconoció una baja exposición previa a herramientas de IA, aunque mostraron curiosidad y disposición a adoptarlas.
  • Expresaron un moderado optimismo respecto a la IA en tareas como estratificación de riesgos y apoyo diagnóstico, pero muchos sostuvieron que la supervisión médica sigue siendo esencial.
  • Surgieron preocupaciones éticas recurrentes: la confidencialidad de datos, el potencial sesgo algorítmico, la responsabilidad legal en caso de error clínico y la posibilidad de deshumanización del paciente.

Implicaciones éticas

El estudio destaca la necesidad de desarrollar:

  • Marcos de formación médica continua centrados en IA.
  • Protocolos sobre privacidad, consentimiento informado y gobernanza de algoritmos.
  • Responsabilidades claras en los casos de fallos diagnósticos o terapéuticos, donde la decisión asistida por IA podría influir en el resultado.

Recomendaciones

Los autores sugieren:

  • Incorporación de formación específica en IA dentro de la educación médica formal.
  • Protocolos normativos nacionales para asegurar la transparencia y equidad algorítmica.
  • Investigación adicional sobre la interacción humano-IA en la toma de decisiones clínicas, enfocada en proteger la relación médico-paciente.

To shared