Por Federico C. Tallone
El ejercicio profesional de la medicina atraviesa una transformación radical impulsada por tecnologías digitales y sistemas de inteligencia artificial (IA). Estas herramientas prometen diagnósticos más precisos y tratamientos personalizados, pero también generan nuevas tensiones en torno a la responsabilidad profesional, especialmente cuando las decisiones clínicas se apoyan en sistemas automatizados.
Este trabajo se propone analizar las implicancias éticas, jurídicas y científicas de la medicina asistida por IA, centrándose en la responsabilidad del médico.
La adopción de sistemas avanzados de inteligencia artificial (IA) en el ámbito sanitario está transformando el panorama de la prestación de servicios de salud. Si bien la IA puede mejorar la seguridad del paciente y los resultados de la atención médica, presenta importantes dilemas éticos y legales. Además, a medida que la IA agiliza el análisis de numerosos factores relevantes para las demandas por negligencia profesional, como el consentimiento informado, el cumplimiento de los estándares de atención y la causalidad, la evaluación de la responsabilidad profesional también podría beneficiarse de su uso.
En la República Argentina, este debate adquiere particular relevancia debido a la diversidad de realidades provinciales y la necesidad de marcos regulatorios que acompañen estos avances tecnológicos.
Tradicionalmente, la responsabilidad profesional médica se ha basado en la relación médico-paciente, donde el juicio clínico del profesional es central. Con la incorporación de tecnologías, especialmente la IA, se redefine este vínculo. Así, la IA puede clasificarse en:
a) Inteligencia Artificial débil o asistencial: sistemas que apoyan al médico en la toma de decisiones, como herramientas de diagnóstico por imagen.
b) Inteligencia Artificial fuerte o autónoma: sistemas que pueden tomar decisiones sin intervención humana, aún en desarrollo y con aplicaciones limitadas en medicina.
En Argentina, la adopción de IA en salud aún es incipiente, pero existen iniciativas que buscan integrar estas tecnologías en la práctica médica.
El uso de algoritmos en diagnóstico por imagen, predicción de enfermedades o gestión de historiales clínicos ha demostrado gran eficacia. Un estudio emblemático de Esteva et al. (2017) mostró que una red neuronal puede alcanzar un rendimiento similar al de dermatólogos experimentados en la detección de cáncer de piel. No
obstante, muchos algoritmos funcionan como ‘cajas negras’, sin transparencia en su lógica de decisión, lo que plantea riesgos clínicos y jurídicos.
La conducta de un médico se considera apropiada cuando se alinea con el estándar de atención esperado de un médico experto que practica dentro de la misma especialidad médica mientras hace uso de los recursos disponibles. El examen de las acciones de un médico en un caso de mala praxis mediante el empleo de IA, con la capacidad de analizar datos médicos extensos de manera más eficiente y consistente que los humanos, abarcará una evaluación de los diversos tipos de errores que pueden ocurrir cuando un médico integra IA en su práctica.
La incorporación de IA no modifica la base de la responsabilidad profesional: el médico sigue siendo el garante del acto clínico.
En los marcos basados en la culpa, el enfoque suele estar en demostrar negligencia o mala conducta, en consonancia con la visión convencional de la mala praxis médica. En estos casos, la existencia de sesgo puede impedir la determinación de la culpabilidad. Por el contrario, los modelos de responsabilidad sin culpa priorizan la compensación a las víctimas sin exigir prueba de la culpa. Según algunos académicos, esta metodología puede ser imperativa si la IA se implementa en la atención médica.
Es importante señalar además, que el uso de herramientas de IA en medicina implica una ampliación del consentimiento informado. El paciente tiene derecho a conocer si sus datos serán tratados por algoritmos, el alcance de su influencia en el diagnóstico o tratamiento, y si existen alternativas convencionales. Por ello, es que el
desarrollo y uso responsable de IA exige que el médico mantenga una formación continua. El desconocimiento del funcionamiento o las limitaciones de una herramienta tecnológica puede constituir negligencia profesional.
Es esencial que los pacientes comprendan el papel de la IA en su atención médica. En este sentido, la precisión de la información puede verse inadvertidamente influenciada por la IA si el sistema proporciona recomendaciones erróneas que provoquen daños a los pacientes. Esto puede resultar de sesgos en la representatividad de los datos utilizados para entrenar un algoritmo que conducen a rendimientos deficientes para ciertas poblaciones de pacientes. Frente a este panorama se podría sugerir la necesidad de adaptar el consentimiento informado de manera diferente para estos grupos.
Otros factores que contribuyen a este problema incluyen malas decisiones de diseño y la incapacidad de los profesionales de la salud para interpretar correctamente la información del sistema de IA. Por tal razón, el consentimiento informado también puede verse comprometido debido a la complejidad de las técnicas avanzadas de aprendizaje automático y estadística, que no se explican fácilmente a los pacientes.
En cumplimiento del principio de transparencia, cualquier sesgo o limitación conocido inherente a los sistemas de IA en el ámbito sanitario debe comunicarse claramente.
La Organización Mundial de la Salud (2021) ha propuesto principios éticos específicos para el uso de IA en salud: explicabilidad, equidad, privacidad, responsabilidad y supervisión humana. Los colegios profesionales deben actualizar sus códigos éticos para incluir estos principios. El médico del siglo XXI debe ser no solo competente técnicamente, sino también capaz de ejercer un control crítico sobre las herramientas tecnológicas que utiliza.
La inteligencia artificial no sustituye al juicio clínico ni diluye la responsabilidad profesional. Al contrario, impone nuevos deberes: supervisión, actualización, transparencia y prudencia. La responsabilidad médica en la era digital debe redefinirse sin renunciar a los principios que garantizan la seguridad del paciente y la integridad del acto médico.
La integración de la IA en medicina representa una oportunidad de mejora, pero requiere un enfoque responsable.
Es esencial preservar el juicio clínico del médico y avanzar hacia un marco normativo que garantice su implementación ética y equitativa en Argentina.
Aunque la IA promete mejorar la calidad de la atención y la seguridad del paciente, aún pueden ocurrir posibles eventos adversos atribuibles a errores. La ocurrencia de errores en el contexto de los profesionales de la salud que utilizan IA, o incluso, en el futuro, los eventos adversos atribuibles a la IA autónoma aplicada en el ámbito de la salud, deberán evaluarse de forma diferente a la actual y probablemente requieran nuevas habilidades por parte de jueces, abogados y peritos.
Como se ha descrito, la IA agiliza el análisis de la multitud de factores relevantes para las reclamaciones por mala praxis, incluyendo el consentimiento informado, la adherencia al estándar de atención y la causalidad. Sin embargo, confiar únicamente en la autonomía de la IA en esta etapa plantea riesgos preocupantes con respecto a algoritmos sesgados, una falta de matices y una credibilidad general. Por lo tanto, el camino prudente a seguir implica integrar herramientas de IA con las aportaciones de expertos humanos.
Todo nuevo avance médico conlleva un cierto grado inherente de mayor responsabilidad, y el diagnóstico mediante IA no es la excepción. Las deficiencias de los estándares médico-legales actuales plantean desafíos únicos para la incorporación de la IA a la práctica clínica. Los tribunales eventualmente se enfrentarán a la creación de nuevos estándares que rijan el aprendizaje automático o a la relegación de la IA a un proceso de integración mucho más complejo dentro de la comunidad médica.
Finalmente, al combinar el procesamiento de grandes volúmenes de datos de la IA con el juicio, la supervisión y la explicación humanos, las evaluaciones de responsabilidad profesional podrían ser más completas y equitativas. Sin embargo, el equilibrio ideal de responsabilidades entre humanos y máquinas aún no está claro.
Debemos asegurar la amplificación de la IA, no su automatización, en este ámbito tan crucial. Si se lleva a cabo con criterio, la integración de la IA ofrece a la medicina legal una oportunidad sin precedentes para mejorar la coherencia, la eficiencia y la imparcialidad de las determinaciones de responsabilidad profesional.
Por Federico C. Tallone
