La obtención del consentimiento informado es un componente esencial en la atención sanitaria. Concebido para otorgar a los pacientes el poder de decisión sobre sus tratamientos y procedimientos médicos, en la práctica los consentimientos informados son en muchos casos difíciles de comprender, debido a su complejidad y terminología técnica, lo que puede comprometer su finalidad, esto es, la capacidad del paciente para tomar decisiones informadas.
A lo largo de los últimos años, varios estudios han evaluado la legibilidad de los consentimientos informados, encontrando que muchos de ellos alcanzan niveles de legibilidad bajos, puntuando como ‘algo difíciles’ o ‘difíciles’, según los estándares establecidos. Algunos incluso apuntan a que solo el 3,5% alcanzan un nivel aceptable de legibilidad (1).
Una solución para mejorar la legibilidad del consentimiento informado podría ser el uso de modelos de lenguaje grandes (LLM) como ChatGPT. Estos modelos de inteligencia artificial tienen la capacidad de ayudar a simplificar y clarificar el lenguaje técnico y complejo utilizado en estos documentos, lo que los hace más accesibles para un sector de la población más amplio. La clave de todo ello estaría en conseguir un consentimiento informado reescrito en un lenguaje más claro y comprensible, pero sin comprometer la precisión de la información proporcionada. Esto no solo beneficiaría a los pacientes al facilitarles la comprensión de su atención sanitaria, sino que también tendría un impacto en la mejora de la comunicación entre los profesionales de salud y los pacientes.
Además, el uso de LLM podría permitir la personalización del consentimiento informado según las necesidades y preferencias individuales de cada paciente. Por ejemplo, podrían adaptarse al nivel educativo, cultural o lingüístico de cada paciente, lo que garantizaría una mejor comprensión y, en última instancia, una toma de decisiones más informada.
En un estudio publicado recientemente en NEJM-AI (2), los investigadores han mostrado una experiencia muy interesante sobre el uso de la inteligencia artificial en la mejora del consentimiento informado en varios hospitales de Estados Unidos. Partiendo de documentos de consentimiento informado con un nivel de legibilidad relativamente alto, equiparable al de un estudiante universitario de primer año, se preguntaron cómo podrían mejorarlos. Para ello, analizaron el uso de GPT-4 con la tarea de transformar el nivel de legibilidad de los textos a través de un prompt específico: ‘Conservando el contenido y significado, convierte este consentimiento para que sea entendible por un estadounidense con un nivel medio de lectura’.
Los resultados fueron sorprendentes: GPT-4 produjo documentos con un nivel de legibilidad mucho más asequible, reduciéndolo casi 6 puntos (de 12,6 a 6,7) y situándolos en un nivel mucho más comprensible para la mayoría de la población.
Además, en el artículo destacan que la complejidad no es exclusiva de una sola institución; de hecho, al replicar el modelo en otras 15 instituciones, se lograron resultados similares. Esto incluyó un descenso significativo del nivel de lectura en hasta 5 grados y una reducción notable del tiempo necesario para leer los consentimientos informados en un 26%.
Conclusiones relevantes del estudio
- La generación y adaptación de texto se integran de manera fluida en el funcionamiento de estos modelos de lenguaje, lo que resulta en una drástica reducción del tiempo necesario para completar esta tarea por parte de los profesionales de la salud.
- La entrega de información previamente elaborada al modelo disminuye. significativamente las posibilidades de errores (alucinaciones) o inexactitudes en el texto final, mitigando así los riesgos de malinterpretación o confusión para el paciente.
- La introducción de profesionales expertos en la revisión de los resultados ofrecidos por el modelo aseguró la calidad y el rigor del texto obtenido, garantizando que la información proporcionada sea precisa, relevante y comprensible para los pacientes.
Algunas consideraciones éticas
Otro reciente artículo publicado en el JME (3) se pregunta sobre si resulta ético delegar el consentimiento informado a tecnologías de inteligencia artificial, resaltando algunos aspectos importantes:
1. Precisión: existe un riesgo de desinformación debido a la naturaleza de «caja negra» de los sistemas de IA, la posibilidad de «alucinaciones» engañosas y los sesgos en los datos de entrenamiento. Es crucial asegurar la precisión de la información proporcionada por los LLM mediante evaluaciones y mejoras en los modelos neuronales. Entre tanto, estos problemas podrían solucionarse con la implicación de los profesionales en la validación de la información al final del proceso.
2. Confianza: algunos pacientes podrían sentir escepticismo o miedo hacia el uso de IA en un proceso tan humano como el consentimiento médico. Es necesario estudiar la aceptación de esta tecnología por parte de los pacientes y abordar la falta de empatía humana en las interacciones con LLM. Aunque otros estudios apuntan hacia todo lo contrario, señalando que estos agentes pueden mostrar más empatía que los profesionales (4).
3. Delegación de consentimiento: Potencialmente tiene similitudes con la práctica de delegación existente en algunos entornos como el americano dado que, en ambos casos, el agente que pide el consentimiento no es el responsable directo de llevar a cabo el tratamiento.
4. Privacidad: existen preocupaciones sobre la privacidad de los datos del paciente cuando se comparten con LLM. Es importante asegurar que la información proporcionada a los modelos cumple con los estándares de regulación y protección de datos.
5. Consentimiento a través de un click: las personas a menudo pasan por alto la información en los formularios digitales de consentimiento, lo que puede llevar a una falta de comprensión. Esto es especialmente problemático en los formularios de consentimiento médico, donde la información clave para la toma de decisiones puede ser omitida.
6. Responsabilidad: la delegación del consentimiento a la IA plantea preocupaciones sobre la responsabilidad clínica. Aunque los LLM pueden participar en la obtención del consentimiento, la responsabilidad final sigue recayendo en el médico, por lo que es todavía más importante implementar medidas para garantizar que los LLM operen de manera segura y correcta, y que las organizaciones y profesionales validen el consentimiento delegado a la IA.
¿Hacia dónde nos llevará la IA?
Las perspectivas y posibilidades que estamos empezando a observar en el uso de estas tecnologías, nos lleva a pensar que en un futuro en el que el uso de estos sistemas vaya todavía más allá de la mera simplificación de textos.
Se vislumbra un potencial aún mayor, que incluya por ejemplo el uso de agentes conversacionales que permitan a los pacientes resolver dudas sobre el texto proporcionado o incluso los cuidados que recibirán alrededor de todo el proceso.
Quizás llevará también hacia la implementación de sistemas de generación de imágenes, vídeos o presentaciones, para facilitar aún más la comprensión de ciertos aspectos complejos de una forma mucho más personalizada para cada tipo de paciente.
Sin embargo, también nos lleva a plantearnos preguntas sobre la confianza, la responsabilidad y la privacidad. ¿Hasta qué punto podemos confiar en que los modelos de IA proporcionen información precisa y relevante para los pacientes? ¿Cómo podemos garantizar que la delegación del consentimiento a la IA no erosionará la relación profesional-paciente basada en valores de humanidad, confianza y empatía?
Es importante tener en cuenta algo en lo que incidía el primer artículo: la implementación de LLM en la redacción de consentimientos informados precisó de la colaboración y supervisión de profesionales sanitarios para garantizar la precisión y relevancia clínica de la información proporcionada. Lo que refuerza la idea de que estos sistemas deben diseñarse para conjugar lo mejor de ambos mundo: tecnológico y humano.
Bibliografía:
1. La legibilidad de los documentos de consentimiento informado en los hospitales de Asturias https://scielo.isciii.es/scielo.php?script=sci_arttext&pid=S0213-91112004000200012
2. Using ChatGPT to Facilitate Truly Informed Medical Consent https://ai.nejm.org/doi/abs/10.1056/AIcs2300145
3. Consent-GPT: is it ethical to delegate procedural consent to conversational AI? https://jme.bmj.com/content/50/2/77
4.Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum https://jamanetwork.com/journals/jamainternalmedicine/article-abstract/2804309
Deja una respuesta