Sophia Denizon y Roger Ruiz Moral*.
Unidad de Comunicación Clínica y de Educación Médica. Facultad de Medicina
Universidad Francisco de Vitoria (Madrid).
* Editor de Doctutor
Resumen: En esta colaboración dos profesores de
comunicación asistencial han trabajado con GPT4 y Chat GPT para explorar su
utilidad actual en diversos aspectos relacionados sobre todo con su utilidad en
la enseñanza y aprendizaje de comunicación clínica con estudiantes de medicina.
Se ofrece aquí las conclusiones principales a las que han llegado después de realizar
esta exploración, incluyendo algunos de los principales extractos de las
conversaciones mantenidas con GPT-4 y Chat GPT, como ejemplos ilustrativos de
esas conclusiones
GPT
Chat: experiences of use by Clinical Communication teachers
Abstract: In this
collaboration, two healthcare communication professors have worked with GPT4
and Chat GPT to explore their current usefulness in various aspects related,
above all, to their usefulness in teaching and learning clinical communication
with medical students. The main conclusions they have reached after conducting
this exploration, including some of the main excerpts from the conversations
held with GPT-4 and Chat GPT, are offered here as illustrative examples of
those conclusions.
Escenarios
trabajados con Chat GPT
Se
han elaborado distintas propuestas de conversaciones entre médico y
paciente con distintos objetivos clínicos, entre los que están,
explorar aspectos biopsicosociales, compartir información y tomar
decisiones. Igualmente se propusieron a GPT-4 ofrecer estas conversaciones
con diferentes comportamientos y emociones (v.g.: paciente agresivo,
demandante, dando malas noticias, proponiendo sedación a un par de
familiares con diferentes perspectivas, así como estableciendo diálogos donde
se ofreciesen pistas verbales y no verbales) con el paciente y/o paciente
y acompañante
A
medida que se iban obteniendo mediante el diálogo con la Inteligencia
Artificial (IA) diferentes propuestas, los profesores realizaron a la IA
sugerencias para mejorar esos escenarios. De esta forma, en el establecimiento
del diálogo además se le fue haciendo sugerencias a la GPT-4 para que
introdujese también modificaciones en esos escenarios para hacerlos cada
vez más específicos.
Por
otra parte, un objetivo adicional fue la Generación de ideas sobre aspectos
concretos derivados de los escenarios, por lo que se le pidió a la IA tanto el
ofrecimiento de posibles ideas relacionadas con el ámbito concreto que se
estaba trabajando así como la generación de hipótesis para explorar o
investigar en base a escenarios y problemas relacionales concretos que
potencialmente se podían producir en esos escenarios.
En este
link se ofrece aspectos del dialogo mantenido con GPT-4 y Chat GPT
Resultados
del trabajo con escenarios
De
esta forma se elaboraron conversaciones entre médico y paciente, específicas.
En este proceso se observó que:
- Los
escenarios mejoraban a medida que a la IA se le hacían preguntas y
sugerencias cada vez más específicas
- Los
escenarios fueron de más calidad en versiones de la IA más recientes
(GPT-4)
- La
elaboración de preguntas de calidad por parte del humano aparecía como un
factor determinante a la hora de obtener respuestas de mayor calidad;
por lo que, una consecuencia lógica es que si el humano que pregunta no
está suficientemente preparado en el tema, el rendimiento es más
bajo. De esto se deriva que para el trabajo productivo con este chat de IA
es determinante el entrenamiento en “hacer preguntas”, lo que abre una
puerta educativa que apunta de forma directa hacia la enseñanza con
metodologías que fomenten el pensamiento crítico y su capacidad para
elaborar preguntas significativas y de alcance.
- En este
proceso es de importancia la petición de sugerencias para mejorar los
escenarios que se van elaborando. De esta forma los escenarios van
así mejorando. Sin embargo, existen (al menos en versiones no tan
recientes) limitaciones importantes y una de ellas de gran
importancia es que la IA no especifica ni reconoce inputs no
verbales, lo que lo limita mucho para uso educativo en comunicación
clínica. Aunque parece que en versiones más avanzadas pueden
abordar procesamiento de lenguaje natural (reconocimiento de patrones
de comportamiento) y reconocimiento de emociones (análisis
de emociones), esto aún se encuentra pobremente desarrollado, lo que
limita en gran medida los aspectos sutiles de la relación que son
determinantes para conseguir objetivos comunicativos con estudiantes y
residentes.
- A pesar
de esta limitación, el proceso de ideación y creación de escenarios
clínicos con pacientes simulados para abordar sobre todo
problemas clínicos o (de una manera ya más matizada como antes hemos
expresado) también comunicativos, incluyendo toma de decisiones,
es extraordinariamente rica lo que ayudaría y simplificaría mucho el
trabajo de los educadores en este sentido.
- Como
hemos descrito, la generación de ideas sobre aspectos concretos derivados
de los escenarios se hace progresivamente más “fina” a medida
que las preguntas que se le hacen son más específicas
- Lo
anterior es también válido para la Generación de hipótesis para
explorar o investigar en base a escenarios concretos
- Un
aspecto que hemos experimentado es que cuando se alcanza un cierto grado
de especialización en las preguntas la probabilidad de que se
equivoque la IA existe y de hecho se equivoca con frecuencia. En
nuestras conversaciones le hemos señalado el supuesto error y siempre
lo ha reconocido “muy humildemente” en sus respuestas y generalmente
ha generado la alternativa válida
- Las referencias
bibliográficas son aún muy imprecisas
Potencialidades
detectadas
- Simulaciones
de conversaciones con pacientes: Se puede usar el
chat GPT para simular conversaciones con pacientes, como en los
ejemplos que hemos estado discutiendo y con las limitaciones antes
comentadas. Esto puede ayudar a practicar la manera de responder
a ciertas situaciones, a aprender a manejar situaciones difíciles con
los pacientes.
- Ejercicios
de autoevaluación: También se puede usar el
chat GPT para reflexionar sobre las propias habilidades
de comunicación. Se pueden revisar las transcripciones de las
conversaciones simuladas y evaluar la capacidad para responder de
manera empática, para manejar situaciones difíciles y para recoger y
entender algunos tipos de pistas verbales y no verbales.
- Aprendizaje
de conceptos médicos y terminología: Además
de trabajar en algunas habilidades de comunicación, también se puede
usar el chat GPT para aprender y repasar conceptos médicos y terminología.
Se puede pedir al chat GPT que explique ciertos conceptos, que genere
preguntas de prueba para que un alumno practique, o que
simule conversaciones en las que tenga que explicar conceptos médicos
a pacientes simulados.
- Estudios
de caso y toma de decisiones: Se puede trabajar en
habilidades de toma de decisiones clínicas simulando casos médicos
con el chat GPT. Por ejemplo, pidiéndole al chat GPT que genere un caso
médico, y luego trabajar a través del caso, tomando decisiones sobre
el diagnóstico y el tratamiento y explicando las decisiones.
Limitaciones
Observadas
- Falta
de interacción humana real: GPT-4 puede simular una
conversación, pero no puede reemplazar la complejidad de la
interacción humana real. Los pacientes reales tienen emociones, reacciones
impredecibles, y una variedad de matices culturales, sociales y
personales que hoy por hoy GPT-4 es no ser capaz de captar completamente
(tal vez en un futuro más cercano o tardío sí). Creemos que esto tiene
que ver con la “cantidad” de información de contexto que actualmente tiene
la IA, lo cual es presumible que vaya incrementándose en el futuro.
- Falta
de retroalimentación personalizada y en tiempo real sobre
el tono, el lenguaje corporal, u otros aspectos no verbales
de la comunicación.
- No
puede adaptarse a las habilidades individuales del estudiante: GPT-4
no puede adaptarse a las habilidades individuales del estudiante o a
su nivel de conocimiento de la misma manera que un instructor humano.
Puede proporcionar información basada en su programación, pero no
puede adaptarse a esas necesidades individuales.
- Capacidad
limitada para manejar situaciones específicas o complejas: Aunque
GPT-4 es capaz de manejar una variedad de situaciones simuladas,
puede tener dificultades con escenarios médicos complejos o específicos.
Su capacidad para generar respuestas apropiadas se basa en la
información que ha sido programada para entender, por lo que puede
tener limitaciones cuando se trata de casos muy específicos o inusuales.
- Corte
de conocimiento: Al ser un modelo de inteligencia artificial,
GPT-4 tiene un corte de conocimiento en septiembre de 2021, por lo
que cualquier avance o cambio en las prácticas médicas después de esa
fecha no estará disponible en su base de datos.
GPT
4 y las emociones
GPT-4
puede analizar texto y detectar patrones en él. Se puede programar para
identificar palabras y frases que a menudo se asocian con ciertas
emociones. Por ejemplo, si un usuario escribe “me siento muy
triste”, GPT-4 puede reconocer que “triste” es una
palabra comúnmente asociada con una emoción negativa. Su
“comprensión” de las emociones se basa en patrones de texto, no
en una experiencia real o en una comprensión emocional.
Un
aspecto interesante en la interacción con GPT-4 es por tanto y precisamente la
respuesta de la IA pueda hacer ante señales específicas del lenguaje
no verbal (expresiones faciales, paralenguaje, lenguaje corporal,… ), y
por extensión a las emociones del humano interactuante. Esto es muy
importante en nuestro medio y más aún en el trabajo con
personas vulnerables delante. Sin embargo, esto con GPT4 no es
considerado. Es decir, no se considera la cara que se le esté poniendo, el
acercamiento, si se le miro o no… porque él/ella (¿ello?) no lo
ve; sin embargo, este es un aspecto educativo fundamental a tener en
cuenta cuando enseñamos a estudiantes y residentes comunicación clínica.
GPT-4,
no puede “sentir” ni experimentar emociones, ni puede observar
directamente las expresiones faciales, el lenguaje corporal o el tono de
voz de una persona, ya que no tiene percepciones sensoriales. Cabe aquí
decir que, …al menos por ahora.
Excerpt: Dos profesores de comunicación
asistencial han trabajado con GPT4 y Chat GPT para explorar su utilidad actual
en diversos aspectos relacionados sobre todo con su utilidad en la enseñanza y
aprendizaje de comunicación clínica con estudiantes de medicina.
Post
date: 2023-06-03 10:34:32
Post date GMT: 2023-06-03 08:34:32
Post modified date: 2023-06-05 10:49:17
Post modified date GMT: 2023-06-05 08:49:17
Powered
by [ Universal Post Manager ] plugin. MS Word saving format developed by
gVectors Team www.gVectors.com