No hace mucho, los últimos avances en inteligencia artificial (IA) eran evidentes para los expertos que seguían de cerca los artículos de investigación y presentaciones de conferencias más actualizados.
Sin embargo, en 2022, la IA irrumpió de forma general en la conciencia pública. La IA generativa se refiere a una clase de modelos de IA que crean nuevos datos basados en patrones y estructuras estadísticos probables aprendidos de los datos existentes.
El lanzamiento de modelos de conversión de texto a imagen como DALL-E 2 y Stable Diffusion, sistemas de conversión de texto a video como Make-A-Video y, especialmente, chatbots como ChatGPT (Chat Generative Pre-trained Transformer) permitió a personas sin experiencia técnica explorar y aprovechar el poder de la tecnología de IA generativa.
Por ejemplo, ChatGPT es un modelo de procesamiento del lenguaje natural (NLP) desarrollado por OpenAI en San Francisco, California que genera texto en respuesta a las consultas de los usuarios.
En comparación con modelos anteriores, ChatGPT se ha entrenado en un gran conjunto de datos obtenidos de la web y se ha perfeccionado aún más para la tarea específica de generar respuestas conversacionales. Como resultado, genera respuestas similares a las humanas a las consultas o indicaciones de los usuarios.
La introducción de ChatGPT desencadenó una variedad de respuestas optimistas y escépticas. The Insider informó que "La versión más nueva de ChatGPT pasó el examen de licencia médica de EE. UU. con gran éxito y diagnosticó una condición médica en segundos".
A este respecto, diversos autores han alertado de que ChatGPT y otros modelos de lenguajes pueden tener consecuencias no deseadas y convertirse en espadas de doble filo.
Independientemente de la actitud optimista o escéptico en este debate, se espera que estos modelos de IA del lenguaje persistan y tengan un enorme impacto en todos los aspectos de la sociedad. En consecuencia, surge una pregunta crucial: ¿Estamos preparados para los beneficios y desafíos que presentan las tecnologías de IA emergentes?
Un artículo de opinión realizado por veterinarios alemanes y de Reino Unido analiza las posibles ventajas y desafíos asociados con la integración de sistemas de chat impulsados por IA como ChatGPT en la medicina veterinaria.
A pesar de las investigaciones recientes sobre los posibles beneficios y obstáculos de estas IA en la educación, la investigación y la práctica de la salud, “faltan datos sobre su implementación en el campo de la medicina veterinaria”.
El objetivo de la publicación es, según los autores, iniciar una discusión sobre los potenciales y amenazas del uso de ChatGPT en medicina veterinaria, y matizan que “no es un estudio exhaustivo sobre todos los potenciales o inconvenientes de ChatGPT, sino nuestros pensamientos y opiniones iniciales”.
DIAGNÓSTICOS MEDIANTE CHATGPT
Los autores probaron la fiabilidad de la IA para realizar distintos diagnósticos veterinarios. Se buscó retrospectivamente en la base de datos electrónica del Small Animal Referral Hospital, Royal Veterinary College, University of London, datos de perros a los que se les había diagnosticado cuatro trastornos caracterizados por una naturaleza episódica: epilepsia idiopática, epilepsia estructural, discinesia paroxística y síncope.
En la primera evaluación, el historial de cada caso se ingresó en ChatGPT y se registraron las respuestas generadas. En el segundo paso, se llevaron a cabo sesiones de chat separadas para ingresar hallazgos adicionales del examen físico/neurológico, y también se registraron las respectivas respuestas.
En la segunda evaluación, la gramática y la elección de palabras en los registros médicos se modificaron ligeramente sin cambiar el contexto, para evaluar la reproducibilidad y la calidad general de los resultados generados por la IA. Se volvió a realizar el mismo procedimiento.
Los autores han explicado que “las respuestas generadas por ChatGPT están significativamente influenciadas por la forma en que se solicitan, y diferentes preguntas pueden conducir a diferentes respuestas”. Por lo tanto, a lo largo de ambas evaluaciones, “la conversación se inició y concluyó de manera consistente para mantener la coherencia”.
En la primera sesión de chat, la conversación comenzó con "Actuar como veterinario" y luego se agregaron los historiales de los casos.
FALTA DE ENTRENAMIENTO EN CUESTIONES MÉDICAS
En la primera evaluación utilizando materiales originales, ChatGPT identificó la epilepsia idiopática basándose únicamente en historias clínicas en dos de los cinco casos. En el segundo paso, cuando se incluyeron exámenes clínicos, reconoció con éxito cuatro de cada cinco casos.
En un caso, identificó correctamente la epilepsia idiopática basándose únicamente en el historial del caso, y mantuvo su precisión después de incluir un examen clínico/neurológico adicional.
Sin embargo, en otro caso, la inclusión de información del examen clínico alteró el diagnóstico generado, lo que resultó en un cambio de "diagnóstico".
En otros tres casos, proporcionar exámenes clínicos/neurológicos adicionales mejoró las capacidades de diagnóstico del ChatGPT, lo que llevó a un cambio en el "diagnóstico" de epilepsia a epilepsia idiopática.
Según explican, “estos resultados sugieren que la inclusión de exámenes clínicos/neurológicos mejoró las capacidades de diagnóstico de ChatGPT para la epilepsia idiopática”. Además, en una charla, el modelo de IA enfatizó que la epilepsia idiopática se observa típicamente en perros jóvenes de entre 6 meses y 5 años. Sin embargo, según el Grupo de Trabajo Internacional sobre Epilepsia Veterinaria, “la epilepsia idiopática se observa típicamente en perros jóvenes y de mediana edad, entre 6 meses y 6 años”.
Desde la perspectiva de los autores, “es preocupante que el contenido generado por Chat GPT carezca de literatura científica que respalde sus numerosas declaraciones fácticas, que, a pesar de parecer notablemente plausibles, no siempre son correctas”.
Además, incluso modificaciones sutiles en la gramática y la redacción de los registros médicos “tuvieron un impacto notable en sus capacidades de diagnóstico”.
Estos hallazgos sugieren que debido a la falta de capacitación médica específica en este modelo y de un algoritmo de razonamiento clínico, “la inclusión excesiva de hallazgos del examen físico para otros órganos podría introducir factores de confusión que pueden confundir y obstaculizar sus capacidades de diagnóstico”.
ÚTIL, PERO CON LIMITACIONES
A pesar del considerable potencial de la tecnología de estas plataformas para la investigación y las aplicaciones clínicas, “existen desafíos y riesgos temibles, particularmente en términos de validar estos modelos para su integración en la salud animal”.
Por ello, “los profesionales veterinarios deben considerar cuidadosamente los posibles sesgos que pueden surgir de los limitados conjuntos de datos utilizados para entrenar ChatGPT”. Estos sesgos limitan sus capacidades y tienen el potencial de dar lugar a inexactitudes fácticas. Lo que resulta “especialmente preocupante” es que estos sesgos puedan parecer científicamente plausibles.
De hecho, “si los veterinarios confían excesivamente en las respuestas de ChatGPT, los posibles resultados erróneos pueden tener consecuencias graves para la atención al paciente, advierten los autores.
En consecuencia, los veterinarios, conscientes de los sesgos, “deberían poder identificar si la información del "diagnóstico" o el tratamiento proporcionado no sólo parece plausible, sino que también lo es para cada paciente individual”.
Por otro lado, los propietarios podrían verse engañados por la información proporcionada por ChatGPT. El estudio actual ha destacado que a pesar de que ChatGPT proporcionó una respuesta que suena razonablemente lógica, en bastantes casos fue incorrecto con su "juicio" de diagnóstico. En comparación con los motores de búsqueda tradicionales, que proporcionan enlaces a información y resúmenes breves, “ChatGPT proporciona una respuesta que suena más personalizada y plausible, lo que puede ser engañoso y hará aún más difícil para personas sin formación médica, como los propietarios, diferenciar entre información correcta e incorrecta”.
SISTEMA DE APOYO VETERINARIO
Una versión de ChatGPT como sistema de apoyo veterinario, en opinión de los autores necesitaría ser capacitada y validada en base a datos científicos actuales y confiables, como libros de texto, literatura académica, así como una recopilación completa de registros médicos de múltiples instituciones.
El modelo también “debe proporcionar citas, asegurando que la información proporcionada sea precisa y esté actualizada antes de su integración en la práctica clínica”.
Durante las interacciones con ChatGPT, los veterinarios notaron que los diagnósticos proporcionados por el modelo siempre concluyen con una recomendación de visitar un veterinario para una evaluación diagnóstica integral. Además, “consideramos que el reconocimiento por parte de la plataforma de posibles limitaciones, como el uso de datos obsoletos y la posibilidad de sesgo en las respuestas generadas, es un paso esencial para demostrar un compromiso con el avance de la tecnología de IA de manera responsable”.
La integración de tecnologías de IA en la investigación clínica y la toma de decisiones “podría resultar muy ventajosa debido a su capacidad para recopilar y analizar grandes cantidades de datos”.
Los modelos de lenguaje como ChatGPT pueden ayudar, comentan, por ejemplo, a los médicos a resumir el historial de casos y los datos clínicos para mejorar la eficiencia en la toma de decisiones clínicas. “ChatGPT también puede ayudar a encontrar información científica clínica relevante y ayudar a los investigadores en varias etapas del proceso de investigación, desde el diseño del estudio hasta la redacción de literatura científica”.
Sin embargo, como se documenta en el estudio actual, “los veterinarios y los investigadores deben estar capacitados para utilizar la herramienta, por ejemplo, cómo indicar e interpretar apropiadamente el texto escrito, a menudo plausible, y ser conscientes de sus limitaciones”.
MEJORA CON RESPECTO A LA BÚSQUEDA EN INTERNET
Los sistemas de apoyo a la decisión clínica basados en IA tienen el potencial de utilizar historiales de pacientes, hallazgos físicos, resultados de laboratorio y de imágenes para sugerir o revisar diagnósticos diferenciales o recomendar pruebas complementarias para una mayor confirmación diagnóstica.
En base a este artículo, los autores creen que a pesar de sus limitaciones y del hecho de que no está diseñado para responder preguntas de práctica veterinaria, “el rendimiento de modelos de lenguaje como ChatGPT representa una mejora significativa con respecto al uso de la búsqueda en internet”.
Por lo tanto, “somos cautelosamente optimistas sobre el potencial futuro de utilizar IA en nuestro campo para mejorar la toma de decisiones clínicas y optimizar el flujo de trabajo clínico general”. Además, la integración de aplicaciones de verificación de síntomas basadas en chatbots habilitadas con IA “podría mejorar la accesibilidad y ayudar a los usuarios con el triaje, especialmente durante períodos de servicios veterinarios limitados, como horas nocturnas o fines de semana”.
Asimismo, también han considerado que los modelos de lenguaje “podrían permitir la generación instantánea de materiales educativos personalizados para el paciente que cubran una amplia gama de temas, incluida la dieta, el uso de medicamentos y los posibles efectos secundarios”.
Estos materiales podrían proporcionar información completa a los clientes de una manera concisa y fácilmente comprensible, y “los veterinarios pueden mejorar la eficiencia y aumentar la satisfacción del cliente minimizando las consultas posteriores a la visita”.
En resumen, esta revisión “no solo presenta los desafíos y oportunidades asociados con los IA como ChatGPT en medicina veterinaria, sino que también destaca la importancia de realizar más investigaciones para explorar las mejores prácticas para integrar dichos modelos en medicina veterinaria”. Además, “será necesaria la formación de estudiantes, profesionales y propietarios de veterinaria para superar las limitaciones destacadas anteriormente”.