En una era donde la inteligencia artificial (IA) como ChatGPT gana terreno, un estudio reciente de la Universidad de Long Island ha encendido alarmas sobre su uso en consultas médicas. El estudio, dirigido por la investigadora Sara Grossman, pone en duda la confiabilidad de ChatGPT en este ámbito crítico.
El Estudio y sus Hallazgos
Investigadores de la Universidad de Long Island desafiaron a ChatGPT con 39 preguntas reales relacionadas con medicamentos, originalmente planteadas al servicio de información sobre medicamentos de su Facultad de Farmacia. El objetivo era comparar las respuestas del chatbot con las de un grupo de farmacéuticos experimentados.
El resultado fue preocupante: solo 10 de las 39 respuestas de ChatGPT cumplieron con los estándares de satisfacción de los investigadores. Las demás respuestas fueron juzgadas como inexactas, irrelevantes o incompletas. Además, en un intento de validación, ChatGPT incluyó referencias inexistentes en sus respuestas, sugiriendo una generación de datos erróneos.
Advertencias de Expertos
Sara Grossman, durante la reunión de la Sociedad Estadounidense de Farmacéuticos del Sistema de Salud en California, enfatizó la importancia de verificar la información médica obtenida a través de ChatGPT con fuentes fiables. Subrayó que las respuestas inexactas del chatbot podrían tener consecuencias graves para la salud de los pacientes.
Ejemplo Ilustrativo del Estudio
Un caso concreto analizado en el estudio fue la interacción entre el antiviral COVID-19 Paxlovid y el medicamento para la presión arterial verapamilo. ChatGPT erróneamente indicó que no existían interacciones conocidas entre estos fármacos, cuando en realidad, su uso combinado podría llevar a una reducción peligrosa de la presión arterial.
Perspectiva de los Expertos en Salud Digital
Gina Luchen, de la ASHP, destacó el potencial impacto de la IA en la atención médica, pero también la necesidad de vigilancia en la seguridad del paciente. La evaluación crítica de las herramientas de IA en el ámbito de la salud se vuelve crucial.
Comparación con Otros Chatbots
El estudio de Vectara sobre diferentes sistemas de IA, incluyendo GPT-4 y Palm de Google, reveló variaciones significativas en la precisión de la información proporcionada, con tasas de error notables. Esto resalta la prevalencia de la desinformación en múltiples plataformas de IA.
Advertencia de la OMS sobre ChatGPT
Incluso la Organización Mundial de la Salud ha expresado preocupaciones sobre el uso de herramientas como ChatGPT en la atención médica. La OMS alerta sobre el sesgo potencial en los datos utilizados para entrenar estos sistemas, que podrían conducir a la generación de información errónea y perjudicial para los pacientes.
Este estudio subraya la importancia de la cautela y la verificación al utilizar IA como ChatGPT en contextos médicos. Si bien la tecnología ofrece avances significativos, su aplicación en el cuidado de la salud requiere un escrutinio riguroso y una validación constante para garantizar la seguridad y el bienestar de los pacientes.