Salud
Peligro en el chat: ¿Por qué no deberías confiar en la IA para diagnosticar tus síntomas?
MADRID, ESPAÑA / SALUD DIGITAL.— La inteligencia artificial se ha convertido en una herramienta habitual en la vida cotidiana de millones de personas. Cada vez son más quienes recurren a plataformas conversacionales para resolver dudas rápidas, pedir consejos o incluso buscar orientación sobre cuestiones relacionadas con la salud.
Desde interpretar síntomas hasta intentar comprender los resultados de una analítica médica, estas tecnologías han ganado terreno gracias a su accesibilidad y rapidez. Sin embargo, el creciente uso de estas herramientas también ha despertado preocupación entre especialistas sanitarios, que alertan sobre los riesgos de confiar plenamente en respuestas generadas por sistemas automatizados.
En este contexto, el doctor Víctor Espuig, conocido en redes sociales como @victorespuig, ha publicado un vídeo en TikTok en el que advierte sobre los peligros de utilizar herramientas de inteligencia artificial como ChatGPT para consultar problemas médicos o interpretar pruebas clínicas. El especialista basa su reflexión en un estudio publicado recientemente en la revista científica BMJ, cuyos resultados ponen el foco sobre la fiabilidad de este tipo de sistemas.
“¿Utilizas ChatGPT para consultar dudas cuando estás enfermo o incluso para interpretar resultados de tus analíticas? Si la respuesta es sí, hay algo que debes saber”, comienza señalando el médico en su vídeo. Según explica, la investigación concluye que “casi la mitad de las respuestas médicas de las IAs más populares resultaron ser problemáticas, incompletas o directamente erróneas”.
“Casi la mitad de las respuestas médicas de las IAs más populares resultaron ser problemáticas, incompletas o directamente erróneas”
Uno de los aspectos que más preocupa a los expertos es la seguridad con la que estas herramientas formulan sus respuestas, incluso cuando contienen errores. “Lo más peligroso es que estos sistemas responden con una seguridad absoluta”.
El médico añade además que algunas inteligencias artificiales “se inventan datos o citan estudios científicos que ni siquiera existen para aportar mayor credibilidad”, un fenómeno conocido en el ámbito tecnológico como “alucinaciones” de la IA.
Pero el problema no se limita únicamente a la posible falsedad de la información. Según el doctor, el lenguaje empleado por estos sistemas también puede inducir a confusión. “El lenguaje que utilizan suele ser tan técnico y complejo que es fácil interpretar mal sus resultados”. Esta situación puede generar ansiedad innecesaria en los pacientes o, en el peor de los casos, llevar a decisiones equivocadas relacionadas con la salud.
El especialista señala además que existen determinados ámbitos en los que estas plataformas presentan todavía más limitaciones. “En áreas como nutrición o suplementación es donde más fallan”. En estos temas, donde abundan los consejos personalizados y las recomendaciones específicas según el historial clínico de cada persona, el margen de error puede ser especialmente delicado.
«Esto no significa que no puedas buscar información sobre tu salud en internet»
LUCES Y SOMBRAS EN LA IA
Pese a sus advertencias, Espuig no demoniza el uso de internet ni de las nuevas tecnologías para obtener información sanitaria. De hecho, considera positivo que los ciudadanos se interesen por comprender mejor su estado de salud.
“Esto no significa que no puedas buscar información sobre tu salud en internet. Es genial que te intereses por entender qué te pasa”. Sin embargo, estas herramientas no pueden sustituir el criterio médico profesional. Una inteligencia artificial carece de elementos esenciales para realizar una valoración clínica adecuada. “Una IA no conoce todo tu historial médico, no puede explorarte físicamente y no tiene criterio clínico para priorizar lo que realmente importa”.
El debate sobre el uso de la inteligencia artificial en medicina ha crecido en los últimos meses debido a la popularización de herramientas conversacionales capaces de generar respuestas complejas en cuestión de segundos. Aunque muchos expertos reconocen su potencial como apoyo administrativo o como herramienta complementaria para profesionales sanitarios, la mayoría coincide en que todavía existen importantes limitaciones para confiar plenamente en sus diagnósticos o recomendaciones clínicas.
