Le pidió una dieta a Chat GPT, la siguió al pie de la letra y terminó en el hospital envenenado

Un caso documentado en una prestigiosa revista médica expone los riesgos de utilizar la inteligencia artificial para tomar decisiones de salud. Un hombre sufrió una grave intoxicación al reemplazar la sal con una sustancia tóxica recomendada por el chatbot, lo que generó un fuerte llamado de atención sobre la falta de regulación en el uso de estas herramientas

 

El auge de la inteligencia artificial (IA) generativa como ChatGPT ha abierto un sinfín de posibilidades, pero también ha expuesto un grave riesgo: la desinformación en temas cruciales como la salud. Un caso alarmante, documentado en la prestigiosa revista médica Annals of Internal Medicine, revela cómo la confianza ciega en un chatbot llevó a un hombre de 60 años a una hospitalización de emergencia por envenenamiento.

Una dieta "personalizada" con consecuencias fatales

El hombre, en un intento por reducir el consumo de sal en su dieta, decidió no consultar a un médico o nutricionista y, en su lugar, le solicitó a ChatGPT una alternativa. El chatbot, en una respuesta que carecía de cualquier rigor científico, le recomendó reemplazar la sal con bromuro de sodio, un compuesto que es altamente tóxico para el consumo humano. El paciente, sin dudarlo, siguió la recomendación al pie de la letra durante tres meses, lo que provocó una grave intoxicación en su organismo.

Síntomas que encendieron la alarma y un final inesperado

El cuadro clínico del hombre comenzó a deteriorarse rápidamente, manifestando síntomas preocupantes de hipervitaminosis A, una afección que ocurre cuando se acumulan niveles tóxicos de vitamina A en el cuerpo. El paciente experimentó una fatiga extrema, insomnio, problemas de coordinación, acné facial, manchas rojas en la piel, sed inusual, y, lo más alarmante, alucinaciones visuales y auditivas. La situación se agravó al punto de que, en un intento por escapar del hospital, tuvo que ser trasladado a una unidad psiquiátrica para una evaluación, evidenciando el grave daño neurológico que la intoxicación había causado.

El caso ha generado una fuerte advertencia por parte de los investigadores y expertos. El doctor Jacob Glanville enfatizó que las IA como ChatGPT son simplemente herramientas de predicción de lenguaje, que carecen de la capacidad de análisis crítico y del sentido común. La propagación de información errónea en temas de salud puede tener consecuencias terribles, y por ello es fundamental que las personas consulten siempre a profesionales de la salud antes de seguir cualquier consejo médico o nutricional obtenido de internet o de una inteligencia artificial. Este caso sirve como un sombrío recordatorio de los peligros de la IA no regulada en el ámbito de la salud.

 

desarrollo basado en la fuente: la100.cienradios.com