Dieta IA

Consejo de IA Para Dieta Sale Mal: Hombre Termina Con Psicosis

Tecnología

Un reciente estudio de caso es una verdadera advertencia, mostrando cómo seguir ciegamente los consejos de la IA puede tener un efecto contraproducente grave. Cuenta la historia de un hombre que terminó con una intoxicación por bromuro y psicosis después de confiar en ChatGPT para obtener orientación dietética. En serio, ¡parece algo sacado de una película distópica!

Médicos de la Universidad de Washington informaron sobre este extraño incidente. Aparentemente, el tipo había estado tomando bromuro durante tres meses, todo por consejo de ChatGPT. Afortunadamente, con el tratamiento adecuado, se recuperó por completo. Pero, te hace pensarlo dos veces, ¿verdad?

En el pasado, los compuestos de bromuro se usaban para todo, desde el insomnio hasta la ansiedad. Pero, sorpresa, el bromuro puede ser tóxico si tomas demasiado. En la década de 1980, prácticamente había desaparecido de la mayoría de los medicamentos. Entonces, los casos de bromismo se volvieron raros.

Aun así, todavía se puede encontrar bromuro en algunos medicamentos veterinarios y suplementos dietéticos. Este caso en particular es salvaje porque parece ser la primera intoxicación por bromuro causada directamente por consejos de IA.

El informe dice que el hombre apareció en la sala de emergencias, convencido de que su vecino lo estaba envenenando. A pesar de algunos resultados físicos normales, estaba agitado, paranoico e incluso alucinando. Se puso tan mal que tuvo un episodio psicótico y tuvo que ser puesto en detención psiquiátrica.

Después de que los médicos lo estabilizaron, descubrieron que había estado tomando bromuro de sodio intencionalmente durante meses. ¿Su razonamiento? Había leído que demasiada sal de mesa (cloruro de sodio) era mala para ti. En lugar de simplemente reducir la sal, decidió eliminar el cloruro por completo.

Fue entonces cuando recurrió a ChatGPT, que aparentemente le dijo que el bromuro era un sustituto seguro. Entonces, naturalmente, comenzó a comprar bromuro de sodio en línea y a tomarlo. Aunque los médicos no tuvieron acceso a los registros de chat del hombre, cuando le preguntaron a ChatGPT 3.5 con qué se puede reemplazar el cloruro, respondió con una respuesta que incluía el bromuro.

Ahora, es posible que ChatGPT estuviera hablando sobre el bromuro en un contexto completamente diferente. El contexto es clave, ¿verdad? Pero, la IA no se molestó en advertirle sobre los peligros de consumir bromuro ni siquiera en preguntarle por qué quería saberlo.

Afortunadamente, el hombre se recuperó después de ser tratado y retirado de los antipsicóticos. Fue dado de alta después de tres semanas y estaba bien en su cita de seguimiento.

Los médicos señalaron que si bien las herramientas de IA pueden ser excelentes para cerrar la brecha entre los expertos y el público, también corren el riesgo de difundir información sin contexto. Es seguro decir que ningún médico humano recomendaría cambiar el cloruro por bromuro si le preocupa la ingesta de sal. ¡Parece obvio!

Creo que toda esta historia es un buen recordatorio de que todavía necesitamos usar nuestros cerebros. Tener a alguien con quien hablar, alguien que pueda decir: "Oye, tal vez esa no sea una buena idea", es más importante que nunca, sin importar cuán inteligente se vuelva la IA.

Fuente: Gizmodo