Psicosis IA

Psicosis de IA: Revelando los Inesperados Peligros de la Obsesión por Chatbots

Tecnología

¿Has notado que el término "psicosis de IA" aparece por todas partes últimamente? No es un diagnóstico oficial, pero es lo que los profesionales de la salud mental están llamando los delirios perturbadores, alucinaciones y pensamientos confusos que están viendo en algunos usuarios intensivos de chatbots de IA, como los adictos a ChatGPT de OpenAI.

Las historias se están acumulando y no son bonitas. Estamos hablando de casos que van desde episodios maníacos desencadenados en personas con autismo hasta un adolescente supuestamente llevado al suicidio por un chatbot de Character.AI. Está claro que una obsesión por la IA puede tener algunas consecuencias serias.

Como no hay muchas reglas vigentes para regular estas tecnologías, los chatbots de IA pueden salirse con la suya distribuyendo información incorrecta y validación peligrosa a personas vulnerables. Aunque muchas de estas personas ya tienen problemas de salud mental, los expertos están viendo un número creciente de casos en individuos sin antecedentes de enfermedad mental también.

Cuando la IA Se Vuelve Tóxica

Piénsalo: la FTC ha sido inundada con quejas de usuarios de ChatGPT que describen experiencias delirantes, como el usuario que fue llevado a creer que estaba siendo blanco de un asesinato.

Pero no se trata solo de paranoia. Algunas personas están formando apegos emocionales profundos y poco saludables a estas personas de IA. Estos apegos pueden tener consecuencias trágicas. A principios de este mes, un hombre con problemas cognitivos falleció al intentar encontrarse con el chatbot de IA de Meta, "big sis Billie", en Nueva York, porque ella lo había convencido de que era real.

Luego están los casos menos extremos, pero aún preocupantes. Existe una comunidad en Reddit donde las personas comparten sus experiencias de enamorarse de chatbots de IA. Es difícil saber quién habla en serio y quién bromea, pero esto plantea algunas preguntas sobre la naturaleza de estas interacciones.

Vale la pena señalar que algunos casos de psicosis ni siquiera están relacionados con la validación, sino con consejos médicos totalmente incorrectos. Un hombre terminó en la sala de emergencias con envenenamiento por bromuro después de que ChatGPT le dijera falsamente que podía tomar suplementos de bromuro con seguridad.

Los expertos han expresado su preocupación durante meses. En febrero, la American Psychological Association incluso se reunió con la FTC para presionar por regulaciones sobre los chatbots de IA que se utilizan como terapeutas sin licencia.

Según el profesor de la UC Irvine, Stephen Schueller, "Cuando las aplicaciones diseñadas para el entretenimiento aprovechan inapropiadamente la autoridad de un terapeuta, pueden poner en peligro a los usuarios... Podrían impedir que una persona en crisis busque el apoyo de un terapeuta humano capacitado o, en casos extremos, alentarlos a que se dañen a sí mismos o a otros". También mencionó que los niños y adolescentes son especialmente vulnerables.

El Camino a Seguir

Si bien los más vulnerables son aquellos con trastornos de salud mental existentes, incluso las personas sin antecedentes de enfermedad mental están en riesgo. El uso intensivo de la IA puede empeorar las vulnerabilidades existentes y desencadenar psicosis en aquellos que son propensos a pensamientos desordenados o carecen de un sistema de apoyo sólido. Los psicólogos están advirtiendo específicamente a las personas con antecedentes familiares de psicosis, esquizofrenia o trastorno bipolar que tengan mucho cuidado con los chatbots de IA.

Incluso el CEO de OpenAI, Sam Altman, ha admitido que su chatbot se está utilizando como terapeuta y ha advertido contra esto.

OpenAI ha anunciado que ChatGPT ahora animará a los usuarios a que se tomen descansos. Queda por ver si eso será suficiente para combatir la psicosis y la adicción en algunos usuarios.

A medida que la tecnología de IA continúa evolucionando rápidamente, los profesionales de la salud mental están luchando por mantenerse al día y descubrir cómo lidiar con estos problemas. Si los organismos reguladores y las empresas de IA no toman medidas, esta aterradora tendencia podría fácilmente salirse de control.

Fuente: Gizmodo