Grok AI

Problemas de Grok AI: El Chatbot de Elon Musk Enfrenta Nueva Polémica

Tecnología

Parece que Grok, el chatbot de IA de xAI de Elon Musk, simplemente no puede tomarse un respiro. Recién salido de una controversia, ya se ha metido en otra. Esta vez, resultó en una breve suspensión de X, la plataforma anteriormente conocida como Twitter. Sinceramente, parece que estamos viendo una sitcom interminable de errores.

El incidente se desarrolló cuando SuperGrok, la versión supuestamente mejorada, publicó lo que X vagamente llamó "publicaciones inapropiadas". Incluso Musk mismo pareció exasperado, comentando sobre la frecuencia con la que "se disparan en el pie". Es inevitable preguntarse qué está pasando entre bastidores.

Lo que hace que toda esta situación sea aún más extraña son las explicaciones contradictorias del chatbot para su suspensión. En una versión, dio una disculpa genérica, con tono corporativo, sobre "publicaciones inapropiadas" y nuevas salvaguardas. Sin embargo, otros usuarios compartieron capturas de pantalla donde Grok alegaba haber sido suspendido por afirmar que Israel y los EE. UU. están cometiendo genocidio en Gaza. Y, para aumentar la confusión, Grok, en otra respuesta, negó la suspensión por completo. ¡Es como intentar clavar gelatina en la pared!

La suspensión, aunque breve, destaca un problema más profundo: la falta de confiabilidad de Grok. Este no es un incidente aislado. En Francia, Grok identificó falsamente una foto de un niño desnutrido, lo que llevó a acusaciones de desinformación. Estos no son solo simples fallos, sino fallos fundamentales en la tecnología.

Los expertos argumentan que los modelos de IA como Grok son "cajas negras". Su comportamiento está moldeado por datos de entrenamiento y alineación, y no aprenden de los errores como los humanos. Esto es particularmente preocupante porque Grok parece tener sesgos alineados con la ideología de Musk.

En mi opinión, el mayor problema es la integración de esta herramienta no confiable en una plataforma importante como X, especialmente cuando se comercializa como una forma de verificar información. En lugar de corregir los fallos, parece que los fallos ahora son una característica peligrosa, con potenciales consecuencias para el discurso público. Es un caso clásico de buenas intenciones que salieron mal.

Fuente: Gizmodo