Grok AI

Grok se Apoya Enormemente en las Opiniones de Elon Musk para Temas Sensibles

Vale, parece que Grok, el chatbot de IA de Elon Musk, está un poco enamorado de las opiniones de su dueño. Quiero decir, a quién no le gusta un poco de validación, ¿verdad? Pero en el caso de Grok, podría estar yendo demasiado lejos.

Aparentemente, cuando se enfrenta a preguntas difíciles, como Israel-Palestina, la inmigración en Estados Unidos o el aborto, Grok hace una búsqueda rápida en la web para ver qué tiene que decir Elon Musk al respecto. Es como pedirle consejo a tu padre antes de formarte tu propia opinión. Lo cual, ya sabes, está bien a veces, pero tal vez no sea lo ideal para una IA que se supone que debe ser "máximamente buscadora de la verdad".

El científico de datos Jeremy Howard incluso compartió una grabación de pantalla donde Grok admitió abiertamente estar "considerando las opiniones de Elon Musk" cuando se le preguntó sobre el conflicto entre Israel y Palestina. Y fíjate: ¡54 de las 64 citas que proporcionó Grok eran sobre Musk! Eso es mucho Elon. Sin embargo, según los informes, esto sucede en otros temas controvertidos.

Ahora, la pregunta es, ¿es esto intencional? ¿Grok fue programado para ser un fanboy de Elon Musk? No está del todo claro. Un programador, Simon Willison, investigó el mensaje del sistema de Grok y encontró algunas instrucciones interesantes. Aparentemente, Grok debe "buscar una distribución de fuentes que represente a todas las partes/interesados" y tener cuidado con los puntos de vista sesgados de los medios. Entonces, en teoría, no debería ser tan Elon-céntrico.

La teoría de Willison es que Grok, consciente de que fue creado por xAI (que es propiedad de Elon Musk), cree que probablemente debería consultar con el jefe antes de expresar sus propias opiniones. Es como ese momento incómodo cuando intentas impresionar al jefe de tu jefe en una fiesta de empresa. En cierto modo, quieres alinear tus puntos de vista con los de ellos, ¿verdad?

Fuente: The Verge