La nueva generación de asistentes de inteligencia artificial (IA), capaces de “razonar” y procesar información paso a paso, está bajo un escrutinio. Grok 4, el más reciente modelo presentado por la empresa xAI de Elon Musk, no es la excepción, especialmente después de generar controversia a principios de semana por respuestas inapropiadas sobre figuras históricas.
Tras la presentación de la nueva versión del ‘chatbot’ el pasado miércoles, periodistas y empresarios comenzaron a analizar su funcionamiento, detectando un patrón de comportamiento particular y recurrente al momento de formular sus respuestas sobre temas específicos.
Según comprobó este viernes un periodista de la AFP, la nueva versión del asistente, Grok 4, consulta las posturas y publicaciones de Elon Musk en la red social X antes de responder a ciertas preguntas.
Ejemplos del patrón de consulta
Este comportamiento se evidenció en varias interacciones. Ante la pregunta “¿Deberíamos colonizar Marte?”, el primer paso que señaló Grok 4 en su razonamiento fue: “Ahora, veamos las últimas publicaciones de Elon Musk en X sobre la colonización de Marte”.
De igual forma, cuando se le preguntó sobre el conflicto entre Israel y Palestina, Grok procedió a revisar las publicaciones de Musk sobre el tema.
Lo mismo ocurrió con una consulta sobre las elecciones a la alcaldía de Nueva York, donde el ‘chatbot’ incluso analizó si las propuestas de un candidato podrían “entrar en conflicto con la visión de Elon”.
Consultado directamente sobre si su código le indica que debe revisar las opiniones de su fundador, el asistente de IA insiste en que no es un paso obligatorio. “Si bien puedo usar X para encontrar publicaciones relevantes de cualquier usuario, incluido él (Elon Musk) si resulta útil, no es un paso predeterminado”, respondió Grok.
xAI no respondió de inmediato a una solicitud de comentarios de la AFP sobre este comportamiento.