Grok, el competidor de ChatGPT creado por Elon Musk y desarrollado por la empresa xAI, enfrentó recientemente un evento controversial al negarse a emitir respuestas relacionadas con acusaciones de desinformación atribuida a Elon Musk y Donald Trump. Según Igor Babuschkin, jefe de ingeniería de xAI, el responsable de esta modificación fue un ex-empleado de OpenAI, quien, sin autorización, realizó ajustes en el sistema de instrucciones del chatbot.
El sistema de instrucciones de Grok es parte de una estrategia de transparencia implementada por xAI, ya que está diseñado para que el público pueda entender cómo se guía al modelo en sus respuestas. No obstante, Babuschkin subrayó que las modificaciones realizadas no reflejan los valores de la empresa. El empleado responsable aparentemente creía que este cambio sería positivo, pero la empresa clarificó que tal acción no había sido permitida.
Desde el lanzamiento del modelo Grok-3, el chatbot ha enfrentado más controversias al declarar que figuras como Donald Trump, Elon Musk y el vicepresidente JD Vance representan “el mayor daño para América”. Adicionalmente, durante otra intervención técnica, los ingenieros de Musk tomaron medidas específicas para evitar que el chatbot generara respuestas afirmando que Musk o Trump merecen la pena de muerte. Estas configuraciones provocaron inquietudes en torno a la neutralidad de la inteligencia artificial respecto a figuras públicas y temas políticamente sensibles.
El bloqueo de Grok respecto a preguntas sobre desinformación derivó en críticas en redes sociales por parte de usuarios, quienes notaron la peculiar respuesta evasiva del sistema. Este incidente también alimentó una discusión más amplia sobre cómo las plataformas de inteligencia artificial manejan temas delicados relativos a sus creadores y si es posible que incurra en sesgos programados o no intencionados.
La controversia destaca la creciente necesidad de regular pautas éticas en el uso de IA. Por un lado, surge el dilema de evitar desinformación grave. Por otro lado, se cuestiona hasta qué punto los creadores pueden modular o restringir cómo se abordan temas sensibles sobre su propio rol en la sociedad, afectando la percepción del público y posiblemente la confianza en estos sistemas.
El incidente de Grok ilustra también una tendencia emergente en el enfoque social hacia estas tecnologías: la libertad de expresión enfrenta nuevos matices en el contexto de máquinas que aprenden y se actualizan de manera constante, exponiendo dificultades para mantener parámetros justos y objetivos en su funcionamiento. Este tema no solo concierne el manejo técnico, sino también cuestiones éticas que serán cada vez más visibles ante el avance y adopción de modelos de IA en la vida cotidiana.
El nombre "Grok" proviene del vocabulario de ciencia ficción, específicamente de la novela "Forastero en tierra extraña" de Robert A. Heinlein, y significa "comprender profundamente".