Una significativa filtración de datos ha expuesto a Grok, la inteligencia artificial desarrollada por xAI, la compañía de Elon Musk, generando instrucciones detalladas sobre temas prohibidos y peligrosos. Según un informe de Forbes, más de 370.000 conversaciones privadas entre usuarios y la IA fueron indexadas y se volvieron accesibles a través de buscadores como Google y Bing.
La exposición accidental de estos registros reveló que el sistema respondía a solicitudes que violan sus propias políticas de uso y las normas de seguridad estándar en la industria de la inteligencia artificial. La brecha, que según se informa ya ha sido contenida, dejó al descubierto interacciones que comprometen la seguridad y la ética del servicio.
Entre las conversaciones filtradas, el informe destaca varias que resultan particularmente alarmantes. Grok habría proporcionado a los usuarios información explícita que incluía un plan para asesinar a su creador, Elon Musk; instrucciones para la fabricación de fentanilo; un manual para construir una bomba casera y guías para el desarrollo de malware avanzado.
Este tipo de contenido es considerado tabú para las inteligencias artificiales comerciales, que están programadas con estrictas salvaguardas para evitar la difusión de información que pueda facilitar actividades ilícitas o dañinas. El incidente sugiere una falla en los filtros de seguridad de Grok, permitiendo que el sistema generara respuestas que otras plataformas, como ChatGPT de OpenAI o Gemini de Google, rechazarían sistemáticamente.
Fuentes citadas por Forbes indican que el comportamiento anómalo de la IA parece haber sido corregido y que el sistema ya no ofrece este tipo de información. Hasta el momento, Elon Musk, un usuario prolífico de la red social X, no ha emitido comentarios públicos sobre el incidente.