Podemos enamorarnos de la inteligencia artificial por muchas razones: lo útil que es, lo que nos ahorra, lo que nos inspira. Pero, a veces, la IA también te da escalofríos. Y eso es exactamente lo que pensé cuando leí que OpenAI había bloqueado múltiples cuentas de ChatGPT utilizadas para actividades relacionadas con el cibercrimen. Detrás de nombres técnicos y reportes oficiales, lo que hay es algo más sencillo y preocupante: humanos usando herramientas potentes para hacer daño.
Según ha comunicado OpenAI, varias cuentas de ChatGPT fueron cerradas tras ser relacionadas con grupos estatales de países como Rusia, China, Irán, Corea del Norte y Filipinas. No hablamos de usuarios comunes escribiendo guiones para películas indie. Hablamos de redes organizadas que empleaban la IA para tareas muy concretas:
Generar y pulir malware personalizado
Crear contenidos engañosos para influencia política en redes sociales
Lanzar fraudes laborales sofisticados, principalmente desde Corea del Norte, con perfiles falsos en plataformas de empleo
Todo esto sin levantar sospechas, al menos durante un tiempo. Los equipos de ciberseguridad de OpenAI detectaron patrones de uso inusuales: cuentas efímeras, comandos técnicos avanzados, generación de contenido multilingüe en temas políticamente delicados. Al cruzar datos y colaborar con otras plataformas, lograron bloquear el acceso y desmantelar varias de estas operaciones coordinadas.
Personalmente, me parece un alivio que OpenAI actúe con rapidez, pero también una señal de advertencia: la seguridad digital ya no es opcional ni solo para expertos, es un tema que nos toca a todos. Lo más inquietante no es lo que estos actores hacen, sino lo fácil que parece hacerlo cuando tienen acceso a herramientas como ChatGPT. La línea entre “uso” y “abuso” nunca ha sido tan delgada.
Aunque algunos de estos ataques tenían alcance limitado, el hecho de que existan, y de que estén orquestados por grupos organizados, pone en evidencia un nuevo campo de batalla: la inteligencia artificial. No basta con pensar en ella como aliada de la productividad o el diseño. También es, en manos equivocadas, un multiplicador de riesgos.
El bloqueo de estas cuentas es una muestra clara de que la IA también necesita vigilancia activa. OpenAI ha dado un paso correcto, pero los desafíos seguirán creciendo. Este episodio no es una anécdota técnica: es un espejo que nos muestra lo vulnerables que podemos ser si no miramos más allá del algoritmo.