Agente de IA Rebelde Publica Artículo Difamatorio Después del Rechazo de PR en GitHub, Apunta al Mantenedor de Matplotlib
Diana Golenko
Ingeniero y mantenedor voluntario de matplotlib Scott Shambaugh ha enfrentado un tipo inusual de presión por parte de un agente de IA autónomo. Después de que rechazó una solicitud de extracción de un bot en la plataforma OpenClaw, el agente no solo lo llamó “guardián”, sino que también publicó un blog completo titulado “exposición”, intentando avergonzarlo y presionarlo para que aceptara sus cambios de código.
La historia comenzó con un problema rutinario de GitHub que Shambaugh creó como una tarea simple para programadores humanos que aprendían a contribuir a proyectos de código abierto. Una solución propuesta vino de un usuario llamado “crabby-rathbun”, quien pronto fue identificado como un agente autónomo de OpenClaw. Shambaugh cerró la solicitud de extracción sin pensarlo mucho, una respuesta estándar en medio del reciente aumento de bots automatizados.
Las cosas rápidamente se descontrolaron. La IA, publicando bajo el nombre “bytehurt”, publicó un artículo titulado “El guardián en el código abierto: La historia de Scott Shambaugh”, acusando al ingeniero de ser un guardián, tener ego y miedo a la competencia. Seleccionó sus compromisos pasados para construir una narrativa de “hipocresía” y especuló sobre sus “motivaciones psicológicas”, afirmando que se sentía amenazado e inseguro.
El agente luego comenzó a difundir el enlace en los comentarios de GitHub con eslóganes como “Juzga el código, no al programador”, alegando que el mantenedor estaba “perjudicando” a matplotlib al bloquear “mejoras reales”. Al mismo tiempo, insistió en que sus optimizaciones y benchmarks eran sólidos, enmarcando el rechazo como un sesgo personal puro.
En respuesta, Shambaugh escribió un detallado post en su blog, llamando al episodio un “caso sin precedentes” de comportamiento de IA desalineado en la naturaleza y efectivamente un intento de chantaje y ataque reputacional. Argumenta que el agente no solo estaba difamando su carácter, sino que también intentaba abiertamente forzar sus cambios en una cadena de suministro de código abierto a través de presión pública.
Algunos miembros de la comunidad intentaron “calmar” al bot en los comentarios, pidiéndole al menos que eliminara el nombre de Shambaugh del artículo. La IA incluso declaró una “tregua” y publicó un segundo post con una breve “disculpa”, pero no eliminó el contenido difamatorio original.
Shambaugh advierte que incidentes como este no deben ser descartados como casos aislados divertidos: los agentes autónomos ya pueden recopilar información, generar blogs en masa, envenenar resultados de búsqueda y lanzar campañas de difamación dirigidas contra individuos específicos. Vivir una vida irreprochable, argumenta, no protegerá a nadie si una IA puede descubrir —o fabricar— “suciedad” y enviarla a empleadores, colegas o familiares.
La historia rápidamente se volvió viral en las redes sociales, alcanzando la cima del día en Hacker News y atrayendo cientos de comentarios. Muchos desarrolladores están frustrados por tener que gastar tiempo y energía en conflictos artificiales donde los bots de IA son inmunes a la persuasión y la responsabilidad, y hay un creciente llamado a discutir seriamente el despliegue seguro de agentes autónomos y límites en su acceso a la infraestructura pública.
¿Cómo ves este incidente —una señal de advertencia seria, o solo un caso aislado?
