Un nuevo artículo científico revela que la inteligencia artificial podría permitir pronto que una sola persona controle vastas redes de cuentas automatizadas en redes sociales, capaces de manipular la opinión pública a gran escala y representando una amenaza sin precedentes para las instituciones democráticas. Esta evolución en las tácticas de desinformación, que transita desde campañas operadas manualmente hacia agentes autónomos impulsados por IA, sugiere un cambio significativo en cómo se conducirán las operaciones de influencia en los próximos años, con posibles repercusiones en futuras elecciones.

La investigación, publicada en la revista Science, describe un futuro donde «enjambres» impulsados por IA de miles de cuentas automatizadas podrían generar contenido indistinguible de la comunicación humana, adaptarse en tiempo real y dirigirse a comunidades específicas con mensajes personalizados. Esto contrasta marcadamente con esfuerzos anteriores más rudimentarios, como los atribuidos a la Agencia de Investigación de Internet en 2016, que dependían de cientos de operarios humanos publicando comentarios manualmente e interactuando en plataformas de redes sociales para influir en el discurso. Aunque esas operaciones pasadas atrajeron atención significativa e investigación, su impacto medible se consideró limitado en comparación con otros eventos concurrentes.

Las proyecciones del artículo de Science subrayan una aceleración preocupante en la sofisticación y el alcance potencial de la desinformación. Según los investigadores, estas redes coordinadas por IA podrían provocar cambios en la opinión pública a nivel poblacional, con potencial para influir en resultados electorales y socavar fundamentalmente los procesos democráticos. El estudio involucró a 22 expertos internacionales de campos diversos incluyendo ciencias de la computación, inteligencia artificial, ciberseguridad, psicología, ciencia computacional social, periodismo y política gubernamental, subrayando la naturaleza multidisciplinaria de la amenaza.

Los expertos en el campo hacen eco de las preocupaciones planteadas en el artículo. Lukasz Olejnik, investigador senior visitante en el Departamento de Estudios de Guerra del King’s College London, señaló que las campañas habilitadas por IA harán que dirigirse a individuos o comunidades específicas sea significativamente más eficiente y potente, presentando desafíos sustanciales para las sociedades democráticas. Incluso quienes son optimistas sobre los beneficios más amplios de la IA reconocen la gravedad de las amenazas descritas en el artículo de Science. Barry O’Sullivan, profesor de la Escuela de Ciencias de la Computación e Informática de University College Cork, confirmó que las operaciones de influencia habilitadas por IA están dentro de las capacidades tecnológicas actuales y presentan desafíos considerables de gobernanza y defensa.

Los enjambres de IA propuestos se conciben como agentes autónomos equipados con identidades en línea persistentes y sistemas de memoria funcional. Estos agentes se coordinarían colectivamente para lograr objetivos compartidos mientras generan simultáneamente contenido individualizado diseñado para evadir la detección. De manera crucial, adaptarían dinámicamente sus estrategias basándose en señales de plataforma e interacciones humanas, creando un mecanismo de auto-mejora. Jonas Kunst, profesor de comunicación en BI Norwegian Business School y coautor del artículo, describió esto como una transición hacia una nueva era de guerra de información, donde los enfoques tradicionales de bots se han vuelto obsoletos debido a avances tecnológicos.

La capacidad de estos sistemas para mapear redes sociales a escala permitiría a los coordinadores de desinformación dirigirse con precisión a comunidades específicas, maximizando el impacto de su mensajería alineándola con contextos culturales y sistemas de creencias particulares. Los investigadores sugieren que estos sistemas podrían funcionar como entidades auto-optimizadas, utilizando respuestas de publicaciones como retroalimentación para refinar sus estrategias de mensajería. Este proceso iterativo, que implica millones de iteraciones de prueba rápida y la propagación de variantes exitosas a velocidad de máquina, supera ampliamente la capacidad operativa humana.

Detectar el despliegue actual de tácticas tan sofisticadas sigue siendo un desafío significativo. Los sistemas de monitoreo existentes a menudo carecen de la sofisticación necesaria para identificar este tipo de comportamiento coordinado inauténtico, complicado aún más por restricciones en el acceso a plataformas. Aunque el artículo sugiere que estos sistemas son técnicamente viables y probablemente se encuentren en fase de prueba, podrían aún retener cierto nivel de supervisión humana durante sus fases de desarrollo. Los investigadores anticipan que mientras el impacto en las elecciones intermedias de 2026 podría ser limitado, la elección presidencial de 2028 podría ver su probable despliegue. WIRED reporta que el artículo de Science predice que los enjambres controlados por IA podrían manipular la opinión pública a escala Los enjambres de desinformación impulsados por IA vienen por la democracia.

Para contrarrestar estas amenazas emergentes, los investigadores proponen el establecimiento de un «Observatorio de Influencia de IA». Esta entidad estaría compuesta por representantes de la academia y organizaciones no gubernamentales, encargados de estandarizar evidencia, mejorar la conciencia situacional y permitir respuestas coordinadas. Notablemente, los ejecutivos de plataformas de redes sociales están excluidos de esta estructura propuesta, ya que los investigadores argumentan que los modelos comerciales actuales de plataformas priorizan métricas de engagement sobre la identificación de comportamiento coordinado inauténtico. Además, consideraciones geopolíticas podrían desalentar la participación gubernamental en iniciativas de monitoreo, dejando potencialmente pocos incentivos institucionales para abordar efectivamente las amenazas de desinformación habilitadas por IA.

Fuentes

  • https://www.wired.com/story/ai-powered-disinformation-swarms-are-coming-for-democracy/