OpenAI descubrió que las campañas de propaganda rusas y chinas utilizaban su tecnología

SAN FRANCISCO – OpenAI, el fabricante de ChatGBT, dijo el jueves que acusó a grupos en Rusia, China, Irán e Israel de intentar influir en el discurso político en todo el mundo utilizando su tecnología, destacando las preocupaciones de que la creación de inteligencia artificial esté facilitando la propaganda encubierta para actores estatales. Campañas a medida que se acercan las elecciones presidenciales de 2024.

OpenAI eliminó cuentas asociadas con conocidas actividades de propaganda en Rusia, China e Irán; Agencia de Campaña Política Israelí; Un grupo previamente desconocido que apareció en Rusia, los investigadores del instituto lo denominaron «mala gramática». Los equipos utilizan la tecnología de OpenAI para escribir publicaciones, traducirlas a diferentes idiomas y desarrollar software para publicar automáticamente en las redes sociales.

Ninguno de estos grupos logró ganar mucha tracción; Sus cuentas de redes sociales asociadas llegaron a algunos usuarios. Unos pocos seguidores, dijo Ben Nimmo, analista principal del Grupo de Investigaciones e Inteligencia de OpenAI. Sin embargo, el informe de OpenAI muestra que los activistas que han estado activos en las redes sociales durante años están utilizando tecnología de inteligencia artificial para impulsar sus campañas.

«Los hemos visto producir texto con mayor volumen y menos errores de los que estas operaciones han logrado tradicionalmente», dijo Nimmo, quien anteriormente trabajó en operaciones de meta-seguimiento de influencers, en una sesión informativa con periodistas. Nimmo dijo que otros grupos pueden utilizar las herramientas de OpenAI sin el conocimiento de la empresa.

“Este no es momento para la complacencia. «La historia muestra que las actividades de los influencers que no han llegado a ninguna parte durante años pueden explotar repentinamente si nadie las busca», dijo.

READ  Las apuestas clave de los Mavericks dan sus frutos cuando Luka Doncic y Kyrie Irving lideran las Finales del Oeste

Los gobiernos, los partidos políticos y los grupos de activistas han utilizado las redes sociales para influir en la política durante años. Después de las preocupaciones sobre la influencia rusa en las elecciones presidenciales de 2016, las plataformas de redes sociales comenzaron a analizar más de cerca cómo se utilizaban sus plataformas para influir en los votantes. Las empresas generalmente impiden que los gobiernos y los grupos políticos encubran esfuerzos concertados para influir en los usuarios y exigen que los anuncios políticos revelen quién los pagó.

Los investigadores de desinformación han expresado su preocupación de que a medida que las herramientas de inteligencia artificial que pueden generar texto, imágenes y videos realistas estén más disponibles, será más difícil detectar y responder a la información errónea o las actividades de influencia encubierta en línea. Millones de personas están votando en elecciones en todo el mundo este año y ya han proliferado los deepfakes de IA.

OpenAI, Google y otras empresas de inteligencia artificial están trabajando en tecnología para identificar deepfakes con sus propias herramientas, pero dicha tecnología aún no está probada. Algunos expertos en inteligencia artificial creen que los detectores de deepfake no son del todo efectivos.

A principios de este año, un grupo afiliado al Partido Comunista Chino supuestamente respaldó el audio generado por IA de un candidato que se postulaba en una elección taiwanesa en lugar de otro. Sin embargo, el político, Terry Coe, propietario de Foxconn, no apoyó al otro político.

En enero, los votantes en las primarias de New Hampshire recibieron una llamada automática que pretendía ser del presidente Biden, pero que pronto fue identificada como AI. La semana pasada, un demócrata que dijo que operaba una llamada automática fue acusado de supresión de votantes y suplantación de candidatos.

READ  Wall Street cae cuando las preocupaciones sobre la TASA superan el entusiasmo de Nvidia

El informe de OpenAI detalla cómo cinco grupos utilizaron la tecnología de la empresa en sus esfuerzos por influir en las actividades. Spamouflage, un grupo previamente conocido de China, utilizó la tecnología de OpenAI para investigar la actividad en las redes sociales y escribir publicaciones en chino, coreano, japonés e inglés, dijo la compañía. Un grupo iraní llamado Unión Internacional de Medios Virtuales también utilizó la tecnología de OpenAI para crear artículos que publicó en su sitio.

Un grupo previamente desconocido, Bad Grammar, utilizó la tecnología OpenAI para crear un programa que puede publicar automáticamente en la aplicación de mensajería Telegram. Bad Grammar luego utilizó la tecnología OpenAI para generar publicaciones y Según el informe, se sostiene en ruso e inglés que Estados Unidos no debería apoyar a Ucrania.

El informe encontró que una empresa de campaña política israelí llamada Stoic utilizó OpenAI para crear publicaciones pro-Israel sobre la guerra de Gaza y las dirigió a personas en Canadá, Estados Unidos e Israel, dijo OpenAI. El miércoles, Meta, propietario de Facebook, también promocionó el trabajo de Stoic, diciendo que había eliminado 510 cuentas de Facebook y 32 de Instagram utilizadas por el grupo. La compañía dijo a los periodistas que algunas cuentas fueron pirateadas, mientras que otras eran cuentas de personas ficticias.

Las cuentas en cuestión a menudo comentan en las páginas de personas conocidas o de medios de comunicación que muestran a estudiantes universitarios estadounidenses, afroamericanos y otros proisraelíes. Los comentarios apoyaron al ejército israelí y advirtieron a los canadienses que el «Islam radical» amenazaba los valores liberales allí, dijo Meta.

La IA actuó sobre la redacción de algunos comentarios, que a los usuarios reales de Facebook les parecieron extraños y fuera de contexto. El rendimiento fue pobre, dijo la compañía, y atrajo sólo a unos 2.600 seguidores legítimos.

READ  Tribunal de EEUU rechaza estrategia de quiebra de J&J por miles de demandas por talco

META opera después del Laboratorio de Investigación Forense Digital del Atlantic Council fue descubierto Red en X

El año pasado, los investigadores de desinformación sugirieron que los chatbots de IA podrían tener conversaciones largas y detalladas con personas específicas en línea, tratando de influirlas en una dirección particular. Las herramientas de inteligencia artificial pueden ingerir grandes cantidades de datos sobre personas y enviarles mensajes directamente.

OpenAI no ha identificado ninguna aplicación de IA de vanguardia, dijo Nimmo. «Es más una evolución que una revolución», afirmó. «No hay nada que diga que no veremos eso en el futuro».

Joseph Menn contribuyó a este informe.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *