OpenAI dice que los actores de amenazas utilizaron la plataforma para influir en las elecciones estadounidenses

OpenAI dice que ha interrumpido más de 20 operaciones y redes de phishing para frustrar a los actores de amenazas en un año electoral global.

en uno informe de octubreLa compañía detrás de ChatGPT dijo que “saben cómo construir una defensa fuerte y de múltiples capas contra los actores cibernéticos con operaciones de influencia secretas y estatales que pueden intentar usar nuestros modelos para ejecutar campañas fraudulentas en redes sociales y otras plataformas en línea, es especialmente importante”. “.

Los actores de amenazas son un grupo de personas que intencionalmente causan daño en el ciberespacio.

Desde mayo, la empresa ha seguido desarrollando nuevas herramientas de inteligencia artificial que les ayudan a detectar y aislar actividades potencialmente maliciosas.

Aunque se han identificado actores de amenazas, una empresa de investigación de IA no ha visto “evidencia de que esto conduzca a un progreso significativo en su capacidad para crear nuevo malware o construir una audiencia viral”.

OpenAI interrumpió la actividad que generaba contenido en las redes sociales sobre elecciones en los Estados Unidos, Ruanda, India y la Unión Europea.

OpenAI permanece en alerta máxima para detectar e interrumpir a los actores de amenazas

Desde principios de año, se han interrumpido cuatro redes distintas que transmitían al menos cierto grado de contenido relacionado con las elecciones. Se dice que sólo uno de estos canales en Ruanda se centró exclusivamente en cuestiones electorales, mientras que otros produjeron y publicaron contenidos sobre otros temas.

En mayo y junio, dos operaciones que a veces hacían referencia a procesos democráticos pero que tenían un objetivo principal diferente se volvieron polémicas.

También en junio, en vísperas de las elecciones al Parlamento Europeo, se detuvo una operación no denunciada anteriormente, que consistía en “analizar comentarios sobre las elecciones al Parlamento Europeo en Francia y la política en Italia, Polonia, Alemania y Estados Unidos”.

Fue entonces, en julio, cuando varias cuentas de ChatGPT en Ruanda fueron prohibidas después de comentarios sobre las elecciones del país. Luego, varias cuentas publicaron comentarios en X, pero la mayoría recibió pocos me gusta, compartidos o comentarios.

A medida que se acercan las elecciones en Estados Unidos, la empresa de IA explica cómo continúan con su enfoque hacia la disrupción responsable. “Hemos compartido inteligencia sobre amenazas con socios de la industria y partes interesadas relevantes. Seguimos atentos para detectar, perturbar y compartir ideas sobre futuros intentos de atacar las elecciones y los procesos democráticos”.

Imagen de portada: IA generada por Midjourney

La publicación OpenAI dice que los actores de amenazas utilizaron la plataforma para intentar influir en las elecciones estadounidenses apareció por primera vez en ReadWrite.

Fuente