Semanas después de que el expresidente Trump sobreviviera a un intento de asesinato en Butler, Pensilvania el video se volvió viral en las redes sociales La vicepresidenta Kamala Harris parece haber dicho en un mitin que “Donald Trump ni siquiera puede morir con dignidad”.
El clip provocó indignación, pero fue un engaño: Harris nunca lo dijo. La línea fue leída por una voz generada por IA que sonaba asombrosamente como Harris, y luego se conectó con el discurso que Harris realmente pronunció.
Un gran porcentaje de votantes es consciente de este tipo de fraude y, según una organización, existe una preocupación creciente sobre su impacto en las elecciones. nueva encuesta de 2.000 adultos por la firma de investigación de mercado 3Gem. El estudio, encargado por la firma de ciberseguridad McAfee, encontró que el 63% de las personas encuestadas había visto un agujero falso en los 60 días anteriores, y el 15% había encontrado 10 o más.
La exposición a una variedad de defecadores fue similar en todo el país, siendo los defecadores políticos el tipo más común, según la encuesta. Pero las falsificaciones con temas políticos prevalecen especialmente en Michigan, Pensilvania, Carolina del Norte, Nevada y Wisconsin, estados indecisos cuyos votos podrían decidir la elección presidencial.
En la mayoría de los casos, los encuestados dijeron que los “desfax” eran parodias; una minoría (40%) están diseñadas para engañar. Pero incluso las parodias y caricaturas tontas pueden afectar a los espectadores al confirmar sus prejuicios o socavar su confianza en los medios, dijo Ryan Culkin, director de consultoría de Thriveworks, un proveedor nacional de servicios de salud mental.
“Simplemente está añadiendo otra capa a un momento que ya es estresante”, dijo Culkin.
La gran mayoría de las personas encuestadas por McAfee (91%) dijeron que estaban preocupadas por la posibilidad de que el fraude interfiera con las elecciones, posiblemente cambiando la impresión que el público tiene sobre un candidato o influyendo en el resultado de las elecciones. Alrededor del 40% se consideraba muy preocupado. Quizás debido a la época del año, las preocupaciones sobre el fraude que afecta las elecciones, la exposición pública o la confianza en los medios aumentaron drásticamente en una encuesta de enero, mientras que las preocupaciones sobre el fraude destinado a la intimidación cibernética, el fraude y el uso de pornografía falsa fueron todas bajas. encontró
Otros dos hallazgos dignos de mención: siete de cada 10 encuestados dijeron que se topan con contenido al menos una vez a la semana que les hace preguntarse si es real o generado por IA. Seis de cada 10 personas dijeron que no estaban seguras de poder responder a esta pregunta.
Actualmente, ninguna ley federal o de California prohíbe específicamente los anuncios “deepfakes”. El gobernador Gavin Newsom firmó un proyecto de ley el mes pasado que habría prohibido los materiales publicitarios engañosos y alterados digitalmente dentro de los 120 días posteriores a las elecciones, pero un juez federal lo bloqueó temporalmente por motivos de la Primera Enmienda.
Jeffrey Rosenthal, socio del bufete de abogados Blank Rome y experto en leyes de privacidad, dijo que la ley de California prohíbe los anuncios de campaña “materialmente engañosos” dentro de los 60 días posteriores a una elección. Sin embargo, la represión integral del estado contra el fraude publicitario no entrará en vigor hasta el próximo año, cuando una nueva ley requiera que los anuncios políticos muestren si contienen contenido generado por IA.
¿Qué puedes hacer con los deepfakes?
McAfee es una de varias empresas herramientas de software que están ayudando a desmitificar las redes sociales con contenido generado por IA. otros dos Hai y BitMente.
Patchen Noelke, vicepresidente de marketing de HIA en Seattle, dijo que la tecnología de su empresa analiza los datos de audio en busca de patrones que indiquen que fue producido por una computadora y no por un ser humano. Es un juego del gato y el ratón, dijo Noelke; Los estafadores están encontrando formas de evadir la detección y empresas como Hiya se están adaptando para enfrentarlos.
Ken John Miyachi, cofundador de BitMind, con sede en Austin, Texas, dijo que la tecnología de su compañía actualmente solo funciona en películas, aunque tendrá actualizaciones en los próximos meses para detectar IA en archivos de video y audio. Pero las herramientas para generar deepfakes están actualmente por delante de las herramientas para detectarlos, dijo, en parte porque “se está invirtiendo significativamente más en el lado generado”.
Ésa es una de las razones por las que es importante mantener lo que el CTO de McAfee, Steve Grobman, llama un escepticismo saludable sobre las cosas que ves en línea.
“Todos podemos estar expuestos a la contaminación”, afirmó, “especialmente cuando confirma un sesgo natural que ya tenemos”.
Además, recuerda que las imágenes y sonidos generados por la inteligencia artificial pueden integrarse en otros materiales originales. “Tomar un vídeo y editarlo durante sólo cinco segundos realmente puede cambiar el tono y el mensaje”, dijo Grobman.
“No hay que cambiar mucho. Una frase insertada en un discurso en el momento adecuado puede realmente cambiar su significado.”
El senador estatal Josh Becker (D-Menlo Park) señaló que hay al menos tres leyes estatales que entrarán en vigor el próximo año para exigir una mayor divulgación del contenido generado por IA, incluida una que posee la ley de derechos de autor. Ley de Transparencia de la IA de California. Incluso con estas medidas, dijo, el estado todavía necesita que los residentes asuman un papel activo para detectar y detener la información errónea.
Dijo que las cuatro cosas principales que la gente puede hacer son cuestionar el contenido que despierta emociones fuertes, verificar la fuente de información, compartir información solo de fuentes creíbles y reportar contenido cuestionable a las autoridades electorales y las plataformas donde se comparte. “Si algo te afecta muy emocionalmente”, dijo Becker, “tal vez valga la pena dar un paso atrás para pensar de dónde viene”.
Ofertas de McAfee en su web un conjunto de consejos para identificar posibles falsificaciones, evitar fraudes relacionados con las elecciones y no difundir medios falsos. Estos incluyen:
- Busque repeticiones, razonamiento lento y escasez de evidencia en los textos. “La IA a menudo dice mucho sin decir nada en absoluto, escondiéndose detrás de un vocabulario pesado para parecer conocedora”, aconseja el sitio.
- En imagen y audio, amplíe para buscar inconsistencias y movimientos extraños del hablante, y escuche sonidos que no coincidan con lo que está viendo.
- Intente verificar el contenido con el contenido de otros sitios bien verificados.
- No tomes nada al pie de la letra.
- Verifique la fuente y si el material es una cita, intente encontrar el medio original en contexto.
Para cualquier cosa que no puedas ver con tus propios ojos o a través de una fuente 100 por ciento confiable, “asume que podría haber sido retocado con Photoshop”, dijo Grobman. También advirtió que es fácil para los estafadores clonar sitios web electorales oficiales y luego cambiar algunos detalles como la ubicación y el horario de las elecciones.
Es por eso que sólo debes confiar en los sitios relacionados con la votación si sus URL terminan en .gov, dijo, y agregó: “Si no sabes por dónde empezar, puedes empezar aquí”. Votar.gov“. El sitio proporciona información sobre elecciones y derechos de voto, así como enlaces al sitio electoral oficial del estado.
“La capacidad de tener gran parte de nuestro mundo digital reduce potencialmente la falsificación de la confianza en todas partes”, dijo Grobman. Al mismo tiempo, dijo, “cuando hay evidencia legítima de abuso, crimen o comportamiento poco ético, es muy fácil afirmar que fue falso. … Nuestra capacidad de procesar a personas cuando existen pruebas también se ha visto comprometida por la creciente disponibilidad de falsificaciones digitales”.