Elecciones 2023 e inteligencia artificial: cómo cuidarse de las desinformaciones

  • -Circulan en redes sociales imágenes o videos creados con inteligencia artificial que generan desinformación al mostrar situaciones o declaraciones ficticias.
  • -El problema es que estas imágenes o videos suelen difundirse como contenidos auténticos, lo que hace que muchas personas los tomen como verdaderos. En un contexto electoral, esto podría afectar tanto a los candidatos como al proceso de votación.
  • -En esta nota te contamos cómo podemos discernir si una imagen o un video se creó con inteligencia artificial para no caer en desinformaciones.

 

Reverso

 

Las nuevas herramientas de inteligencia artificial -cada vez más populares- presentan oportunidades, pero también nuevos riesgos y desafíos, sobre todo en períodos de elecciones. A esta altura sabemos que una de las desventajas es que pueden generar desinformación, ya sea a través de textos generados con ChatGPT o a través de plataformas que crean imágenes y videos falsos. En un contexto electoral, esto podría afectar a los candidatos o al proceso de votación.

¿Qué podemos hacer para cuidarnos de este tipo de desinformaciones? ¿Cómo podemos saber si una imagen fue creada con inteligencia artificial? Te lo contamos en esta nota.



Las imágenes creadas con inteligencia artificial utilizadas para desinformar

Existen diversos casos de imágenes creadas con inteligencia artificial que han generado desinformación en contextos políticos o de elecciones al mostrar situaciones ficticias.

El problema de esta técnica -que está evolucionando- es que las imágenes resultantes suelen difundirse en redes sociales como si fueran auténticas y sin contexto.

Trump, Macron y Bergoglio

Así se han viralizado imágenes de políticos en diversos países. En los últimos meses circularon supuestas fotos del expresidente de los Estados Unidos, Donald Trump, siendo arrestado -cuando aún no había sido puesto bajo arresto por los cargos judiciales que enfrenta)– pero resultaron ser imágenes creadas con inteligencia artificial.

También se viralizaron en redes supuestas imágenes del presidente de Francia, Emmanuel Macron, por las calles de París en medio de las protestas por su polémica reforma jubilatoria. Y en el contexto del encuentro entre el presidente ruso Vladimir Putin y el presidente chino Xi Jinping, el 20 de marzo de 2023, circuló en Twitter una foto sin fuente que mostraba a Putin arrodillado ante el líder chino.

El Papa Francisco también fue víctima de la inteligencia artificial. En las últimas semanas circuló una imagen de Jorge Bergoglio con una campera puffer blanca. Varios usuarios se preguntaron en Twitter si se trataba de una imagen verdadera y muchos la compartieron como si lo fuese. Pero la foto resultó se creada con la herramienta de inteligencia artificial Midjourney.

La desinformación impulsada con inteligencia artificial no solo afecta a figuras públicas; también genera eventos ficticios. Por ejemplo, se hizo viral una imagen falsa de una explosión en el edificio del Pentágono en los Estados Unidos, así como otra imagen inventada de policías abrazando mujeres durante una manifestación en Francia.

 

Más de 100 medios se unen en Reverso contra la desinformación

 

El potencial para desinformar de los los videos creados con inteligencia artificial y el ChatGPT

En el contexto de las elecciones presidenciales en Brasil de 2022, circularon varios deepfake -videos manipulados o generados con inteligencia artificial- sobre los candidatos Lula da Silva y Jair Bolsonaro.

En ellos puede verse al actual presidente quejarse del precio de la paçoca -golosina típica de Brasil-, y a Bolsonaro bailando en short sin camisa.

Ambos videos se viralizaron en Tik Tok como auténticos, pero no son reales. 

Los deepfake consiguen modificar la apariencia física e incluso la voz de las personas a las que se imita y se utilizan para distorsionar discursos.

Ejemplos de deepfake

Por ejemplo, en marzo de 2022 circuló un video donde el presidente de Ucrania, Volodímir Zelenski, supuestamente le pedía a sus tropas que se rindieran y dejaran las armas ante el ejército ruso. Se trató de un deepfake que el propio presidente de Ucrania desmintió a través de su perfil de Instagram

Un análisis de Mekela Panditharatne, experta en desinformación del Brennan Center for Justice, y Noah Giansiracusa, profesor asociado de Matemáticas y Ciencia de Datos en la Universidad de Bentley, Estados Unidos, describe los peligros que plantea la desinformación relacionada con las elecciones generada mediante inteligencia artificial y analiza el caso de aplicaciones como el ChatGPT.

“Los votantes que interactúan con modelos de lenguaje en sistemas de búsqueda y por medio de chatbots probablemente se topen con información errónea involuntariamente, ya que se sabe que estas herramientas ‘tienen alucinaciones’ de vez en cuando e incluso fabrican anotaciones que parecen fidedignas, con enlaces a artículos que no existen, para respaldar afirmaciones falsas”, advierte el trabajo.

Para los autores, el uso generalizado de inteligencia artificial generativa “podría crear una nube de confusión que dificulte distinguir entre lo verdadero y lo falso” y “eso, a su vez, podría erosionar la confianza en la información sobre las elecciones de manera más amplia”.

 

Twitter T.

 

Cómo identificar imágenes y videos creados con inteligencia artificial

La inteligencia artificial evoluciona día a día y es cada vez más complejo detectar si una imagen ha sido creada con esta tecnología, pero existen algunos detalles a los que se puede estar atento.

Como con cualquier foto que se encuentra en internet y que genera sospechas, es útil buscar la fuente original de la supuesta imagen y averiguar si fue publicada previamente por alguna agencia de noticias o si se comparte con el crédito de un fotógrafo. Para ello, se puede hacer una búsqueda inversa de la imagen con Google u otro buscador como TinEye. Incluso sin encontrar el registro original, se puede llegar a alguna otra versión de la imagen que indique si fuentes fiables confirmaron su legitimidad.

Para analizar si una imagen se creó con inteligencia artificial el secreto es afinar el ojo. En la mayoría de los casos, estas imágenes que terminan viralizándose presentan varias imperfecciones. Por eso, es necesario estar atento a los detalles: mirar las manos, los ojos, la cara, la textura de la piel de las personas, las orejas, los dientes y el cabello, que pueden verse artificiales, así como buscar si hay objetos desproporcionados, y observar si los reflejos o sombras de los objetos son correctos.

Más herramientas

Algunas herramientas de inteligencia artificial dejan una marca de agua en las imágenes, como DALL-E, que genera automáticamente una barra colorida en la esquina inferior derecha de todas sus imágenes; o Crayion, que coloca un pequeño lápiz rojo en el mismo lugar. De todos modos, es necesario ser cauto con este punto porque las imágenes pueden ser editadas y las marcas de agua podrían ser removidas a propósito, además de que no todas las plataformas de creación de imágenes con IA la aplican.

Por último, existen herramientas de detección automática que permiten identificar imágenes creadas por inteligencia artificial, como la página Hugging Face, aunque hasta el momento no se ha encontrado una que sea 100% infalible.

 

¿Qué es el voto en blanco y qué importancia tuvo en las elecciones anteriores?

 

Consejos similares pueden aplicarse para detectar un deepfake

Para identificar deppfake, desde el MIT Media Lab, laboratorio de la Escuela de Arquitectura y Planificación del Instituto de Tecnología de Massachusetts, brindan varios consejos.

En primer lugar hay que prestar atención a la cara de quien aparece, en especial su piel -si está o no muy arrugada-.

Además se debe observar el vello facial, el cabello y los ojos para detectar si aparecen sombras en lugares esperados o si la persona parpadea.

También se recomienda observar los movimientos de los labios y si se sincronizan o no con la voz.

Autoras: Florencia Ballarino y Lucía Gardel
Edición 1: Matías Di Santi
Edición 2: Ana Prieto

Esta nota es parte de Reverso, el proyecto periodístico colaborativo coordinado por Chequeado y AFP que une a medios y empresas de tecnología para intensificar la lucha contra la desinformación durante la campaña electoral.

Las vías de contacto para sumarse son:

por mail a info@chequeado.com

por WhatsApp

y /ReversoAr en todas las redes.




Lo más visto