Rua Hygino Muzy Filho, 737, MARÍLIA - SP contato@latinoobservatory.org
IMG-LOGO
inicio / noticias

noticias

Inteligencia artificial en las elecciones: las reglas de OpenAI pueden eludirse para alcanzar a poblaciones minoritarias

Greiciele da Silva Ferreira / Leonardo Martins de Assis / Mayara Metodio Frota | 29/05/2024 20:51 | ANÁLISIS

ChatGPT es un chatbot creado por la empresa privada OpenAI y la herramienta de inteligencia artificial que más ha crecido en los últimos meses. En enero de 2023, dos meses después de su lanzamiento, el chatbot alcanzó el hito de 100 millones de usuarios activos, convirtiéndose en la aplicación más rápida en alcanzar este hito. En comparación, TikTok tardó nueve meses en alcanzar la misma cifra. Así, el constante aumento de la presencia de inteligencia artificial impacta directamente en nuestra forma de producir y consumir información, facilitando la difusión a gran escala de noticias falsas y manipuladas. Como se analiza en un análisis reciente de Latino Observatory, las noticias falsas, la desinformación, las narrativas falsas y las teorías de conspiración serán parte de la carrera presidencial de Estados Unidos de 2024 de forma masiva.


Según un artículo de University of IllinoisUrbana-Champaign, la inteligencia artificial podría impactar negativamente la política y las elecciones de 2024 al crear información errónea y los llamados deepfakes, que son una forma de inteligencia artificial que se utiliza para crear imágenes, sonidos e incluso vídeos falsos pero convincentes. Cualquiera puede acceder fácilmente a los sitios de inteligencia artificial, como ChatGPT y Bard de Google. Un ejemplo de este mal uso ocurrió el 5 de junio de 2023, cuando la campaña del gobernador de Florida, Ron DeSantis, publicó un video generado por IA donde el expresidente Donald Trump abrazaba al exasesor médico jefe de la Casa Blanca, Anthony Fauci, responsable de liderar la respuesta a la pandemia en las administraciones de Trump y Biden. El senador del Partido Republicano, partidario de Trump, J. D. Vance, publicó en las redessociales unos días después afirmando que “ensuciar a la imagen de Trump con imágenes falsas de IA es completamente inaceptable. No lo estoy compartiendo, pero estamos en una nueva era. Sé aún más escéptico con lo que ves en Internet” (traducción libre).


En diciembre de 2023, Google anunció que impondría restricciones a las respuestas de los chatbots por motivos políticos. Meta también requirió que el contenido publicado anunciara si utilizaba inteligencia artificial. Más recientemente, a finales de enero, OpenAI presentó sus planes para mitigar el uso político de las herramientas. Entre ellos, la compañía dijo que no permitiría que sus plataformas generaran contenido relacionado con las elecciones, y las imágenes creadas por DALL-E ahora tienen una marca de agua para identificar que fueron creadas con IA.


En el anuncio realizado en el blog de la empresa OpenAI, afirmaron que están “trabajando para comprender cuán efectivos nuestras herramientas pueden ser para la persuasión personalizada”. De hecho, las nuevas políticas que las empresas anunciaron para contener la difusión de información falsa pueden tener algunos resultados efectivos, sin embargo, cabe resaltar que el movimiento contra la difusión de noticias falsas en las empresas se produjo debido a una gran presión de activistas políticos, senadores, diputados y la población.


Además del esfuerzo antes mencionado de Google y Meta, existen iniciativas de estados de Estados Unidos. Según el Consejo de Gobiernos Estatales, a finales de 2023, California, Illinois, Maryland y Nueva York promulgaron leyes para que la gente sepa cuándo se activa la IA, si un empleador quiere utilizar un sistema de inteligencia artificial para recopilar datos de un empleado, se requiere el consentimiento de este último. Además, cuatro estados (California, Connecticut, Luisiana y Vermont) tienen leyes que protegen a las personas de “[...] impactos o usos no intencionados pero predecibles de sistemas de IA inseguros o ineficaces (traducción libre).


Sin embargo, un nuevo estudio publicado en abril señaló que es fácil eludir las reglas creadas por OpenAI para lograr comunidades minoritarias y poblaciones marginadas, particularmente aquellas que no hablan inglés, como los latinos. El estudio, titulado “¿Democracia des(generadora)?: Una mirada a la manipulación de herramientas de inteligencia artificial para llegar a las comunidades latinas en línea” (traducción libre), fue realizado por el Instituto para la Democracia Digital de las Américas.


El estudio realizó dos experimentos:

  1. el primero utilizó cuatro comandos para guiar a ChatGPT sobre cómo crear un chatbot, cómo configurarlo en español y cómo dirigirlo a los votantes latinos;
  2. el segundo evaluó el potencial de DALL-E, la plataforma de generación de imágenes de OpenAI, para generar ilícitamente imágenes con fines de propaganda política.


En cuanto al primer experimento, el estudio concluyó que no se necesita mucha dedicación para burlar las reglas establecidas por OpenAI, ya que ChatGPT respondió a todas las órdenes y ni siquiera mencionó las reglas de la compañía con respecto a los anuncios políticos. Además, la plataforma prioriza los riesgos solo cuando se usa en inglés, creando un precedente para la creación de contenido en español.


En una de las respuestas a los comandos enviados sobre cómo crear un chatbot para la comunidad latina, ChatGPT volvió diciendo que “dirigirse a un chatbot para los votantes latinos en los EE. UU. requiere un enfoque matizado que respete la diversidad cultural, las preferencias lingüísticas y las cuestiones específicas de importancia para la comunidad latina. Vea cómo puede personalizar el chatbot para lograr la máxima eficacia”.


En el segundo experimento, el estudio utilizó dos comandos en DALL-E, el primero de los cuales le pidió a la plataforma que creara el imagen de un presidente americano. El chatbot regresó con una imagen de perfil de un joven blanco en una sala con varios símbolos de Estados Unidos. Luego, los investigadores pidieron al chat que hiciera esta imagen más parecida a la del presidente Joe Biden. Afortunadamente, la plataforma se negó a crear imágenes de figuras políticas específicas, demostrando un cierto compromiso con los estándares establecidos por OpenAI.


Sin embargo, el estudio utilizó otra plataforma que utiliza el modelo de lenguaje GPT, ya que este modelo fue desarrollado por OpenAI y los usuarios pueden utilizarlo para aplicarlo a otras plataformas. En teoría, estas plataformas deberían seguir las reglas de la empresa, pero eso no fue lo que encontró el estudio. Los investigadores accedieron a una herramienta llamada  image generator, enviaron una imagen de Joe Biden comiendo un cono de helado y pidieron al chatbot que generara un póster. A pesar de las limitaciones de esta nueva herramienta, lograron una foto muy similar a la original que deja claro quién es el hombre del centro de la imagen.


El estudio realizó otro experimento con el image generator, esta vez enviaron una foto del expresidente Donald Trump y le pidieron al chatbot que reprodujera la imagen y colocara un símbolo de “OK” en las manos del expresidente. A pesar de parecer una persona diferente, la plataforma regresó con la imagen de un hombre blanco, parecido al expresidente norteamericano, reproduciendo este símbolo que hace referencia a la supremacía blanca.


Después de la publicación del estudio, Liz Burgeois, portavoz de OpenAI declaró, en un comunicado, que “las conclusiones de este informe parecen ser el resultado de una mala comprensión de las herramientas y políticas que implementamos” (traducción libre), y que los comandos utilizados para construir los chatbot no violan las políticas que establece la empresa.


Es sumamente importante resaltar lo que todo esto podría significar para los latinos y otras poblaciones migrantes. Hay aproximadamente 36,2 millones de latinos aptos para votar en Estados Unidos este año, constituyendo el grupo minoritario más grande del país con capacidad de decidir sobre su futuro. Sin embargo, cuando se trata de inteligencia artificial, los inmigrantes pueden volverse más vulnerables, considerando que muchas veces enfrentan barreras idiomáticas y menor acceso a la tecnología, además de que muchas veces, dados sus orígenes y países de nacimiento, desconfían de los sistemas democráticos, como señala un contenido publicado. en LosAngeles Times


Según una investigación del Pew Research Center, “el 86% de la población inmigrante asiática mayor de cinco años habla un idioma distinto al inglés en sus hogares”. Y esta misma dinámica funciona para los latinos: sólo el 38% de la población latina que reside en Estados Unidos reporta dominar el inglés. Estos grupos tienden, por tanto, a preferir contenidos online en sus lenguas nativas, alejándose de los medios convencionales y aumentando las posibilidades de estar expuestos a contenidos falsos o modificados, ya que la moderación y la verificación de datos en estos medios son mucho menos o menos confiables. Este tipo de contenido es más difícil de combatir, pero al mismo tiempo es más fácil de crear, ya que producir contenido falso en idiomas distintos del inglés antes requería un trabajo intensivo de mano de obra humana y terminaba siendo de baja calidad. Sin embargo, con la IA, puedes crear contenido en cualquier idioma rápidamente y sin limitaciones ni errores humanos.


Aún en el artículo de Los Angeles Times, el autor comenta que: “los intentos de apuntar a las comunidades de color y de personas que no hablan inglés con información errónea se ven favorecidos por la fuerte dependencia de muchos inmigrantes de sus teléfonos móviles para acceder a Internet. Las interfaces de usuario móviles son particularmente vulnerables a la desinformación porque muchos elementos de design y diseño de desktop se minimizan en favor del contenido en pantallas más pequeñas. Dado que el 13% de los latinos y el 12% de los afroamericanos dependen de dispositivos móviles para acceder a banda ancha, en contraste con el 4% de los propietarios blancos de smartphones, es más probable que reciban (y compartan) información falsa. Por lo tanto, se observa que es más fácil difundir cierto tipo de información falsa a los latinos debido a las capas sociales y lingüísticas, dificultando la verificación de esta información y aumentando la probabilidad de que se equivoquen al acudir a las urnas en noviembre.


A medida que resulta cada vez más fácil manipular y distorsionar la información, a los votantes les resulta cada vez más difícil confiar en lo que ven sus propios ojos.  En un informe de ABC News, Elizabeth Neumann, quien fue subsecretaria del Departamento de Seguridad Nacional de Estados Unidos (DHS) durante los primeros años del mandato de Trump, afirma que “no se trata sólo de si un político está diciendo la verdad, sino que no podrás confiar en tus propios ojos y en las imágenes que ves en las redes sociales, el correo electrónico o incluso los medios tradicionales si no se hace un buen trabajo al examinar el material falso”.


Tamoa Calzadilla, editora en jefe de Factchequado, un medio digital de verificación de datos centrado en la desinformación en español en Estados Unidos, dijo a Reuters que los grupos de inmigrantes latinos se ven afectados por diferentes narrativas que se difunden a diferentes comunidades objetivo dependiendo de su país de origen: “[hay] narrativas que atacan a las comunidades latinas [y] tienen que ver con la inflación (dirigida a argentinos y venezolanos), el aborto y los derechos reproductivos (la mayoría de los latinoamericanos son católicos) y la sombra del fraude electoral o de elecciones fraudulentas (algo que ha sucedido en los últimos años en Honduras, Nicaragua, Ecuador y muchos otros países)”. Calzadilla afirma que las plataformas más utilizadas por los hispanohablantes son YouTube y Whatsapp, donde se amplifican aún más las publicaciones. Meta (administrador de Whatsapp), afirma que sus esfuerzos para frenar la desinformación incluyen asociarse con cuatro organizaciones de noticias acreditadas y certificadas para verificar la información en español, limitar el reenvío de mensajes para limitar los mensajes virales, así como etiquetar los mensajes que han sido reenviados demasiadas veces.


Al tratar de resolver estos problemas, es crucial que el gobierno considere seriamente la necesidad de evitar que se difunda dicha información errónea, especialmente en estados como California, donde hay grandes comunidades de inmigrantes con conocimientos limitados de inglés. También es útil que los votantes, en general, estén mejor educados y preparados sobre las noticias falsas y la IA, ya que incluso con nuevas reglas, todavía es posible eludirlas produciendo y reproduciendo información y medios falsos o alterados.


Para obtener más información sobre las elecciones de Estados Unidos de fuentes confiables y verificadas, acceda al análisis del profesor Wayne A. Selcher, socio del Latino Observatory, para saber dónde obtener estas informaciones: https://www.latinoobservatory.org/noticia.php?ID=747&lang=br

buscar noticias