Históricamente, las operaciones de propaganda se han basado en ejércitos de trabajadores mal pagados u organizaciones de inteligencia altamente coordinadas para construir sitios que parecen legítimos. Pero la IA está facilitando que casi cualquier persona (ya sea parte de una agencia de espionaje o simplemente un adolescente en su sótano) cree estos medios, produciendo contenido que a veces es difícil de diferenciar de las noticias reales.
Un artículo generado por IA contaba una historia inventada sobre el psiquiatra de Benjamin Netanyahu, según descubrió una investigación de NewsGuard, alegando que había muerto y había dejado una nota que sugería la participación del primer ministro israelí. El psiquiatra parece haber sido ficticio, pero la afirmación apareció en un programa de televisión iraní, se recirculó en sitios de medios en árabe, inglés e indonesio y fue difundida por usuarios en TikTok, Reddit e Instagram.
La mayor agitación de contenidos polarizadores y engañosos puede dificultar saber qué es verdad, lo que perjudica a los candidatos políticos, los líderes militares y los esfuerzos de ayuda. Los expertos en desinformación dijeron que el rápido crecimiento de estos sitios es particularmente preocupante en el período previo a las elecciones de 2024.
«Algunos de estos sitios generan cientos, si no miles, de artículos al día», dijo Jack Brewster, investigador de NewsGuard que realizó la investigación. «Por eso lo llamamos el próximo gran superdifusor de desinformación».
La inteligencia artificial generativa ha marcado el comienzo de una era en la que los chatbots, los creadores de imágenes y los clonadores de voz pueden producir contenidos que parecen creados por humanos.
Presentadores de noticias bien vestidos generados por IA están arrojando propaganda pro china, amplificada por redes de robots que simpatizan con Beijing. En Eslovaquia, los políticos candidatos a las elecciones descubrieron que sus voces habían sido clonadas para decir cosas controvertidas que nunca pronunciaron, días antes de que los votantes acudieran a las urnas. Un número creciente de sitios web, con nombres genéricos como iBusiness Day o Ireland Top News, ofrecen noticias falsas que parecen genuinas, en docenas de idiomas, desde el árabe al tailandés.
Los sitios web pueden engañar fácilmente a los lectores.
Global Village Space, que publicó el artículo sobre el presunto psiquiatra de Netanyahu, está inundado de artículos sobre una variedad de temas serios. Hay artículos que detallan las sanciones de Estados Unidos a los proveedores de armas rusos; las inversiones del gigante petrolero Saudi Aramco en Pakistán; y la relación cada vez más tenue de Estados Unidos con China.
El sitio también contiene ensayos escritos por un experto en un grupo de expertos en Medio Oriente, un abogado educado en Harvard y el director ejecutivo del sitio, Moeed Pirzada, un presentador de noticias de televisión de Pakistán. (Pirzada no respondió a una solicitud de comentarios. Dos colaboradores confirmaron que habían escrito artículos que aparecen en Global Village Space).
Pero junto con estas historias ordinarias hay artículos generados por IA, dijo Brewster, como el artículo sobre el psiquiatra de Netanyahu, que fue reetiquetado como “sátira” después de que NewsGuard contactó a la organización durante su investigación. NewsGuard dice que la historia parece haberse basado en un artículo satírico publicado en junio de 2010, que hacía afirmaciones similares sobre la muerte de un psiquiatra israelí.
Tener noticias reales y generadas por IA una al lado de la otra hace que las historias engañosas sean más creíbles. «Hay gente que simplemente no tiene suficientes conocimientos mediáticos como para saber que esto es falso», dijo Jeffrey Blevins, experto en desinformación y profesor de periodismo en la Universidad de Cincinnati. «Es engañoso».
Los sitios web similares a Global Village Space pueden proliferar durante las elecciones de 2024, convirtiéndose en una forma eficiente de distribuir información errónea, dijeron expertos en medios y en inteligencia artificial.
Los sitios funcionan de dos maneras, dijo Brewster. Algunas historias se crean manualmente, y las personas solicitan a los chatbots artículos que amplifiquen una determinada narrativa política y publican el resultado en un sitio web. El proceso también puede ser automático, con raspadores web que buscan artículos que contengan ciertas palabras clave y alimentan esas historias en un modelo de lenguaje grande que las reescribe para que suenen únicas y evadan acusaciones de plagio. El resultado se publica automáticamente en línea.
NewsGuard localiza sitios generados por IA escaneando mensajes de error u otro lenguaje que «indica que el contenido fue producido por herramientas de IA sin una edición adecuada», dice la organización.
Las motivaciones para crear estos sitios varían. Algunos tienen como objetivo influir en las creencias políticas o causar estragos. Otros sitios producen contenido polarizador para atraer clics y captar ingresos publicitarios, dijo Brewster. Pero la capacidad de acelerar el contenido falso es un riesgo de seguridad significativo, añadió.
La tecnología ha fomentado durante mucho tiempo la desinformación. En el período previo a las elecciones estadounidenses de 2020, las granjas de trolls de Europa del Este (grupos profesionales que promueven propaganda) crearon grandes audiencias en Facebook difundiendo contenido provocativo en páginas de grupos negros y cristianos, llegando a 140 millones de usuarios por mes.
Los sitios de periodismo de baba rosa, que llevan el nombre del subproducto cárnico, a menudo surgen en pueblos pequeños donde los medios de comunicación locales han desaparecido, generando artículos que benefician a los financistas que financian la operación, según el organismo de control de medios Poynter.
Pero Blevins dijo que esas técnicas requieren más recursos en comparación con la inteligencia artificial. «El peligro es el alcance y la escala de la IA… especialmente cuando se combina con algoritmos más sofisticados», dijo. «Es una guerra de información a una escala que no hemos visto antes».
No está claro si las agencias de inteligencia están utilizando noticias generadas por IA para campañas de influencia extranjera, pero es una preocupación importante. «No me sorprendería en absoluto que esto se utilice, definitivamente el año que viene con las elecciones», dijo Brewster. «Es difícil no ver a algún político creando uno de estos sitios para generar contenido tonto sobre ellos y desinformación sobre su oponente».
Blevins dijo que la gente debería estar atenta a las pistas en los artículos, “señales de alerta” como “gramática realmente extraña” o errores en la construcción de oraciones. Pero la herramienta más eficaz es aumentar la alfabetización mediática entre los lectores promedio.
“Hacer que la gente sea consciente de que existen este tipo de sitios. Este es el tipo de daño que pueden causar”, afirmó. “Pero también hay que reconocer que no todas las fuentes son igualmente creíbles. Sólo porque algo diga ser un sitio de noticias no significa que en realidad tenga un periodista… produciendo contenido”.
La regulación, añadió, es en gran medida inexistente. Puede resultar difícil para los gobiernos tomar medidas drásticas contra el contenido de noticias falsas, por temor a entrar en conflicto con las protecciones de la libertad de expresión. Eso deja todo en manos de las empresas de redes sociales, que no han hecho un buen trabajo hasta ahora.
Es inviable abordar rápidamente la gran cantidad de sitios de este tipo. «Es muy parecido a jugar al golpe al topo», dijo Blevins.
“Ves uno [site], lo cierras y se crea otro en otro lugar”, añadió. «Nunca vas a poder alcanzarlo por completo».
Esta nota es parte de la red de Wepolis y fué publicada por California Corresponsal el 2023-12-18 09:20:22 en:
Link a la nota original
Palabras clave:
#Cómo #las #noticias #falsas #están #creando #superdifusor #desinformación #Latino #News
