Meta dijo el martes que está ampliando sus esfuerzos para identificar imágenes manipuladas por inteligencia artificial en su intento por eliminar la información errónea y las falsificaciones profundas antes de las próximas elecciones en todo el mundo.
La compañía dijo que está creando herramientas para identificar contenido generado por IA a escala cuando aparece en Facebook, Instagram y Threads.
Hasta ahora, Meta etiquetaba sólo imágenes generadas por IA que se desarrollaron utilizando sus propias herramientas de IA. Ahora, dijo la compañía, buscará aplicar esas etiquetas al contenido de GoogleOpenAI, microsoft, AdobeMidjorney y Shutterstock.
Las etiquetas aparecerán en todos los idiomas disponibles en cada aplicación, dijo Meta. Pero el cambio no será inmediato.
Nick Clegg, presidente de asuntos globales de Meta, escribió en una publicación de blog que la compañía comenzará a etiquetar imágenes generadas por IA provenientes de fuentes externas «en los próximos meses» y continuará trabajando en el problema «durante el próximo año».
Se necesita más tiempo para trabajar con otras empresas de IA para «alinearse con estándares técnicos comunes que indiquen cuándo se ha creado un contenido utilizando IA», escribió Clegg.
La desinformación relacionada con las elecciones causó una crisis en Facebook después de las elecciones presidenciales de 2016 debido a la forma en que los actores extranjeros, en su mayoría de Rusia, pudieron crear y difundir contenido altamente cargado e inexacto. La plataforma fue explotada repetidamente en los años siguientes, sobre todo durante la pandemia de Covid, cuando la gente utilizó la plataforma para difundir grandes cantidades de información errónea. Los negacionistas del Holocausto y los teóricos de la conspiración de QAnon también abundaban en el sitio.
Meta está tratando de demostrar que está preparado para que los malos actores utilicen formas más avanzadas de tecnología en el ciclo 2024.
Si bien parte del contenido generado por IA se detecta fácilmente, no siempre es así. Se ha demostrado que los servicios que afirman identificar texto generado por IA, como en ensayos, exhiben prejuicios contra hablantes no nativos de inglés. No es mucho más fácil con imágenes y vídeos, aunque a menudo hay señales.
Meta busca minimizar la incertidumbre trabajando principalmente con otras empresas de inteligencia artificial que utilizan marcas de agua invisibles y ciertos tipos de metadatos en las imágenes creadas en sus plataformas. Sin embargo, existen formas de eliminar las marcas de agua, un problema que Meta planea abordar.
«Estamos trabajando arduamente para desarrollar clasificadores que puedan ayudarnos a detectar automáticamente contenido generado por IA, incluso si el contenido carece de marcadores invisibles», escribió Clegg. «Al mismo tiempo, estamos buscando formas de hacer que sea más difícil eliminar o alterar marcas de agua invisibles».
El audio y el vídeo pueden ser incluso más difíciles de monitorear que las imágenes, porque todavía no existe un estándar industrial para que las empresas de inteligencia artificial agreguen identificadores invisibles.
«Aún no podemos detectar esas señales y etiquetar este contenido de otras empresas», escribió Clegg.
Meta agregará una forma para que los usuarios revelen voluntariamente cuándo suben video o audio generado por IA. Si comparten un contenido deepfake u otra forma de contenido generado por IA sin revelarlo, la empresa «puede aplicar sanciones», decía la publicación.
«Si determinamos que el contenido de imagen, video o audio creado o alterado digitalmente crea un riesgo particularmente alto de engañar materialmente al público en un asunto de importancia, podemos agregar una etiqueta más destacada si corresponde», escribió Clegg.
MIRAR: Meta es demasiado optimista sobre el crecimiento de los ingresos y los costes
Esta nota es parte de la red de Wepolis y fué publicada por Oliver Roberts el 2024-02-06 16:08:08 en:
Link a la nota original
Palabras clave:
#Meta #para #identificar #más #imágenes #generadas #por #antes #las #próximas #elecciones #Latino #News