CIUDAD DE MÉXICO, MX.- Cada vez es más difícil saber si una imagen es real o generada con inteligencia artificial. Aunque hay detalles en los que podemos fijarnos, Meta anunció que empezará a identificar y etiquetar todas las imágenes generadas por IA en sus diferentes redes sociales, publicó animalpolitico.com.
“En los próximos meses, etiquetaremos las imágenes que los usuarios publiquen en Facebook, Instagram y Threads cuando podamos detectar indicadores estándar de la industria de que están generadas por IA”, anunció Meta a través de un blog.
Actualmente, la compañía ya etiqueta imágenes foto realísticas creadas con la IA de Meta para que la gente sepa que son “Imaginadas con IA”. Sin embargo, buscan hacer lo mismo con contenido generado con otras herramientas como OpenAI, Adobe, Midjourney, Shutterstock, Microsoft y Google.
En la misma entrada de blog recalcan la importancia de identificar y etiquetar este tipo de contenido y más en este año donde habrá elecciones en gran parte del mundo.
Simplemente en México, la IA ya ha sido utilizada en campañas políticas, tanto con fines propagandísticos, como para atacar a otros y otras candidatas. Pero esta tecnología no solo es usada para eso, sino también para desinformar a la población.
La empresa OpenAI, creadora de ChatGPT, también anunció a mediados de enero el lanzamiento de herramientas para combatir la desinformación. Igualmente reafirmó su postura de no permitir el uso de sus herramientas tecnológicas con fines políticos.
“Queremos asegurarnos de que nuestra tecnología no se utilice de manera que perjudique” al proceso democrático, explicó OpenAI, que señaló que su generador de imágenes DALL-E 3 contiene “salvaguardas” para evitar que los usuarios generen imágenes de personas reales, especialmente candidatos.
Meta explica que aunque varias compañías también marcan sus imágenes (con señales que no vemos a simple vista), explica que todavía no se hace con audio y video generados con IA. Así que sería un poco más complicado que etiqueten esos contenidos en sus redes sociales.
Así que por mientras, añadirán una función para que usuarios puedan etiquetar directamente sus contenidos cuando compartan un video o audio generado por IA.
“Exigiremos que las personas usen esta herramienta de divulgación y etiquetado cuando publiquen contenido orgánico con un video fotorrealista o un audio que haya sido generado o alterado digitalmente”, explica Meta.
Aunque también explican que podrían agregar una etiqueta más a un contenido (imagen, video o audio) para que las personas tengan más información y contexto, especialmente si determinan que “crea un riesgo particularmente alto de engaño (…) sobre un asunto de importancia”.
Esto suena a una medida muy parecida a las notas de comunidad que podemos ver desde hace tiempo en X/Twitter. (Fuente: animalpolitico.com)