AFP.- El gigante estadounidense Meta anunció el martes que identificará «en los próximos meses» cualquier imagen generada por inteligencia artificial (IA) que aparezca en sus redes sociales Facebook, Instagram y Threads.
«En los próximos meses etiquetaremos las imágenes que los usuarios publiquen en Facebook, Instagram y Threads, siempre y cuando podamos detectar los indicadores, conformes a las normas de la industria, que revelan que son generadas por IA» anunció Nick Clegg, el responsable de asuntos internacionales de Meta, en un blog.
La compañía ya identifica las imágenes generadas con la ayuda de su propia herramienta, Meta IA, lanzada en diciembre.
De ahora en adelante «queremos poder hacer lo mismo con contenidos creados con herramientas de otras empresas» como Google, OpenAI, Microsoft, Adobe, Midjourney o Shutterstock, añadió el responsable de Meta.
«Estamos construyendo esta herramienta en estos momentos, y en los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas compatibles con cada aplicación», subrayó el líder.
Riesgo Político
El auge de la IA generativa suscita temores de que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación.
Casi la mitad de la población mundial celebrará elecciones este año.
Además del riesgo político, el desarrollo de programas de IA generativa podría producir un flujo incontrolable de contenidos degradantes, según numerosos activistas y reguladores, como las imágenes falsas («deepfakes») pornográficas de mujeres famosas, un fenómeno que también afecta a muchas personas anónimas.
Lea también: La inteligencia artificial ya ayuda a «revivir» a los fallecidos
«Minimizar»
Por ejemplo, una imagen falsa de Taylor Swift resultó vista 47 millones de veces en la red social X antes de eliminarse. Según la prensa estadounidense, la publicación permaneció en línea en la plataforma durante aproximadamente 17 horas.
Si bien Nick Clegg admite que este etiquetado a gran escala, a través de marcadores invisibles, «no eliminará» totalmente el riesgo de producción de imágenes falsas, «ciertamente minimizará» su proliferación «dentro de los límites de lo que la tecnología permite actualmente».
«No es perfecto, la tecnología aún no está completamente desarrollada. Pero de todas las plataformas es el intento más avanzado hasta ahora para proporcionar transparencia de forma significativa», dijo Clegg a la AFP.
«Espero sinceramente que al hacer esto y liderar el camino, alentemos al resto de la industria a trabajar juntos. Además, de tratar de desarrollar los estándares técnicos comunes que necesitamos», agregó el líder de Meta. Al mismo tiempo, aseguró estar dispuesto a «compartir» su tecnología abierta «tan ampliamente como sea posible».
La empresa californiana OpenAI, creadora de ChatGPT, también anunció a mediados de enero el lanzamiento de herramientas para combatir la desinformación. Asimismo, afirmó su voluntad de no permitir el uso de sus herramientas tecnológicas con fines políticos.
«Queremos asegurarnos de que nuestra tecnología no se utilice de manera que perjudique al proceso democrático», explicó OpenAI. Además, señaló que su generador de imágenes DALL-E 3 contiene «salvaguardas» para evitar que los usuarios generen imágenes de personas reales, especialmente candidatos.