A medida que Estados Unidos entra en un año electoral presidencial, los observadores de la industria creen que las herramientas de inteligencia artificial serán ampliamente utilizadas para publicar contenido falso con el fin de desinformar a los votantes.
Durante el último año, se ha recurrido a la inteligencia artificial para crear y difundir vídeos falsos del presidente Biden haciendo declaraciones falsas o inflamatorias.
En un esfuerzo por abordar la creciente preocupación sobre la desinformación y los deepfakes en línea, Meta ha anunciado planes para identificar y etiquetar contenido generado por Inteligencia Artificial (IA) en sus plataformas, incluyendo Facebook e Instagram.
Estas medidas tienen como objetivo mejorar la transparencia y ayudar a los usuarios a discernir entre contenido creado por humanos y contenido generado por IA.
El objetivo es informar al usuario
El presidente de asuntos globales de Meta, Nick Clegg, ha destacado la importancia de esta iniciativa, describiéndola como una respuesta urgente a uno de los desafíos más apremiantes que enfrenta la industria tecnológica en la actualidad.
Con el avance de la tecnología de IA, la línea entre lo real y lo artificial se está volviendo cada vez más difusa, lo que hace necesario implementar medidas para garantizar la autenticidad y la transparencia en línea.
Una de las principales acciones que Meta llevará a cabo es el etiquetado de contenido generado por IA proveniente de otras plataformas, como Google, Adobe, Microsoft, OpenAI, Midjourney y Shutterstock.
Esto se logrará mediante el uso de tecnología de IA propia de Meta, que identificará y etiquetará automáticamente dicho contenido una vez que sea compartido en las plataformas de la compañía.
El objetivo de estas etiquetas es informar a los usuarios sobre la naturaleza del contenido que están viendo, permitiéndoles saber si ha sido generado por IA en lugar de ser creado por humanos.
Estándares para etiquetar contenido generado por IA
Para respaldar estas medidas, Meta está trabajando en el desarrollo de estándares técnicos para la identificación de contenido generado por IA en imágenes, videos y audio.
La compañía está colaborando con diversas organizaciones, como la Partnership On AI, la Coalition for Content Provenance and Authenticity (C2PA) y el International Press Telecommunications Council, con el fin de establecer estos estándares de la industria.
Si bien estas acciones representan un paso adelante en la lucha contra la desinformación en línea, también plantean desafíos y preocupaciones.
Por ejemplo, algunos expertos han expresado dudas sobre la efectividad de las medidas propuestas y sobre si serán suficientes para prevenir la propagación de contenido dañino y engañoso.
Una carrera armamentística
Meta requerirá que los usuarios revelen cuando el contenido que están compartiendo incluya características de IA generativa. Aun así, existe la preocupación de que las etiquetas de contenido generado por IA puedan ser eludidas o manipuladas por aquellos que buscan difundir desinformación en línea.
Meta reconoce estos desafíos y está trabajando en la implementación de medidas adicionales para garantizar la integridad y la autenticidad del contenido en sus plataformas.
En última instancia, el objetivo de Meta es proporcionar a los usuarios las herramientas y la información necesarias para tomar decisiones informadas sobre el contenido que consumen en línea.
Al abordar la cuestión del contenido generado por IA, la compañía espera fortalecer la confianza en sus plataformas y promover un entorno en línea más seguro y transparente para todos los usuarios.