Meta Platforms Inc., la empresa matriz de Facebook, habría actualizado sus políticas para evitar el uso de sus emergentes herramientas de inteligencia artificial generativa en publicidad política y en áreas sujetas a regulaciones estrictas, como la política, el empleo y los servicios de crédito, informó hoy Reuters. La medida refleja las crecientes preocupaciones sobre el potencial de la IA para difundir información falsa, especialmente a medida que se intensifican las campañas políticas. En un intento por establecer un marco seguro para el despliegue de la IA, Meta ha prohibido explícitamente el uso de estas herramientas para crear contenido relacionado con temas delicados, incluidas las elecciones. y productos de salud». A medida que continuamos probando nuevas herramientas de creación de anuncios de IA generativa en Ads Manager, los anunciantes que ejecutan campañas que califican como anuncios de vivienda, empleo o crédito o temas sociales, elecciones o política, o relacionados con la salud, los productos farmacéuticos o Actualmente, los servicios financieros no tienen permitido utilizar estas funciones de IA generativa», según se informa, dijo la compañía. La IA generativa se refiere al conjunto de herramientas y aplicaciones que se pueden usar para incitar a la inteligencia artificial a generar imágenes, texto, música y videos. La medida del gigante tecnológico sigue al rápido desarrollo de capacidades de IA en la industria en general, incitado por el revuelo que causó ChatGPT de OpenAI el año pasado. Las empresas están compitiendo por introducir funciones impulsadas por la IA, aunque las medidas de seguridad se han mantenido en gran medida en secreto.
Las grandes tecnológicas avanzan con cautela hacia la IA
Google, otro actor importante en el espacio publicitario digital, también ha adoptado una postura cautelosa, excluyendo las palabras clave políticas de los anuncios generados por IA y exigiendo transparencia para los anuncios relacionados con las elecciones con contenido sintético. Mientras tanto, las plataformas de redes sociales TikTok y Snapchat han optado por no participar. anuncios políticos en conjunto, y Twitter, bajo su marca anterior, no se ha aventurado en herramientas publicitarias impulsadas por IA. El debate sobre la ética y las políticas de IA se está intensificando, y el jefe de políticas de Meta, Nick Clegg, enfatiza la necesidad de reglas actualizadas para gobernar. la intersección de la IA y la política, destacando la urgencia a medida que las elecciones se avecinan en el horizonte. En línea con estas preocupaciones, Meta también ha tomado medidas para evitar la representación realista de figuras públicas por parte de la IA y poner marcas de agua en el contenido generado por IA, reforzando aún más los controles sobre la IA. -generó información errónea en la esfera pública. Este diálogo crítico cobró impulso cuando la Junta de Supervisión de Meta anunció que revisaría el manejo por parte de la compañía de un video manipulado del presidente estadounidense Joe Biden. El caso subraya los desafíos matizados que enfrentan las plataformas al distinguir entre información errónea dañina y contenido permisible como la sátira. El presidente Biden, por su parte, también emitió una orden ejecutiva de 26 puntos que busca controlar los desarrollos de IA en Estados Unidos y en el extranjero. Nota del editor: este artículo fue escrito con la ayuda de AI. Editado y verificado por Liam Kelly.