Legisladores interrogan a Meta y X sobre deepfakes políticos generados por IA

Legisladores interrogan a Meta y X sobre deepfakes políticos generados por IA
ARCHIVO - La legisladora Yvette Clarke habla en conferencia de prensa en Washington, 4 de noviembre de 2021. Clarke y la senadora Amy Klobuchar enviaron una carta el jueves 5 de octubre de 2023 al CEO de Meta, Mark Zuckerberg, y la CEO de X, Linda Yaccarino, para pedir que expliquen las normas que están elaborando para frenar la publicidad electoral generada por IA que engaña a la gente. (AP Foto/J. Scott Applewhite, File)

Los videos manipulados digitalmente generados mediante inteligencia artificial, llamados deepfakes, están en un gran momento, al mostrar a celebridades diciendo o haciendo cosas extrañas. Tom Hanks promoviendo un plan de atención dental. El papa Francisco, muy a la moda, luciendo una chaqueta acolchada. El senador Rand Paul, envuelto en una bata de baño roja, sentado en la escalinata del Capitolio.

¿Pero qué sucederá el año próximo, de cara a las elecciones presidenciales en Estados Unidos?

Google fue la primera de las grandes compañías tecnológicas que anunció que pondrá rótulos a la publicidad política engañosa generada mediante IA capaz de falsificar la voz o la imagen de un candidato. Ahora, algunos legisladores reclaman a las redes sociales X, Facebook e Instagram que expliquen por qué no siguen el ejemplo.

Dos legisladoras demócratas enviaron una carta el jueves al CEO de Meta, Mark Zuckerberg, y la CEO de X, Linda Yaccarino, para expresar sus “preocupaciones graves” acerca de la aparición de publicidad política generada por IA en sus plataformas y pedirles que expliquen qué medidas están tomando, si es que algunas, para frenar el daño a las elecciones libres e imparciales.

“Son dos de las plataformas más grandes, y los votantes merecen saber qué defensas están instalando”, dijo la senadora federal Amy Klobuchar, de Minnesota, a The Associated Press. “Simplemente, les preguntamos, ’¿No pueden hacer lo mismo? ¿Por qué no lo hacen?’ Evidentemente, la tecnología lo permite”.

La carta de Klobuchar y la congresista Yvette Clarke, de Nueva York, advierte: “Ante la inminencia de las elecciones de 2024, una falta de transparencia acerca de esta clase de contenido en los avisos políticos podría conducir a un peligroso diluvio de mala información y desinformación relacionada con las elecciones en sus plataformas, a las que suelen recurrir los votantes para conocer a los candidatos y asuntos”.

X, anteriormente Twitter, y Meta, la empresa matriz de Facebook e Instagram, no respondieron de momento a las solicitudes de declaraciones. La carta de Clarke y Klobuchar pide a los directivos que respondan a más tardar el 27 de octubre.

Las dos legisladoras encabezan una campaña para regular la publicidad política generada mediante la IA. Un proyecto de ley presentado por Clarke en la Cámara de Representantes hace varios meses enmendaría una ley electoral federal para requerir rótulos en todos los avisos electorales que contienen imágenes o video generados mediante IA.

“Creo que la Primera Enmienda constitucional da a la gente el derecho de publicar en plataformas de redes sociales todo lo que se sientan impulsados a publicar ahí”, dijo Clarke en una entrevista el jueves. “Yo sólo digo que deben asegurarse de incluir una advertencia y asegurarse de que la gente tenga conciencia de que es algo fabricado”.

Para Klobuchar, que respalda de un proyecto similar en el Senado que ella quiere que se apruebe durante este año, “eso es apenas lo mínimo” que se necesita. Mientras tanto, las dos legisladoras expresaron la esperanza de que las grandes plataformas tomen la iniciativa por su cuenta, sobre todo en vista del caos en que está sumida la Cámara de Representantes sin un presidente electo.

Google ya ha dicho que a partir de mediados de noviembre requerirá un aviso claro en cualquier publicidad electoral generada por IA que altere a la gente o los sucesos en YouTube y otros productos suyos. La norma de Google regirá tanto en Estados Unidos como en otros países donde la empresa verifica la publicidad electoral. Meta no tiene una norma específica para los avisos políticos generados por IA, pero sí restringe audio e imágenes “falsificados, manipulados o transformados” utilizados con fines de desinformación.

Un proyecto de ley bipartidista en el Senado, auspiciado por Klobuchar, el republicano Josh Hawley y otros, daría un paso más al prohibir deepfakes “materialmente engañosos” relativos a candidatos federales, salvo con fines paródicos y satíricos.

Los avisos generados por IA ya son parte de la elección de 2004. Uno de ellos, emitido por el Comité Nacional Republicano en abril, pretende mostrar el futuro del país si el presidente Joe Biden resulta reelegido. Sus fotos falsas pero realistas muestran escaparates tapiados, patrullas militares blindadas en las calles y olas de inmigrantes que provocan pánico.

Klobuchar dijo que las normas propuestas en el proyecto de ley del Senado probablemente vedarán esa clase de publicidad. También vedarán una imagen falsa de Donald Trump abrazando al especialista en enfermedades infecciosas Anthony Fauci, que aparece en un aviso agresivo de la campaña del gobernador de Florida, Ron DeSantis, rival de Trump por la candidatura republicana.

Klobuchar citó otro ejemplo de meses atrás, un video deepfake en que la senadora demócrata Elizabeth Warren, en una supuesta entrevista por TV, sugiere aplicar restricciones al voto de los republicanos.

“Esto será totalmente engañoso si en una campaña presidencial aparece el candidato que te gusta o el que no te gusta diciendo cosas que no son ciertas”, dijo Klobuchar, quien aspiró a la candidatura demócrata en 2020. “¿Cómo se le hará para distinguir?”

Klobuchar, presidenta de la Comisión de Reglas y Administración del Senado, presidió una audiencia el 27 de septiembre sobre la IA y el futuro de las elecciones en que declararon como testigos el secretario de Estado de Minnesota, un activista por los derechos civiles y varios escépticos. Los republicanos y algunos de los testigos han expresado dudas acerca de si las normas no violan la libertad de expresión.

Ari Cohn, un abogado del instituto de investigaciones TechFreedom, dijo en el Senado que los deepfakes que han aparecido hasta ahora han provocado “gran atención e incluso burlas”, y no han servido gran cosa para engañar a los votantes o modificar su conducta. Se preguntó si eran necesarias las nuevas normas.

“La Primera Enmienda protege incluso el discurso falso”, dijo Cohn. “Más aún, la determinación de la verdad o la falsedad en la política corresponde a los votantes”.

También algunos demócratas son renuentes a apoyar una prohibición directa de los deepfakes políticos. “No estoy segura de que tendría éxito, en particular cuando afecta los derechos bajo la Primera Enmienda y la posibilidad de demandas judiciales”, dijo Clarke.

Pero su proyecto, de ser ley, dará autoridad a la Comisión Federal Electoral (FEC por sus siglas en inglés) para imponer el requisito de un aviso de descargo de responsabilidad en la publicidad electoral generada por IA similar al que está aplicando Google por su cuenta.

En agosto, la FEC inició un proceso hacia la posible futura regulación de los deepfakes generados por IA en la publicidad política.

El público tiene plazo hasta el 16 de octubre para ofrecer comentarios sobre un petitorio para que elabore normas sobre imágenes, video y audio engañosos.

—-

La periodista de The Associated Press Ali Swenson contribuyó a este despacho.

Publicado en Inicio » Tecnología »