Minnesota lidera la lucha contra el porno deepfake con nueva legislación
La rápida evolución de la inteligencia artificial ha facilitado la creación y difusión de imágenes explícitas falsas, lo que ha llevado a muchos estados a considerar regulaciones más estrictas.
El auge del porno deepfake y sus implicaciones
El avance de la inteligencia artificial ha traído múltiples beneficios, pero también ha sido utilizado para fines malintencionados. Uno de los usos más alarmantes es la creación de imágenes y videos explícitos falsos mediante tecnología de ‘nudificación’, que añade realismo digital a fotos de personas sin su consentimiento.
En Minnesota, este problema ha saltado a la palestra después de que Molly Kelly descubriera que alguien que conocía había utilizado esta tecnología para crear imágenes y videos explícitos de ella y de al menos 80 mujeres más. Este caso ha impulsado una nueva legislación que busca penalizar no solo la difusión, sino incluso la creación de estos contenidos.
La propuesta legislativa de Minnesota
El proyecto de ley que se debate en Minnesota, liderado por la senadora demócrata Erin Maye Quade, no solo prohibiría la distribución de estas imágenes, sino que atacaría la raíz del problema: la generación misma de estos contenidos. La legislación implicaría fuertes sanciones para los administradores de sitios y aplicaciones que permitan la ‘nudificación’, imponiéndoles multas de hasta 500,000 dólares por cada uso ilegal en Minnesota.
“No solo es el daño que causa su distribución, sino también el hecho de que estas imágenes existan en primer lugar”, argumenta Maye Quade.
El dilema constitucional y el libre discurso
Mientras algunos expertos defienden la necesidad de esta legislación, otros advierten sobre posibles conflictos con la Primera Enmienda de la Constitución de EE.UU. Riana Pfefferkorn, de la Universidad de Stanford, argumenta que las restricciones pueden entrar en conflicto con leyes federales que protegen a las plataformas de responsabilidad sobre contenido generado por usuarios.
No obstante, Maye Quade sostiene que la propuesta regula conductas y no expresiones, lo que podría hacerla más difícil de impugnar por razones constitucionales.
Casos similares y respuestas en otros estados
- En San Francisco, en agosto se presentó una demanda pionera contra varios sitios de ‘nudificación’, alegando violaciones a leyes sobre pornografía no consentida y prácticas fraudulentas.
- El Senado de EE.UU. aprobó recientemente un proyecto de ley que convertiría en delito federal la publicación de imágenes sexuales no consentidas, incluyendo aquellas generadas por IA. De ser aprobado en la Cámara de Representantes, exigiría que redes sociales eliminen el contenido en un máximo de 48 horas tras la denuncia de la víctima.
- Legislaturas estatales en Florida, Kansas, Nueva York, Texas, entre otros, también han propuesto leyes para abordar estos problemas desde distintas perspectivas.
Testimonios de las víctimas
Para muchas víctimas, la existencia de estas imágenes causa un daño psicológico irreparable. Megan Hurley, una terapeuta de masajes, expresó su angustia al enterarse de que se habían creado videos explícitos falsos de ella. “No puedo comprender por qué esta tecnología existe en primer lugar”, afirma.
La organización RAINN (Rape, Abuse & Incest National Network) enfatiza que, una vez creadas, estas imágenes pueden difundirse masivamente e impedir que sean eliminadas por completo, causando un dolor continuo para las víctimas.
El futuro de la regulación
La rapidez con la que se desarrolla la IA hace que estas amenazas evolucionen continuamente. Mientras algunos estados buscan regular la difusión, Minnesota lidera un enfoque previo a la distribución: la eliminación de las herramientas mismas que permiten la creación de estos contenidos.
La pregunta clave es si esta legislación podrá convertirse en un modelo replicable sin enfrentar barreras constitucionales insalvables. Como concluye Maye Quade, “las empresas tecnológicas no pueden seguir lanzando esta tecnología sin asumir ninguna consecuencia”.