The Epoch Times

WASHINGTON—Sens. Ted Cruz (R-Texas) y Amy Klobuchar (D-Minn.) introdujeron el 18 de junio una código que requeriría que los sitios eliminen imágenes pornográficas generadas artificialmente de personas reales, a menudo menores.

“Ahora, casi instantáneamente, los perpetradores pueden usar una aplicación en su teléfono para crear imágenes falsas y explícitas que representan a personas reales, comúnmente conocidas como ‘deepfakes'”, dijo Cruz en una conferencia de prensa. “Es inquietante que esto afecte cada vez más a los menores y, en particular, a las niñas”.

La código, denominada Ley Take it Down, obligaría a las empresas de tecnología a eliminar de sus plataformas las imágenes sexuales generadas por inteligencia químico (IA). Además se les exigiría que creen procedimientos para eliminar el contenido en el interior de las 48 horas.

El esquema de ley cuenta con apoyo bipartidista y está copatrocinado por 15 legisladores, incluida la senadora Cynthia Lummis (republicana por Wyoming), quien incluso habló en la conferencia de prensa. Además ha sido respaldado por el Centro Franquista sobre Explotación Sexual.

Yiota Souras, directora jurídica del Centro Franquista para Niños Desaparecidos y Explotados, dijo en la conferencia de prensa que la código es “crucialmente necesaria”.

La mayoría de los estados tienen leyes contra la “pornografía de venganza” o la publicación en camino de imágenes de otra persona desnuda sin su consentimiento. En 2022, el Congreso permitió presentar una demanda civil contra los perpetradores. El nuevo esquema de ley agregaría sanciones penales; La testimonio del parlamentario dijo que las demandas civiles pueden “consumir mucho tiempo, ser costosas y pueden atañer a las víctimas a revivir el trauma”.

Cruz dijo que una persona que publique el contenido podría contraponer hasta dos primaveras de prisión, o tres primaveras si representa a un último. Para preservar la prisión de pruebas, el esquema de ley no exige la destrucción de la imagen o el vídeo, sólo su asesinato.

El senador dijo que presionaría a la presidenta del Comité de Comercio, la senadora Maria Cantwell (D-Wash.), para programar un aumento del esquema de ley.

“Las niñas se despiertan con un mensaje de texto de sus amigos, diciendo que hay una foto explícita de ellas circulando en las redes sociales o un video palmario y, sin bloqueo, las fotos no son reales”, dijo Cruz. “Fueron creados usando IA, generalmente tomando el rostro de una persona vivo y usando tecnología de IA para injertarlo de guisa perfecta e imperceptible en una imagen diferente, una imagen sexualmente explícita”.

Una víctima, Elliston Berry, de 14 primaveras, habló de su miedo de ingresar a la escuela secundaria posteriormente de que se compartieran imágenes pornográficas falsas de ella en la plataforma de redes sociales SnapChat. Cruz dijo que sus repetidos esfuerzos para que se eliminaran las fotos se toparon con un tapia moroso, hasta que su oficina se acercó a la empresa en su nombre.

Cruz dijo que pudo eliminar las imágenes de la Sra. Berry en el interior de las 24 horas posteriores a que su personal se comunicara con SnapChat. “Ahora, si no te encuentras en una situación en la que un miembro en deporte del Congreso interviene en tu nombre… te quedas con la puerta cerrada”, dijo.

Cruz comparó la experiencia de Elliston con la de la hado pop Taylor Swift, quien en enero pudo eliminar de X imágenes falsas de ella misma. La plataforma incluso bloqueó las búsquedas del nombre de Swift durante dos días para evitar que se vieran las imágenes.

“Se comportan como si no fueran responsables”, dijo Cruz sobre las empresas de redes sociales. Dijo que si un beneficiario hubiera subido un vídeo o una canción con derechos de autor, el contenido se eliminaría casi de inmediato.

“Esta es una experiencia horrible para estas niñas y sus familias; puede dejar cicatrices duraderas”, dijo Lummis. “Debemos topar esto”.

The Epoch Times se comunicó con la Sra. Cantwell para solicitar comentarios.

Leave a Reply

Your email address will not be published. Required fields are marked *

Translate »
Shares