La ciudad de Lancaster, Pennsylvania, es Apocalipsis en diciembre de 2023. Año de que dos adolescentes locales compartieron cientos de niñas desnudas en su comunidad en relación con un chat privado incompatible en las plataformas de chat social. Los testigos dijeron que las fotos podrían confundirse fácilmente de verdad, pero que eran falsas. Los niños usaron un medio artificial de inteligencia para superar las fotografías reales de la cara de la niña a imágenes sexualmente explícitas.
Con resolución de fotos reales disponibles en las plataformas de redes sociales, y las herramientas se vuelven más accesibles en línea, incidentes similares en todo el país, desde California hasta Texas y Wisconsin. Una encuesta reciente realizada por el Centro de Democracia y Tecnología, y la organización sin fines de lucro con sede en Washington DC, encontró que el 15% de los estudiantes y el 11% de los maestros que representaban a alguien está asociado con su escuela de manera sexualmente explícita o íntima.
La Corte Suprema implicaba implícitamente que las imágenes pornográficas generadas por computadora se basaban en imágenes de niños reales ilegales. El uso de tecnologías generativas de IA para hacer la imagen pornográfica de Deepfake es casi seguro que cae bajo el alcance de ese juicio. Como científico legal que estudia la intersección del derecho constitucional y la tecnología emergente, veo en el status quo de desafío emergente: imágenes generadas por IA que son completamente falsas, pero que no difieren de las fotos reales.
Material policial de abuso sexual de niños
Aunque la arquitectura de Internet siempre ha dificultado el control de lo que se comparte en línea, existen varios tipos de contenido que la mayoría de las autoridades reguladoras de todo el mundo deberían ser censuradas. La pornografía infantil está en la parte superior de esa lista.
Durante décadas, las agencias de aplicación de la ley han trabajado con las principales compañías tecnológicas para identificar y eliminar este tipo de material de Internet y procesarlo a quienes lo crean o circulan. Pero la aparición de inteligencia artificial generativa y herramientas para facilitar el acceso, como los utilizados en el caso de Pensilvania, son un siglo para tales esfuerzos.
En un campo legal, la pornografía de los niños se llama principalmente materiales sexuales para el abuso de niños, o CSAM, porque el término refleja mejor el abuso que se muestra en imágenes y videos y los traumas resultantes participaron en los niños. Durante 1982. Año, la Corte Suprema dictaminó que la pornografía infantil no estaba protegida por la Primera Enmienda, porque la preservación del bienestar físico y mental del gobierno que justifica las leyes que prohíben el abuso sexual material de los niños.
Este caso, Nueva York v. Ferber, ha permitido efectivamente al gobierno federal y a los 50 estados criminalizar el abuso sexual tradicional de niños. Pero el siguiente caso, Ashcroft v. La coalición gratuita del habla desde 2002. años, los esfuerzos para criminalizar la IA generaron abuso sexual de niños pueden ser complicados. En ese caso, el tribunal ha negado una ley que esté prohibida por la pornografía infantil generada por computadora, efectivamente para legalizarla.
El tribunal descubrió que el interés en el gobierno para la protección del bienestar físico y mental de los niños de los niños cuando se generó un material tan obsceno. “La pornografía virtual de los niños no está” intrínsecamente asociada con el abuso sexual de niños “, escribió el tribunal.
Los estados se mueven hacia la IA criminalizada generada CSAM
Según este abuso de defensa infantil, 37 países criminalizaron criminalizado y generado o CSAM modificado por IA, cualquier modificación de materiales sexuales existentes por abuso infantil o adopción de otros nuevos. Más de la mitad de estos 37 países adoptaron nuevas leyes o cambiaron sus existentes existentes el año pasado.
California, por ejemplo, se hizo en orden 1831. 20 de septiembre. Septiembre, que ha cambiado su código penal para prohibir la creación, la venta, la posesión y la distribución de cualquier “Sustancia artificial o artificial y alterada digitalmente” que muestra a una persona a 18 años de tratar o simular el comportamiento sexual.
La pornografía infantil Deepfake es un problema creciente.
Mientras que algunas de estas leyes estatales se dirigen al uso de fotos de las personas reales, otras van más allá, material definitivo para el abuso de niños como “cualquier imagen de una persona que parece tener menos de 18 años, y que en actividades sexuales”, según el abuso suficiente. . Leyes como estas que involucran imágenes producidas sin opinión de menores reales pueden oponerse a la Corte Suprema de Ashcroft vs. Ashcroft contra una coalición gratuita de discurso.
Real contra falso y dijo la diferencia
Quizás la parte más importante de la decisión del Ashcroft para la formación de preguntas sobre la IA, el abuso sexual creativo fue parte del estatuto que la Corte Suprema no golpeó. Esta provisión de leyes está prohibida “medios técnicos más comunes y más bajos para crear virtuales (materiales de uso indebido), conocido como transformación de computadora”, que incluye la pintura de menores reales y transformarlos en vistas sexualmente explícitas.
La decisión del Tribunal declaró que estas representaciones sexualmente explícitas de menores sexualmente alteradas digitalmente “implican los intereses de los niños reales y, en ese sentido, están más cerca de las imágenes en Ferber”. La decisión hizo referencia al caso en 1982. Año, Nueva York v. Ferber, en el que la Corte Suprema confirmó el estatuto penal de Nueva York que ha prohibido a las personas a promover conscientemente el rendimiento sexual de los niños menores de 16 años.
Las decisiones de la Corte en Ferber y Ashcroft pueden usarse para afirmar que cualquier IA generada sexualmente explícitamente la imagen de menores reales no debe protegerse como una libertad de expresión que ha recibido lesiones psicológicas infligidas por los menores correctos. Pero ese argumento aún no se ha presentado ante el tribunal. La sentencia de la corte en Ashcroft puede permitir las imágenes sexualmente explícitas de falsos menores y creados.
Pero el juez Clarence Thomas, que acordó Ashcroft, advirtió que “si el avance tecnológico de este enjuiciamiento” discurso ilegal “, el gobierno puede regular bien a algunos debido a la categoría de” discurso legal “ha sido implementado efectivamente por las leyes contra la pornografía hecho por abuso de niños verdaderos.
Con un progreso significativo reciente en la IA, puede ser difícil, si no imposible, los agentes de la ley distinguir imágenes de niños reales y falsos. Es posible que hayamos alcanzado un punto en el que el abuso sexual de niños generado por computadora deba estar prohibido, de modo que las leyes que tienen como objetivo proteger a los niños reales sean efectivos, el punto que Thomas advirtió hace más de 20 años.
Si este es el caso, el fácil acceso a generaciones y herramientas probablemente obligará a los tribunales a atrapar una pregunta.
Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US
Suscríbete y recibe las últimas entradas en tu correo electrónico.


