OpenAI Presenta Anteproyecto Para Combatir el Abuso Sexual Infantil Generado por IA
En Resumen
- OpenAI publicó un anteproyecto con medidas legales, operativas y técnicas para reducir el abuso sexual infantil generado por IA.
- El marco incorpora aportes del Centro Nacional para Niños Desaparecidos y la Alianza de Fiscales Generales sobre IA.
- UNICEF y reguladores de la UE, Reino Unido y Australia han presionado por leyes que criminalicen este tipo de contenido.
Con el objetivo de abordar el aumento de la explotación sexual infantil habilitada por IA, OpenAI publicó el miércoles un anteproyecto de polÃtica que describe nuevas medidas de seguridad que la industria puede tomar para ayudar a reducir el uso de la IA en la creación de material de abuso sexual infantil.
En el marco, OpenAI enumera medidas legales, operativas y técnicas destinadas a fortalecer las protecciones contra el abuso habilitado por IA y mejorar la coordinación entre las empresas tecnológicas y los investigadores.
“La explotación sexual infantil es uno de los desafÃos más urgentes de la era digital”, escribió la empresa. “La IA está cambiando rápidamente tanto la forma en que estos daños surgen en toda la industria como la manera en que pueden abordarse a escala”.
OpenAI señaló que la propuesta incorpora comentarios de organizaciones que trabajan en la protección infantil y la seguridad en lÃnea, como el Centro Nacional para Niños Desaparecidos y Explotados y la Alianza de Fiscales Generales y su grupo de trabajo sobre IA.
“La IA generativa está acelerando el crimen de la explotación sexual infantil en lÃnea de maneras profundamente preocupantes, reduciendo barreras, aumentando la escala y habilitando nuevas formas de daño”, afirmó Michelle DeLaune, presidenta y directora ejecutiva del Centro Nacional para Niños Desaparecidos y Explotados. “Pero al mismo tiempo, el Centro Nacional para Niños Desaparecidos y Explotados se anima al ver que empresas como OpenAI reflexionen sobre cómo estas herramientas pueden diseñarse de manera más responsable, con salvaguardas integradas desde el inicio”.
OpenAI indicó que el marco combina estándares legales, sistemas de reporte de la industria y salvaguardas técnicas dentro de los modelos de IA. La empresa agregó que estas medidas buscan ayudar a identificar los riesgos de explotación con mayor anticipación y mejorar la rendición de cuentas en las plataformas en lÃnea.
El anteproyecto identifica áreas de acción, como la actualización de leyes para abordar el material de abuso sexual infantil generado o alterado por IA, la mejora en la forma en que los proveedores en lÃnea reportan señales de abuso y coordinan con los investigadores, y la incorporación de salvaguardas en los sistemas de IA diseñadas para prevenir el uso indebido.
“Ninguna intervención por sà sola puede abordar este desafÃo”, escribió la empresa. “Este marco reúne enfoques legales, operativos y técnicos para identificar mejor los riesgos, acelerar las respuestas y apoyar la rendición de cuentas, al tiempo que garantiza que las autoridades de aplicación de la ley sigan siendo sólidas a medida que la tecnologÃa evoluciona”.
El anteproyecto llega en un momento en que los defensores de la seguridad infantil han expresado preocupaciones de que los sistemas de IA generativa capaces de producir imágenes realistas podrÃan usarse para crear representaciones manipuladas o sintéticas de menores. En febrero, UNICEF instó a los gobiernos del mundo a aprobar leyes que criminalicen el material de abuso sexual infantil generado por IA.
En enero, la Comisión Europea inició una investigación formal sobre si X, anteriormente conocido como Twitter, violó las normas digitales de la UE al no impedir que el modelo de IA nativo de la plataforma, Grok, generara contenido ilegal, mientras que los reguladores del Reino Unido y Australia también han abierto investigaciones.
Señalando que las leyes por sà solas no detendrán el flagelo del material de abuso generado por IA, OpenAI indicó que serán necesarios estándares industriales más sólidos a medida que los sistemas de IA se vuelvan más capaces.
“Al interrumpir los intentos de explotación con mayor anticipación, mejorar la calidad de las señales enviadas a las fuerzas del orden y fortalecer la rendición de cuentas en todo el ecosistema, este marco tiene como objetivo prevenir el daño antes de que ocurra y ayudar a garantizar una protección más rápida para los niños cuando surjan riesgos”, dijo OpenAI.
Daily Debrief Newsletter
Start every day with the top news stories right now, plus original features, a podcast, videos and more.
Crédito: Enlace fuente
Responses