La comunidad de investigación en IA toma medidas contra las imágenes de explotación infantil.


La comunidad de investigación en IA toma medidas contra las imágenes de explotación infantil.

Reading

Read this text and listen to it at the same time. If you don't know a word click it to see explanation.
La comunidad de investigación en IA toma medidas contra las imágenes de explotación infantil.

Investigadores en inteligencia artificial dijeron el viernes que han eliminado más de 2,000 enlaces web a imágenes sospechosas de abuso sexual infantil de un conjunto de datos utilizado para entrenar herramientas populares generadoras de imágenes de IA. El conjunto de datos de investigación LAION es un enorme índice de imágenes y subtítulos en línea que ha sido una fuente para creadores de imágenes de IA líderes como Stable Diffusion y Midjourney.

Un informe del año pasado realizado por el Observatorio de Internet de Stanford encontró que contenía enlaces a imágenes sexualmente explícitas de niños, facilitando que algunas herramientas de IA produzcan deepfakes fotorealistas de niños. A raíz de este informe de diciembre, LAION, que representa la red abierta de inteligencia artificial a gran escala sin fines de lucro, eliminó inmediatamente su conjunto de datos.

Ocho meses después, LAION dijo en una publicación de blog que trabajó con el grupo de vigilancia de la Universidad de Stanford y organizaciones contra el abuso en Canadá y el Reino Unido para solucionar el problema y lanzar un conjunto de datos limpio para futuras investigaciones de IA. David Thiel, investigador de Stanford y autor del informe de diciembre, elogió a LAION por las mejoras significativas pero indicó que el siguiente paso es retirar de la distribución los 'modelos contaminados' que aún pueden producir imágenes de abuso infantil.

Uno de los herramientas basadas en LAION que Stanford identificó como 'el modelo más popular para generar imágenes explícitas' — una versión antigua y poco filtrada de Stable Diffusion — se mantuvo fácilmente accesible hasta el jueves, cuando la compañía de Nueva York Runway ML la retiró del repositorio de modelos de IA Hugging Face. Runway dijo en un comunicado el viernes que fue una 'depreciación planificada de modelos y código de investigación que no se han mantenido activamente'.

La versión limpia del conjunto de datos de LAION llega mientras los gobiernos de todo el mundo examinan más de cerca cómo algunas herramientas tecnológicas se utilizan para hacer o distribuir imágenes ilegales de niños. La ciudad de San Francisco, a principios de este mes, presentó una demanda buscando cerrar un grupo de sitios web que permiten la creación de desnudos generados por IA de mujeres y niños.


Questions

Answer the questions to the text. Speak or write, you choose. AI will assess your answers.

¿Cuántos enlaces web a imágenes sospechosas de abuso sexual infantil fueron eliminados?

Más de 2,000 enlaces web fueron eliminados.

¿Qué organización trabajó con LAION para solucionar el problema?

LAION trabajó con el grupo de vigilancia de la Universidad de Stanford y organizaciones contra el abuso en Canadá y el Reino Unido.

¿Qué acción tomó la ciudad de San Francisco recientemente?

La ciudad de San Francisco presentó una demanda buscando cerrar un grupo de sitios web que permiten la creación de desnudos generados por IA de mujeres y niños.


Discuss

Discuss the text the AI teacher. The teacher will help you with vocabulary and grammar.

The artificial intelligence teacher has a lot of benefits. You don't need to book any time slot. You don't have to wait for the teacher to come to class. You can learn at any time. The teacher will never get bored and can keep a conversation on any related topic.

Read a new article every day and
discuss it with AI at lingolette.com
All content and tasks are generated by AI inspired by a real publication.