La comunitat de recerca en IA pren mesures contra les imatges d'explotació infantil.


La comunitat de recerca en IA pren mesures contra les imatges d'explotació infantil.

Reading

Read this text and listen to it at the same time. If you don't know a word click it to see explanation.
La comunitat de recerca en IA pren mesures contra les imatges d'explotació infantil.

Divendres, investigadors en intel·ligència artificial van eliminar més de 2.000 enllaços web sospitosos de contenir imatges d'abús sexual infantil d'un conjunt de dades utilitzat per entrenar eines populars de generació d'imatges AI. El conjunt de dades de recerca LAION és un enorme índex d'imatges i subtítols en línia que ha estat una font per a creadors d'imatges AI líders com Stable Diffusion i Midjourney.

Un informe de l'any passat de l'Observatori d'Internet de Stanford va trobar que contenia enllaços a imatges sexualment explícites de nens, facilitant la producció de fotorealismes deepfake que representen nens per part d'algunes eines AI. Aquest informe de desembre va portar LAION, que significa Large-scale Artificial Intelligence Open Network sense ànim de lucre, a eliminar immediatament el seu conjunt de dades.

Vuit mesos després, LAION va dir en un post del blog que havia treballat amb el grup de vigilància de la Universitat de Stanford i organitzacions contra l'abús a Canadà i el Regne Unit per solucionar el problema i publicar un conjunt de dades netejat per a futures recerques en AI. El investigador de Stanford, David Thiel, autor de l'informe de desembre, va felicitar LAION per les millores significatives però va dir que el proper pas és retirar del mercat els \"models tancats\" que encara poden produir imatges d'abús infantil.

Una de les eines basades en LAION que Stanford va identificar com el \"model més popular per a generar imatgeria explícita\" — una versió antiga i poc filtrada de Stable Diffusion — va seguir fàcilment accessible fins dijous, quan la companyia basada a Nova York, Runway ML, la va eliminar del repositori de models AI, Hugging Face. Runway va dir divendres que es tractava d'una \"depreciació planificada de models i codi de recerca que no s'han mantingut activament\".

La versió netejada del conjunt de dades de LAION arriba mentre els governs d'arreu del món estan revisant més de prop com algunes eines tecnològiques s'estan utilitzant per fer o distribuir imatges il·legals de nens. L'arrest de Durov \"senyala un canvi molt gran en tota la indústria tecnològica que els fundadors d'aquestes plataformes poden ser responsables personalment\", va dir David Evan Harris, investigador a la Universitat de Califòrnia, Berkeley qui recentment va contactar amb Runway preguntant per què el generador d'imatges problemàtic d'AI seguia públicament accessible.


Questions

Answer the questions to the text. Speak or write, you choose. AI will assess your answers.

Quants enllaços web van eliminar els investigadors?

Més de 2.000 enllaços web.

Quin informe va trobar imatges sexualment explícites de nens?

Un informe de l'Observatori d'Internet de Stanford.

Quina companyia va eliminar un model problemàtic d'AI?

Runway ML.


Discuss

Discuss the text the AI teacher. The teacher will help you with vocabulary and grammar.

The artificial intelligence teacher has a lot of benefits. You don't need to book any time slot. You don't have to wait for the teacher to come to class. You can learn at any time. The teacher will never get bored and can keep a conversation on any related topic.

Read a new article every day and
discuss it with AI at lingolette.com
All content and tasks are generated by AI inspired by a real publication.