Comunitatea de cercetare AI ia măsuri împotriva imaginilor de exploatare a copiilor.


Comunitatea de cercetare AI ia măsuri împotriva imaginilor de exploatare a copiilor.

Reading

Read this text and listen to it at the same time. If you don't know a word click it to see explanation.
Comunitatea de cercetare AI ia măsuri împotriva imaginilor de exploatare a copiilor.

Cercetătorii în inteligență artificială au spus vineri că au șters peste 2000 de linkuri web către imagini suspecte de abuz sexual asupra copiilor dintr-un set de date folosit pentru antrenarea uneltelor populare de generare a imaginilor AI. Setul de date LAION este un mare index de imagini online și descrieri, care a fost o sursă pentru creatorii de imagini AI de frunte, cum ar fi Stable Diffusion și Midjourney.

Un raport din anul trecut al Observatorului Internet de la Stanford a descoperit că acesta conținea linkuri către imagini explicit sexuale cu copii, facilitând astfel unele unelte AI să producă deepfake-uri fotorealiste care îi reprezintă pe copii. Raportul din decembrie a determinat LAION, care reprezintă rețeaua nonprofit Large-scale Artificial Intelligence Open Network, să își retragă imediat setul de date.

Opt luni mai târziu, LAION a menționat într-o postare pe blog că a lucrat cu grupul de supraveghere al Universității Stanford și organizații anti-abuz din Canada și Marea Britanie pentru a rezolva problema și a lansa un set de date curățat pentru cercetări AI viitoare. Cercetătorul de la Stanford, David Thiel, autorul raportului din decembrie, a lăudat LAION pentru îmbunătățiri semnificative, dar a spus că următorul pas este retragerea din distribuție a 'modelelor compromise' care pot produce în continuare imagini de abuz asupra copiilor.

Unealta bazată pe LAION, identificată de Stanford ca 'modelul cel mai popular pentru generarea de imagini explicite' — o versiune mai veche și filtrată slab a Stable Diffusion — a rămas ușor accesibilă până joi, când compania din New York, Runway ML, a eliminat-o din depozitul de modele AI Hugging Face. Runway a declarat vineri că a fost o 'retragere planificată a modelelor de cercetare și codurilor care nu au fost întreținute activ'.

Versiunea curățată a setului de date LAION vine în timp ce guvernele din întreaga lume analizează mai atent cum unele unelte tehnologice sunt folosite pentru a face sau distribui imagini ilegale cu copii. Pavel Durov, fondatorul și CEO-ul aplicației de mesagerie Telegram, a fost acuzat de autoritățile franceze miercuri, parte a acuzațiilor fiind legată de distribuția imaginilor de abuz sexual asupra copiilor.


Questions

Answer the questions to the text. Speak or write, you choose. AI will assess your answers.

Ce au șters cercetătorii în inteligență artificială?

Cercetătorii au șters peste 2000 de linkuri web către imagini suspecte de abuz sexual asupra copiilor.

Ce este setul de date LAION?

Setul de date LAION este un mare index de imagini online și descrieri, folosit pentru antrenarea uneltelor de generare a imaginilor AI.

Ce a făcut Runway ML joi?

Runway ML a eliminat modelul cel mai popular pentru generarea de imagini explicite din depozitul de modele AI Hugging Face.


Discuss

Discuss the text the AI teacher. The teacher will help you with vocabulary and grammar.

The artificial intelligence teacher has a lot of benefits. You don't need to book any time slot. You don't have to wait for the teacher to come to class. You can learn at any time. The teacher will never get bored and can keep a conversation on any related topic.

Read a new article every day and
discuss it with AI at lingolette.com
All content and tasks are generated by AI inspired by a real publication.