La comunità di ricerca sull'IA prende provvedimenti contro le immagini di sfruttamento infantile.


La comunità di ricerca sull'IA prende provvedimenti contro le immagini di sfruttamento infantile.

Reading

Read this text and listen to it at the same time. If you don't know a word click it to see explanation, hear pronunciation or add it to vocabulary.
La comunità di ricerca sull'IA prende provvedimenti contro le immagini di sfruttamento infantile.

Ricercatori di intelligenza artificiale hanno detto venerdì di aver eliminato più di 2000 link web a immagini sospette di abuso sessuale su minori da un dataset usato per allenare strumenti popolari per la generazione di immagini AI. Il dataset di ricerca LAION è un grande indice di immagini online e didascalie che è stato una fonte per i principali creatori di immagini AI come Stable Diffusion e Midjourney.

Un rapporto dello scorso anno dell'Osservatorio Internet di Stanford ha scoperto che conteneva link a immagini esplicite sessuali di bambini, contribuendo alla facilità con cui alcuni strumenti AI sono stati in grado di produrre deepfake fotorealistici che ritraggono bambini. Questo rapporto di dicembre ha portato LAION, che sta per la rete aperta di intelligenza artificiale su larga scala senza scopo di lucro, a rimuovere immediatamente il suo dataset.

Otto mesi dopo, LAION ha dichiarato in un post sul blog di aver lavorato con il gruppo di sorveglianza dell'Università di Stanford ed organizzazioni anti-abuso in Canada e nel Regno Unito per risolvere il problema e rilasciare un dataset ripulito per la ricerca futura su AI. Il ricercatore di Stanford David Thiel, autore del rapporto di dicembre, ha lodato LAION per i miglioramenti significativi ma ha detto che il prossimo passo è ritirare dalla distribuzione i \"modelli contaminati\" che sono ancora in grado di produrre immagini di abuso su minori.

Uno degli strumenti basati su LAION che Stanford ha identificato come il \"modello più popolare per generare immagini esplicite\" - una versione più vecchia e poco filtrata di Stable Diffusion - è rimasta facilmente accessibile fino a giovedì, quando la compagnia di New York Runway ML l'ha rimossa dal repository di modelli AI Hugging Face. Runway ha dichiarato venerdì che era una \"declassificazione pianificata di modelli e codici di ricerca che non sono stati attivamente mantenuti.\"

La versione ripulita del dataset LAION arriva mentre i governi di tutto il mondo stanno esaminando più da vicino come alcuni strumenti tecnologici vengano usati per creare o distribuire immagini illegali di bambini. L'arresto di Durov \"segnala un cambiamento molto grande in tutta l'industria tecnologica che i fondatori di queste piattaforme possono essere ritenuti personalmente responsabili\", ha detto David Evan Harris, ricercatore presso l'Università della California, Berkeley.


Questions

Answer the questions to the text. Speak or write, you choose. AI will assess your answers.

Quanti link web sono stati eliminati dal dataset?

Sono stati eliminati più di 2000 link web.

Qual è il nome del dataset di ricerca menzionato?

Il nome del dataset di ricerca è LAION.

Chi ha lavorato con LAION per risolvere il problema?

LAION ha lavorato con il gruppo di sorveglianza dell'Università di Stanford e organizzazioni anti-abuso in Canada e nel Regno Unito.


Discuss

Discuss the text the AI teacher. The teacher will help you with vocabulary and grammar.

The artificial intelligence teacher has a lot of benefits. You don't need to book any time slot. You don't have to wait for the teacher to come to class. You can learn at any time. The teacher will never get bored and can keep a conversation on any related topic.

Read a new article every day and
discuss it with AI at lingolette.com
All content and tasks are generated by AI inspired by a real publication.