La comunità di ricerca sull'IA prende provvedimenti contro le immagini di sfruttamento infantile.


La comunità di ricerca sull'IA prende provvedimenti contro le immagini di sfruttamento infantile.

Чтение

Прочтите этот текст и послушайте его одновременно. Если вы не знаете конкретное слово, нажмите на него, чтобы увидеть объяснение.
La comunità di ricerca sull'IA prende provvedimenti contro le immagini di sfruttamento infantile.

Ricercatori di intelligenza artificiale hanno detto venerdì di aver eliminato più di 2000 link web a immagini sospette di abuso sessuale su minori da un dataset usato per allenare strumenti popolari per la generazione di immagini AI. Il dataset di ricerca LAION è un grande indice di immagini online e didascalie che è stato una fonte per i principali creatori di immagini AI come Stable Diffusion e Midjourney.

Un rapporto dello scorso anno dell'Osservatorio Internet di Stanford ha scoperto che conteneva link a immagini esplicite sessuali di bambini, contribuendo alla facilità con cui alcuni strumenti AI sono stati in grado di produrre deepfake fotorealistici che ritraggono bambini. Questo rapporto di dicembre ha portato LAION, che sta per la rete aperta di intelligenza artificiale su larga scala senza scopo di lucro, a rimuovere immediatamente il suo dataset.

Otto mesi dopo, LAION ha dichiarato in un post sul blog di aver lavorato con il gruppo di sorveglianza dell'Università di Stanford ed organizzazioni anti-abuso in Canada e nel Regno Unito per risolvere il problema e rilasciare un dataset ripulito per la ricerca futura su AI. Il ricercatore di Stanford David Thiel, autore del rapporto di dicembre, ha lodato LAION per i miglioramenti significativi ma ha detto che il prossimo passo è ritirare dalla distribuzione i \"modelli contaminati\" che sono ancora in grado di produrre immagini di abuso su minori.

Uno degli strumenti basati su LAION che Stanford ha identificato come il \"modello più popolare per generare immagini esplicite\" - una versione più vecchia e poco filtrata di Stable Diffusion - è rimasta facilmente accessibile fino a giovedì, quando la compagnia di New York Runway ML l'ha rimossa dal repository di modelli AI Hugging Face. Runway ha dichiarato venerdì che era una \"declassificazione pianificata di modelli e codici di ricerca che non sono stati attivamente mantenuti.\"

La versione ripulita del dataset LAION arriva mentre i governi di tutto il mondo stanno esaminando più da vicino come alcuni strumenti tecnologici vengano usati per creare o distribuire immagini illegali di bambini. L'arresto di Durov \"segnala un cambiamento molto grande in tutta l'industria tecnologica che i fondatori di queste piattaforme possono essere ritenuti personalmente responsabili\", ha detto David Evan Harris, ricercatore presso l'Università della California, Berkeley.


Вопросы

Ответьте на вопросы к тексту, а ИИ оценит ваши ответы. Можно как печатать, так и говорить голосом.

Quanti link web sono stati eliminati dal dataset?

Sono stati eliminati più di 2000 link web.

Qual è il nome del dataset di ricerca menzionato?

Il nome del dataset di ricerca è LAION.

Chi ha lavorato con LAION per risolvere il problema?

LAION ha lavorato con il gruppo di sorveglianza dell'Università di Stanford e organizzazioni anti-abuso in Canada e nel Regno Unito.


Обсуждение

Обсудите текст с ИИ-учителем. Учитель поможет вам с лексикой и грамматикой.

Учитель на искусственном интеллекте имеет много преимуществ. Вам не нужно бронировать время. Вам не нужно ждать, пока учитель придет на урок. Вы можете учиться в любое время. Учитель никогда не соскучится и может поддержать разговор на любую тему.

Читайте новую статью каждый день и
обсуждайте её с ИИ на lingolette.com
Весь контент создан искусственным интеллектом под влиянием реальной публикации.