Społeczność badawcza AI podejmuje działania przeciwko wykorzystywaniu dzieci w obrazach.


Społeczność badawcza AI podejmuje działania przeciwko wykorzystywaniu dzieci w obrazach.

Чтение

Прочти этот текст и послушай его одновременно. Если ты не знаешь конкретное слово, нажми на него, чтобы увидеть объяснение, произношение или чтобы добавить его в словарь.
Społeczność badawcza AI podejmuje działania przeciwko wykorzystywaniu dzieci w obrazach.

Badacze sztucznej inteligencji ogłosili, że usunęli ponad 2000 linków do podejrzewanych o wykorzystywanie dzieci w materiałach pornograficznych z zestawu danych używanego do trenowania popularnych narzędzi do generowania obrazów AI. Zestaw danych LAION to ogromny indeks obrazów i podpisów online, który był źródłem dla wiodących narzędzi do generowania obrazów AI, takich jak Stable Diffusion i Midjourney.

Raport z zeszłego roku Stanford Internet Observatory stwierdził, że zawiera on linki do seksualnie wyraźnych zdjęć dzieci, co ułatwia niektórym narzędziom AI tworzenie fotorealistycznych deepfake'ów przedstawiających dzieci. Raport z grudnia skłonił LAION do natychmiastowego usunięcia swojego zestawu danych.

Osom miesięcy po usunięciu, LAION poinformowało w poście na blogu, że współpracowało z grupą nadzorczą Uniwersytetu Stanforda oraz organizacjami przeciwdziałającymi nadużyciom w Kanadzie i Wielkiej Brytanii, aby rozwiązać problem i wydać oczyszczony zestaw danych na przyszłe badania AI. David Thiel, badacz z Stanford, pochwalił LAION za znaczne ulepszenia, lecz stwierdził, że następnym krokiem jest wycofanie z dystrybucji „zanieczyszczonych modeli”, które nadal są zdolne do generowania obrazów przedstawiających wykorzystywanie dzieci.

Narzędzie oparte na LAION, które Stanford zidentyfikowało jako \"najpopularniejszy model do generowania wyraźnych obrazów\", starsza i lekko filtrowana wersja Stable Diffusion, była łatwo dostępna aż do czwartku, kiedy nowojorska firma Runway ML usunęła ją z repozytorium modeli AI Hugging Face. Runway ogłosiło w piątek, że było to \"planowane wycofanie modeli badawczych i kodów, które nie były aktywnie utrzymywane\".

Wyczyszczona wersja zestawu danych LAION pojawia się w czasie, gdy rządy na całym świecie przyglądają się bliżej, jak niektóre narzędzia technologiczne są używane do tworzenia lub dystrybucji nielegalnych obrazów dzieci. Prokurator miasta San Francisco na początku tego miesiąca wniósł pozew o zamknięcie grupy stron internetowych umożliwiających tworzenie AI-generowanych aktów kobiet i dziewcząt.


Вопросы

Ответь на вопросы к тексту, а ИИ оценит твои ответы. Можно как печатать, так и говорить голосом.

Ile linków do podejrzewanych materiałów pornograficznych usunięto?

Usunięto ponad 2000 linków.

Jakie organizacje współpracowały z LAION po usunięciu danych?

Współpracowały z grupą nadzorczą Uniwersytetu Stanforda oraz organizacjami przeciwdziałającymi nadużyciom w Kanadzie i Wielkiej Brytanii.

Co ogłosiła firma Runway ML w piątek?

Ogłosili, że było to planowane wycofanie modeli badawczych i kodów, które nie były aktywnie utrzymywane.


Опиши изображение статьи

Посмотри на изображение статьи и опиши то, что вы видишь на нём. Можно как печатать, так и говорить голосом.


Обсуждение

Обсуди эту статью со своим ИИ-репетитором для практики. Репетитор поможет с лексикой и грамматикой.

Читайте новую статью каждый день и
обсуждайте её с ИИ на lingolette.com
Весь контент создан искусственным интеллектом под влиянием реальной публикации.