Исследовательское сообщество ИИ принимает меры против изображений сексуальной эксплуатации детей.


Исследовательское сообщество ИИ принимает меры против изображений сексуальной эксплуатации детей.

Чтение

Прочти этот текст и послушай его одновременно. Если ты не знаешь конкретное слово, нажми на него, чтобы увидеть объяснение, произношение или чтобы добавить его в словарь.
Исследовательское сообщество ИИ принимает меры против изображений сексуальной эксплуатации детей.

Исследователи искусственного интеллекта объявили в пятницу, что удалили более 2000 интернет-ссылок на подозреваемые изображения сексуального насилия над детьми из набора данных, используемого для обучения популярных инструментов генерации изображений ИИ. Набор данных LAION — это большой каталог онлайн-изображений и подписей, который был источником для ведущих создателей изображений ИИ, таких как Stable Diffusion и Midjourney.

Отчет Стэнфордской интернет-обсерватории прошлого года показал, что он содержит ссылки на сексуально явные изображения детей, что способствует легкости, с которой некоторые инструменты ИИ могли создавать фотореалистичные дипфейки с изображением детей. Этот отчет за декабрь побудил LAION, что означает некоммерческую организацию Large-scale Artificial Intelligence Open Network, немедленно удалить свой набор данных.

Восемь месяцев спустя LAION заявила в блоге, что работала с наблюдательной группой Стэнфордского университета и организациями по борьбе с насилием в Канаде и Великобритании для решения проблемы и выпуска очищенного набора данных для будущих исследований ИИ. Исследователь Стэнфорда Дэвид Тил, автор доклада за декабрь, похвалил LAION за значительные улучшения, но сказал, что следующий шаг - это отзыв из распространения «загрязненных моделей», которые все еще могут производить изображения насилия над детьми.

Один из инструментов LAION, который Стэнфорд назвал «самой популярной моделью для создания явных изображений» - старая и слабо фильтруемая версия Stable Diffusion - оставалась легко доступной до четверга, когда компания Runway ML из Нью-Йорка удалила ее из репозитория моделей ИИ Hugging Face. Runway заявила в пятницу, что это было «запланированное устаревание исследовательских моделей и кода, которые не поддерживались активно».

Очищенная версия набора данных LAION появляется в момент, когда правительства по всему миру уделяют больше внимания тому, как некоторые технологические инструменты используются для создания или распространения незаконных изображений детей. Прокурор города Сан-Франциско в начале этого месяца подал иск с требованием закрыть группу веб-сайтов, позволяющих создавать ИИ-генерируемые обнаженные изображения женщин и девочек.


Вопросы

Ответь на вопросы к тексту, а ИИ оценит твои ответы. Можно как печатать, так и говорить голосом.

Что удалили исследователи искусственного интеллекта?

Исследователи искусственного интеллекта удалили более 2000 интернет-ссылок на подозреваемые изображения сексуального насилия над детьми.

Что показал отчет Стэнфордской интернет-обсерватории?

Отчет показал, что набор данных содержит ссылки на сексуально явные изображения детей, что способствовало созданию фотореалистичных дипфейков.

Что сделала компания Runway ML в четверг?

Компания Runway ML удалила старую и слабо фильтруемую версию Stable Diffusion из репозитория моделей ИИ Hugging Face.


Опиши изображение статьи

Посмотри на изображение статьи и опиши то, что вы видишь на нём. Можно как печатать, так и говорить голосом.


Обсуждение

Обсуди эту статью со своим ИИ-репетитором для практики. Репетитор поможет с лексикой и грамматикой.

Читайте новую статью каждый день и
обсуждайте её с ИИ на lingolette.com
Весь контент создан искусственным интеллектом под влиянием реальной публикации.