Исследовательское сообщество ИИ принимает меры против изображений сексуальной эксплуатации детей.
Чтение
Исследователи искусственного интеллекта объявили в пятницу, что удалили более 2000 интернет-ссылок на подозреваемые изображения сексуального насилия над детьми из набора данных, используемого для обучения популярных инструментов генерации изображений ИИ. Набор данных LAION — это большой каталог онлайн-изображений и подписей, который был источником для ведущих создателей изображений ИИ, таких как Stable Diffusion и Midjourney.
Отчет Стэнфордской интернет-обсерватории прошлого года показал, что он содержит ссылки на сексуально явные изображения детей, что способствует легкости, с которой некоторые инструменты ИИ могли создавать фотореалистичные дипфейки с изображением детей. Этот отчет за декабрь побудил LAION, что означает некоммерческую организацию Large-scale Artificial Intelligence Open Network, немедленно удалить свой набор данных.
Восемь месяцев спустя LAION заявила в блоге, что работала с наблюдательной группой Стэнфордского университета и организациями по борьбе с насилием в Канаде и Великобритании для решения проблемы и выпуска очищенного набора данных для будущих исследований ИИ. Исследователь Стэнфорда Дэвид Тил, автор доклада за декабрь, похвалил LAION за значительные улучшения, но сказал, что следующий шаг - это отзыв из распространения «загрязненных моделей», которые все еще могут производить изображения насилия над детьми.
Один из инструментов LAION, который Стэнфорд назвал «самой популярной моделью для создания явных изображений» - старая и слабо фильтруемая версия Stable Diffusion - оставалась легко доступной до четверга, когда компания Runway ML из Нью-Йорка удалила ее из репозитория моделей ИИ Hugging Face. Runway заявила в пятницу, что это было «запланированное устаревание исследовательских моделей и кода, которые не поддерживались активно».
Очищенная версия набора данных LAION появляется в момент, когда правительства по всему миру уделяют больше внимания тому, как некоторые технологические инструменты используются для создания или распространения незаконных изображений детей. Прокурор города Сан-Франциско в начале этого месяца подал иск с требованием закрыть группу веб-сайтов, позволяющих создавать ИИ-генерируемые обнаженные изображения женщин и девочек.
Вопросы
Что удалили исследователи искусственного интеллекта?
Исследователи искусственного интеллекта удалили более 2000 интернет-ссылок на подозреваемые изображения сексуального насилия над детьми.
Что показал отчет Стэнфордской интернет-обсерватории?
Отчет показал, что набор данных содержит ссылки на сексуально явные изображения детей, что способствовало созданию фотореалистичных дипфейков.
Что сделала компания Runway ML в четверг?
Компания Runway ML удалила старую и слабо фильтруемую версию Stable Diffusion из репозитория моделей ИИ Hugging Face.
Опиши изображение статьи
Посмотри на изображение статьи и опиши то, что вы видишь на нём. Можно как печатать, так и говорить голосом.
Обсуждение
Обсуди эту статью со своим ИИ-репетитором для практики. Репетитор поможет с лексикой и грамматикой.
обсуждайте её с ИИ на lingolette.com