Anthropic борется с Пентагоном за ИИ
Чтение
Администрация Трампа объявила Anthropic риском для поставок. Это может остановить использование чат-бота Claude военными.
Anthropic не согласилась убрать ограничения для своих продуктов. Продукты могли использоваться для слежки или для оружия.
Генеральный директор Anthropic оспорит это решение в суде. Военные имеют шесть месяцев, чтобы прекратить использовать Claude.
Многие люди критикуют решение Пентагона как ошибку. Это вредит американским компаниям и нашей обороне.
Военные подрядчики начали разрывать свои контракты. Но популярность Claude среди пользователей сильно возросла.
Вопросы
Кто объявил Anthropic риском для поставок?
Администрация Трампа.
Что может остановить использование чат-бота Claude?
Военные.
Что собирается сделать генеральный директор Anthropic?
Оспорить это решение в суде.
Опиши изображение статьи
Посмотри на изображение статьи и опиши то, что вы видишь на нём. Можно как печатать, так и говорить голосом.
Обсуждение
Обсуди эту статью со своим ИИ-репетитором для практики. Репетитор поможет с лексикой и грамматикой.
обсуждайте её с ИИ на lingolette.com