Anthropic challenges Pentagon on AI and security


Anthropic challenges Pentagon on AI and security

Чтение

Прочти этот текст и послушай его одновременно. Если ты не знаешь конкретное слово, нажми на него, чтобы увидеть объяснение, произношение или чтобы добавить его в словарь.
Anthropic challenges Pentagon on AI and security

The government called Anthropic a supply chain risk. This means contractors may stop using their AI, Claude.

The decision came after Anthropic would not change rules. Its CEO feared mass surveillance and dangerous weapons use.

Anthropic plans to challenge this new government action in court. Some military companies are already ending their deals with Anthropic.

Many people said this government decision was a big mistake. They think it harms U.S. technology and the military.

Many new users are now downloading Claude every day. This problem also shows the strong rivalry with OpenAI.


Вопросы

Ответь на вопросы к тексту, а ИИ оценит твои ответы. Можно как печатать, так и говорить голосом.

What did the government call Anthropic?

The government called Anthropic a supply chain risk.

Why did Anthropic not change its rules?

Its CEO feared mass surveillance and dangerous weapons use.

What are some military companies doing with Anthropic?

Some military companies are already ending their deals with Anthropic.


Опиши изображение статьи

Посмотри на изображение статьи и опиши то, что вы видишь на нём. Можно как печатать, так и говорить голосом.


Обсуждение

Обсуди эту статью со своим ИИ-репетитором для практики. Репетитор поможет с лексикой и грамматикой.

Читайте новую статью каждый день и
обсуждайте её с ИИ на lingolette.com
Весь контент создан искусственным интеллектом под влиянием реальной публикации.
Anthropic challenges Pentagon on AI and security