Anthropic kämpft mit Pentagon um KI-Sicherheit
Чтение
Die Trump-Regierung erklärte Anthropic zu einem Lieferkettenrisiko. Dies könnte Firmen zwingen, den AI-Chatbot Claude nicht mehr zu nutzen.
Anthropic weigerte sich, Schutzmaßnahmen gegen Überwachung zu ändern. Die Regierung sah dies als ein großes Risiko für die Sicherheit des Landes an.
Anthropic und sein CEO sehen diese Entscheidung als rechtlich nicht korrekt an. Das Unternehmen plant daher, diese Maßnahme vor Gericht anzufechten.
Viele Politiker und Experten kritisieren diese Einstufung scharf. Sie sehen darin einen Fehler, der der US-KI-Branche schaden könnte.
Trotz Problemen mit der Regierung erhielt Anthropic viele neue Nutzer. Dieser Streit verstärkte die alte Rivalität zwischen Anthropic und OpenAI.
Вопросы
Was erklärte die Trump-Regierung über Anthropic?
Die Trump-Regierung erklärte Anthropic zu einem Lieferkettenrisiko.
Wie sieht Anthropic die Entscheidung der Regierung?
Anthropic und sein CEO sehen diese Entscheidung als rechtlich nicht korrekt an.
Was planen Anthropic und sein CEO gegen die Maßnahme der Regierung?
Das Unternehmen plant, diese Maßnahme vor Gericht anzufechten.
Опиши изображение статьи
Посмотри на изображение статьи и опиши то, что вы видишь на нём. Можно как печатать, так и говорить голосом.
Обсуждение
Обсуди эту статью со своим ИИ-репетитором для практики. Репетитор поможет с лексикой и грамматикой.
обсуждайте её с ИИ на lingolette.com