Компания Anthropic обновила политику использования своего чат-бота Claude AI, реагируя на растущие опасения по поводу безопасности. Помимо ужесточения правил кибербезопасности, Anthropic теперь конкретно указывает на наиболее опасные виды оружия, разработка которых с помощью Claude запрещена.
В обновлённой политике использования прямо запрещается применять Claude для разработки биологического, химического, радиологического или ядерного оружия. Ранее Anthropic запрещала использование Claude для «производства, модификации, проектирования, продажи или распространения оружия, взрывчатых веществ, опасных материалов или других систем, предназначенных для причинения вреда или потери человеческих жизней», обновлённая версия расширяет этот запрет, конкретно включая высокомощные взрывчатые вещества, а также биологическое, химическое, радиологическое и ядерное (БХРЯ) оружие. Это изменение не было особо выделено в публикации компании.
В мае Anthropic внедрила защиту «Уровень безопасности ИИ 3» вместе с запуском новой модели Claude Opus 4. Эти меры безопасности предназначены для затруднения взлома модели, а также для предотвращения её использования в разработке оружия.