Гонка ИИ-вооружений: Anthropic закрывает доступ к своим моделям для России и Китая
Американская компания Anthropic, разработчик языковой модели Claude, ужесточила свои условия обслуживания, запретив компаниям, контролируемым большинством акционеров из Китая, России, Ирана или Северной Кореи, использование своих моделей искусственного интеллекта. Решение призвано повысить национальную безопасность США. С 6 сентября 2025 года вступают в силу новые правила, которые распространяются не только на компании, напрямую зарегистрированные в этих странах, но и на их дочерние структуры, находящиеся за рубежом, если материнская компания владеет более чем 50% акций. Это первый случай, когда крупная американская компания, занимающаяся искусственным интеллектом, ввела подобные ограничения. Как отмечает компания, фирмы из стран с авторитарными режимами, такие как Китай, обходили эти ограничения, создавая дочерние компании в других странах, например, в Сингапуре. Anthropic указывает на риск принудительного раскрытия данных и сотрудничества с разведывательными службами этих государств, что представляет угрозу национальной безопасности США. Использование возможностей ИИ такими компаниями может способствовать разработке инструментов для иностранных военных и разведывательных ведомств или ускорению собственных разработок в области ИИ, например, путём дистилляции моделей (переобучения модели на основе другой, меньшей модели). Иллюстрация: Grok По данным Financial Times, под запрет могут попасть крупные китайские технологические компании, такие как ByteDance, Tencent и Alibaba. О...