Bitget App
Cмартторгівля для кожного
Купити криптуРинкиТоргуватиФ'ючерсиEarnЦентрБільше
Після конфлікту з міністерством оборони співпраця Anthropic та Palantir також під загрозою зриву

Після конфлікту з міністерством оборони співпраця Anthropic та Palantir також під загрозою зриву

华尔街见闻华尔街见闻2026/03/04 02:51
Переглянути оригінал
-:华尔街见闻

Одне рішення Пентагону не тільки позбавило AI-єдинорога Anthropic великої військової угоди, але й викликало ефект доміно, змусивши урядового "улюбленого" гіганта даних Palantir розглядати повний розрив співпраці з ним.

За даними останнього звіту The Information, протягом понад року Anthropic надавав послуги уряду США через Palantir. Клієнти Palantir використовували моделі Anthropic для виявлення шаблонів у величезних масивах секретних даних, щоб допомогти у прийнятті рішень. Однак, після того як Міністерство оборони внесло Anthropic у список "ризиків для ланцюга постачань", ця співпраця стала під загрозою.

Palantir, як популярний урядовий підрядник, у минулому році отримав близько 4,5 млрд доларів доходу, з яких приблизно 42% надходило від контрактів з урядом США. Якщо Palantir припинить використання Anthropic у федеральних проектах, це перекриє джерело доходу для цього AI-стартапу. Хоча ця частина продажів має незначний вплив на очікуваний цьогорічний дохід Anthropic у 18 млрд доларів, втрата Palantir як важливого партнера безперечно завдасть удару щодо розширення Anthropic на ринку великих клієнтів.

Palantir може бути змушений модифікувати програмне забезпечення, CEO непрямо критикує Anthropic

Згідно з повідомленням ЗМІ, Palantir пропонує своїм клієнтам кастомізоване програмне забезпечення та AI-додатки, які частково спеціально розроблені для роботи з моделлю Claude від Anthropic. Якщо Palantir відмовиться від Claude, йому доведеться модифікувати свої сервіси, що може зайняти кілька тижнів. Тим не менше, Palantir може звернутися до інших AI-постачальників і отримати порівнянний прибуток від цих контрактів.

CEO Palantir Alex Karp у вівторок на оборонній технологічній конференції у Вашингтоні, здається, непрямо критикував Anthropic. Він засудив Silicon Valley за протистояння американській армії і застеріг, що AI-компанії ризикують роздратувати як лібералів, так і консерваторів.

"Якщо Silicon Valley гадає, що ми заберемо всі робочі місця білих комірців... і ви ще й шкодите армії, якщо ви не вважаєте, що це призведе до націоналізації наших технологій — ви просто дурень," сказав Karp. "Так розвивається цей шлях."

Anthropic має намір вжити юридичних заходів, намагаючись заспокоїти клієнтів

Минулої п’ятниці, після суперечки між Anthropic і військовою адміністрацією щодо обмежень у використанні їх AI, міністр оборони Pete Hegseth заявив, що доручив оголосити Anthropic "ризиком для ланцюга постачань".

Пентагон вимагав від Anthropic надати Claude для "всіх законних цілей", Anthropic відмовився через побоювання "масового стеження" та "повністю автономної зброї".

Президент США Трамп минулої п’ятниці опублікував у Truth Social, що для таких установ, як Міністерство оборони, які використовують продукти Anthropic, буде діяти "шестимісячний поступовий період відмови".

CEO Anthropic Dario Amodei зазначив, що ця категорія "може застосовуватися лише до використання Claude в рамках контракту з воєнним відомством (так називають Міністерство оборони у період адміністрації Трампа)". Юридичні експерти озвучують, що Anthropic може повністю оскаржити цю категорію, частково тому, що цей закон зазвичай стосується неамериканських компаній.

За свідченнями ЗМІ, Anthropic минулої п’ятниці також заявив про намір вжити правових заходів щодо визначення як "ризику для ланцюга постачань". Оскільки ця категорія ще не набрала чинності, Anthropic поки не подав судовий позов.

Anthropic намагається заспокоїти клієнтів і партнерів, стверджуючи, що рішення Пентагону (якщо воно буде впроваджено) обмежить лише використання технологій Anthropic федеральними підрядниками в військових проектах у США, а не всіма компаніями, що співпрацюють з федеральним урядом.

Федеральні підрядники чекають на урядові інструкції

За даними ЗМІ, знайомими з продуктами Palantir, наразі Palantir дозволяє клієнтам обирати AI-модель від такого постачальника, як Anthropic, OpenAI чи Google, для аналізу даних, зібраних на своїй платформі. Пентагон вже застосовував модель Anthropic, розміщену на Amazon Web Services (AWS), у поєднанні з програмним забезпеченням Palantir.

За свідченнями людей, обізнаних з використанням цих продуктів у Пентагоні, крім моделі Anthropic, через програмне забезпечення Palantir Міністерство оборони вже застосовувало моделі OpenAI, Google та інших постачальників.

Співробітники технологічних компаній, які мають справу з урядом, повідомляють, що станом на цей тиждень федеральні підрядники чекають на інструкції від уряду щодо того, як саме і чи потрібно розірвати стосунки з Anthropic для збереження федеральних контрактів.

0
0

Відмова від відповідальності: зміст цієї статті відображає виключно думку автора і не представляє платформу в будь-якій якості. Ця стаття не повинна бути орієнтиром під час прийняття інвестиційних рішень.

PoolX: Заробляйте за стейкінг
До понад 10% APR. Що більше монет у стейкінгу, то більший ваш заробіток.
Надіслати токени у стейкінг!
© 2026 Bitget