Anthropic vägrar Pentagon att lyfta AI-skyddsåtgärderna
Företaget säger att de "inte med gott samvete" kan ta bort restriktioner från Claude.
AI-företaget Anthropic har sagt att de inte kommer att uppfylla Pentagons krav på att ta bort säkerhetsräcken från Claude-modellen, efter att försvarsminister Pete Hegseth hotat att avbryta ett kontrakt värt 200 miljoner dollar och kalla företaget en "leveranskedjerisk." VD Dario Amodei sade att företaget fortfarande är villigt att stödja USA:s nationella säkerhet, men endast med skyddsåtgärder på plats.
I centrum för tvisten står militärens begäran om obegränsad, laglig användning av Claude, inklusive potentiell användning av autonoma vapen och inhemsk övervakning. Anthropic har vägrat att tillåta sådana tillämpningar och hävdar att teknologin inte är tillräckligt säker eller pålitlig för dessa roller.
Denna konfrontation prövar Anthropics rykte som en av AI-sektorns mest säkerhetsfokuserade aktörer. Att förlora Pentagon-kontraktet (och formellt utpekas som en risk i leveranskedjan) kan kraftigt begränsa företagets möjlighet att samarbeta med andra amerikanska försvarspartners...

