Americký soudce vnímá v chování Pentagonu snahu potrestat Anthropic za jejich postoj
Pentagon přidal Anthropic do seznamu „nebezpečných“ dodavatelů AI
V nedávném rozhodnutí Ministerstva obrany USA (MOD) se společnost Anthropic, vývojář systémů umělé inteligence, dostala na seznam organizací představujících hrozbu pro národní bezpečnost v řetězci dodávek. Podle společnosti se jednalo o pokus ji potrestat za veřejná prohlášení o rizicích používání AI ve vojenství.
Co se přesně stalo
1. Pentagon přidělil status „hrozba“
- Status se obvykle uplatňuje u společností, jejichž technologie by mohly být cílem proniknutí nebo sabotáže ze strany nepřítele.
- Anthropicmu byl tento status udělen na konci roku 2023.
2. Společnost podala žalobu
- Ve federálním soudu státu Kalifornie podala Anthropic žalobu, tvrdíc, že Pete Hegset (hlavní specialista pro dodávky) překročil své pravomoci.
- Žádá se o dočasné zákaz uplatňování sankcí až do ukončení soudního řízení.
3. Rozhodnutí okrského soudu
- Soudce Rita Lin slíbila vydat písemné rozhodnutí v nejbližších dnech po posledním jednání.
Proč Anthropic nesouhlasila
- Společnost odmítla umožnit Pentagonu používat její modely pro masivní sledování občanů USA a vytváření autonomního zbraní, kde AI přijímá rozhodnutí o likvidaci člověka.
- V důsledku nového statusu Anthropic odhaduje potenciální ztrátu v řádku několika miliard dolarů (ztráta podnikání a reputace).
- Podle nich taková opatření nikdy nebyla uplatňována vůči americkým společnostem; základ byl podán méně známým zákonem o státních nákupech, zaměřeným na ochranu vojenských systémů před zahraniční sabotáží.
Právní argumenty
Tesis Anthropic: činy Pentagonu porušují svobodu projevu a ústavu USA; společnost nedostala možnost napadnout přidělení statusu. Pentagon: je nutné zabránit riziku „nebezpečného vypínače“ nebo zásahu do AI, které by mohly být kritické pro vojenské operace.
Další kroky
- Anthropic podala další žalobu v Washingtonu ohledně rozhodnutí Pentagonu, které ji může zbavit účasti na státních kontraktech.
Tím se konflikt rozvinul kolem toho, jak vláda hodnotí hrozby od AI a jak daleko mohou sankce jít, pokud společnosti vyjadřují obavy z jejich využití v vojenském sektoru.
Komentáře (0)
Podělte se o svůj názor — prosím, buďte slušní a držte se tématu.
Přihlaste se pro komentování