Yapay Zeka Guvenligi ile Ulusal Guvenlik Karsi Karsiya

ABD Savunma Bakanligi, yapay zeka sirketi Anthropic'i 'tedarik zinciri riski' olarak siniflandirarak Claude modelinin tum federal kurumlarda kullanimini yasakladi. Karar, Anthropic'in otonom silah sistemleri ve kitlesel gozetleme icin guvenlik sinirlarini kaldirmayi reddetmesinin ardindan geldi. Savunma Bakani Pete Hegseth'in 27 Subat'ta imzaladigi kararname, genellikle yabanci tehditler icin kullanilan bir etiketin ilk kez bir Amerikan sirketine uygulanmasiya tarihe gecti.

Mahkeme Yasagi Gecici Olarak Durdurdu

Anthropic, kararnameyi dava etti ve 26 Mart'ta ABD Bolge Yargici Rita F. Lin, yasagi gecici olarak askiya alan bir ihtiyati tedbir karari verdi. Yargic, hukumetin eylemlerinin 'keyfi ve ani' gorundigini ve Anthropic'i politika anlasmazligi nedeniyle 'cezalandirmaya' yonelik olduguna isaret etti. Karar, yapay zeka sektorunde 'guvenlik ile devlet talebi' arasindaki gerilimi dramatik bir sekilde gorunur kildi.

Turkiye'nin Yapay Zeka Stratejisi Icin Ders

Bu kriz, yapay zeka duzenlemesinin ne kadar hassas bir denge gerektirdigini gosteriyor. Turkiye'nin henuz kapsamli bir yapay zeka yasasi bulunmuyor; ancak Dijital Donusum Ofisi'nin hazirladigi taslak, bu tur cakismalari onleyecek mekanizmalari iceriyor. Anthropic davasi, yapay zeka sirketlerinin etik duruslariyla hukumet talepleri arasinda nasil bir yol izleyecegi sorusunu tum dunya icin guncelliyor.