Yapay Zeka Guvenligi ile Ulusal Guvenlik Karsi Karsiya
ABD Savunma Bakanligi, yapay zeka sirketi Anthropic'i 'tedarik zinciri riski' olarak siniflandirarak Claude modelinin tum federal kurumlarda kullanimini yasakladi. Karar, Anthropic'in otonom silah sistemleri ve kitlesel gozetleme icin guvenlik sinirlarini kaldirmayi reddetmesinin ardindan geldi. Savunma Bakani Pete Hegseth'in 27 Subat'ta imzaladigi kararname, genellikle yabanci tehditler icin kullanilan bir etiketin ilk kez bir Amerikan sirketine uygulanmasiya tarihe gecti.
Mahkeme Yasagi Gecici Olarak Durdurdu
Anthropic, kararnameyi dava etti ve 26 Mart'ta ABD Bolge Yargici Rita F. Lin, yasagi gecici olarak askiya alan bir ihtiyati tedbir karari verdi. Yargic, hukumetin eylemlerinin 'keyfi ve ani' gorundigini ve Anthropic'i politika anlasmazligi nedeniyle 'cezalandirmaya' yonelik olduguna isaret etti. Karar, yapay zeka sektorunde 'guvenlik ile devlet talebi' arasindaki gerilimi dramatik bir sekilde gorunur kildi.
Turkiye'nin Yapay Zeka Stratejisi Icin Ders
Bu kriz, yapay zeka duzenlemesinin ne kadar hassas bir denge gerektirdigini gosteriyor. Turkiye'nin henuz kapsamli bir yapay zeka yasasi bulunmuyor; ancak Dijital Donusum Ofisi'nin hazirladigi taslak, bu tur cakismalari onleyecek mekanizmalari iceriyor. Anthropic davasi, yapay zeka sirketlerinin etik duruslariyla hukumet talepleri arasinda nasil bir yol izleyecegi sorusunu tum dunya icin guncelliyor.