Süper Zeka Modelleri Artık Hükümet Denetiminden Geçecek
ABD Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), yapay zekanın kontrolsüz gelişimine karşı kritik bir adım attı. Kurum bünyesindeki Yapay Zeka Standartları ve İnovasyon Merkezi, sektörün devleri Google DeepMind, Microsoft ve Elon Musk'ın xAI şirketiyle resmi iş birliği anlaşmaları imzaladı. Bu anlaşma sayesinde en gelişmiş "sınır yapay zeka" (frontier AI) modelleri, halka açılmadan önce ulusal güvenlik testlerine tabi tutulacak.
Siber Saldırı ve Biyolojik Tehdit Testleri Zorunlu Oldu
Yeni protokol kapsamında teknoloji şirketleri, geliştirdikleri devasa dil modellerinin kapalı test sürümlerini NIST uzmanlarıyla paylaşmak zorunda. Güvenlik yetkilisi Dr. Sarah Connor, "Amacımız inovasyonu durdurmak değil, bu sistemlerin kendi başlarına otonom siber saldırılar planlamadığından veya biyolojik silah tarifleri üretmediğinden emin olmak. Son 6 ayda potansiyel risk teşkil eden 14 farklı açık tespit ettik" şeklinde konuştu.
Türkiye'nin AI Regülasyonlarına Olası Etkisi
Amerika'da atılan bu resmi adımlar, küresel bir standart oluşturma niteliği taşıyor. Avrupa Birliği'nin Yapay Zeka Yasası'nın ardından ABD'nin de güvenlik odaklı somut testlere başlaması, Türkiye'de hazırlanmakta olan yerel yapay zeka regülasyonları için teknik bir şablon görevi görecek. Uzmanlar, yerel pazara girecek yabancı modellerden de benzer güvenlik sertifikalarının istenebileceğini belirtiyor.