OpenAI Yönetim Kuruluna "Anti-Sam Altman" Yetkisi Verildi: Tehlikeli Görülen Yapay Zekâ Çalışmaları Veto Edilebilecek

3
1
1
1
0
OpenAI'ın şirket içi güvenlik önlemleri genişletiliyor. Kurumun bünyesinde kurulan yeni güvenlik birimi ve yönetim kuruluna verilen yapay zekâları veto hakkı duyuruldu.

Son dönemde Sam Altman'ın görevden alınması, sonra geri dönmesi ve yönetim kurulunu değiştirmesi ile epey gündem olan OpenAI hakkında ortaya atılan iddialardan biri, üstün ve tehlikeli bir yapay zekâ geliştirdikleri yönündeydi. OpenAI, o konuda bir açıklama yapmaya gerek duymadıysa da yapay zekâ güvenliğini öne alan düzenlemeler yaptı. 

OpenAI öncelikle "güvenlik danışmanlık grubu" adını verdiği bir ekip oluşturdu. Bu ekip kurumun teknik ekiplerinin üstünde konuşlandırıldı ve teknik ekiplere liderlik tavsiyelerinde bulunacak. Ayrıca OpenAI Yönetim Kurulu, bundan sonra tehlikeli gördüğü yapay zekâ projelerini veto etme hakkına kavuştu. 

Yeni bir "güvenlik danışmanlık grubu" kuruldu, yönetime veto hakkı geldi

OpenAI

Hemen her firmada dönem dönem bu türden değişiklikler yapılıyor olsa da, OpenAI'ın böyle bir değişiklik yapması, son zamanlarda yaşanan olayları ve iddiaları göz önüne aldığımızda büyük önem taşıyor. Sonuçta OpenAI, yapay zekâ alanında öncü kurum durumunda bulunuyor ve bu alandaki güvenlik önlemleri büyük önem taşıyor. 

OpenAI'ın bir blog gönderisi ile açıkladığı yeni düzenleme, "Hazırlıklılık Çerçevesi" olarak adlandırıldı. Kasım ayında yönetim kurulunun agresif büyümeye karşı olmasıyla bilinen iki üyesi, Ilya Sutskever ve Helen Toner kuruldan çıkarılmıştı. Yeni düzenleme ile birlikte "yıkıcı" yapay zekâların tanımlanması, analiz edilmesi ve alınacak aksiyonlara karar verilmesi için bir rehber oluşturulmuş da oldu. 

Yeni şirket içi düzenlemeye göre, güvenlik sistemi takımı üretimdeki modelleri yönetecek. ChatGPT'nin sistematik kötüye kullanımlarını API'lerde sınırlama gibi görevler, bu ekibe düşecek. Hazırlıklılık takımı ise öncül modellerden sorumlu olacak ve olası riskleri tespit edip önlem almaya odaklanacak. Süperyönelim ekibi adı verilen ekip ise süper yapay zekâ modelleri için teorik yönlendirmeleri geliştirecek. Her bir ekip, sorumlu oldukları modelleri "siber güvenlik", "ikna", "otonomi", "CBRN" (Kimyasal, biyolojik, radyolojik ve nükleer tehditler) açısından değerlendirecek. 

OpenAI henüz bu değerledirmelerin nasıl yapılacağına dair bir bilgi paylaşmazken, fonksiyonlar arası güvenlik danışmanları grubu bu çalışmaları genel olarak denetleyecek ve liderlik etmelerine yardımcı olacak. 

Kaynak : https://techcrunch.com/2023/12/18/openai-buffs-safety-team-and-gives-board-veto-power-on-risky-ai/
3
1
1
1
0
Emoji İle Tepki Ver
3
1
1
1
0