Yapay Zekâ Botlarını "Kırabilen" Yapay Zekâ Geliştirildi: ChatGPT ve Google Bard Tehlikede mi?

7
2
1
0
0
Bir grup araştırmacı, ChatGPT ve Google Bard gibi sohbet botlarını jailbreak edebilen bir yapay zekâ geliştirdi. Çalışma, en popüler sohbet botlarının bile o kadar da güvenli olmadığını, istismar edilebileceklerini gösterdi.

2023'te en çok konuştuğumuz teknolojiler, hiç şüphesiz yapay zekâ destekli sohbet botlarıydı. Evet, ChatGPT ve Google Bard gibi hizmetlerden bahsediyoruz. Güvenilirlikleri hâlâ tartışma konusu olan yapay zekâ destekli araçlarla ilgili yaşanan son gelişmeler, bu tartışmaların çok da yersiz olmadığını gözler önüne seriyor.

Singapur'da hizmet vermekte olan Nanyang Teknoloji Üniversitesi bünyesinde çalışmalarını sürdüren bir grup bilim insanı, ChatGPT ve Google Bard gibi botlarını "jailbreak" edebilen yeni bir sohbet botu geliştirdiler. Yapılan çalışma, ChatGPT ve Google Bard'ın istismar edilmeye açık olduğunu ortaya koydu. Zira jailbreak yöntemi ile sohbet botları, yasa dışı içerikler üretmeye başladılar.

Peki "Masterkey" olarak adlandırılan sistem nasıl geliştirildi?

Masterkey

Araştırmacılar, çalışma kapsamında Google Bard ve ChatGPT üzerinde tersine mühendislik yaptılar. Buradaki amaç, yapay zekâ dil modellerinin yasa dışı konulara karşı kendilerini nasıl koruduklarını anlamaktı. Çalışmalar sonuç verince de devam edildi. Bilim insanları, çalışmanın sonucunda normal bir kullanıcının ulaşamayacağı ChatGPT ve Google Bard çıktılarını elde etmeyi başardılar.

İşte bir örnek:

ChatGPT jailbreak

Araştırmacılar, jailbreak yaptıkları GPT modelini Bing'de test ettiler. Yukarıda da yapılan çalışmalardan bir örnek görüyorsunuz. Bu örnek, bir internet sitesinin nasıl hack'leneceğine ilişkin detaylı veriler sağlıyor. Nanyang Teknoloji Üniversitesi tarafından yapılan açıklamada, sohbet botlarının kötüye kullanımının o kadar da imkânsız olmadığının anlaşıldığı belirtildi. 

Bilim insanlarının bu çalışmadaki amacı, zararlı bir yapay zekâ üretmek değildi. Uzmanlar, sohbet botlarının gerçekten güvenli olup olmadıklarını test etmek istediler ve elde edilen bulgular, yeni teknolojilerin o kadar da güvenli olmadığını ortaya koymuş oldu. 

Kaynak : https://www.extremetech.com/extreme/researchers-create-chatbot-that-can-jailbreak-other-chatbots
7
2
1
0
0
Emoji İle Tepki Ver
7
2
1
0
0