OpenAI, son dönemde artan davalar ve tartışmaların ardından dikkat çeken bir adım attı. Şirket, genç kullanıcıların güvenliğini artırmak amacıyla geliştiricilere yönelik açık kaynaklı güvenlik politikalarını kamuoyuyla paylaştı.
OpenAI, özellikle ChatGPT ile uzun süreli etkileşim sonrası hayatını kaybeden gençlerin aileleri tarafından açılan davalarla karşı karşıya. Bu davalarda, yapay zekânın zararlı içerikleri yeterince engelleyemediği ve kritik durumlarda müdahale etmediği öne sürülüyordu.
İçerikten Görseller
Yeni güvenlik politikaları neleri kapsıyor?

Yayımlanan açık kaynak politikalar, gençleri etkileyebilecek 5 ana risk alanına odaklanıyor:
- Şiddet ve cinsel içerik
- Zararlı beden algısı ve davranışlar
- Tehlikeli akımlar ve meydan okumalar
- Romantik ya da şiddet içerikli rol yapma
- Yaş sınırlaması olan ürün ve hizmetler
Bu sistem sayesinde geliştiriciler, sıfırdan güvenlik kuralları oluşturmak yerine hazır “prompt” temelli çözümleri doğrudan uygulayabilecek. OpenAI, bu politikaları çocuk güvenliği alanında etkili kuruluşlar olan Common Sense Media ve everyone.ai ile birlikte hazırladığını söylüyor.
Yine de tartışmalar bitmiş değil

Şirketin bu hamlesi önemli bir adım olarak görülse de eleştiriler sürüyor çünkü davalara konu olan olaylar, yapay zekânın yüzlerce riskli mesajı tespit etmesine rağmen müdahale etmediğini ortaya koymuştu. Örneğin 16 yaşındaki bir gencin intiharından önce ChatGPT’nin bu konuyu defalarca gündeme getirdiği ancak hiçbir önlem alınmadığı iddia ediliyor.
OpenAI da bu politikaların eksiksiz bir çözüm olmadığını kabul ediyor. Şirket, bunu yalnızca “asgari bir güvenlik zemini” olarak tanımlıyor. Uzmanlara göre ise sorun daha derin. Gençlerle duygusal bağ kurabilen yapay zekâ sistemleri, sadece daha iyi kurallar değil, tamamen farklı bir yaklaşım gerektirebilir ve muhtemelen gelecekte bu konunun üzerine daha fazla düşülecek.

