ChatGPT’yi kullananların bir kısmının hassas bilgileri çok basit bir hata sonucunda sızmış, ve uygulama bazı ülkelerde yasaklanmıştı. OpenAI, yapay zekanın güvenliği ve ürünlerini nasıl güvenli tutmaya çalıştığı hakkında kamuoyuna açıklamalarda bulundu.
Bilgilendirmede Open AI, herhangi bir yeni sistemi halka tanıtılmadan önce harici uzmanlar kullanarak titizlikle test ettiğini ve iyileştirmeler yapmak için insan geri bildirimi ile pekiştirici öğrenmeyi kullandığını belirtiyor. Şirket, son modeli GPT-4'ü piyasaya sürmeden önce altı ay boyunca test ettiğini iddia ediyor ve düzenleme çağrısı yapıyor:
“Güçlü yapay zeka sistemlerinin titiz güvenlik değerlendirmelerine tabi tutulması gerektiğine inanıyoruz. Bu tür uygulamaların benimsenmesini sağlamak için düzenlemeye ihtiyaç vardır ve bu tür bir düzenlemenin alabileceği en iyi biçim konusunda hükümetlerle aktif olarak çalışıyoruz.”
OpenAI, titizlikle yürüttüklerini belirttiği kapsamlı araştırma ve testlere rağmen laboratuvarda öğrenebileceklerinin sınırlı olduğunu, bu nedenle tüm yararlı veya kötüye kullanım yollarını tahmin edemediklerini belirtti.
Yaş doğrulama özelliği
DonanımHaber’in aktardığına göre şirket ayrıca, 18 yaşından büyük veya 13 yaşından büyük, ebeveyn onayı olan kullanıcıların hizmetlerine erişmesini sağlamak için doğrulama seçeneklerini değerlendirdiğini söyledi. İtalya’nın yasak kararında bir doğrulama seçeneğinin olmayışına da vurgu yapıldı.
Open AI, yeni modeli GPT-4'ün nefret dolu, taciz ve şiddet içeren içerik taleplerine yanıt verme olasılığının yüzde 82 daha az olduğunu söylüyor. Blog yazısında GPT-4'ün gerçeğe dayalı içerik üretme olasılığının GPT-3.5'e göre yüzde 40 daha fazla olduğu da vurgulanıyor. Ancak OpenAI, çıktıların her zaman doğru olmayabileceği konusunda olabildiğince şeffaf olmaya çalıştıklarını da söylüyor.