Yapay zeka halüsinasyonları olarak adlandırılan "yapay zeka yalanları ya da zekanın kendi çıkarımları" birçok kişinin farklı yönlendirilmesini sağlıyordu.
OpenAI, Çarşamba günü yaptığı açıklamada, yapay zeka modellerini eğitmek için daha yeni bir yöntemle yapay zeka "halüsinasyonlarına" karşı mücadele edeceğini duyurdu.
ETKİSİ HIZLA BÜYÜYOR
OpenAI, geçen yıl GPT-3 ve GPT-4 tarafından desteklenen sohbet robotu ChatGPT'yi piyasaya sürdüğünde üretken yapay zeka patlamasını hızlandırdı ve iki ay içinde aylık 100 milyon kullanıcıyı aşarak en hızlı büyüyen uygulama rekorunu kırdığı bildirildi.
Söz konusu teknoloji için bugüne kadar Microsoft, OpenAI'ye 13 milyar dolardan fazla yatırım yapmıştı.
YAPAY ZEKANIN YALANLARINI EN AZA İNDİRMEYE ÇALIŞACAKLAR
OpenAI tarafından geliştirilen ChatGPT veya Google Bard gibi modeller kullanıldığında yapay zeka halüsinasyonlarının ortaya çıkmasına neden oluyor.
Buna bir örnek: Google'ın Bard için Şubat ayında yayınladığı tanıtım videosunda, chatbot James Webb Uzay Teleskobu hakkında gerçek dışı bir iddiada bulunmuştu. Daha yakın bir zamanda ChatGPT, New York federal mahkemesine yaptığı bir başvuruda "sahte vakalardan" bahsetmişti.
Hukuk alanında yapay zeka paniği... Avukatlar durumu itiraf etti!
OpenAI araştırmacıları raporda "En gelişmiş modeller bile yanlışlar üretmeye eğilimlidir ve belirsizlik anlarında gerçekleri icat etme eğilimi gösterirler" diye yazdı.
Ayrıca araştırmacılar "Bu halüsinasyonlar çok adımlı muhakeme gerektiren alanlarda özellikle sorunludur çünkü tek bir mantıksal hata çok daha büyük bir çözümü raydan çıkarmak için yeterlidir." sözlerine yer verdiler.
İNSANLAR GİBİ DÜŞÜNEN MODELLER GELİŞTİRİLECEK
OpenAI'nin uydurmalarla mücadele için potansiyel yeni stratejisi, yapay zeka modellerini, bir cevaba ulaşırken sadece doğru bir nihai sonucu ödüllendirmek yerine, her bir doğru akıl yürütme adımı için kendilerini ödüllendirecek şekilde eğitmek olarak görülüyor.
Araştırmacılara göre bu yaklaşım "sonuç denetimi"nin aksine "süreç denetimi" olarak adlandırılıyor ve modelleri "insan benzeri bir düşünce" yaklaşımını takip etmeye teşvik ediyor.
TESTLER OLUMLU SONUÇ VERDİ
Sonuç denetimi ile OpenAI, yapay zekanın verdiği nihai sonuç hakkında geri bildirim sağlamak için ödül modellerini eğitecek. Süreç denetimi ile, ödül modeli yolun her adımında geri bildirim sağlayarak insan benzeri bir düşünce zinciri oluşturacak.
OpenAI, araştırma makalesinde her iki modeli de bir matematik veri seti üzerinde test ettiğini ve süreç denetimi yönteminin "önemli ölçüde daha iyi performans" sağladığını tespit etti.
SÜREÇ DENETİMİNİN OLASI SONUÇLARINDAN BAHSETTİ
Süreç denetimi yönteminin olası sonuçlarını açıklayan OpenAI şunları söyledi:
"Bu sonuçlar genelleşirse, süreç denetiminin bize her iki dünyanın da en iyisini sunduğunu görebiliriz. Sonuç denetiminden hem daha performanslı hem de daha uyumlu bir yöntem."
Ayrıca OpenAI, halka açık olan ChatGPT'de süreç denetiminin uygulanmasının ne kadar süreceği konusunda bir zaman çizelgesi vermedi.
Editor : Eshahaber