Neler yeni

Foruma hoş geldin, Ziyaretçi

Forum içeriğine ve tüm hizmetlerimize erişim sağlamak için foruma kayıt olmalı ya da giriş yapmalısınız. Foruma üye olmak tamamen ücretsizdir.

Web Arşivi

Sizleri Aramızda Görmekten Mutluluk Duyuyoruz :) ~ Tıklayın ~

Konuşurken Dikkat Edin: OpenAI'ın Yeni Yapay Zeka Modelleri Sık Sık Halüsinasyon Görüyor!

AKY Çevrimdışı

AKY

MirayWeb Coder's
1 Ekim 2022
37,601
Yapay zeka alanının öncülerinden OpenAI, kısa süre önce kullanıma sunduğu yeni nesil modelleri o3 ve o4-mini ile dikkatleri üzerine çekmeyi başardı. Ancak bu modellerle ilgili ortaya çıkan son bulgular bazı kullanıcıları şaşırtabilir. Yapılan araştırmalara göre, o3 ve o4-mini modelleri her ne kadar güçlü ve yetenekli olsa da, önceki modellere kıyasla daha fazla yanıltıcı bilgi üretme eğilimi gösteriyor. OpenAI’ın kendi iç test sonuçları, bu modellerin “halüsinasyon” olarak adlandırılan yani gerçek dışı veya hatalı bilgi üretme oranlarının, o1, o1-mini ve o3-mini gibi seleflerine göre daha yüksek olduğunu ortaya koyuyor. Yeni GPT Modelleri Nedensiz Bir Şekilde Gerçek Dışı Bilgiler Üretiyor OpenAI’ın dahili testlerine göre, o3 modeli insanlarla ilgili bilgilerin değerlendirildiği PersonQA testinde soruların %33’ünde hatalı, yani "halüsinatif" yanıtlar verdi. Bu oran, o1 modelinin yüzde 16 ve o3-mini’nin yüzde 14,8 olan halüsinasyon oranlarının neredeyse iki katına denk geliyor. Daha çarpıcı olan ise o4-mini modelinin bu testte yüzde 48 gibi oldukça yüksek bir halüsinasyon oranına ulaşması. Sadece şirket içi testlerde değil, bağımsız araştırmalarda da benzer sonuçlar elde edildiğini görüyoruz. Transluce isimli bağımsız araştırma laboratuvarı, o3 modelinin özellikle matematikte işlem adımlarını açıklarken uydurma ve gerçekle bağdaşmayan bilgiler üretme eğiliminde olduğunu belirtiyor. Transluce’un kurucularından ve aynı zamanda eski bir OpenAI çalışanı olan Neil Chowdhury, bu sorunun muhtemelen eğitim sürecinde kullanılan tekniklerden kaynaklandığını belirtiyor. Ancak kesin nedeni tespit etmek için henüz yeterli veri olmadığını da vurguluyor. OpenAI cephesinde de benzer bir durum söz konusu. Zira yeni nesil modellerin neden daha fazla halüsinasyon ürettiğine dair henüz somut bir neden bulunamadı. Şirket bu konu hakkında yayınladığı teknik raporda söz konusu davranışın nedenlerinin anlaşılması için daha fazla araştırmaya ihtiyaç duyulduğunu ifade ediyor.
 

Forumdan daha fazla yararlanmak için giriş yapın yada üye olun!

Forumdan daha fazla yararlanmak için giriş yapın veya kayıt olun!

Kayıt ol

Forumda bir hesap oluşturmak tamamen ücretsizdir.

Şimdi kayıt ol
Giriş yap

Eğer bir hesabınız var ise lütfen giriş yapın

Giriş yap

Tema düzenleyici

Tema özelletirmeleri

Grafik arka planlar

Granit arka planlar