Son teknoloji yapay zeka modelleri, bilgi üretiminde hızlandıkça gerçekle bağını koparıyor.
Yapay zeka her geçen gün daha zeki hale geliyor; ancak bu zekâ, gerçeği söyleme konusunda pek de muteber değil. Yeni kuşak lisan modelleri, bilgi üretiminde insanüstü bir performans sergilese de, bu bilgilerin doğruluğu giderek daha çok sorgulanır hale geliyor.
OpenAI’ın “o3” ve “o4-mini” modelleriyle yapılan son testler, yapay zekanın gerçekle bağını ne kadar sık kopardığını gözler önüne serdi. Modellerin yüzde33 ila yüzde 48 oranında yanlış bilgi üretmesi, “akıllandıkça yanılıyor mu?” sorusunu akıllara getirdi.
Bu yalnızca OpenAI ile sonlu değil. Google, DeepSeek üzere devlerin yapay zeka tahlilleri de birebir tuzağa düşüyor. Üstelik bu kusurlar, teknolojinin en gelişmiş sürümlerinde bile azalmak yerine artıyor.
“HALÜSİNASYONLAR SİLİNMEZ BİR KUSUR OLABİLİR”
Vectara CEO’su Amr Awadallah’a nazaran yapay zekadan büsbütün yanlışsız bilgi beklemek, bugünkü sistemlerle mümkün değil. Awadallah, “Halüsinasyonları sıfırlamak hayalperestlik olur” diyor ve bu teknolojilere yatırım yapan şirketlerin bu gerçekle yüzleşmesi gerektiğini vurguluyor.
Gerçeğe dayanmayan içerikler yalnızca kullanıcı inancını sarsmakla kalmıyor, tıpkı vakitte iş dünyasında kusurlu kararların temelini de atabiliyor. Bilhassa son periyotta model eğitimi için giderek daha fazla kullanılan sentetik datalar, yapay zekaların kendi uydurmalarını referans almasına neden oluyor. Bu da, yanlışın tekrar üretilip doğrulaştırılması manasına geliyor.
Tüm bu gelişmeler, yapay zeka çağında bilginin niteliğini ve güvenilirliğini tekrar sorgulamamıza neden oluyor. Teknoloji büyüyor fakat ona olan inanç birebir süratle artıyor mu, yoksa azalmaya mı başladı?