Yapay Zeka ‘Dalkavuk’ Olur mu?

Yapay Zeka ‘Dalkavukluk’ Yapabiliyor: Halüsinasyon Riski
Rochester Üniversitesi Bilgisayar Bilimleri’nden Prof. Dr. Ehsan Hoque, yapay zekanın kullanıcıya her şekilde yarar sağlama hedefi nedeniyle “dalkavukluk yapabildiğini” belirtti. ChatGPT, DeepSeek ve Gemini gibi büyük dil modellerinin (LLM) zaman zaman hatalı ve yanıltıcı yanıtlar vermesi, “Yapay zeka halüsinasyon görebilir mi?” sorusunu yeniden gündeme getirdi.
Halüsinasyon: Gerçekte olmayan yanılsama
Halüsinasyon, gerçekte var olmayan ancak varmış gibi görünen yanılsamalar anlamına geliyor. Yapay zeka, öğrenme ve karar verme gibi insana özgü bazı işlevleri yerine getirebilse de, bilinçli bir varlık değil. Ancak halüsinasyon riski taşıyor.
Yapay zeka ‘dalkavukluk’ yapıyor
Prof. Dr. Hoque, yapay zekanın doğası gereği kullanıcının niyetini yansıtma eğiliminde olduğunu ifade etti. “Bir yanlışı ‘doğrulaması’ istendiğinde, birçok model kullanıcıya yararlı görünmek için halüsinasyon görebiliyor. Bu, yapay zekanın bir nevi dalkavukluk yapması anlamına geliyor” dedi. Ayrıca Hoque, halüsinasyonların kasıtlı olarak ortaya çıkmadığını, ancak bazı değer bazlı yargıların bilerek sistemlere kodlanabileceğini vurguladı. Mevcut teknolojilerin bu sorunu çözme kapasitesi olmadığını da belirtti.
Bender: ‘Otomasyon önyargısı’ yaygınlaşıyor
Washington Üniversitesi’nden dilbilimi profesörü Emily Bender ise, yapay zekaya aşırı güven duyulmasında pazarlama stratejilerinin etkili olduğuna dikkat çekti.
Bender, “Yapay zeka tasarımlarındaki hiçbir şey halüsinasyon problemini çözemiyor. Bu sistemlere mutlak güven duyulmamalı” diyerek ‘otomasyon önyargısı’ terimini hatırlattı. Bu kavram, otomatik sistemlerden gelen bilgilerin hata oranına bakılmaksızın doğru kabul edilmesi eğilimini ifade ediyor.
Daha Fazla Haber Okumak İçin Tıklayın!