Google yapay zekası kafasına göre yalanlar uydurup cevap verdiği adeta bir "halüsinasyon" durumu yaşadığını kabul etti. Google bu durumu çözmek için yeni bir mekanizma geliştirdi.

Chip'te yer alan habere göre; yapay zeka destekli sohbet robotlarının en çok eleştirilen davranışlarından biri, bir soruyu ikna edici bir şekilde yanıtlarken size gerçekte yanlış bilgiler vermesi. Bu duruma halüsinasyon deniliyor. Yani yapay zeka halüsinasyon görüyor ama bu sanrısını karşısındaki insana da çok gerçekçi şekilde anlatıp ikna ediyor. Basitçe söylemek gerekirse, yapay zeka kullanıcısını tatmin etmek için gerçekle bağlantısı olmayan bir şeyler uyduruyor. Resim veya video oluşturmak için üretken yapay zeka kullanan araçlarda böyle bir sorun söz konusu değil, en nihayetinde bunlar sanatsal sonuçlar ortaya koyuyorlar. Ancak sohbet robotları için bu çok büyük bir problem ve hatta OpenAI'den kısa bir süre önce ayrılan ünlü uzman Andrej Karpathy, halüsinasyon yeteneğinin, üretken yapay zekanın temel teknolojisi olan büyük dil modellerinin (LLM'ler) en büyük özelliği olduğunu da itiraf etti. Yani yapay zeka bu işi şans eseri yapmıyor. Kasten, sonuç üretmek için yapıyor. Doğruluğu da kontrol etmiyor. Korkutucu olansa çoğu kullanıcının bu halüsinasyonları fark etmesinin imkansız olması. Yapay zekanın halüsinasyon görmesini engellemek teknolojik bir zorluk ve bu sorunu çözmek hiç de kolay değil. Ancak Google DeepMind ve Standford Üniversitesi bir tür geçici çözüm bulmuş gibi görünüyor. Araştırmacılar, yapay zeka sohbet robotları tarafından üretilen uzun formlu yanıtları esasen kontrol eden LLM tabanlı bir sistem - Search-Augmented Factuality Evaluator veya SAFE - geliştirdiler.

SAFE NASIL ÇALIŞIYOR?

Sistem cevapları dört adımda analiz ediyor, işliyor ve değerlendirerek doğruluğunu teyit ediyor. İlk olarak, SAFE cevabı tek tek gerçeklere ayırıyor, bunları gözden geçiriyor ve Google Arama'dan gelen sonuçlarla karşılaştırıyor. Sistem ayrıca tek tek gerçeklerin orijinal soruyla ilgisini de kontrol ediyor.
Kaynak: alinti