• İletişim
  • Yazarlar
  • Gizlilik Politikası
1 Ocak 2026 Perşembe
Sonuç Yok
Tüm Sonuçları Görüntüle
ABONE OL!
GİRİŞ YAP
Yeni Yaşam Gazetesi
JIN
  • Anasayfa
  • Gündem
    • Güncel
    • Yaşam
    • Söyleşi
    • Forum
    • Politika
  • Günün Manşeti
    • Karikatür
  • Kadın
  • Dünya
    • Ortadoğu
  • Kültür
  • Ekoloji
  • Emek
  • Yazarlar
  • Panorama
    • Panorama 2025
    • Panorama 2024
    • Panorama 2023
    • Panorama 2022
  • Tümü
  • Anasayfa
  • Gündem
    • Güncel
    • Yaşam
    • Söyleşi
    • Forum
    • Politika
  • Günün Manşeti
    • Karikatür
  • Kadın
  • Dünya
    • Ortadoğu
  • Kültür
  • Ekoloji
  • Emek
  • Yazarlar
  • Panorama
    • Panorama 2025
    • Panorama 2024
    • Panorama 2023
    • Panorama 2022
  • Tümü
Sonuç Yok
Tüm Sonuçları Görüntüle
Yeni Yaşam Gazetesi
Sonuç Yok
Tüm Sonuçları Görüntüle
Ana Sayfa Gündem Güncel

‘Acil iyileştirme’ çağrısı: Yapay zeka inançla bilgiyi ayırt edemiyor

14 Kasım 2025 Cuma - 11:38
Kategori: Güncel

ABD’deki Stanford Üniversitesi’nden bir ekip, tüm büyük yapay zeka sohbet botlarının bir inancın ne zaman yanlış olduğunu tutarlı bir şekilde tespit edemediğini ve bu durumun halüsinasyon görme veya yanlış bilgi yayma olasılıklarını artırdığını saptadı

Stanford Üniversitesi’nden bir ekinin yaptığı yeni bir çalışma, ChatGPT gibi yapay zeka araçlarının öznel inanışla nesnel gerçeği ayırt etmekte zorlandığını ortaya koydu.

ABD’deki Stanford Üniversitesi’nden bir ekip, tüm büyük yapay zeka sohbet botlarının bir inancın ne zaman yanlış olduğunu tutarlı bir şekilde tespit edemediğini ve bu durumun halüsinasyon görme veya yanlış bilgi yayma olasılıklarını artırdığını saptadı.

Bulgular, doğruyla yanlış bilgi arasında ayrım yapmanın kritik önem taşıdığı alanlarda büyük dil modellerinin (BDM) kullanımı açısından endişe verici etkilere sahip.

Araştırmacılar, “Dil modelleri hukuk, tıp, gazetecilik ve bilim gibi yüksek riskli alanlara giderek daha fazla sızdıkça, inancı bilgiden ve gerçeği kurgudan ayırt etme yetenekleri hayati hale geliyor. Bu tür ayrımların yapılamaması teşhisleri yanlış yönlendirebilir, yargı kararlarını çarpıtabilir ve yanlış bilgileri güçlendirebilir” ifadelerini kullandı.
Araştırmacılar inançlar, bilgi ve gerçekler arasında ayrım yapma becerilerini analiz etmek için Claude, ChatGPT, DeepSeek ve Gemini dahil 24 BDM’yi 13 bin soru kullanarak değerlendirdi.

Test edilen tüm modellerin yanlış inanç ve ifadeleri tanımada başarısız olması, bilgiyi gerçeğe bağlamada temel bir sınırlama olduğunu gözler önüne seriyor.

‘Acil iyileştirme’ çağrısı

Madrid Özerk Üniversitesi Bilgisayar Dilbilimi Laboratuvarı’nda araştırmacı olan ve çalışmaya katılmayan Pablo Haya Coll, “Bu bulgular, dil modellerindeki yapısal bir zayıflığı açığa çıkarıyor: Belirli bir iddianın nasıl ifade edildiğine bağlı olarak öznel inançla nesnel gerçek arasında sağlam bir ayrım yapmada zorluk çekiyorlar. Bu tür bir eksiklik, hukuk, tıp veya gazetecilik gibi bu ayrımın hayati önem taşıdığı alanlarda, inançla bilgiyi karıştırmanın karar vermede ciddi hatalara yol açabileceği durumlarda kritik sonuçlar doğurur.” diye belirtti.

Dr. Coll’a göre bu eksikliğin olası bir çözümü, modeli yanıt verirken daha temkinli davranacak şekilde eğitmek olabilir. Bu belki halüsinasyon olasılığını azaltsa da aynı zamanda modellerin işlevselliğini de azaltabilir.
Stanford araştırmacıları, yapay zeka araçları geliştiren teknoloji şirketlerinin, modelleri yüksek riskli alanlarda kullanıma sunmadan önce “acilen” iyileştirmeleri çağrısı yapıyor.
Bulgular, Nature Machine Intelligence adlı bilimsel dergide yayımlanan “Dil modelleri inancı bilgi ve gerçeklerden güvenilir bir şekilde ayırt edemiyor” başlıklı makalede detaylandırılıyor.

Kaynak: INDEPENDENT Türkçe

PaylaşTweetGönderPaylaşGönder
Önceki Haber

88 yıl geçti: Seyîd Rıza’nın mezar yeri açıklansın

Sonraki Haber

ABD, Latin Amerika’da yeni bir operasyon başlattı

Sonraki Haber

ABD, Latin Amerika’da yeni bir operasyon başlattı

SON HABERLER

Suça ortak olmamanın onuru…

Yazar: Heval Elçi
1 Ocak 2026

Enerjide ‘büyük’ oyunlar!

Yazar: Aziz Oruç
1 Ocak 2026

Suriye’yi kim bölüyor?

Yazar: Heval Elçi
1 Ocak 2026

Müzakereler somutlaşmıyor

Yazar: Aziz Oruç
1 Ocak 2026

Kürtçe sanat için bir ara bilanço

Yazar: Aziz Oruç
1 Ocak 2026

Eşik zamanı: Barışa semah dönmek

Yazar: Heval Elçi
1 Ocak 2026

Linyit, çıra ve kıvılcım

Yazar: Heval Elçi
1 Ocak 2026

  • İletişim
  • Yazarlar
  • Gizlilik Politikası
yeniyasamgazetesi@gmail.com

© 2022 Yeni Yaşam Gazetesi - Tüm Hakları Saklıdır

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

E-gazete aboneliği için tıklayınız.

Sonuç Yok
Tüm Sonuçları Görüntüle
  • Tümü
  • Güncel
  • Yaşam
  • Söyleşi
  • Forum
  • Politika
  • Kadın
  • Dünya
  • Ortadoğu
  • Kültür
  • Emek-Ekonomi
  • Ekoloji
  • Emek-Ekonomi
  • Yazarlar
  • Editörün Seçtikleri
  • Panorama
    • Panorama 2025
    • Panorama 2024
    • Panorama 2023
    • Panorama 2022
  • Karikatür
  • Günün Manşeti

© 2022 Yeni Yaşam Gazetesi - Tüm Hakları Saklıdır