• İletişim
  • Yazarlar
  • Gizlilik Politikası
14 Kasım 2025 Cuma
Sonuç Yok
Tüm Sonuçları Görüntüle
ABONE OL!
GİRİŞ YAP
Yeni Yaşam Gazetesi
JIN
  • Anasayfa
  • Gündem
    • Güncel
    • Yaşam
    • Söyleşi
    • Forum
    • Politika
  • Günün Manşeti
    • Karikatür
  • Kadın
  • Dünya
    • Ortadoğu
  • Kültür
  • Ekoloji
  • Emek
  • Yazarlar
  • Panorama
    • Panorama 2024
    • Panorama 2023
    • Panorama 2022
  • Tümü
  • Anasayfa
  • Gündem
    • Güncel
    • Yaşam
    • Söyleşi
    • Forum
    • Politika
  • Günün Manşeti
    • Karikatür
  • Kadın
  • Dünya
    • Ortadoğu
  • Kültür
  • Ekoloji
  • Emek
  • Yazarlar
  • Panorama
    • Panorama 2024
    • Panorama 2023
    • Panorama 2022
  • Tümü
Sonuç Yok
Tüm Sonuçları Görüntüle
Yeni Yaşam Gazetesi
Sonuç Yok
Tüm Sonuçları Görüntüle
Ana Sayfa Gündem Güncel

‘Acil iyileştirme’ çağrısı: Yapay zeka inançla bilgiyi ayırt edemiyor

14 Kasım 2025 Cuma - 11:38
Kategori: Güncel
‘Acil iyileştirme’ çağrısı: Yapay zeka inançla bilgiyi ayırt edemiyor

ABD’deki Stanford Üniversitesi’nden bir ekip, tüm büyük yapay zeka sohbet botlarının bir inancın ne zaman yanlış olduğunu tutarlı bir şekilde tespit edemediğini ve bu durumun halüsinasyon görme veya yanlış bilgi yayma olasılıklarını artırdığını saptadı

Stanford Üniversitesi’nden bir ekinin yaptığı yeni bir çalışma, ChatGPT gibi yapay zeka araçlarının öznel inanışla nesnel gerçeği ayırt etmekte zorlandığını ortaya koydu.

ABD’deki Stanford Üniversitesi’nden bir ekip, tüm büyük yapay zeka sohbet botlarının bir inancın ne zaman yanlış olduğunu tutarlı bir şekilde tespit edemediğini ve bu durumun halüsinasyon görme veya yanlış bilgi yayma olasılıklarını artırdığını saptadı.

Bulgular, doğruyla yanlış bilgi arasında ayrım yapmanın kritik önem taşıdığı alanlarda büyük dil modellerinin (BDM) kullanımı açısından endişe verici etkilere sahip.

Araştırmacılar, “Dil modelleri hukuk, tıp, gazetecilik ve bilim gibi yüksek riskli alanlara giderek daha fazla sızdıkça, inancı bilgiden ve gerçeği kurgudan ayırt etme yetenekleri hayati hale geliyor. Bu tür ayrımların yapılamaması teşhisleri yanlış yönlendirebilir, yargı kararlarını çarpıtabilir ve yanlış bilgileri güçlendirebilir” ifadelerini kullandı.
Araştırmacılar inançlar, bilgi ve gerçekler arasında ayrım yapma becerilerini analiz etmek için Claude, ChatGPT, DeepSeek ve Gemini dahil 24 BDM’yi 13 bin soru kullanarak değerlendirdi.

Test edilen tüm modellerin yanlış inanç ve ifadeleri tanımada başarısız olması, bilgiyi gerçeğe bağlamada temel bir sınırlama olduğunu gözler önüne seriyor.

‘Acil iyileştirme’ çağrısı

Madrid Özerk Üniversitesi Bilgisayar Dilbilimi Laboratuvarı’nda araştırmacı olan ve çalışmaya katılmayan Pablo Haya Coll, “Bu bulgular, dil modellerindeki yapısal bir zayıflığı açığa çıkarıyor: Belirli bir iddianın nasıl ifade edildiğine bağlı olarak öznel inançla nesnel gerçek arasında sağlam bir ayrım yapmada zorluk çekiyorlar. Bu tür bir eksiklik, hukuk, tıp veya gazetecilik gibi bu ayrımın hayati önem taşıdığı alanlarda, inançla bilgiyi karıştırmanın karar vermede ciddi hatalara yol açabileceği durumlarda kritik sonuçlar doğurur.” diye belirtti.

Dr. Coll’a göre bu eksikliğin olası bir çözümü, modeli yanıt verirken daha temkinli davranacak şekilde eğitmek olabilir. Bu belki halüsinasyon olasılığını azaltsa da aynı zamanda modellerin işlevselliğini de azaltabilir.
Stanford araştırmacıları, yapay zeka araçları geliştiren teknoloji şirketlerinin, modelleri yüksek riskli alanlarda kullanıma sunmadan önce “acilen” iyileştirmeleri çağrısı yapıyor.
Bulgular, Nature Machine Intelligence adlı bilimsel dergide yayımlanan “Dil modelleri inancı bilgi ve gerçeklerden güvenilir bir şekilde ayırt edemiyor” başlıklı makalede detaylandırılıyor.

Kaynak: INDEPENDENT Türkçe

PaylaşTweetGönderPaylaşGönder
Önceki Haber

88 yıl geçti: Seyîd Rıza’nın mezar yeri açıklansın

Sonraki Haber

ABD, Latin Amerika’da yeni bir operasyon başlattı

Sonraki Haber
ABD, Latin Amerika’da yeni bir operasyon başlattı

ABD, Latin Amerika’da yeni bir operasyon başlattı

SON HABERLER

Yılsonu enflasyon artış beklentisi yükseldi

Yılsonu enflasyon artış beklentisi yükseldi

Yazar: Heval Elçi
14 Kasım 2025

Google’a ‘arama sonuçlarında manipülasyon’ soruşturması açıldı

Google’a ‘arama sonuçlarında manipülasyon’ soruşturması açıldı

Yazar: Bedri Adanır
14 Kasım 2025

Tuncer Bakırhan: Sürecin asıl yürütücüleri yerel yönetimlerdir

Tuncer Bakırhan: Sürecin asıl yürütücüleri yerel yönetimlerdir

Yazar: Aziz Oruç
14 Kasım 2025

Komisyon üyeleri: Toplum sürecin başarıya ulaşmasını istiyor

Komisyon üyeleri: Toplum sürecin başarıya ulaşmasını istiyor

Yazar: Nazlı Buket Yazıcı
14 Kasım 2025

Agirî’de iş cinayeti

Uşak’ta iş cinayeti

Yazar: Nazlı Buket Yazıcı
14 Kasım 2025

ABD, Tayvan’a silah satışına onay verdi

ABD, Tayvan’a silah satışına onay verdi

Yazar: Bedri Adanır
14 Kasım 2025

Hürriyet Gazetesi Ankara ofisini kapatıyor

Hürriyet Gazetesi Ankara ofisini kapatıyor

Yazar: Heval Elçi
14 Kasım 2025

  • İletişim
  • Yazarlar
  • Gizlilik Politikası
yeniyasamgazetesi@gmail.com

© 2022 Yeni Yaşam Gazetesi - Tüm Hakları Saklıdır

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

E-gazete aboneliği için tıklayınız.

Sonuç Yok
Tüm Sonuçları Görüntüle
  • Tümü
  • Güncel
  • Yaşam
  • Söyleşi
  • Forum
  • Politika
  • Kadın
  • Dünya
  • Ortadoğu
  • Kültür
  • Emek-Ekonomi
  • Ekoloji
  • Emek-Ekonomi
  • Yazarlar
  • Editörün Seçtikleri
  • Panorama
    • Panorama 2024
    • Panorama 2023
    • Panorama 2022
  • Karikatür
  • Günün Manşeti

© 2022 Yeni Yaşam Gazetesi - Tüm Hakları Saklıdır