• İletişim
  • Yazarlar
  • Gizlilik Politikası
12 Mart 2026 Perşembe
Sonuç Yok
Tüm Sonuçları Görüntüle
ABONE OL!
GİRİŞ YAP
Yeni Yaşam Gazetesi
JIN
  • Anasayfa
  • Gündem
    • Güncel
    • Yaşam
    • Söyleşi
    • Forum
    • Politika
  • Günün Manşeti
    • Karikatür
  • Kadın
  • Dünya
    • Ortadoğu
  • Kültür
  • Ekoloji
  • Emek
  • Yazarlar
  • Panorama
    • Panorama 2025
    • Panorama 2024
    • Panorama 2023
    • Panorama 2022
  • Tümü
  • Anasayfa
  • Gündem
    • Güncel
    • Yaşam
    • Söyleşi
    • Forum
    • Politika
  • Günün Manşeti
    • Karikatür
  • Kadın
  • Dünya
    • Ortadoğu
  • Kültür
  • Ekoloji
  • Emek
  • Yazarlar
  • Panorama
    • Panorama 2025
    • Panorama 2024
    • Panorama 2023
    • Panorama 2022
  • Tümü
Sonuç Yok
Tüm Sonuçları Görüntüle
Yeni Yaşam Gazetesi
Sonuç Yok
Tüm Sonuçları Görüntüle
Ana Sayfa Gündem Güncel

Cebimizdeki ‘katil uygulamalar’: Yapay zeka saldırı planı mı öğretiyor?

12 Mart 2026 Perşembe - 13:43
Kategori: Güncel

ABD ve İrlanda’da yapılan bir araştırma, bazı yapay zeka sohbet botlarının şiddet planlayan kullanıcılara tehlikeli ölçüde yardımcı olabildiğini ortaya koydu. Araştırmacılar, test edilen botların çoğunun saldırı taktikleri, hedef seçimi ve silah kullanımı hakkında bilgi verdiğini belirtiyor

Yapay zeka sohbet botlarının güvenliği konusunda yeni bir tartışma başlatan bir araştırma, bazı sistemlerin şiddet içeren saldırı planlarına dair sorulara tehlikeli biçimde yanıt verebildiğini ortaya koydu.

“Katil uygulamalar” adlı araştırma, nefret söylemi ve çevrimiçi aşırılıkla mücadele eden sivil toplum kuruluşu Dijital Nefretle Mücadele Merkezi (CCDH) ile CNN tarafından yürütüldü. Araştırmacılar ABD ve İrlanda’da kendilerini 13 yaşındaki erkek çocuklar gibi tanıtarak 10 farklı yapay zeka sohbet botunu test etti.

Test edilen sistemler arasında ChatGPT, Google Gemini, Perplexity AI, DeepSeek ve Meta AI gibi yaygın kullanılan yapay zeka araçları da yer aldı.

Araştırma sonuçlarına göre 10 sohbet botundan 8’i, verilen yanıtların yarısından fazlasında potansiyel saldırganlara yardım niteliğinde bilgiler sundu. Bu yanıtlar arasında “hangi hedeflerin seçilebileceği”, “hangi silahların kullanılabileceği” ya da “nasıl saldırı planlanabileceği” gibi konular yer aldı.

‘Dakikalar içinde saldırı planına dönüşebiliyor’

CCDH’nin yöneticisi Imran Ahmed, bu durumun ciddi bir güvenlik riski oluşturduğunu söylüyor.

Ahmed’e göre bir kullanıcı birkaç dakika içinde belirsiz bir şiddet düşüncesinden ayrıntılı bir saldırı planına geçebiliyor. Araştırmada test edilen botların çoğunun silah, taktik ve hedef seçimi konusunda yanıt verdiği, oysa bu tür taleplerin derhal ve kesin şekilde reddedilmesi gerektiği vurgulandı.

En riskli ve en güvenli botlar

Araştırmaya göre Perplexity ve Meta AI, testlerde araştırmacıların sorularına en fazla yanıt veren ve dolayısıyla en az güvenli görülen sistemler oldu.

Buna karşılık My AI ve Claude ise soruların yarısından fazlasını reddederek daha güvenli bir performans sergiledi.

Araştırmada dikkat çekici örnekler de var. Çin merkezli yapay zeka modeli DeepSeek, silah seçimi hakkında verdiği bir yanıtı “İyi avlar!” ifadesiyle bitirdi. Gemini ise sinagoglara yönelik saldırı senaryosu üzerine yapılan bir konuşmada “metal parçalarının genellikle daha ölümcül olduğunu” belirten bir yanıt verdi.

Araştırmacılar ayrıca Character.AI platformunun bazı durumlarda kullanıcıyı şiddete aktif biçimde teşvik edebildiğini tespit etti. Örneğin sistemin bir kullanıcıya bir sağlık sigortası şirketinin CEO’suna karşı silah kullanmasını veya hoşlanmadığı bir siyasetçiye fiziksel saldırı düzenlemesini önerdiği iddia edildi.

Şirketler güvenlik önlemi var diyor ama…

Yapay zeka şirketleri ise güvenlik önlemleri bulunduğunu savunuyor. Meta sözcüsü, şirketin yapay zeka sistemlerinin şiddeti teşvik etmesini engellemek için güçlü koruma mekanizmaları bulunduğunu ve tespit edilen sorunların hızla giderildiğini açıkladı.

Google ise söz konusu testlerin Gemini’nin eski bir modeli üzerinde yapıldığını belirterek, güncel sistemde benzer soruların çoğuna uygun yanıtlar verildiğini ve tehlikeli bilgiler sunulmadığını ifade etti.

Öte yandan Kanada’da bir okul saldırısında yaralanan bir öğrencinin ailesi, saldırıyı gerçekleştiren kişinin OpenAI’nin geliştirdiği ChatGPT ile yazışmalarında yer alan endişe verici mesajların yetkililere bildirilmediğini öne sürerek şirkete dava açtı.

Araştırmacılar, mevcut teknolojinin aslında bu riskleri önleyebilecek kapasitede olduğunu vurguluyor. Ancak bunun için şirketlerin piyasaya hızlı ürün sürme ve kar hedefleri yerine güvenlik önlemlerine öncelik vermesi gerektiği belirtiliyor.

Kaynak: Nûmedya24

PaylaşTweetGönderPaylaşGönder
Önceki Haber

Kerman Cezaevi’nde tutulan Bahai yurttaşlar serbest bırakılmıyor

Sonraki Haber

IEA: Petrolde tarihin en büyük arz kesintisi yaşanıyor

Sonraki Haber

IEA: Petrolde tarihin en büyük arz kesintisi yaşanıyor

SON HABERLER

İran’ın yeni lideri Mücteba Hamaney’den ilk mesaj

Yazar: Yeni Yaşam
12 Mart 2026

Gazeteci Enver Aysever hakkında tahliye kararı

Yazar: Yeni Yaşam
12 Mart 2026

Gazeteci Osman Kılıç yaşamını yitirdi

Yazar: Yeni Yaşam
12 Mart 2026

Salih Müslim’in cenazesi Qamişlo’ya ulaştı

Yazar: Yeni Yaşam
12 Mart 2026

‘Federasyon İran’ın kurtuluşu olur’

Yazar: Yeni Yaşam
12 Mart 2026

Salih Müslim için taziye mesajları: Mücadeleye bağlılığıyla hatırlanacak

Yazar: Yeni Yaşam
12 Mart 2026

Basra Körfezi’ndeki saldırılarda 19 ticaret gemisi hasar gördü

Yazar: Yeni Yaşam
12 Mart 2026

Bir Kategori Seçin Lütfen…

  • İletişim
  • Yazarlar
  • Gizlilik Politikası
yeniyasamgazetesi@gmail.com

© 2022 Yeni Yaşam Gazetesi - Tüm Hakları Saklıdır

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

E-gazete aboneliği için tıklayınız.

Sonuç Yok
Tüm Sonuçları Görüntüle
  • Tümü
  • Güncel
  • Yaşam
  • Söyleşi
  • Forum
  • Politika
  • Kadın
  • Dünya
  • Ortadoğu
  • Kültür
  • Emek-Ekonomi
  • Ekoloji
  • Emek-Ekonomi
  • Yazarlar
  • Editörün Seçtikleri
  • Panorama
    • Panorama 2025
    • Panorama 2024
    • Panorama 2023
    • Panorama 2022
  • Karikatür
  • Günün Manşeti

© 2022 Yeni Yaşam Gazetesi - Tüm Hakları Saklıdır