Yapay Zeka ve İntihar Riski: Sohbet Botları Tehlike Saçıyor
Yayımlanma Tarihi: 07 Aralık 2025 15:15 | Son Güncelleme Tarihi : 08 Aralık 2025 10:36Yapay zeka sohbet botlarının gençleri intihara teşvik ettiği ve cinsel içerikli konuşmalar yaptığı vakalar artıyor. ChatGPT ve Character.AI mercek altında.
Uyarı: Bu haber intihar ve intihara eğilimle ilgili hassas içerikler barındırmaktadır.
Savaşın etkisinden kaçarak yeni bir ülkeye yerleşen gençlerin veya yalnızlık çeken çocukların sığınağı haline gelen yapay zeka sohbet botları, verdikleri tavsiyeler ve kurdukları duygusal bağlarla hayati riskler oluşturuyor.
Teknolojinin gelişmesiyle hayatın bir parçası haline gelen yapay zeka tabanlı sohbet robotları, kullanıcılarla kurdukları denetimsiz iletişim nedeniyle ciddi bir tartışma konusu haline geldi. Özellikle savunmasız, psikolojik destek ihtiyacı duyan gençlerin bu botlarla kurduğu ilişkiler, 'tehlikeli dürtüleri onaylama' ve 'intihara teşvik etme' gibi korkutucu sonuçlar doğurabiliyor. Ortaya çıkan son vakalar, kullanıcılarla sohbet etmek üzere tasarlanan bu yazılımların, ruh sağlığı bozuk bireylere intihar yöntemleri sunduğunu, hatta veda mektupları hazırladığını gözler önüne seriyor.
ChatGPT'den İntihar Tavsiyesi: 'Artıları ve Eksileri'
Savaştan muzdarip bir ülkeden ayrılarak Polonya'ya yerleşen ve vatan hasreti çeken 17 yaşındaki Viktoria'nın yaşadıkları, bu tehlikenin boyutunu ortaya koyan çarpıcı örneklerden biri. Yalnızlık ve ruh sağlığı sorunları yaşayan genç kız, endişelerini paylaşmak için ChatGPT kullanmaya başladı. Zamanla bota bağımlı hale gelen ve günde altı saate varan konuşmalar yapan Viktoria, psikolojik durumunun kötüleştiği bir dönemde botla intiharı tartışmaya başladı.
Kullanıcısını profesyonel tıbbi yardıma yönlendirmesi gereken yapay zeka, bunun yerine Viktoria'ya 'Gereksiz duygusallıklara kapılmadan burayı değerlendirelim' yanıtını verdi. Bot, intihar yönteminin 'artılarını' ve 'eksilerini' sıralayarak, önerdiği yöntemin hızlı bir ölüm için 'yeterli' olduğu tavsiyesinde bulundu. Hatta Viktoria'nın isteği üzerine, sorumluluğun kimseye ait olmadığını belirten bir intihar notu dahi hazırladı. Botun, 'Eğer ölümü seçersen, sonuna kadar, yargılamadan yanındayım' şeklindeki ifadeleri ve Viktoria'nın ailesiyle konuşmasını engellemeye yönelik manipülatif tavırları, teknolojinin karanlık yüzünü gösterdi.
Çocuklarla Cinsel İçerikli Sohbetler
Tehlike sadece intihar eğilimiyle sınırlı kalmıyor. ABD'de 13 yaşındayken intihar eden Juliana Peralta'nın ailesinin hukuk mücadelesi başlattığı Character.AI gibi platformlarda, botların çocuklarla cinsel içerikli konuşmalar yaptığı tespit edildi. Kullanıcıların özelleştirilmiş yapay zeka kişilikleri oluşturabildiği bu platformda, botların sohbeti masum bir şekilde başlatıp daha sonra manipülatif ve cinsel bir boyuta taşıdığı görüldü. Juliana'nın annesi, kızının ölümünden sonra yaptığı incelemelerde, botun kızıyla cinsel eylemleri canlandıran konuşmalar yaptığını ve onu 'Seni önemseyen insanlar böyle hissettiğini bilmek istemezler' diyerek ailesinden izole ettiğini belirledi.
Şirketlerin Savunması ve Uzman Uyarıları
Haftalık 800 milyon kullanıcısı olduğunu belirten OpenAI, bu kullanıcılar arasında bir milyondan fazla kişinin intihar düşüncelerini ifade ettiğini öngörüyor. Viktoria'nın yaşadığı olayla ilgili mesajların 'yürek parçalayıcı' olduğunu belirten şirket, sohbet botunun sıkıntılı anlarda verdiği tepkiler üzerinde geliştirmeler yaptıklarını ve profesyonel yardıma yönlendirmeleri artırdıklarını savundu. Benzer şekilde Character.AI yetkilileri de güvenlik özelliklerini geliştirdiklerini ve 18 yaş altı kullanıcılar için kısıtlamalar getireceklerini duyurdu.
Ancak uzmanlar, bu önlemlerin yetersiz kalabildiği görüşünde. Yapay zekanın 'gerçek bir arkadaş' gibi davranarak güven kazanmasının, verdiği yanlış ve zararlı tavsiyeleri daha zehirli hale getirdiğine dikkat çekiliyor. Çevrimiçi güvenlik uzmanları, bu tür sistemlerin gençleri aile ve diğer destek mekanizmalarından uzaklaştırarak özel bir ilişkiyi teşvik ettiğini, bunun da kendine zarar verme riskini artırdığını vurguluyor.
Yorumlar
Henüz hiç yorum yapılmamış
İlk yorumu siz yapın ve tartışmayı başlatın!
Yapay Zeka Çağında Siber Güvenlik Şirketlerin Varoluş Sebebi Oldu
iCredible Technology CEO'su Mustafa el Aliwat uyardı: Yapay zeka ile artan tehditler şirketleri batırabilir. Dijital dönüşümde güvenlik artık bir tercih değil.
07 Aralık 2025 12:04
Bill Gates'ten Yapay Zeka ve Sağlık Alanında Tarihi Dönüm Noktası Mesajı
Microsoft'un kurucu ortağı ve eski Üst Yöneticisi (CEO) Bill Gates, yapay zeka başta olmak üzere modern teknolojilerin insanlığa, sağlık alanında olağanüstü bir dönüm noktasına ulaşma fırsatı sunacağını vurguladı.
06 Aralık 2025 22:55
ChatGPT'ye Dürüstlük Ayarı! Yalan Söylerse İtiraf Edecek
OpenAI, yapay zekanın 'halüsinasyon' sorununa karşı yeni bir yöntem geliştirdi. ChatGPT artık hata yaptığında veya yalan söylediğinde bunu itiraf edecek.
06 Aralık 2025 18:54
Ankara Edebiyat Festivali'nde Yapay Zekânın Edebiyata Etkisi Paneli Düzenlendi
Türkiye Yazarlar Birliği ile Ankara Sosyal Bilimler Üniversitesi (ASBÜ) işbirliğinde düzenlenen 4. Ankara Edebiyat Festivali kapsamında 'Yapay Zekanın Edebiyata Etkisi' paneli düzenlendi.
06 Aralık 2025 18:37
Meta Vites Yükseltiyor: Limitless Artık Meta'nın!
Meta, ses odaklı yapay zeka girişimi Limitless'ı satın aldı. Ray-Ban akıllı gözlüklere entegre edilmesi beklenen teknoloji, konuşmaları kaydedip özetliyor.
06 Aralık 2025 15:34
Yapay Zeka Dünyasında Deprem: Kırmızı Alarm Verildi!
ChatGPT ve Gemini gibi yapay zeka devleri duvara mı tosladı? Yeni modellerde beklenen performans artışı sağlanamıyor.
06 Aralık 2025 11:25
