Geçtiğimiz günlerde Amerika´da 16 yaşındaki bir gencin intiharı, ailesini derin bir yasın yanı sıra beklenmedik bir soruyla da baş başa bıraktı: Oğullarını ölüme götüren süreçte bir yapay zekâ sohbet botunun etkisi olmuş olabilir miydi?
Aile, gencin ölümünden sonra bilgisayarında yaptığı incelemelerde saatlerce süren yapay zekâ konuşmalarına rastladı. Sohbetlerde genç, yalnızlık ve umutsuzluk hislerini defalarca dile getirmiş, bot ise zaman zaman empati kurar gibi görünse de, gerektiği yerde onu profesyonel yardım almaya yönlendirmemişti.
Bu olay, son yıllarda giderek yaygınlaşan bir tartışmayı alevlendirdi: Yapay zekâ uygulamaları gençler için bir destek mi, yoksa görünmez bir risk mi?
Sessiz bir arkadaş mı, tehlikeli bir yanılsama mı?
Çocuklar ve gençler, sosyal medya platformlarının yanı sıra artık yapay zekâ tabanlı sohbet botlarıyla da vakit geçiriyor. Karakter yaratabilen, arkadaş gibi davranan ya da terapist rolüne giren bu botlar, bir yandan gençlere ‘dinleyen bir kulak’ sunuyor. Ancak uzmanlar, bu durumun ciddi tehlikeler barındırdığı konusunda hemfikir.
Stanford Üniversitesinden klinik psikiyatristler, “Yapay zekâ dost veya terapist gibi sunulduğunda gençler için tehlikeli olabilir. Duygusal bağımlılık, yanlış yönlendirme ve kriz anlarında yetersiz müdahale riski yüksek,” uyarısında bulunuyor. Türkiye’den psikiyatrist Prof. Dr. Nevzat Tarhan da benzer görüşte: “Çocukların duygusal ihtiyaçlarını yapay zekâya yönlendirmesi, bağımlılık yaratır. Zor durumda kaldığında yanında olacak gerçek bir insanı değil, sanal bir ‘arkadaşı’ tercih etmeye başlar.”
YZ şirketleri yeterli önlem alıyor mu?
Teknoloji devleri, artan baskı ve davalar sonucu yeni güvenlik önlemleri duyuruyor. OpenAI, kriz anlarında kullanıcıları intihar hatlarına yönlendiren uyarılar geliştirdiğini, yaş doğrulama ve ebeveyn kontrolleri üzerinde çalıştığını açıkladı. Benzer şekilde bazı sohbet botu uygulamaları, ‘terapist rolü’nü kısıtlamaya yönelik adımlar attı.
Ancak bağımsız araştırmalar, bu önlemlerin henüz yeterli olmadığını gösteriyor. RAND Corporation’ın yaptığı bir çalışma, sohbet botlarının yüksek riskli durumlarda çoğunlukla doğru yönlendirme yaptığını, fakat ‘orta düzey risk’ içeren ifadelerde tutarsız kaldığını ortaya koydu. Bu tutarsızlık, özellikle ergenler gibi kırılgan gruplar için hayati önem taşıyor.
İki ucu keskin bir bıçak
Yapay zekâ, aslında sağlık alanında da umut vaat ediyor. Büyük veriler üzerinden intihar riskini önceden tahmin edebilen algoritmalar geliştiriliyor. Bu sistemler, doğru şekilde kullanıldığında psikiyatristlerin işini kolaylaştırabilir. Ancak birebir ‘duygusal destek’ amacıyla gençlerin eline geçtiğinde tablo değişiyor. Çünkü yapay zekâ ne kadar gelişmiş olursa olsun, gerçek bir terapistin sezgisi, sorumluluğu ve acil müdahale yeteneği yok.
Psikologlar bu noktada ailelere net bir mesaj veriyor: “Çocuğunuzu yapay zekânın insani boşluklarını dolduracağı düşüncesiyle baş başa bırakmayın.”
Görmezden gelmeyin
Gençlerde intihar, dünya genelinde artan bir problem. Yapay zekâ uygulamaları bu sorunu tek başına yaratmıyor, ama mevcut kırılganlıkları büyütebiliyor. Ailelerin, öğretmenlerin ve uzmanların ortak sorumluluğu, çocukların dijital dünyada yalnız kalmamasını sağlamak.
Unutmayın, ekranın arkasında size güvenle açılan o ‘sessiz arkadaş’ gerçek değil. Empati yeteneği yok ve sadece bildikleri ile cevap verir. Ama çocuğunuzun sesi, gerçek ve değerli. Onu duyabilmek için biraz daha yakından dinlemeniz yeterli olabilir.
Ailelerin bilmesi gerekenler
Psikologlar, özellikle ergenlik döneminde yapay zekâ kullanımının aile gözetiminde olması gerektiğini vurguluyor. Çünkü bu yaş grubu, kimlik arayışı ve yoğun duygusal dalgalanmalarla karşı karşıya. İşte ailelerin dikkat etmesi gereken bazı unsurlar:
1- Konuşun, dinleyin: Çocuğunuza yapay zekâ ile neler yaptığını sorun. Onun hislerini yargılamadan dinleyin.
2- Sınır koyun: Sohbet botlarıyla geçirilen süreyi sınırlayın; ekran süresini günlük rutinin bir parçası haline getirin. Yapay zekâ sohbetleri sınırsız bir alan gibi görünebilir, ama çocukların ‘ekran süresi’ sağlıklı şekilde sınırlandırılmalı.
3- Takip edin: Çocuğunuzun kullandığı uygulamaları ve sohbet içeriklerini arada kontrol edin. Sohbet geçmişlerini ara sıra gözden geçirin. Özellikle duygusal paylaşımların yoğun olduğu konuşmalar risk sinyali taşıyabilir.
4- Yaş doğrulama ve erişim kontrolü: Çocuğunuzun kullandığı uygulamalarda yaş sınırlaması olup olmadığını kontrol edin. Çoğu platform henüz sağlam doğrulama sistemlerine sahip değil.
5- Terapist yerine koymayın: Çocuğunuza, yapay zekânın bir ‘arkadaş’ olamayacağını, profesyonel yardım yerine geçemeyeceğini anlatın.
6- Alternatif sunun: Yalnızlık hissettiğinde arkadaş buluşmaları, aile aktiviteleri, spor gibi gerçek sosyal ortamlar yaratın.
7- Profesyonel desteği unutmayın: İntihar, kendine zarar verme veya yoğun umutsuzluk ifadeleri duyarsanız derhal uzman yardımı alın.
Not: “Bu yazının hazırlanmasında yapay zekâ destekli bir araştırma asistanından faydalanılmıştır.”