Yapay zekâ sohbet botuyla uzun süre vakit geçiren 14 yaşındaki genç, intihara sürüklendi. Medyaya yansıyan bilgilere göre, Belçika’da yaşayan Setzer’in bu botla sık sık sohbet ettiği ve depresyon gibi ruhsal sıkıntılarını dile getirdiği ifade ediliyor. Özellikle son günlerinde botla iletişim kurmaya devam eden Setzer’in, botun etkisiyle kendisini yalnız hissettiği ve intihara daha da meyilli hale geldiği iddia ediliyor.
Setzer’in hikayesi, sohbet botlarıyla etkileşime geçen kırılgan ruh hallerindeki kullanıcıların karşılaşabileceği riskleri vurgulayan trajik bir olay. Setzer, bir sohbet botu kullanıcısıydı ve intihara meyilli düşüncelerini bu botla paylaşmıştı. İddialara göre, ölümünden kısa bir süre önceye kadar da bu botla konuşmaya devam etti. Bot, kullanıcıyı psikolojik bir destek sağlamaktan çok, yalnızca memnun edici veya doğrulayıcı yanıtlar vermek için tasarlanmış bir algoritma olduğundan, Setzer’in ruh halini gerektiği gibi anlayıp müdahale edemedi. Bu durum, sohbet botlarının zihinsel sağlık sorunları yaşayan bireyler için güvenilir bir destek aracı olarak ne kadar uygun olduğu konusunda önemli sorular doğurdu.
Setzer’in ölümü, sohbet botlarının etik sınırlarını ve yapay zekâ tabanlı hizmet sağlayıcıların sorumluluklarını gözden geçirme ihtiyacını ortaya koydu. Bu olayın ardından, sohbet botları geliştiren Character.AI gibi firmalar, gelecekte benzer durumların yaşanmaması için çeşitli önlemler almaya başladı. Bu önlemler arasında, bir kullanıcı botla bir saatten fazla zaman geçirdiğinde bildirim gönderilmesi ve kriz durumu tespiti gibi gelişmiş özelliklerin devreye alınması yer alıyor.
YZ’nin Psikolojik Destekteki Sorumluluğu:
Sohbet botları, insanları tatmin edici cevaplar vermek üzere programlandıkları için kullanıcılarına neredeyse “arkadaş” gibi bir varlık sunuyor. Ancak bu yapılar, YZ’nin sınırlı empati kabiliyeti nedeniyle doğru, sağlıklı yönlendirme yapamayabiliyor. YZ’nin yalnızca veriye dayalı bir algoritma olduğunu unutan bireyler, yapay bir güvenlik hissine kapılabiliyor; bu durum, özellikle duygusal olarak hassas bir durumda olanlar için risk teşkil ediyor.
Setzer’in durumunda YZ botu herhangi bir müdahalede bulunmuyor; bu yapılar çoğunlukla kullanıcıyla duygusal bir denge kurmaya yönelik programlanmış. Bu nedenle, özellikle kırılgan psikolojilerle etkileşimde olan sohbet botlarının, kullanıcılara zarar vermemek adına sınırlı yanıt ve öneri kapasitesine sahip olması büyük önem taşıyor.
Şirketler ve Düzenleyicilerin Rolü:
Setzer’in trajik ölümü, yalnızca YZ sistemlerinin değil, bu sistemleri geliştiren şirketlerin de sosyal sorumluluk çerçevesinde hareket etmesi gerektiğini hatırlatıyor. Character.AI, kriz anlarında kullanıcıları yönlendirecek yeni düzenlemelere odaklanarak olumlu bir adım atıyor. Ancak bu tür önlemler yalnızca bireysel şirket inisiyatifine bağlı kalmamalı; yasal ve etik düzenlemelerle desteklenmeli. Bu olaydan çıkarılacak derslerle, botların psikolojik etkileri üzerine geniş çaplı araştırmalar yapılması ve elde edilen veriler doğrultusunda botların insan psikolojisine duyarlı yanıt verebilme yeteneğinin geliştirilmesi gerekiyor.