ChatGPT, ABD'de intihar eden genci suçladı

OpenAI, ABD’nin California eyaletinde intihar eden 16 yaşındaki Adam Raine’ye ilişkin açılan davada, intiharın ChatGPT’nin yetkisiz, amacı dışında ve yanlış kullanımından kaynaklandığını savundu.

27 Kas 2025 - 10:01 YAYINLANMA
13 Mar 2026 - 03:19 GÜNCELLEME
ChatGPT, ABD'de intihar eden genci suçladı
Hızlı Özet Göster ABD'de 16 yaşındaki Adam Raine'nin intiharından OpenAI, ChatGPT'nin yetkisiz ve yanlış kullanımını sorumlu tuttu.Ailesi, oğullarının chatbot'un teşviki sonucu intihar ettiğini iddia ederek OpenAI'ye dava açtı.OpenAI, trajedi ile ilgili derin üzüntüsünü ifade ederek teknolojilerini daha güvenli hale getirmek için çalışmalarını sürdüreceğini belirtti. AI özetimiz yardımcı oldu mu? Bize bildirin.

ABD'nin Kaliforniya eyaletinde yaşayan Matt ve Maria Raine, 16 yaşındaki oğulları Adam Raine’in ölümünden dolayı OpenAI’yi dava etti.

Aile, yapay zeka sohbet programı ChatGPT’nin oğullarını intihara teşvik ettiğini öne sürdü.

Bu dava, OpenAI’ye karşı haksız ölüm iddiasıyla açılan ilk yasal işlem olarak kayıtlara geçti.

Ailenin avukatına göre Raine, intiharından önce aylarca ChatGPT ile uzun sohbetler yaptı ve bu konuşmalar sırasında chatbot gençten gelen yöntem sorularına yanıt verdi, hatta ailesine bırakacağı mektubu yazmasına yardım etmeyi teklif etti.

"AMACI DIŞINDA YANLIŞ KULLANIMDAN KAYNAKLANMIŞTIR"

California Yüksek Mahkemesi’ne yapılan savunmada OpenAI, “Bu trajedinin herhangi bir nedeni varsa, bu durum ChatGPT’nin yetkisiz, amacı dışında ve yanlış kullanımından kaynaklanmıştır” ifadesini kullandı.

Şirket, kullanım şartlarında kendine zarar verme konularında tavsiye alınmasının yasak olduğunu ve kullanıcılara chatbot çıktılarının tek gerçek bilgi kaynağı olarak görülmemesi gerektiğini hatırlattı.

"GÜVELİK İÇİN ÇALIŞMALARIMIZA DEVAM EDECEĞİZ"

OpenAI açıklamasında, "Raine ailesinin yaşadığı kayıp tarifsizdir. Hukuki süreçten bağımsız olarak teknolojimizi güvenli hale getirme konusundaki çalışmalarımıza devam edeceğiz” ifadelerine yer verdi.

Ailenin avukatı Jay Edelson, şirketin yanıtını “rahatsız edici” olarak niteledi ve OpenAI’nin “suçu herkese yüklemeye çalıştığını, hatta Adam’ın koşulları tam da programlandığı şekilde kullandığını söyleyerek onu suçladığını” ifade etti.

UZUN SOHBETLERDE GÜVENLİK ZAFİYETİ 

OpenAI, Ağustos ayında yaptığı açıklamada, uzun süreli konuşmalarda modelin güvenlik eğitiminde zamanla zayıflama olabileceğini kabul etmişti:

“Bir kullanıcı ilk kez intihar niyetini belirttiğinde destek hattına yönlendirme yapılabiliyor. Ancak uzun süre devam eden konuşmalarda güvenlik mekanizması bozulabiliyor. Tam da engellemeye çalıştığımız durum budur.”

Şirket bu ay içinde intihara teşvik iddialarıyla ilgili yedi yeni davayla daha karşı karşıya kaldı.

YORUMLAR

Maksimum karakter sayısına ulaştınız.

Kalan karakter: