ABD'de yapay zeka sorunu: Yargı süreçlerinde kanıtların inandırıcılığı tartışılıyor

Ülke genelinde hakimler, yapay zekanın giderek daha gerçekçi görüntü, video, belge ve ses kaydı üretme kapasitesinin artmasıyla birlikte, mahkemelere sunulan delillerin güvenilirliği konusunda ciddi kaygılar taşıyor.

19 Kas 2025 - 13:32 YAYINLANMA
ABD'de yapay zeka sorunu: Yargı süreçlerinde kanıtların inandırıcılığı tartışılıyor
Hızlı Özet Göster ABD'de yapay zekanın sahte kanıt üretme kapasitesi, mahkemelerde delillerin güvenilirliği konusunda endişe yaratıyor.Hakim Victoria Kolakowski, Kaliforniya'da bir davada sunulan video kanıtı deepfake olarak tanımladı ve dava reddedildi.Uzmanlar, yapay zekanın yargı sürecini etkileyebileceği konusunda uyarıda bulunuyor ve hukukçular, yeni düzenlemelere ihtiyaç duyulduğunu savunuyor. AI özetimiz yardımcı oldu mu? Bize bildirin.

ABD'de yapay zeka alarmı...

Kaliforniya’daki Alameda County Yüksek Mahkemesi’nde görülen bir konut davasında, hâkim Victoria Kolakowski, sunulan bir video kaydında tanığın yüz ve ses hareketlerindeki uyumsuzluklar üzerine delilin yapay zeka ile üretildiğini tespit etti.

DAVA ERTELENDİ

Belgede gerçek bir tanık gibi gösterilen kayıt, hâkim tarafından deepfake kabul edildi ve dava 9 Eylül’de reddedildi.

Yeniden değerlendirme talebi ise 6 Kasım’da reddedildi.

Kolakowski’ye göre bu olay, sahte yapay zekâ görüntülerinin mahkemede delil olarak sunulduğu ilk örneklerden biri ve çok daha büyük bir tehdidin habercisi.

"GERÇEK OLMAYAN BİR DELİLE DAYANARAK KARAR VERMEKTEN KORKUYORUZ"

Minnesota 10. Yargı Bölgesi hâkimi Stoney Hiljus, her geçen gün daha fazla hâkimin bu durumdan endişe duyduğunu söyledi.

Hiljus, "Hâkimler, gerçek olmayan bir delile dayanarak insanların hayatını etkileyecek bir karar vermekten korkuyor." dedi.

Louisiana Beşinci Temyiz Mahkemesi hâkimi Scott Schlegel ise sahte ses kayıtlarının kolayca üretilebileceği ve koruma kararı gibi kritik süreçlerde yanlış kararların çıkabileceği uyarısı yaptı:

Eşim, 30 yıldır benim sesimin her versiyonunu elinde tutuyor. 10 saniye sesle tehdit içeren sahte bir kayıt oluşturup herhangi bir mahkemeye götürebilir. O kayıtla bir hâkim koruma kararını imzalar.

Kaliforniya Santa Clara Yüksek Mahkemesi hâkimi Erica Yew ise deepfake delillerinin sandığımızdan çok daha sık kullanıldığını ancak bunların raporlandığı bir kayıt sistemi bulunmadığını belirtti.

DELİL SİSTEMİ İÇİN YENİ KURALLAR GÜNDEMDE

Ulusal Eyalet Mahkemeleri Merkezi ve Thomson Reuters Enstitüsü, hâkimlerin deepfake delillerle mücadelemelerine yardımcı olmak amacıyla bir rehber yayınladı. Rehber, hâkimlere şu soruları sormalarını öneriyor:

- Delilin kaynağı nedir?

- Kimler delile erişti?

- Dosyada değişiklik yapıldı mı?

- Ek doğrulayıcı kanıt var mı?

Bazı hukukçular, mevcut delil doğrulama kurallarının yeterli olmadığını ve yapay zekâ ile ilgili özel düzenlemelere ihtiyaç duyulduğunu savunuyor.

Ancak ABD Yargı Konferansı mayıs ayında sunulan önerileri kabul etmedi ve mevcut kuralların yeterli olduğu görüşünü benimsedi.

"ARTIK GÜVEN AMA DOĞRULA DEĞİL; GÜVENME VE DOĞRULA DÖNEMİ"

Uzmanlar, yapay zeka sahteciliğinin avukatları da sorumluluk almaya zorlayacağını ifade ediyor. Louisiana’da bu yıl çıkarılan bir yasa, avukatlara müvekkillerinin sunduğu delillerin üretildiği yöntemi araştırma yükümlülüğü getiriyor.

Dijital delil uzmanı Daniel Garrie, yalnızca teknik araçların yeterli olmayacağını, insan uzmanlığının da gerekli olduğunu belirtti.

Yakın gelecekte metadata bilgileri, dosyanın üretim tarihi, cihaz modeli ve düzenleme geçmişi gibi görünmeyen veri katmanları, en önemli doğrulama araçlarından biri olacak.

Uzmanlar, yapay zekanın yargı sisteminin temel dayanağını sarsabileceği uyarısında bulunuyor.

YORUMLAR

Maksimum karakter sayısına ulaştınız.

Kalan karakter: