HABERLER
  • Son Güncelleme : 12.12.2022 22:23
  • Haber Giriş : 13.12.2022 18:09
  • Etkinlik : 13.12.2022

Yargıda Yapay Zekâ Kullanımı Hakkında Bildiri

İstanbul Barosu Bilişim Hukuku Komisyonu olarak, Yargıtay Başkanlığı ve Avrupa Konseyi tarafından yürütülen, Avrupa Birliği ve Avrupa Konseyi tarafından finanse edilen Yargıtay’ın Kurumsal Kapasitesinin Güçlendirilmesi Projesi kapsamında geliştirilen, yapay zekâ ile çalışması planlanan Yargıtay İçtihat Merkezi sistemine ilişkin kamuoyunda çıkan haberlere ve açıklamalara yanıt vermek isteriz.

Yapay zekâ sistemlerinin kullanım alanlarının günden güne arttığına, bu sistemlerin her geçen gün daha kritik ve önemli konularda karar mekanizması olarak kullanıldığına şahit oluyoruz. Hayatlarımızın ayrılmaz bir parçası haline gelen yapay zekânın hukuk dünyasında kullanımı ve etkileri de bu aşamada kaçınılmaz hale geliyor. Zira yapay zekâ farklı coğrafyalarda da içtihat tarama, belgelendirme, tasnif, iş takibi, karar destek veya karar mekanizması, hukuki danışmanlık veya analiz gibi birçok alanda hali hazırda kullanılıyor. Ancak bu kullanımın etkileri birtakım soruları beraberinde getiriyor. İstanbul Barosu olarak, hukukta yapay zekâ kullanımının olumlu ve olumsuz yanlarını ortaya koyarak yapay zekânın geliştirilmesinde, tasarımında ve kullanımında dikkat edilmesi gereken hususlara işaret etmek istiyoruz.

• Yapay zekânın sistemine yüklenen verileri tasnif ederek dokümantasyon; etiketli verileri analiz ederek hukuki dokümanların özetlenmesi; daha önceden verilmiş mahkeme kararlarının sistemine yüklenmesi neticesinde kararlar arasındaki benzerlik ve farklılıkları tespit ederek benzer uyuşmazlıklar için çözüm önerisi getirmesi; öngörücü tahminlerde bulunabilmesi gibi faaliyetlerinin yargıda hız, adalete erişim, bürokratik iş yükünün azalması ve eşitlik hususunda olumlu etkileri olduğu yönündeki görüşlere katılıyoruz. Nitekim gelişmiş arama filtrelerinin, yargılama faaliyetlerinin aktörlerinin iş ve işlemlerini kolaylaştıracağı son derece açıktır. Yapay zekânın dijital delillerin toplanması, işlenmesi ve gerektiğinde bu verilere erişilmesi noktasında da birtakım kolaylıklar sağladığını düşünüyoruz. Öte yandan, yapay zekânın gelişmiş maskeleme ve şifreleme yöntemlerinin, veri güvenliğini sağlamada olumlu bir etkisi olabileceğini de belirtmek isteriz. Ancak bu noktada, özellikle yapay zekânın teknik sağlamlık ve güvenlik, veri güvenliği ve kişisel verilerin korunmasına ilişkin risk ve endişeler yarattığı da göz ardı edilmemelidir.

• Yapay zekâ sistemlerinin eğitildikleri veri setlerinin önyargı barındırması neticesinde eşitliği zedeleyecek sonuçlara sebebiyet verebilmesi ihtimali göz ardı edilmemelidir. İnsanlar tarafından verilmiş kararları analiz ederek çıktı üreten yapay zekânın, insan önyargısını pekiştirmesi riskinin, kabul edilebilecek riskler arasında yer almadığı kanaatindeyiz.

• Yapay zekânın doğrudan karar mekanizması olarak kullanılması, yargılama faaliyetlerinin bu sistemlere devredilmesi tartışmaları ise sıklıkla gündeme gelen bir başka husustur. Yapay zekâ sistemlerinin, hakimlerin takdir yetkisi, hakkaniyet, vicdani kanaat gibi unsurlardan yoksun olduğu göz önünde bulundurulduğunda; bu sistemlerin hayatın olağan akışına uygunluk, ölçülülük, adillik gibi birçok insani ve soyut unsuru değerlendirmede yetersiz olacağı, dolayısıyla yargıda doğrudan bir karar mekanizması olarak kullanılamayacağı görüşünü benimsiyoruz.

• Mutlaka değinilmesi gereken bir diğer husus ise opaklık problemidir. Sistemlerin karar mekanizmalarının açıklanamadığı haller, teknik tabiri ile “kara kutu” içermesi, yargı için geri dönülemez zararlar doğuracaktır. Opak sistemlerin adil yargılanma ve kararların gerekçelendirilmesi ilkelerinde yaratacağı probleme dikkat çekmek isteriz. Bu risk, yargılama faaliyetlerinde benimsenen ve vazgeçilmesi söz konusu dahi olmayan birçok ilkenin temelden sarsılmasına sebebiyet verebilecektir.

• Yargıda yapay zekâ kullanımında önemli bir diğer husus ise yapay zekânın dilin karmaşık yapısı, bağlamın anlamlandırılması, mantıksal bütünlüğün sağlanması gibi birtakım dile dayalı unsurlarda yaşadığı problemdir. Bu durum, dilin kullanımının son derece önemli olduğu yargılama faaliyetlerinde büyük önem arz etmektedir.

• Yapay zekânın önleyici ve öngürücü kolluk faaliyetleri çerçevesinde canlı yüz tanıma sistemleri gibi vasıtalarla işlediği veriler neticesinde gerçekleştirdiği profilleme faaliyetleri her ne kadar suç ve suçlularla mücadeleyi kolaylaştırabilecek ise de bu uygulamanın potansiyel suçlu profillerinin oluşturulması, kişisel verilerin korunması, masumiyet karinesinin zedelenmesi, ayrımcılığın pekiştirilmesi gibi birtakım etik ve hukuki riskler barındırdığı kanaatindeyiz.

Günümüz dünyasında yapay zekâyı kullanmaktan kaçınmanın bir seçenek olmadığını kabul ediyor; ancak bu kullanımın fayda-zarar dengesi gözetilerek, derinlemesine hukuki ve etik değerlendirmeler yapılarak, risk temelli bir yaklaşım ile temellendirilmesi gerektiğini düşünüyoruz. İnsan denetiminin, bu sürecin her daim bir unsuru olması gerektiğinin altını çiziyoruz. Mevcut teknolojinin, yapay zekanın doğrudan karar mekanizması olarak kullanılması için elverişli olmadığını; ancak bu sistemlerden, gerekli önlemler alındığı ve gerekli hukuki düzenlemeler yapıldığı takdirde karar destek mekanizması olarak yararlanılabileceği yönündeki görüşlerimizi yineliyoruz.

Sonuç olarak; yargıda yapay zekâ kullanımı, avantajları ve dezavantajları ile bir bütün olarak ele alınmalı, üniversiteler, sivil toplum kuruluşları, yargının tüm kurucu unsurları, barolar nezdinde çeşitli akademik tartışmalar yapılmasına müteakip toplum yararına olacak şekilde geliştirilmelidir.

İstanbul Barosu Bilişim Hukuku Komisyonu



 

YAZDIR
Yükleniyor...