

Yapay zekâ (artificial intelligence) teknolojilerinin yatırım kararları, tıbbi teşhis ve hatta yaratıcılık gibi alanlarda insanlardan daha iyi performans gösterdiği giderek daha fazla görülmektedir. Bu teknolojileri topluma bütünleştirme isteği yalnızca verimliliği artırma arzusundan değil aynı zamanda en yüksek bakım standartlarını sürdürme taahhüdünden de kaynaklanmaktadır. Yapay zekâ teknolojileri insan yargısını geride bıraktığında, bakım standardının yapay zekâ kullanımını gerektirip gerektirmediği sorusu ortaya çıkar.
Sidney Üniversitesi’ndeki ‘Özel Hukukun Kesişim Noktaları’ (Intersections of Private Law) konferansında[1], İngiliz haksız fiil hukukunun (tort law) analitik yapay zekâ destekli cihazları kullanma ve takip etme görevini dayatması için salt istatistiksel üstünlüğün yeterli olmadığı savunulmuştur. Bu, böyle bir cihazı kullanmamanın veya yapay zekâ tarafından üretilen sonuçları takip etmemenin mutlaka bir özen yükümlülüğünün ihlali (breach of duty of care) anlamına gelmediği anlamına gelir. Cihaz, test durumlarında geleneksel yöntemlerden veya insan uzmanlardan daha yüksek doğruluk [bir modelin ‘isabet oranı’ (hit rate)] veya daha düşük ortalama hata boyutu gösterse bile, bir davacı bilgi kısıtlamaları nedeniyle davalının eylemlerinin mantıksızlığını ortaya koyamayabilir ve bu nedenle başarılı bir ihmal davası açamayabilir (aşağıda ‘1’). Bilgi ve kaynak kısıtlamaları, yapay zekâ şeffaflığı (aşağıda ‘2’) ve ‘süreç tabanlı’ yasal veya kurumsal rehberlik (aşağıda ‘3’) yoluyla ele alınabilir.
1. Sorun: İhmal Hesabı [negligence calculus]
Yapay zekâ içeren ihmal iddiaları, dava riski analiz yazılımı kullanan avukatlar veya finansal analiz aracı kullanan yatırım danışmanları dâhil olmak üzere çeşitli profesyonel ortamlarda ortaya çıkabilse de, yapay zekâ tıbbi teşhislerde özellikle ileri düzeydedir. Klinisyenin (gözden kaçan) erken evre kanseri tespit etmek için yapay zekâ özellikli bir cihaz kullanması gerektiğini veya klinisyenin cihazın teşhisini geçersiz kılmak yerine onu takip etmesi gerektiğini iddia eden bir hastayı düşünelim. Klinisyenin özen yükümlülüğünü ihlal ettiğini kanıtlama (prove) hastaya aittir. Bakım standardı, riskin büyüklüğü, zararın ciddiyeti, önlem almanın maliyeti ve davalının davranışının faydası (‘ihmal hesabı’) gibi bir dizi faktöre dayanmaktadır. Bir yapay zekâ uygulamasının (marjinal) finansal, teknik ve operasyonel karşılanabilirliğini değerlendirmek (eğitim maliyetleri, mevcut iş akışlarına entegrasyon ve düzenleyici yükümlülüklere uyum dâhil) önemli bir zorluk oluşturmaktadır. Dahası, yapay zekâ destekli bir cihazın kullanımındaki potansiyel riskleri öngörmek ve tanımak iki ana nedenden ötürü benzersiz derecede zordur.
Öncelikle, yapay zekâ kullanıcılarının riskin mutlak boyutunu, yani cihazın yanlış tahminde bulunma olasılığını değerlendirmesi zor olacaktır. Yapay zekâ kararlarının içsel opaklığı ve karmaşıklığı göz önüne alındığında, modeller bir insanın aksine tahminlerini açıklamaz. Kullanıcı, eğitim ve doğrulama aşamaları sırasında cihazın performansı hakkında istatistiksel bilgilere sahip olacaktır, ancak şu anda eğitim ve test verileri veya alan-özelinde kıyaslamalar için somut standartlar bulunmamaktadır (no concrete standards for training and test data or domain-specific benchmarks[2]). Klinisyen bu verilerin kalitesini ve çeşitliliğini veya klinik uygulamalarının test verilerini yansıtıp yansıtmadığını bilmiyor olabilir. Modelde, klinisyenin hastalarında yaygın olan sistematik önyargılar olabilir veya model, tıbbi durumların sahip olduğu faktör kombinasyonlarının karşılıklı bağımlılıklarını ve etkisini tam olarak hesaba katmıyor olabilir.
İkinci olarak, riskin marjinal boyutunu değerlendirmek zor olacaktır. İlaç risk değerlendirmesinin aksine (burada yan etki riskleri hastalar arasında da değişebilir), klinisyenlerin cihazın performansını kendi yargılarıyla karşılaştırmaları gerekecektir. Yapay zekâ sistemlerinin bilişsel süreçleri taklit etmeye çalışmayan geleneksel teknolojilerden farklılaştığı yer burasıdır. Her klinisyenin benzersiz becerilere ve deneyimlere sahip olduğu göz önüne alındığında, bu bireyselleştirilmiş kıyaslama zorlu bir görevdir[3].
İlk nokta, yani yapay zekâ performansının olasılık açısından değerlendirmesinin bireysel hasta vakalarına çevrilmesindeki zorluklar, matematiksel olasılık ile yargısal gerçek bulma arasındaki uyumsuzluk hakkında kanıt teorisinde uzun süredir devam eden bir tartışma ile vurgulanabilir. “XYZ Ltd v Schering Health Care Ltd [2002] EWHC 1420” davasında, nedensellik sorunu, davacının davalı tarafından üretilen oral kontraseptif hapları yutmasının davacının kardiyovasküler yaralanmalarının nedeni olup olmadığıydı. Nedensellik için ‘ama’ testi (but for-test) birden fazla katkıda bulunan faktör nedeniyle etkili bir şekilde uygulanamadığı için, mahkeme riskte önemli bir artış olup olmadığını belirlemek için ‘riskin iki katına çıkması’ testini (doubling of the risk-test) uygulamıştır. Yalnızca eksiksiz ve sağlam veriler ile uygulanabilen test [Sienkiewicz v Greif Ltd (2011) UKSC 10], davalının ihmali davacının zarar görme riskini iki katına çıkarırsa karşılanmış olur.
Ancak delil bilimcileri, yargısal gerçek bulmanın matematiksel olasılıkla temelde bağdaşmadığını düşünmektedir. Bunun nedeni yalnızca sanığın akranlarından farklılaşma yeteneğini reddederek özerkliği ve bireyselliği baltalaması değildir. Yukarıda belirtildiği gibi, gözlemlenen ilişkiler yalnızca tesadüfi olabilir veya kafa karıştırıcı faktörlerden kaynaklanabilir. Bu nedenle, anlamlı bir sonuca ulaşmak için istatistikler daha fazla bilgiyle desteklenmelidir. Nedensel bir ilişkinin epidemiyolojik kanıtını oluşturmak için mahkemeler, ‘makullük’ ve ‘tutarlılık’ (plausibility and coherence) gibi Bradford Hill kriterlerine onaylayarak atıfta bulunmuştur [Reay v British Nuclear Fuels Plc (1994) 5 Med LR 01, Ministry of Defence v Wood (2011) EWCA Civ 792].
2. Strateji: Yapay Zekâ Şeffaflığı [artificial intelligence transparency]
Bundan, yalnızca olgusal nedenselliği kanıtlamak için değil, yapay zekâ kullanımı için de bazı dersler çıkarılabilir. Mahkemelerin ve hukuk bilimcilerinin olasılıklara güvenmekle nasıl başa çıktıkları, kullanıcıların yapay zekâ destekli bir cihaz kullanırken ‘risk boyutunu’ (size of risk) belirlemelerini sağlamak için açıklayıcı gerekçelere olan ihtiyacı vurgular. Bir cihazın istatistiksel olarak insanlardan daha iyi performans gösterdiği durumlarda bile, yapay zekâ destekli bir cihaz kullanma veya yapay zekâ tarafından üretilen bir çıktıyı takip etme görevi genellikle yalnızca ek bilgi varsa (‘şeffaflık’) belirlenebilir.
- Yapay zekâ destekli bir cihaz kullanma görevi, ‘dağıtım öncesi şeffaflık’ (pre-deployment transparency) gerektirir. Bu, sistemi eğitmek ve doğrulamak için kullanılan veri kaynakları ve algoritmik tasarım hakkında bilgi sağlamayı, modelin potansiyel risklerini ve sınırlamalarını iletmeyi ve gizlilik gibi etik yönleri ele almayı içerir. Model şeffaflığına katkıda bulunan teknik yardımcılar, permütasyon veya ağaç tabanlı özellik önem analizi, kısmi bağımlılık çizimleri veya kural çıkarma yöntemleridir.
- Yapay zekâ tarafından üretilen bir çıktıyı takip etme görevi, ‘dağıtım sonrası yorumlanabilirliğe’ (post-deployment interpretability) bağlı olacaktır. Bu, bir yapay zekâ sisteminin karar alma sürecini geriye dönük olarak açıklama becerisini ifade eder ve kullanıcıların yapay zekânın belirli bir sonuca nasıl ulaştığını doğrulamalarına ve onaylamalarına olanak tanır. ‘Açıklanabilir yapay zekâ’ teknikleri arasında bireysel koşullu beklenti (individual conditional expectation[4]) çizimleri, karşıt olgusal açıklamalar, belirginlik haritaları ve SHapley eklemeli açıklamaları (SHapley Additive exPlanations-SHAP[5]) değerleri bulunur.
Yapay zekâ kullanıcısını bunaltmaktan kaçınmak için bilgilere kolayca erişilebilmelidir; aksi takdirde, ‘önlem almanın maliyeti’ (cost of taking precautions) yapay zekâ kullanımının geçerli bakım standardı kapsamında zorunlu olmasını engelleyebilir. Olumlu bir not olarak, bu şeffaflık yalnızca yapay zekâ kullanıcılarının bilinçli kararlar almasına yardımcı olmakla kalmaz, aynı zamanda mahkemelerin yalnızca istatistiksel kanıtlara güvenmeden olgusal nedensellik kurmasını da sağlar.
3. Strateji: ‘Süreç Tabanlı’ Yasal veya Kurumsal Rehberlik [process-based statutory or institutional guidance]
Buna ek olarak, bilgi ve kaynak sınırlamaları ‘süreç tabanlı’ yasal veya kurumsal rehberlikle ele alınabilir. Avrupa Birliği’nin Yapay Zekâ Yasası’nın (gelecekteki[6]) İngiltere eşdeğerleri kapsamında belirtilen talimatlar gibi yasal görev ihlali, hükmün davacıyı korumayı amaçlaması durumunda bir görev ihlali anlamına gelebilir (‘yasal ihmal’). Kamu otoritelerinin önerileri de özellikle tıbbi teşhis gibi yüksek riskli ortamlarda giderek daha etkili hale gelecektir. En azından tıpta, Ulusal Sağlık ve Bakım Mükemmelliği Enstitüsü (National Institute for Health and Care Excellence) gibi kuruluşların yönergeleri bir bakım standardı belirler ve NICE hâlihazırda yapay zekâ özellikli cihazları test etmektedir[7]. “Bolam v Friern Hospital Management Committee [1957] 1 WLR 583”te belirtildiği gibi, bir klinisyen, sorumlu bir tıbbi görüş organı tarafından uygun olarak kabul edilen bir uygulamaya uygun şekilde hareket ederse ihmalkâr olarak kabul edilmeyecektir. Bu yaklaşım, karar alma yükünün bir kısmını klinisyenden, cihazların geçerli bakım standardına göre gerekli olacak kadar güvenli olduğu konusunda kesin bir karar verme kaynaklarına sahip bir kuruma kaydırır. Bu tür kararlar daha sağlam, daha savunulabilir ve halk tarafından kabul edilme olasılığı daha yüksektir.
[1] <https://law-events.sydney.edu.au/events/privatelaw-intersections>
[2] <https://carnegieendowment.org/research/2024/03/ai-and-product-safety-standards-under-the-eu-ai-act?lang=en>
[3] <https://hms.harvard.edu/news/does-ai-help-or-hurt-human-radiologists-performance-depends-doctor>
[4] <https://christophm.github.io/interpretable-ml-book/ice.html>
[5] <https://christophm.github.io/interpretable-ml-book/shap.html>
[6] <https://www.gov.uk/government/consultations/ai-regulation-a-pro-innovation-approach-policy-proposals/outcome/a-pro-innovation-approach-to-ai-regulation-government-response>
[7] <https://www.nice.org.uk/guidance/published?q=artificial+intelligence>
Yavuz Akbulak
1966 yılında, Gence-Borçalı yöresinden göç etmiş bir ailenin çocuğu olarak Ardahan/Çıldır’da doğdu. 1984 yılında yapılan sınavda Gazi Üniversitesi İktisadi ve İdari Bilimler Fakültesi Maliye bölümünü kazandı. 1985 yılında Marmara Üniversitesi İktisadi ve İdari Bilimler Fakültesi Maliye bölümüne yatay geçiş yaptı ve 1988’de Marmara Üniversitesi İktisadi ve İdari Bilimler Fakültesi Maliye bölümünü birincilikle, Fakülteyi ise 11’inci olarak bitirdi.
1997 yılında Amerika Birleşik Devletleri’nin Denver şehrinde yer alan ‘Spring International Language Center’da; 65’inci dönem müdavimi olarak 2008-2009 döneminde Milli Güvenlik Akademisi’nde (MGA) eğitim gördü ve MGA’dan dereceyle mezun oldu. MGA eğitimi esnasında ‘Sınır Aşan Sular Meselesi’, ‘Petrol Sorunu’ gibi önemli başlıklarda bilimsel çalışmalar yaptı.
• Türkiye’de Yatırımların ve İstihdamın Durumu ve Mevcut Ortamın İyileştirilmesine İlişkin Öneriler (Maliye Hesap Uzmanları Vakfı Araştırma Yarışması İkincilik Ödülü);
• Türk Sosyal Güvenlik Sisteminde Yaşanan Sorunlar ve Alınması Gereken Önlemler (Maliye Hesap Uzmanları Vakfı Araştırma Yarışması İkincilik Ödülü, Sevinç Akbulak ile birlikte);
• Kayıp Yıllar: Türkiye’de 1980’li Yıllardan Bu Yana Kamu Borçlanma Politikaları ve Bankacılık Sektörüne Etkileri (Bankalar Yeminli Murakıpları Vakfı Eser Yarışması, Övgüye Değer Ödülü, Emre Kavaklı ve Ayça Tokmak ile birlikte),
• Türkiye’de Sermaye Piyasası Araçları ve Halka Açık Anonim Şirketler (Sevinç Akbulak ile birlikte) ve
• Türkiye’de Reel ve Mali Sektör: Genel Durum, Sorunlar ve Öneriler (Sevinç Akbulak ile birlikte)
başlıklı kitapları yayımlanmıştır.
• Anonim Şirketlerde Kâr Dağıtımı Esasları ve Yedek Akçeler (Bilgi Toplumunda Hukuk, Ünal TEKİNALP’e Armağan, Cilt I; 2003),
• Anonim Şirketlerin Halka Açılması (Muğla Üniversitesi İktisadi ve İdari Bilimler Fakültesi Tartışma Tebliğleri Serisi II; 2004)
ile
• Prof. Dr. Saim ÜSTÜNDAĞ’a Vefa Andacı (2020), Cilt II;
• Prof. Dr. Saim Üstündağ’a İthafen İlmi Makaleler (2021);
• Prof. Dr. Saim Üstündağ’a İthafen İlmi Makaleler II (2021);
• Sosyal Bilimlerde Güncel Gelişmeler (2021);
• Ticari İşletme Hukuku Fasikülü (2022);
• Ticari Mevzuat Notları (2022);
• Bilimsel Araştırmalar (2022);
• Hukuki İncelemeler (2023);
• Prof. Dr. Saim Üstündağ Adına Seçme Yazılar (2024);
• Hukuka Giriş (2024);
• İşletme, Pazarlama ve Hukuk Yazıları (2024),
• İnterdisipliner Çalışmalar (e-Kitap, 2025)
başlıklı kitapların bazı bölümlerinin de yazarıdır.
1992 yılından beri Türkiye’de yayımlanan otuza yakın Dergi, Gazete ve Blog’da 3 bini aşkın Telif Makale ve Telif Yazı ile tamamı İngilizceden olmak üzere Türkçe Derleme ve Türkçe Çevirisi yayımlanmıştır.
1988 yılında intisap ettiği Sermaye Piyasası Kurulu’nda (SPK) uzman yardımcısı, uzman (yeterlik sınavı üçüncüsü), başuzman, daire başkanı ve başkanlık danışmanı; Özelleştirme İdaresi Başkanlığı GSM 1800 Lisansları Değerleme Komisyonunda üye olarak görev yapmış, ayrıca Vergi Konseyi’nin bazı alt çalışma gruplarında (Menkul Sermaye İratları ve Değer Artış Kazançları; Kayıt Dışı Ekonomi; Özkaynakların Güçlendirilmesi) yer almış olup; halen başuzman unvanıyla SPK’da çalışmaktadır.
Hayatı dosdoğru yaşamak ve çalışkanlık vazgeçilmez ilkeleridir. Ülkesi ‘Türkiye Cumhuriyeti’ her şeyin üstündedir.
