Küresel Yapay Zekâ Yönetişimi – Bölüm 3: ‘Parçalanmış Bir Gelecek ve Trump’ın Dönüşü’

Giriş

Önceki iki blog yazısında[1] temel modellerin nasıl geliştirilip uyarlandığını, özelliklerinin geliştirici ve dağıtıcı ülkeler arasında nasıl bir fark yarattığını ve ülkelerin küresel, çok boyutlu yapay zekâ yönetişimi satranç oyununda söz sahibi olmak için hangi stratejileri benimseyebileceğini açıkladık. Bu son yazıda ise, küresel yapay zekâ yönetişiminin mevcut durumunun açıklanması ve ileriye yönelik olası yolları taslak halinde sunulması amaçlanmaktadır. Yazıda ayrıca ikinci Trump yönetiminin olası etkisi tartışılmakta, değer zincirinin farklı seviyelerinde şu anda hangi politikaların tartışıldığı ve düzenleyici otoritelerin küresel yönetişim çerçevesinde hangi zorluklarla karşılaşacağı özlü bir şekilde açıklanmaktadır.

  1. Dağıtım Öncesi Rehberliğin Rolü [role of pre-deployment guidance]

Geliştiriciler uygulamada uyumu sağlamak, ürünlerinin yasallığını ve güvenliğini sağlamak amacıyla uygun prosedürlere sahip olmak isteyecektir. Şu anda birkaç ülke, geliştiricilere bu görevi kolaylaştırmak için rehberlik sağlamaya çalışmaktadır. Örneğin, NIST[2] Yapay Zekâ Risk Yönetişimi Çerçevesi[3] (Artificial Intelligence Risk Management Framework), yapay zekâ sistemlerinin yaşam döngüsü boyunca riskleri değerlendirmek ve azaltmak için temel rehberlik sağlar. Ayrıca, büyük firmalar ve diğer devlet kurumları da sorumlu yapay zekâ yol haritaları, ilişkili araç takımları ve kırmızı takım yönergeleri oluşturmaktadır[4].

NIST Yapay Zekâ Risk Yönetişimi Çerçevesi, düzenleyici zorunluluklara uyumu kolaylaştıran çeşitli kullanım durumu profillerini[5] ana hatlarıyla belirtir. Geliştiriciler bu profillere uyarak dağıtımdan sonra ortaya çıkan yasal ve etik sorunların olasılığını önemli ölçüde azaltabilir. Bu da yapay zekâ teknolojilerine olan güveni ve güvenilirliği artırır. Daha fazla yapay zekâ yasası yürürlüğe girdikçe, bu yapay zekâ uygulama çerçeveleri, küresel yapay zekâ yönetişimi tarafından yaratılan zaman zaman karmaşık düzenleyici ortamda uyumu sağlamada giderek daha önemli bir rol oynayacaktır.

Önemli olarak, dağıtım öncesi test rutinleri yalnızca Yapay Zekâ Yasası’nda (Maddeler 9, 15 ve 55) önemli bir rol oynamakla kalmıyor, aynı zamanda Kaliforniya SB 1047[6] uyarınca özellikle güçlü, gelecekteki yapay zekâ modelleri için de zorunlu hale gelecekti. Kaliforniya yasama organı tarafından kabul edilen bu yasa tasarısı sonunda Vali tarafından veto edilmiş olsa da, küresel yapay zekâ düzenlemesinin gidişatının, bilhassa en güçlü modeller için daha fazla dağıtım öncesi test ve müdahaleye doğru gittiğini açıkça göstermektedir.

  1. Açık Kaynak Muamması [open-source conundrum]

Dağıtım öncesi test etme hukuku henüz olgun bir bilime dönüşmemiş olsa da, yapay zekâ yönetişim manzarası[7] yapay zekâ yönetişimindeki en çetrefilli sorunlardan biri olan açık kaynaklı yapay zekâ modelleri ile daha da karmaşık hale getirilmektedir. Tamamen açık kaynaklı olandan tamamen kapalı modellere kadar uzanan temel modellere erişmek için çeşitli yaklaşımlar mevcuttur ve barındırılan erişim, API erişimi ve parametrelerin, mimari hakkındaki bilgilerin, eğitim verilerinin ve öğrenme mekanizmalarının açık kaynaklı hale getirilmesini kapsar. Bu modeller, politika yapıcıların uygulanabilir bir çözüm bulması gereken bir düzenleyici bulmaca sunar.

Ticari yapay zekâ çerçevelerindeki ‘açık kaynak’ (open-source) terimi, yapay zekâ yönetişim çerçevelerindeki tanımıyla uyuşmayabilir. Örneğin, Avrupa Birliği Yapay Zekâ Yasası’nı ele alalım. ‘Açık kaynak’ olarak nitelendirilmek ve belirli muafiyetlerden yararlanmak için bir modelin her şeyi ortaya koyması gerekir:

  • Genel kullanıma açık parametreler (ağırlıklar dâhil);
  • Mimari ve model kullanımı hakkında bilgi,
  • Ücretsiz erişim, kullanım, değişiklik ve dağıtım.

“Açık kaynak” olarak etiketlediğimiz bazı modeller, bu katı ölçütlere uymayabilir. Allen Enstitüsü’nün ‘OLMo 7B’ modeli[8], tüm koşulları karşılayan bir modelin örneğidir. Yapay Zekâ Yasası tüm eğitim verilerinin kamuya ifşa edilmesini zorunlu kılmasa da (Rec. 102), kapsamlı zorunluluklar (parametreler, mimari, kullanım) yine de, Mistral ve Meta’nınkiler gibi, halk arasında “açık kaynak” olarak adlandırılan bir dizi modelin, yalnızca ağırlıklar ve model ücretsiz olarak yayınlanırsa, Yasanın açık kaynak muafiyetine hak kazanamayabileceği anlamına gelir.

Yapay Zekâ Yasası uyarınca, açık kaynaklı modeller bazı sınırlı muafiyetlerden yararlanır: Temel modeller için şeffaflık yükümlülüklerinden [Yapay Zekâ Yasası (Artificial Intelligence Act), madde 53(2)] ve Yapay Zekâ değer zincirindeki belirli dokümantasyon görevlerinden [Yapay Zekâ Yasası, madde 25(4)] muaftırlar. Ancak, bu muafiyetler sistemik risk içeren genel amaçlı modeller, yani özellikle güçlü temel modeller için geçerli değildir (Yapay Zekâ Yasası, madde 51). Bu yasal mimarinin arkasındaki fikir şudur: Modele ilişkin bilgiler açık kaynak sağlama sürecinin bir parçası olarak ifşa edilirse, bu yöndeki yasal yükümlülükler ortadan kalkar. Ancak, en yetenekli modeller için Yapay Zekâ Yasası, Ek XI’de zorunlu kılınan tüm kritik bilgilerin (örneğin, eğitim verileri; önyargılar ve enerji tüketimi) gerçekten de genel kamuoyuna sunulmasını sağlamayı amaçlamaktadır. Ancak, açık kaynaklı modeller yüksek riskli yapay zekâ risk sistemlerine entegre edilirse, bu sistemleri yöneten kurallar uygulanır (Yapay Zekâ Yasası, madde 9 ve devamı); Benzer şekilde, açık kaynaklı modeller insan deneklerle etkileşime girerse, Yapay Zekâ Yasası’nın 50. maddesinin şeffaflık hükümlerine uymaları gerekir (örneğin, yapay zekâ kullanımı ve ileri sahtecilik hakkında bildirim). Amerika Birleşik Devletleri’nde (ABD), bildiğimiz kadarıyla, Ulusal Yapay Zekâ Danışma Kurulu ve NTIA[9] (ABD Ticaret Bakanlığı’nın bir kurumu) gibi danışma komitelerinden bulgular ve öneriler olmuştur ancak ‘açık kaynaklı’ modellerin faydalarını ve risklerini ele alan belirli yasalar yoktur. ABD’de öneri, politikada değişiklik gerekip gerekmediğini belirlemek için bu ikili kullanımlı, açık ağırlıklı temel modellerin izlenmesi olmuştur.

  1. Öncü Açık Kaynak Modelleri için Düzenleme [regulating for frontier open-source models]

Daha genel olarak, politika yapıcılar inovasyonu teşvik etmek ve riskleri azaltmak arasında hassas bir denge eylemi gerçekleştirirler. Açık kaynaklı modeller rekabeti, araştırmayı ve yapay zekânın benimsenmesini sağlayabilir. Ancak bu modeller kapalı modellerle birçok riski paylaşır ve kontrol edilmesi daha zor olabilir.

Sınır ve gelecekteki yapay zekâ modelleri alanına girdiğimizde (GPT-6 ve ötesini düşünelim) riskler daha da yükselmektedir. Dolayısıyla, bu modeller kolayca güvenlik önlemlerinden çıkarılıp kötü niyetli aktörler tarafından kötü niyetli amaçlar için kötüye kullanılabildiğinden, teknik ve politika çerçevelerindeki tartışmalar kızışmaktadır. Belirli bir örnek, filigranlar ve veri kökeni sorunudur. Üyeliği, ABD’deki kapalı ve açık kaynaklı modellerin tüm büyük model geliştiricilerinin yanı sıra Adobe, Microsoft ve diğerleri gibi diğer önemli oyuncuları da içeren içerik kökeni ittifakı (c2Pa.org), verilerin yapay zekâ tarafından nasıl dönüştürüldüğünü, değiştirildiğini ve üretildiğini izlemek için veri kökeni standartları ve filigranlama teknolojisi (örneğin, google SynthID) geliştirmiştir. Ancak, ABD’de ve dünyanın başka yerlerinde C2PA’nın[10] parçası olmayan bir dizi model (küçük ve büyük) oluşturulmuştur. Kötü niyetli kullanıcılar, C2PA veri kökeni ve filigranlamasına uymadan içerik oluşturabilir ki; bu etiketlerden bazılarının açık kaynaklı teknoloji kullanılarak kaldırılması mümkündür. Dolayısıyla özel sektör öncülüğündeki çözümlerin önemli bir değeri olsa da, yasal bir çerçevenin yokluğunda yönetişim yetersiz kalacaktır.

Son çalışmalar, yalnızca internet erişimi ve Google araması kullanmaya kıyasla açık kaynaklı modellerin marjinal riskinin henüz çok önemli olmadığını öne sürmektedir (…). Ancak modeller daha güçlü, etken ve karmaşık akıl yürütme görevlerini icra etme yeteneğine sahip hale geldikçe oyun değişmektedir.

Uluslararası yapay zekâ yönetişimi için ders açıktır: uyarlanabilir, yetenek tabanlı düzenlemelere ihtiyacımız bulunmaktadır. Modeller, sıkı dağıtım öncesi güvenlik testleriyle belirlenen belirli yetenek eşiklerini aştıkça, spektrumun kapalı ucuna doğru daha fazla kaymaları gerekebilir.

Gelecek şöyle görünebilir: Araştırmacılara bu güçlü modelleri incelemeleri için ayrıcalıklı erişim sağlanacak, ancak güvenlik özelliklerinin kolayca aşılmasını önlemek için bunlar tam olarak açık kaynaklı olarak dağıtılmayacaktır.

Açık kaynak bilmecesi, geliştirici-dağıtıcı satranç oyunumuza bir katman daha eklemektedir. Artık sadece yapay zekâyı kimin yarattığı veya kullandığıyla ilgili değil; bu güçlü araçların ne kadar erişilebilir ve değiştirilebilir olması gerektiğiyle ilgilidir.

  1. Dağıtımdan Sonra Riskleri Yönetme

Bir model dağıtıldıktan sonra yeni zorluklar ortaya çıkar. Odak, modelin sürekli izlenmesine ve olumsuz olayların raporlanmasına kayar[11]. ABD Ulusal Yapay Zekâ Danışma Komitesi[12] (National AI Advisory Committee) tarafından da önerilen bu zorluğun üstesinden gelmenin bir yolu, Yapay Zekâ Bilgisayar Acil Durum Müdahale Ekiplerinin (Artificial Intelligence Computer Emergency Response Teams) kullanılmasıdır[13]. Acil Durum Müdahale Ekibi kavramı, siber güvenlik olayları durumunda acil yardım sağlayan uzman grupları olan Acil Durum Müdahale Ekiplerinin olduğu geleneksel yazılım geliştirmeden kaynaklanmaktadır. Benzer şekilde, Yapay Zekâ Bilgisayar Acil Durum Müdahale Ekipleri, bir temel modelin neden olduğu dağıtım sonrası bir güvenlik riskinin etkilerini azaltabilir (OECD[14] tarafından barındırılan bir yapay zekâ olay izleme sistemi[15] zaten vardır). Bununla birlikte, yapay zekâ modellerindeki güvenlik açıklarını gidermek, kendi zorluklarına neden olur. Sorunlar yalnızca bir modeli yeniden eğiterek düzeltilebildiğinde, bu kapsamlı maliyetlere yol açabilir. Paydaşları şeffaflığa ve hesap verebilirliğe bağlamak ve bu konularda işbirliği yapmalarını sağlamak için, yasanın etkili bir uygulama mekanizması sağlaması gerekir.

Yapay zekâdan kaynaklanan riskleri değerlendirmek hâlâ devam eden bir çalışmadır. Şu anda yapay zekâ değerlendirmesi için bazı yenilikçi yaklaşımlar geliştirilmektedir. Bu nedenle bunların pratikte tam olarak nasıl tanımlanacağı ve azaltılacağı kesin olarak tahmin edilemez. Azaltma stratejilerinin teoriden pratiğe geçebilmesini sağlamak için bu araştırmanın sürekli destek alması önemlidir.

  1. Küresel Yapay Zekâ Standartlarını Geliştirme

Standardizasyonun yapay zekâ yönetişiminde önemli bir rol oynayabileceğini ve düzenlemenin uygulayıcı düzeyinde belirli bir küreselleşmeye yol açabileceğini daha önce vurguladık. ABD Yapay Zekâ Yüksek Düzeyli Danışma Kurulu (United States High Level Advisory Body) yakın zamanda küresel yapay zekâ yönetişiminde ‘tutarlı bir çaba’ (coherent effort) çağrısında bulunan ‘İnsanlık İçin Yapay Zekâ Yönetişimi’[16] (Governing Artificial Intelligence for Humanity) konulu nihai raporunu yayınlamıştır. Genel amaçlı yapay zekâ için Avrupa Birliği Uygulama Kodu[17] (European Union Code of Practice) yapım aşamasındadır. Standardizasyon bu konuda ek tutarlılık elde etmenin bir yolu olabilir. Devletlerarasındaki fikir birliği genellikle yapay zekâ düzenlemesinin daha yumuşak ve daha genel ilkeleri üzerinde birleşir. Bu fikir birliği, Küresel Dijital Sözleşme’de (Global Digital Compact) etik, güvenli, kapsayıcı ve küresel olarak yararlı yapay zekâya yönelik bazı soyut taahhütlerin benimsenmesine yol açmıştır. Paydaşlar ve devletler artık bu soyut taahhütleri somut politikalara dönüştürmek zorunda kalacaklardır.

Teknik standartlar, soyut taahhütleri doğrultusunda hareket ederken politika yapıcılar için odak noktası olabilir. Bunlar, yapay zekânın oluşturduğu riskleri nasıl azaltacaklarına dair uzman tavsiyeleridir ve yasa koyucular, düzenlemeleri bu standartlara göre yönlendirmenin ticaret engellerini azaltacağını bilirler. Devletler standartların önemi konusunda fikir birliğine varırsa, Yapay Zekâ Yasası’nın 40. maddesine benzer bir kural üzerinde bile karar verebilirler: NIST çerçevesi, ISO ve CEN/CENELEC[18] standartlarına uyum, asgari düzenleme için kıstas olabilir ve yapay zekâ risklerini yönetmeye yönelik küresel çabaları uyumlu hale getirmek için bu standartlar arasında geçiş yolları oluşturulmalıdır.

  1. Trump Yönetiminde Yapay Zekâ Yönetişimi

Donald Trump’ın 2024 yılında seçilmesi, ABD yapay zekâ politikasında önemli bir değişimin habercisidir[19]. Göreve gelen yönetim, hem ülke içinde hem de potansiyel açıdan küresel olarak düzenleyici manzarayı yeniden şekillendirmeye hazırlanmaktadır. Trump, Başkan Biden’ın ‘tehlikeli’ olarak nitelendirdiği ve yapay zekâ inovasyonunu engellediği Yapay Zekâ Kararnamesini yürürlükten kaldırma sözü vermiştir[20]. Kampanya vaatleri toptan bir geri dönüş önerse de, gerçekliğin daha ayrıntılı olması muhtemeldir. 2016 Trump yönetiminin yapay zekâ kararnameleri ve kural koyma işlemlerinin incelenmesi[21], hem inovasyon hem de ABD’nin jeopolitik duruşu için kritik kabul edilen unsurlarla ilgili olarak Biden yönetiminin kararnamesi ile ortak noktalarını vurgulamaktadır, örneğin ulusal güvenlik ve siber güvenlik ile ilgili olanlar[22].

Ancak yeni yönetimin, selefinden belirgin şekilde farklı bir yapay zekâ yönetişim yaklaşımı izlemesi beklenmektedir. Büyük olasılıkla, Yapay Zekâ Hakları Yasası’nda[23] en iyi şekilde ifade edilen sivil haklar korumalarına açıkça odaklanmak yerine, sivil özgürlükleri koruma taahhüdüyle ulusal rekabete yönelik bir bakış açısıyla inovasyona öncelik verecektir. Biden’ın algoritmik adalet, yapay zekâ güvenliği ve potansiyel yapay zekâ zararlarına yaptığı vurgunun aksine, Trump’ın politikasının özellikle ulusal güvenlik ve savunma bağlamlarında yapay zekâ gelişimini hızlandırmaya odaklanması muhtemeldir. Bu, özellikle Demokratların liderlik ettiği eyaletleri, yapay zekâ düzenlemesindeki kendi çabalarını iki katına çıkarmaya ve yapay zekâ geliştiricilerini zaten şaşırtan eyalet düzeyindeki kuralların karmaşasına eklemeye teşvik edebilir. Onun heterodoks savunma yaklaşımı, daha küçük ve daha yenilikçi teknoloji firmalarının savunma ve siber güvenlik pazarlarına girmesinin önündeki engelleri potansiyel olarak azaltabilir. Bu yaklaşım, büyük olasılıkla teknolojik üstünlüğü korumaya güçlü bir vurgu yaparak Çin’in ABD yapay zekâ ilerlemelerinden faydalanmasını engellemeyi amaçlayan korumacı önlemleri de içerecektir.

Sonuç olarak, uluslararası alanda, ABD yapay zekâ politikasındaki değişimin küresel yapay zekâ yönetişimi için önemli etkileri olabilir. Biden yönetimi yapay zekâ gelişimi için uluslararası çerçeveler[24] ve gönüllü taahhütler oluşturmak için aktif olarak çalışırken, Trump yönetimi daha tek taraflı bir yaklaşım benimseyebilir. Odak noktasının, etkinliği konusunda temkinli seslere rağmen[25], potansiyel olarak araştırma-geliştirmeye daha fazla yatırım ve Çin ile teknoloji rekabetinde daha agresif bir duruş yoluyla Amerikan yapay zekâ liderliğini teşvik etmesi beklenmektedir. Bu yaklaşım, küresel yapay zekâ koordinasyonu ve standartları için çok taraflı fikir birliği oluşturma yönündeki taslak çabalarla gerçekten çelişecek ve onlara önemli bir zorluk oluşturacaktır.

Sonuç

Uluslararası yapay zekâ yönetişiminde politikadan uygulamaya giden yol uzun ve dolambaçlıdır. Yapay zekâ değer zincirinin karmaşık bir düzenleme zincirine yol açabileceğini gösterdik. Bu karmaşıklık, mevcut yapay zekâ mevzuatında zorluklara neden olabilir. Geliştirmeden sonra belirli bir kullanım durumu için uyarlanacak temel modellerin özelliği, Yapay Zekâ Yasası’nda geliştiriciler ve uygulayıcılar arasındaki çizgiyi bulanıklaştırır ve yapay zekâ yönetişiminin mevcut durumu göz önüne alındığında mahkemeler tarafından çözülmesi gerekir. Temel model geliştirmenin bu özelliğine dayanarak, tüm ülkeler arasında teorik bir ayrım uygulanabilir: geliştirici ülkeler ve uygulayıcı ülkeler.

Yapay zekâ modellerinin büyük geliştiricilerini etkili bir şekilde düzenleme olanağı muhtemelen birkaç güçlü ülkenin ayrıcalığı olarak kalacaktır. Buna karşın, bu modellerin ulusal pazarda dağıtımını düzenlemek birçok geliştirici olmayan ülke için mümkün olmaya devam etmektedir -ancak dağıtımcı ülkeler arasında düzenleyici güçte bir hiyerarşi sürmektedir. Devletler, düzenleyici güçlerini korumak için dağıtımcı pazarlarında bireysel aktörler için pazar gücünün birikmesini önlemeyi hedeflemelidir. Dağıtımcı ülkeler ayrıca yapay zekâ için uluslararası standartlar oluşturmaya çalışarak geliştiriciler üzerinde ilave bir etki kurmaya çalışabilirler.

Devletler yerel politikalarını uygularken birkaç temel noktaya odaklanmalıdır. ‘Dikey’ düzenlemelerini gözden geçirmeli ve bunların yapay zekâyı düzenleme çabalarına ters düşmediğinden emin olmalıdırlar. Ayrıca, düzenleyici başarıları uygulama kapasitelerine bağlı olacaktır. Bunun için ülkede uygun finansman ve teknik bilgi birikimi gerekir.

Bizim görüşümüze göre, güvenli, emniyetli ve eşitlikçi bir yapay zekâ ekosistemi geliştirmek için uluslararası standartlar ve küresel paydaşlar arasında iş birliği oluşturmak hayati önem taşımaktadır. Sonuç olarak, etkili yapay zekâ yönetişiminin peşinde koşmanın yalnızca riskleri azaltmakla ilgili olmadığını unutmamalıyız. Aynı zamanda toplumlarımızdaki en acil zorluklardan bazıları için yapay zekânın dönüştürücü potansiyelinden yararlanmakla da ilgilidir.

Ancak 2024 Trump yönetimi ABD yapay zekâ politikasında önemli bir dönüm noktası olabilir. Yönetimin yaklaşımının, ABD eyaletlerinin kendi yapay zekâ kurallarıyla yanıt verebileceği sivil haklar korumalarından ziyade inovasyona öncelik vermesi muhtemeldir. Göreve gelen yönetim ayrıca teknolojik rekabeti ve ulusal güvenliği vurgulamaya hazırdır. Bu jeopolitik strateji, özellikle Çin ile teknolojik rekabete karşı daha agresif bir duruş benimseyerek küresel yapay zekâ yönetişim dinamiklerini yeniden şekillendirebilir.

[1] <https://blogs.law.ox.ac.uk/oblb/blog-post/2024/12/global-ai-governance-part-1-decoding-developers-and-deployers>; <https://blogs.law.ox.ac.uk/oblb/blog-post/2024/12/global-ai-governance-part-2-power-deployer-states>.

[2] NIST: National Institute of Standards and Technology (ABD Ulusal Standartlar ve Teknoloji Enstitüsü).

[3] <https://airc.nist.gov/AI_RMF_Knowledge_Base/AI_RMF>.

[4] <https://www.dhs.gov/publication/ai-roadmap>; <https://rai.tradewindai.com/>; <https://arxiv.org/abs/2401.15897>.

[5] <https://airc.nist.gov/AI_RMF_Knowledge_Base/AI_RMF/Core_And_Profiles/6-sec-profile>.

[6] Safe and Secure Innovation for Frontier Artificial Intelligence Models Act [Sınır Yapay Zekâ Modelleri için Güvenli ve Emniyetli Yenilik Yasası].

[7] <https://arxiv.org/abs/1908.09203>.

[8] <https://www.axios.com/2024/02/01/allen-institute-for-ai-fully-open-source-large-language-model-olmo-7b>.

[9] NTIA: National Telecommunications and Information Administration (Ulusal Telekomünikasyon ve Bilgi İdaresi). <https://www.ntia.gov/issues/artificial-intelligence/open-model-weights-report>.

[10] Coalition for Content Provenance and Authenticity [İçerik Kaynağı ve Özgünlüğü Koalisyonu].

[11] <https://ai.gov/wp-content/uploads/2023/12/Recommendation_Improve-Monitoring-of-Emerging-Risks-from-AI-through-Adverse-Event-Reporting.pdf>.

[12] <https://ai.gov/wp-content/uploads/2023/11/Recommendations_Generative-AI-Away-from-the-Frontier.pdf>.

[13] <https://thehill.com/opinion/technology/4079196-back-to-the-future-look-to-the-1980s-for-guidance-on-ai-management/>.

[14] OECD: Organisation for Economic Co-operation and Development (Ekonomik Kalkınma ve İşbirliği Örgütü).

[15] <https://oecd.ai/en/incidents?search_terms=%5B%5D&and_condition=false&from_date=2014-01-01&to_date=2024-12-11&properties_config=%7B%22principles%22:%5B%5D,%22industries%22:%5B%5D,%22harm_types%22:%5B%5D,%22harm_levels%22:%5B%5D,%22harmed_entities%22:%5B%5D%7D&only_threats=false&order_by=date&num_results=20>.

[16] <https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf>.

[17] <https://digital-strategy.ec.europa.eu/en/library/first-draft-general-purpose-ai-code-practice-published-written-independent-experts>.

[18] ISO: International Organization for Standardization (Uluslararası Standardizasyon Örgütü); European Committee for Standardization-CEN (Avrupa Standardizasyon Komitesi) and the European Committee for Electrotechnical Standardization-CENELEC (Avrupa Elektroteknik Standardizasyon Komitesi).

[19] <https://ktslaw.com/en/insights/alert/2024/11/ai%20post-election%20–%20initial%20government%20insights>.

[20] <https://www.rstreet.org/commentary/ai-policy-in-the-trump-administration-and-congress-after-the-2024-elections/>.

[21] <https://trumpwhitehouse.archives.gov/ai/>.

[22] <https://www.mintz.com/insights-center/viewpoints/54731/2024-11-14-ai-under-second-trump-administration-ai-washington>.

[23] <https://www.whitehouse.gov/ostp/ai-bill-of-rights/>.

[24] <https://www.lawfaremedia.org/article/the-u.s.-plans-to-lead-the-way-on-global-ai-policy>.

[25] <https://arxiv.org/abs/2411.14425>.

1966 yılında, Gence-Borçalı yöresinden göç etmiş bir ailenin çocuğu olarak Ardahan/Çıldır’da doğdu [merhume Anası (1947-10 Temmuz 2023) Erzurum/Aşkale; merhum Babası ise Ardahan/Çıldır yöresindendir]. 1984 yılında yapılan sınavda Gazi Üniversitesi İktisadi ve İdari Bilimler Fakültesi Maliye bölümünü kazandı. 1985 yılında Marmara Üniversitesi İktisadi ve İdari Bilimler Fakültesi Maliye bölümüne yatay geçiş yaptı ve 1988’de Marmara Üniversitesi İktisadi ve İdari Bilimler Fakültesi Maliye bölümünü birincilikle, Fakülteyi ise 11’inci olarak bitirdi.
1997 yılında Amerika Birleşik Devletleri’nin Denver şehrinde yer alan ‘Spring International Language Center’da; 65’inci dönem müdavimi olarak 2008-2009 döneminde Milli Güvenlik Akademisi’nde (MGA) eğitim gördü ve MGA’dan dereceyle mezun oldu. MGA eğitimi esnasında ‘Sınır Aşan Sular Meselesi’, ‘Petrol Sorunu’ gibi önemli başlıklarda bilimsel çalışmalar yaptı.
Türkiye’de Yatırımların ve İstihdamın Durumu ve Mevcut Ortamın İyileştirilmesine İlişkin Öneriler (Maliye Hesap Uzmanları Vakfı Araştırma Yarışması İkincilik Ödülü);
Türk Sosyal Güvenlik Sisteminde Yaşanan Sorunlar ve Alınması Gereken Önlemler (Maliye Hesap Uzmanları Vakfı Araştırma Yarışması İkincilik Ödülü, Sevinç Akbulak ile birlikte);
Kayıp Yıllar: Türkiye’de 1980’li Yıllardan Bu Yana Kamu Borçlanma Politikaları ve Bankacılık Sektörüne Etkileri (Bankalar Yeminli Murakıpları Vakfı Eser Yarışması, Övgüye Değer Ödülü, Emre Kavaklı ve Ayça Tokmak ile birlikte);
Türkiye’de Sermaye Piyasası Araçları ve Halka Açık Anonim Şirketler (Sevinç Akbulak ile birlikte) ve Türkiye’de Reel ve Mali Sektör: Genel Durum, Sorunlar ve Öneriler (Sevinç Akbulak ile birlikte) başlıklı kitapları yayımlanmıştır.
Anonim Şirketlerde Kâr Dağıtımı Esasları ve Yedek Akçeler (Bilgi Toplumunda Hukuk, Ünal TEKİNALP’e Armağan, Cilt I; 2003), Anonim Şirketlerin Halka Açılması (Muğla Üniversitesi İktisadi ve İdari Bilimler Fakültesi Tartışma Tebliğleri Serisi II; 2004) ile Prof. Dr. Saim ÜSTÜNDAĞ’a Vefa Andacı (2020), Cilt II, Prof. Dr. Saim Üstündağ’a İthafen İlmi Makaleler (2021), Prof. Dr. Saim Üstündağ’a İthafen İlmi Makaleler II (2021), Sosyal Bilimlerde Güncel Gelişmeler (2021), Ticari İşletme Hukuku Fasikülü (2022), Ticari Mevzuat Notları (2022), Bilimsel Araştırmalar (2022), Hukuki İncelemeler (2023), Prof. Dr. Saim Üstündağ Adına Seçme Yazılar (2024), Hukuka Giriş (2024) başlıklı kitapların bazı bölümlerinin de yazarıdır.
1992 yılından beri Türkiye’de yayımlanan otuza yakın Dergi, Gazete ve Blog’da 2 bin 500’ü aşan Telif Makale ve Telif Yazı ile tamamı İngilizceden olmak üzere Türkçe Derleme ve Türkçe Çevirisi yayımlanmıştır.
1988 yılında intisap ettiği Sermaye Piyasası Kurulu’nda (SPK) uzman yardımcısı, uzman (yeterlik sınavı üçüncüsü), başuzman, daire başkanı ve başkanlık danışmanı; Özelleştirme İdaresi Başkanlığı GSM 1800 Lisansları Değerleme Komisyonunda üye olarak görev yapmış, ayrıca Vergi Konseyi’nin bazı alt çalışma gruplarında (Menkul Sermaye İratları ve Değer Artış Kazançları; Kayıt Dışı Ekonomi; Özkaynakların Güçlendirilmesi) yer almış olup; halen başuzman unvanıyla SPK’da çalışmaktadır.
Hayatı dosdoğru yaşamak ve çalışkanlık vazgeçilmez ilkeleridir. Ülkesi ‘Türkiye Cumhuriyeti’ her şeyin üstündedir.