Hukuk Fakültesinden Dr. Öğretim Üyesi Başak Ozan Özparlak yazısında, yapay zekânın sadece teknolojik bir yenilikten ibaret olmadığını; hukuki, etik ve kamu politikası boyutlarıyla küresel düzeni yeniden tanımlayan dönüştürücü bir güç olduğunu savunuyor. Frankenstein’dan günümüzün yapay zekâ düzenlemelerine uzanan tarihsel ve kavramsal bir çerçeveye dayanarak, “yaratıcıların sorumluluğu” konusunu ele alıyor. Yazı ayrıca Avrupa Birliği, Amerika Birleşik Devletleri ve Çin’deki yönetişim modellerini karşılaştırırken, güvenilir ve insan merkezli yapay zekâ sistemleri oluşturmak için disiplinler arası araştırmanın ve genç araştırmacıların bu alana katkılarının neden vazgeçilmez olduğunu vurguluyor.
Son üç yılda bir yapay zekâ devrimine tanık olduk. Bir teknoloji yaygınlaşıp milyonlarca insanın günlük yaşamının ayrılmaz bir parçası haline geldiğinde, artık sadece bir deney konusu olmaktan çıkar. ChatGPT’nin herkese tanıtıldığı ve her konuda başvurulacak bir araç haline geldiği Kasım 2022’den bu yana yaşadığımız şey tam olarak budur. Günümüzde yapay zekâ, doktorların hastalıkları daha doğru teşhis etmesine yardımcı olabilir, öğretmenlerin eğitimi kişiselleştirmesini sağlayabilir ve şehirlerin daha verimli bir şekilde yönetilmesine katkıda bulunabilir.
Öte yandan aynı yapay zekâ haksız ve önyargılı kararlar verebilir, savunmasız grupları eğitim veya istihdamdan dışlayabilir, hatalı finansal tavsiyeler gibi yanlış sonuçlar üretebilir, mahremiyeti ihlal edebilir veya kötü niyetli kişiler tarafından ele geçirilebilir. İşte bu nedenle yapay zekâ etiği ve gerektiğinde düzenlemeler bu kadar önemlidir ve sizin gibi genç araştırmacıların katılımı hayati önem taşır.
Yapay zekâ artık bilimkurgu değil. Halihazırda telefonunuzun yüz tanıma özelliğine, sosyal medya akışlarınıza ve iş başvuru eleme sistemlerine eklemlenmiş durumda. 2030 yılına gelindiğinde, yani yeni nesil kablosuz ağlar tamamen yapay zekâ tabanlı hale geldiğinde, hayatımızda yapay zekâdan tamamen yoksun bir alan kalmayacak. İşte bu nedenle, yapay zekânın nasıl geliştirileceği, uygulanacağı ve yönetileceği konusunda bugün alacağımız kararlar, yakın geleceğimizi şekillendirecek. Yapay zekâyı sorumlu bir şekilde nasıl yöneteceğimizi anlamak artık sadece bilgisayar bilimcileri veya avukatların sorumluluğu olmaktan ziyade; yapay zekâ destekli bir dünyada yaşayan herkesin ortak sorunu ve sorumluluğudur.
“Frankenstein: Modern Prometheus” kitabının yazarı Mary Shelley için, bilim alanındaki en acil sorulardan biri, bilim insanlarının bilimsel deneylerinin sonuçlarına dair sorumluluklarıydı. Bu nedenle Frankenstein, sadece ilk bilimkurgu romanı değil, aynı zamanda günümüzde de son derece geçerliliğini koruyan politik ve felsefi bir eserdir.
Shelley romanını, işsizlik korkularını körükleyen ve başta Luddite hareketleri olmak üzere makine karşıtı protestolara yol açan hızlı endüstriyel makineleşmenin yaşandığı 19. yüzyılda kaleme aldı. Roman, bilimden etik ve insani unsurların dışlanmasının nihayetinde bilimsel deneylerin başarısızlığına yol açacağı konusunda uyarıda bulunuyor.
Yaratığın yaratıcısı olarak Victor, ebeveynlik sorumluluğunu yerine getiremez; kendi elleriyle hayata geçirdiği varlığı sevmekten ve ona yol göstermekten aciz olduğunu kanıtlar. Hikâye, hayat veren ancak kendi yaratığını terk eden bir bilim insanını anlatır ve bu durum, nihayetinde bir dizi trajik sonucun ortaya çıkmasına neden olur.
Shelley’nin mesajı netti: Yaratıcılar, ürettiklerinden sorumludur. Bugün bu ders her zamankinden daha fazla geçerlidir. Şirketler yapay zekâ sistemleri veya modelleri oluştururken ya da devreye alırken, rolleri kâr elde etmenin çok ötesine geçmelidir. Ortaya çıkabilecek her türlü sorunu izlemeli, sistemlerin bakımını yapmalı, sorunları gidermeli ve rapor etmelidir. Sorumlu inovasyon, kendi yaratımlarının arkasında durmayı gerektirir. İşte burada etik ve hukuk devreye girer.
Yapay zekâ geliştirme alanındaki çeşitlilik içeren ekipler, daha adil ve daha faydalı sonuçlar elde etmek için hayati önem taşıyor. İşte bu noktada size ihtiyacımız var. Genç nesil olarak, sizin getireceğiniz yeni bakış açıları ve yenilikçi fikirlerin, yapay zekâ geliştiricilerinin geçmişteki hataları tekrarlamasını önlemeye yardımcı olacağına inanıyoruz.
Peki ya yönetişimde çeşitlilik? Çeşitlilik iyi bir şey mi, yoksa sorumlu ve güvenilir bir yapay zekâ için yönetişim konusunda küresel bir uyum sağlamayı mı hedeflemeliyiz? Çeşitliliğin değerli olduğu konusunda hemfikir olsak bile, yine de pratik bir siyasi, ekonomik ve hukuki yeknesaklık sağlanması gerekecektir. Günümüzde dünya çapında yapay zekâ yönetişimini şekillendiren üç ana yaklaşım bulunmaktadır: ABD, AB ve Çin. Bunların her birine kısaca göz atalım:
AI Yönetişimine Üç Farklı Yaklaşım
1. AB Yapay Zekâ Yasası: Risk Temelli Yaklaşım
AB Yapay Zeka Yasası, yapay zekâ konusunda dünyanın ilk ve en kapsamlı düzenlemesidir. Bununla birlikte, özellikle yapay zekâ sistemlerinin zarar vermesi durumunda sorumluluk konusunda tüm hukuki sorulara kesin bir çözüm getirmemektedir. Bunun yerine, AB Yapay Zekâ Yasası risk temelli bir yaklaşım benimsemekte ve yapay zekâ sistemlerini bireylere ve topluma oluşturdukları risklere göre sınıflandırmaktadır.
Eğitim ortamlarındaki duygu tanıma sistemleri gibi “kabul edilemez risk” oluşturduğu değerlendirilen uygulamaların AB pazarına girişi yasaklanmıştır. İşe alım veya eğitim alanlarında kullanılanlar da dahil olmak üzere yüksek riskli sistemler ise; şeffaflık, insan denetimi, belgeleme ve sürekli değerlendirme konularındaki katı gerekliliklere uymak zorundadır.
2. Amerika Birleşik Devletleri: İnovasyona Odaklı Çerçeve
Şu anda ABD, yapay zekâ yönetişimi konusunda daha parçalı bir yaklaşım benimsemektedir. Kapsamlı bir federal çerçeve yerine, düzenlemeler büyük ölçüde eyalet düzeyinde gerçekleştirilmekte ve her eyalet belirli sektörlere yönelik önlemler almaktadır.
Örneğin Kaliforniya, eyalet düzeyinde inovasyonda öncü bir rol üstlenmiştir ve kısa süre önce güvenlik protokolleri ve yaş doğrulama gibi gereklilikleri getirerek yapay zekâ sohbet robotlarını düzenleyen ilk eyalet olmuştur.
Federal düzeyde ise hâlâ kapsamlı bir yapay zekâ yasası bulunmamaktadır. Bununla birlikte, Kasım 2025’te duyurulan “Genesis Misyonu” gibi girişimler, federal düzeyde daha fazla koordinasyona doğru atılan bir adımın sinyalini vermektedir. Bu girişim, Avrupa Birliğine kıyasla daha esnek bir düzenleme yaklaşımını sürdürürken, yapay zekâ alanında ABD’nin liderliğini güçlendirmeye vurgu yapmaktadır.
3. Çin: Devlet Öncülüğünde Gelişim
Çin, ulusal stratejik hedeflerle uyumlu koordineli devlet yatırımları ve düzenlemeler yoluyla yapay zekâ alanında liderlik hedeflemektedir. Çin’deki düzenlemeler, içerik denetimi, toplumsal istikrar ve daha geniş kapsamlı yönetişim sistemleriyle entegrasyona vurgu yapmaktadır. Bu yaklaşım, toplumsal düzen ve devlet otoritesinin yanı sıra çocukların korunmasını ve algoritmik şeffaflığı öncelikli kılmaktadır.
Yapay zekâ sistemleri olasılıksaldır ve mükemmel değildir. Kulağa makul gelen yanıtlar üretebilirler, ancak bunlar yanlış da olabilir. ChatGPT’nin kullanım koşullarında bile kullanıcılara, çıktıları insan gözüyle kontrol etmeleri tavsiye edilmektedir.
Bu durum temel soruları gündeme getiriyor: Yapay zekanın belirsizliğini nasıl ölçüp aktarabiliriz? Yapay zekâ sistemlerinin zarar verdiği veya hata yaptığı durumları ele almak için hesap verebilirlik mekanizmaları nasıl tasarlanmalıdır? Bu zorlukların üstesinden gelmek için bilgisayar bilimi, hukuk ve etiği bir araya getiren disiplinler arası araştırmalar gereklidir.
Yapay Zekânın Geleceğini Şekillendirmedeki Rolünüz
Stanford Üniversitesinden yapay zekâ öncülerinden Fei Fei Li’nin şöyle diyor: “Yapay zekâ hiçbir şey vaat etmiyor. Bir şey vaat eden ya da etmeyenler insanlardır. Yapay zekâ bir yazılımdır. İnsanlar tarafından geliştirilir, insanlar tarafından kullanıma sunulur ve insanlar tarafından yönetilir.” Bu, hangi bölümde okuduğunuzdan bağımsız olarak, güvenilir yapay zekâ sistemlerinin geliştirilmesine katkıda bulunabileceğiniz anlamına gelir.
Bilgisayar bilimlerine ilgi duyuyorsanız, teknik çözümler geliştirmek amacıyla önyargı tespiti veya güvenlik açıkları üzerine araştırma yapabilirsiniz. Hukuk alanına ilgi duyuyorsanız, düzenleyici çerçeveleri ve yasaları analiz edebilir, yeni yönetişim mekanizmaları önerebilir veya uluslararası iş birliğini inceleyebilirsiniz. Psikolojiye meraklıysanız, insan-yapay zekâ etkileşimi ve otomasyon önyargısı üzerine çalışabilirsiniz. Bu alan, karmaşık zorluklarının üstesinden gelmek için farklı bakış açılarına ve disiplinler arası iş birliğine ihtiyaç duymaktadır.
Başlamaya hazır mısınız? Öncelikle, yukarıda ele alınan alanlardan sizi heyecanlandıran belirli bir konu belirleyin. Güncel araştırmaları okumaya başlayın, AB Yapay Zekâ Yasası’nı inceleyin, Anthropic veya Stanford HAI gibi kuruluşların son yayınlarını okuyun ve yapay zekâ düzenlemelerindeki en son gelişmeleri takip edin. Disiplinler arası bir bakış açısı benimseyin: En iyi yapay zekâ yönetişimi araştırmaları, bilgisayar bilimi, hukuk, etik, psikoloji ve sosyoloji gibi çok çeşitli alanlardan bilgi ve içgörüler elde eder.
Çalışmalarınızın gerçek dünyadaki etkisini düşünün: Araştırmanız, yapay zekâ sistemlerinin daha adil, daha güvenli veya daha hesap verebilir hale gelmesine nasıl katkıda bulunabilir? Yapay zekâ etiği, politikası veya güvenliği üzerine çalışan akademisyenleri, araştırmacıları arayarak mentorlarla bağlantı kurun. Günümüzde birçok üniversitede, öğrencilerin katılımına açık yapay zekâ araştırma merkezleri veya girişimleri bulunmaktadır. Yeni başlıyorsanız çekinmeyin; her uzman bir zamanlar acemiydi ve taze bakış açıları genellikle en yenilikçi çözümlerin ortaya çıkmasına yol açar.
Sonuç: Risk de Getiri de Yüksek
Yapay zekâ insan onuruna saygı gösterirken insan yeteneklerini geliştirecek mi? Faydaları adil bir şekilde dağıtacak mı, yoksa gücü tek elde mi toplayacak? Gizliliği koruyacak ve demokratik katılımı sağlayacak mı? Bu soruların yanıtını teknoloji tek başına veremez. Bu soruların yanıtı, merakı, farklı bakış açıları ve adanmışlığıyla daha iyi ve daha adil bir geleceğin inşasına katkıda bulunabilecek sizin gibi insanlara ihtiyaç duyar.
Filozof Plutarch’ın 2.000 yıl önce yazdığı gibi; “Zihin doldurulacak bir çanak değil, tutuşturulacak bir ateştir.” Araştırmalarınız, yapay zekânın insanlığın en yüce ideallerine hizmet etmesini sağlamak için gerekli olan tartışmaları ve yenilikleri tetikleyebilir. Yapay zekâ yönetişiminin geleceği, sizin sesinize, sorularınıza ve güvenilir sistemler oluşturmak için göstereceğiniz özverili çalışmaya ihtiyaç duyuyor. Teknoloji hızla ilerliyor ve zorluklar karmaşık. Öte yandan, tam da bu nedenlerle, anlamlı katkıda bulunma fırsatları her zamankinden daha fazla.
Geleceği şekillendirmeye katkıda bulunmaya hazır mısınız? Cevabınız evetse, bu yaz Özyeğin Üniversitesindeki yapay zekâ araştırma programlarına katılabilirsiniz.



