Üretken yapay zeka, vatandaşların başlattığı doğrudan demokrasi mekanizmalarında devrim yaratmaya hazırlanıyor. Bu makale, yapay zekanın güçlü bir hızlandırıcı olarak işlev gördüğünü, tarihsel engelleri azalttığını ve yasa taslağı hazırlama sürecini otomatikleştirerek, mobilizasyonu optimize ederek ve hiper-kişiselleştirilmiş ikna yöntemlerini mümkün kılarak bu mekanizmaları sadece daha ucuz değil, aynı zamanda daha sık hale getirdiğini savunuyor. Ancak bu verimlilik, demokratik meşruiyetin temel koşullarını tehdit etmektedir. Yapay zeka, sentetik içerik yoluyla müzakereyi aşındırarak, sivil toplumu zayıflatarak ve güveni sarsarak, vatandaşların başlattığı doğrudan demokrasi mekanizmalarını temel “emniyet valfleri”nden plebisit istikrarsızlığının motorlarına dönüştürme riski taşımaktadır. Bu makale, Otomatik Plebisitlerin distopik geleceğini, tercih edilebilir bir yol olan Artırılmış Müzakere ile karşılaştırmaktadır. Makale, ikincisine yönelmek için, AI’nın demokratik uygulamaları zayıflatmak yerine güçlendirmesini amaçlayan, AI filigranlama, kamu yararına AI platformları ve bağımsız algoritmik denetimler gibi dijital koruyucu önlemlerden oluşan bir yönetişim yol haritası önermektedir.
ÇEVİRİ
David Altman
AI’nın demokratik düzeni bozması artık bilim kurgu konusu değildir. Son zamanlarda dünya çapında yaşanan seçim şokları, yapay zeka kaynaklı müdahalelere kadar uzanıyor: Slovakya’nın 2023 parlamento seçimlerinde, liberal bir adayın oy hilesi hakkında konuştuğu uydurma bir ses kaydı, oylamadan birkaç gün önce dolaşıma girdi ve çok az farkla sonuçlanan bir yarışı potansiyel olarak etkiledi. Hindistan’ın 2024 genel seçimlerinde, adaylar, partiler ve politika konuları hakkında anlatıları şekillendirmek için yapay zeka tarafından oluşturulan kişilik botları ve sentetik içerikler benzeri görülmemiş bir ölçekte kullanıldı. 2016 Brexit oylaması ve 2022 Şili anayasa referandumu da benzer dinamikler gördü.1 Bunlar fütüristik senaryolar değil, yapay zekanın demokratik süreçleri temelden yeniden şekillendirdiği, hızla ortaya çıkan bir gerçekliğin erken uyarılarıdır.
Şimdi bir sonraki aşamayı hayal edin. 2029 baharında, büyük bir Avrupa ülkesinin çevrimiçi kamusal alanı #TakeBack-OurCountry hashtag’iyle dolup taşar. Gönderiler ikna edici, kişiselleştirilmiş ve ürkütücü derecede gerçekçi. Politik reklamlara benzemiyorlar; komşulardan gelen, arkadaşlar tarafından paylaşılan samimi mesajlar gibi görünüyorlar. Ancak bunların arkasında, şeffaf olmayan ağlar tarafından finanse edilen, yavaşlayan ekonomi ve artan göç konusunda halkın derin endişelerini tespit eden ve bunlardan yararlanan sofistike bir yapay zeka modeli yatıyor. Bu, yapay zeka sistemlerinin sosyal şikayetleri nasıl hedef alıp güçlendirebileceğinin sadece bir örneği.2
Birkaç hafta içinde, bu senaryodaki yapay zeka sadece kamuoyunu şekillendirmekle kalmamış, aynı zamanda onu doğrudan eyleme dönüştürmüş, belgesiz göçmenlerin toplu olarak sınır dışı edilmesini ve yeni sığınma taleplerinin neredeyse tamamen durdurulmasını öneren, belki de “Ulusal Egemenlik Restorasyon Yasası” olarak adlandırılabilecek bir vatandaş girişimi için yasal olarak kusursuz bir metin hazırlamıştır. AI daha sonra kusursuz bir imza toplama kampanyası düzenler, sempatik seçmenleri mikro hedefler [Sayfa 32’nin sonu] ve gerçek zamanlı optimizasyonla gönüllüler görevlendirir. Eskiden aktivistlerin yıllarını alan bir iş, artık birkaç günde hallediliyor.
Girişim, oylamaya hak kazanır. İnsanlara seslerini duyurmak için tasarlanmış demokratik bir araç, artık bir silaha dönüştürülmüştür. Sonrasında gelen kampanya, netlik açısından bir kabustur. Girişimin destekçileri, AI tarafından oluşturulan bir kişilik ordusu (endişeli anneler, emekli askerler, işsiz fabrika işçileri) görevlendirir ve bu kişilikler, binlerce paralel çevrimiçi forumda kusursuz yerel lehçelerle tartışarak, halkın konsensüs sağladığına dair ezici bir yanılsama yaratır. Öneriyi desteklediği iddia edilen bir siyasi liderin derin sahte ses kaydı, yalanlanmadan önce geniş çapta dolaşıyor ve sentetik medya ve “derin sahtecilik”lerin güveni aşındırma ve gerçekleri kontrol etme kapasitelerini aşındırma potansiyeli hakkında daha önceki uyarıları yineliyor.3 Muhalefet — insan hakları grupları, ana akım partiler ve zayıflamış sivil toplum — bastırılıyor. Sentetik ikna gücüne sahip bir hidra ile mücadele ediyor.
Seçim gününde, önlem %58 oy ile kabul edilir. Sistem, tasarımcılarının amaçladığı şekilde çalışır: Vatandaşlar bir yasa başlatır ve vatandaşlar bu yasa üzerinde oy kullanır. Ancak bu, doğrudan demokrasinin zaferi mi, yoksa feci bir başarısızlığı mıdır? Sonuç, ülkeyi anayasal bir krize sürükler, uluslararası kınamaları tetikler ve şiddetli sokak protestolarına yol açar. Yapay zeka ile güçlendirilmiş doğrudan demokrasinin “emniyet valfi” patlamayı önleyemedi, aksine patlamaya neden oldu. Bu paradoks, doğrudan demokrasinin referandum amaçlı kullanımının demokratik kurumları güçlendirmek yerine istikrarsızlaştırdığına dair uzun süredir var olan endişeleri yansıtıyor.4
Bu kurgusal, ancak fazlasıyla olası senaryo, önümüzdeki dönemin temel demokratik ikilemini göstermektedir. Sağlık hizmetlerinden sanata kadar her şeyi devrimsel bir şekilde değiştirebilecek potansiyeli ile övülen üretken yapay zeka, siyasette de aynı şeyi yapmaya hazırlanıyor.5 En derin etkisi, temsili seçimler üzerinde değil, halk inisiyatifleri ve iptal referandumları (yani yeni veya mevcut yasalarla ilgili referandumlar) gibi vatandaşların başlattığı doğrudan demokrasi mekanizmaları üzerinde olabilir. Akademisyenler ve uygulayıcılar, demokrasileri nasıl daha duyarlı hale getirebileceklerini onlarca yıldır tartışmaktadır. Literatürde ve benim kendi araştırmamda ortaya çıkan önemli bir bulgu, bu tür vatandaşların başlattığı süreçlerin önemli kurumsal “emniyet valfleri” işlevi görebileceğidir.6 Seçimler arasında şikayetleri dile getirmek ve politikayı etkilemek için resmi kanallar sunan bu mekanizmalar, aksi takdirde büyük çaplı ayaklanmalara yol açabilecek veya demokrasinin gerilemesine neden olabilecek toplumsal baskıları hafifletebilir.
Ancak bu istikrar sağlayıcı etki otomatik olarak gerçekleşmez. Bu etki, canlı bir sivil toplum ve bilgili tartışmalar yapabilen bir kamusal alana bağlıdır.7 AI, bu noktada oyunun kurallarını tamamen değiştirir: Üretken AI, doğrudan demokrasiyi güçlü bir şekilde hızlandıracak, doğrudan demokrasinin uygulanmasını her zamankinden daha ucuz, daha kolay ve daha sık hale getirecek, ancak aynı zamanda doğrudan demokrasi mekanizmalarını meşru ve istikrarlı kılan sivil temelleri sistematik olarak zayıflatacaktır. Kamu alanını sentetik ikna ile doldurarak, ortak söylemi parçalayarak ve[Sayfa 33’ün sonu] geleneksel sivil toplumu bastırarak, AI, müzakereci olmaktan çok plebisit, meşru olmaktan çok verimli ve nihayetinde istikrar sağlamaktan çok istikrarsızlık yaratan bir sistem yaratma riski taşır.8
Daha doğrudan bir demokrasiye doğru ilerliyoruz, ancak bu daha yoksul, daha değişken bir demokrasi olacak ve nihayetinde meşruiyet krizine yol açacaktır. Siyaset ve toplumun distopik bir dönüşümünü önlemek için, önce AI’nın doğrudan demokrasinin işleyişini nasıl değiştirdiğini anlamalıyız, ardından da bu teknolojinin gücünü demokratik uygulamaları zayıflatmak yerine güçlendirmek için kullanmanın yollarını geliştirmeliyiz.
Halkın İradesini Mühendislik
Yukarıda açıklanan senaryo hiç de fantastik değildir. Doğrudan demokrasiyi tarihsel olarak nispeten ölçülü, ancak güçlü bir araç olarak tutan pratik, yasal ve bilişsel engelleri sistematik olarak ortadan kaldırmak için sadece bir dizi yapay zeka aracı yeterlidir. Ve gerçekten de, üretken yapay zeka siyasi aktörler ve savunuculuk grupları tarafından üç temel siyasi alanda (yaratma, harekete geçirme ve ikna etme) giderek daha fazla kullanıldıkça, siyasi katılımda bir devrim yaşanmaktadır. Tarihsel olarak vatandaşların başlattığı doğrudan demokrasi süreçlerini sınırlayan filtreleri, yani yüksek yasal ve lojistik eşikleri9 ortadan kaldırarak, yapay zeka sadece doğrudan demokrasiyi hızlandırmakla kalmıyor, aynı zamanda yapay zekanın işlediği kurumsal koşulları da dönüştürüyor ve “koşullu emniyet valfleri”nden, potansiyel olarak istikrarı bozabilecek referandum siyasetinin motorlarına doğru kayıyor.
İlk ve en köklü değişim gündem belirleme alanındadır. Geleneksel olarak, bir vatandaş girişimi başlatmak için sadece halkın öfkesi değil, aynı zamanda yargı denetiminden geçebilecek kadar sağlam bir öneri taslağı hazırlamak için hukuki uzmanlık da gerekiyordu. Bu önemli bir filtreydi. Artık öyle değil. Karşılaştırmalı araştırmalar, yargı denetimi, oy pusulasına erişim gereklilikleri ve teknik taslak hazırlama kuralları gibi yasal ve usuli engellerin, profesyonel hukuki uzmanlığa erişimi olan iyi organize olmuş grupların etkili katılımını kısıtlayan fiili engeller olarak işlev gördüğünü uzun zamandır göstermektedir.10 Bu anlamda, hukuki okuryazarlığın maliyeti de bir kapı bekçisi görevi görmüştür.
Büyük dil modelleri artık bir ülkenin tüm hukuk kurallarını, anayasal içtihatlarını ve mevcut mevzuatını saniyeler içinde mükemmel bir şekilde tutarlı bir yasa tasarısı veya anayasa değişikliği taslağı üretmek için alabilir. Tek gereken basit bir komut: “[X ülkesi] için sığınma başvurularını yılda en fazla 10.000 ile sınırlayan bir vatandaş girişimi taslağı hazırlayın, metnin anayasaya uygun olmasını ve gerekli uygulama maddelerini içermesini sağlayın.”
Sonuç, genellikle taban hareketlerini mahveden amatör hatalardan arındırılmış, hukuki açıdan sofistike metinler olacaktır. Uzmanlık filtresi ortadan kalktı; giriş engeli, bir avukat ekibinden, premium bir yapay zeka hizmetine abone olan tek bir motive bireye indirildi. Bu yeni gerçeklik, akademisyenlerin AI’nın elitler ve vatandaşlar arasındaki “epistemik oyun alanını eşitlemek”11 ve bağlantılı eylem mantığı” olarak tanımladıkları potansiyeliyle uyumludur. Bağlantılı eylem mantığı, dijital medyanın kişiselleştirilmiş, ağ bağlantılı mobilizasyonu mümkün kılarak koordinasyon maliyetlerini düşürdüğü mantıktır.12 AI bu mantığı daha da genişletir: Sadece organizasyonel engelleri azaltmakla kalmaz, hukuki uzmanlığı da otomatikleştirir.
Bir öneri ortaya çıktığında, bir sonraki engel oy pusulasına girmeye hak kazanmaktır — bu, yüz binlerce doğrulanmış imzanın toplanmasını gerektiren bir lojistik ve mobilizasyon görevidir. AI destekli mikro hedefleme ve otomasyonun aşılmaz bir avantaj sağladığı nokta budur. İlk olarak, seçmenleri hassas bir şekilde hedeflerler: AI algoritmaları, seçmen listeleri ve tüketici alışkanlıklarından sosyal medya faaliyetlerine kadar geniş veri setlerini analiz ederek bir davayı destekleme olasılığı en yüksek vatandaşları belirleyebilir. AI, sadece olası destekçileri bulmakla kalmaz, en kolay ikna edilebilecekleri de bulur.13 İkincisi, AI destekli mikro hedefleme ve otomasyon, imza toplama sürecini optimize eder: AI destekli kampanya uygulamaları, gönüllüleri cerrahi hassasiyetle görevlendirir. Bu uygulamalar, gönüllüleri rastgele sokak köşelerinde durmak yerine, belirli demografik profillere sahip sakinlere ulaşmak için en uygun zamanlarda belirli mahallelere yönlendirir. AI, tüm saha operasyonunu gerçek zamanlı olarak yöneterek her gönüllünün çalışma saatlerinin verimliliğini en üst düzeye çıkarır ve bu, yirmi birinci yüzyılın başlarında ortaya çıkan veri odaklı kampanya tekniklerini yansıtmaktadır.14
Son olarak, bu çabalar astroturfing geri bildirim döngüsü‘nü ortaya çıkarır: Kampanya imza topladıkça, yapay zeka sentetik bir çevrimiçi destek dalgası oluşturabilir; başarı hikayelerini paylaşmak, dilekçeyi imzalayan “hevesli vatandaşların” videolarını (deepfake teknolojisini kullanarak) yayınlamak ve inkar edilemez bir kitle hareketi hissi yaratmak için binlerce inandırıcı sosyal medya profili oluşturabilir. Gerçek insanlar, spontan bir destek dalgası gibi görünen şeye çekildikçe, bu yapay momentum genellikle gerçeğe dönüşür. Bu, “AI swarming” olarak bilinen sofistike bir biçimdir; burada koordineli sentetik ajanlar, tabandan gelen konsensüsü simüle edebilir ve kamuoyunun algısını büyük ölçekte manipüle edebilir.15 Sivil toplumun geleneksel koalisyon oluşturma yöntemleri (kapıları çalmak, belediye toplantıları düzenlemek, konsensüs oluşturmak) dijital olarak doğmuş, AI destekli bir operasyonun gerisinde kalmaktadır. Bu operasyon, tabandan gelen enerjiyi simüle edebilir ve ardından bunu nefes kesici bir ölçekte gerçekleştirebilir.
Son olarak, AI kampanyanın kendisini de dönüştürür. Herkese uyan tek tip siyasi mesajların devri sona ermiştir. Üretken AI, hiper kişiselleştirilmiş ikna yöntemlerini mümkün kılar. Referandum kampanyası sırasında, seçmenler diğer vatandaşlarla aynı birkaç kampanya reklamını görmeyeceklerdir. Bunun yerine, AI sistemleri her seçmen için benzersiz, ikna edici bir anlatı oluşturacaktır. Emekli maaşları konusunda endişeli bir emekli, AI tarafından üretilen ve göçün sosyal güvenlik sisteminin sürdürülebilirliğini tehdit ettiği konusunda uyarıda bulunan bir video [Sayfa 35’in sonu] alabilir. Genç bir çevre aktivisti, nüfus artışının ekolojik bozulmayla bağlantısını gösteren farklı bir klip izleyebilir. Ve liberal bir seçmen, radikal muhafazakarlar veya militan dindar göçmenler tarafından kadınlara ve LGBTQ topluluklarına yapılan kötü muameleyi vurgulayan içeriklerle karşılaşabilir. Her anlatı, alıcının kişisel değerlerine ve gizli önyargılarına göre uyarlanır, bu da onu herhangi bir yayın mesajından çok daha etkili hale getirir.
Ortak tartışmaların yerini milyonlarca özel, manipüle edilmiş sohbetin aldığı bu hiper kişiselleştirme, demokrasinin dayandığı ortak kamusal söylemi temel bir tehdit altında bırakmaktadır.16
Hızlanmanın özü budur: AI, doğrudan demokrasiyi ucuz, ölçeklenebilir ve acımasızca verimli hale getirir. Doğrudan demokrasinin önündeki tarihsel engelleri — uzmanlık, lojistik ve ikna — korkutucu bir zarafetle ortadan kaldırır. “Emniyet valfi” artık yüksek basınçlı, AI tahrikli bir pompa ile donatılmıştır. Soru artık vatandaşların inisiyatifler başlatıp başlatamayacağı değil, siyasi sistemin önerilerin seline ve bunları destekleyen sofistike kampanyalara dayanıp dayanamayacağıdır.
Meşruiyet Krizi
AI destekli doğrudan demokrasinin hızlanması tarafsız bir yükseltme değildir. Lojistik verimsizlik sorununu çözerek, çok daha kritik bir sorunu, yani demokratik meşruiyet sorununu daha da kötüleştiren temel bir dönüşümdür. Mevcut araştırmalar, vatandaşların başlattığı doğrudan demokrasi mekanizmalarının otomatik olarak istikrarı artırmadığını göstermektedir. “Emniyet valfi” olarak yararlı işlevleri, bilgilendirilmiş müzakere, güçlü bir sivil toplum ve kurumsal güven ile karakterize edilen sağlam bir sivil ekosisteme bağlıdır. Üretken yapay zeka, bu temellerin her birini sistematik olarak zayıflatır.
Öncelikle, sağlıklı bir doğrudan demokrasi, vatandaşların birbiriyle rekabet eden argümanlarla karşılaştığı, kanıtları değerlendirdiği ve kolektif olarak bir karara vardığı bir kamusal alan gerektirir. Yapay zeka bu modeli parçalayarak, ortak forumu ortadan kaldırır. Yukarıda açıklanan hiperkişiselleştirilmiş ikna, artık ortak bir metin, paylaşılan bir dizi gerçek veya tutarlı bir kamuoyu tartışması olmadığı anlamına gelir. Örneğin, bir seçmen ekonomik zorluklarla ilgili özel olarak hazırlanmış bir argümanla ikna edilirken, bir diğeri başka bir konu, örneğin kültürel mirasın korunması hakkında yapay zeka tarafından üretilen farklı bir anlatıyla ikna edilir. Bu kişiler aynı sohbete katılmıyor, bunun yerine paralel, izole bilgi akışlarında işleniyorlar. Bu parçalanma, müzakerenin antitezi.17
AI’nın hiper kişiselleştirilmiş ikna yönteminin ortak sohbetleri ve gerçek müzakereyi baltaladığı gibi, karmaşık mevzuatı basit paragraflara özetleyen AI araçları da kamuoyunun anlayışında tehlikeli bir yanılsama yaratıyor. Vatandaşlar, yasal nüansları, ödünleşmeleri veya istenmeyen sonuçları kavramadan bilgilendirilmiş hissedebilirler. Sonunda, erişilebilirliği kavrayışla karıştırarak ve halkın kararının kalitesini bozarak, önerinin basitleştirilmiş[Sayfa 36’nın sonu] bir gölgesine oy verirler. Bu yeni ortamda, “halkın iradesi” kamuoyu tartışmalarıyla değil, milyonlarca özel algoritmik manipülasyonla şekillendirilir. Sonuç, müzakereci bir karar değil, bir halk oylamasıdır.
Sivil toplumun zayıflaması
Doğrudan demokrasinin istikrar sağlama işlevi otomatik değildir. Ampirik kanıtlar, vatandaşların öncülüğündeki oy pusulası girişimlerinin, referandumların ve benzerlerinin demokratik gerilemeyi ve sosyal kargaşayı önlediğini göstermektedir, ancak bu, sağlam bir sivil altyapıya gömülü oldukları zaman geçerlidir. Sivil toplum, doğrudan demokrasi mekanizmalarının elitler veya popülist siyasi gruplar tarafından ele geçirilmesini önlemek için gerekli denge unsuru olarak işlev görür. Ancak yapay zeka, bu dengeyi temelden sarsan yıkıcı bir asimetrik silahlanma yarışı yaratır. Geleneksel sivil toplum örgütleri (sendikalar, STK’lar, topluluk grupları) yavaş, insan hızında bir mantıkla çalışır; konsensüs oluşturur, toplantılar düzenler ve güvenilir ağlar aracılığıyla harekete geçer.
Bu kuruluşlar, bir insan kuruluşunun basın toplantısı düzenlemesi için gereken sürede yasa taslağı hazırlayabilen, kıtayı kapsayan dezenformasyon kampanyası başlatabilen ve milyonlarca ikna edici mesaj üretebilen bir yapay zeka ile rekabet etmek için yapısal olarak yetersizdir.18
Kamusal alan yapay zeka tarafından üretilen kişilikler ve içeriklerle dolduğunda, sivil toplumun gerçek sesleri marjinalleşir. Meşru endişeleri gürültü içinde kaybolur, güvenilirlikleri koordineli yapay zeka sürülerinin saldırısına uğrar. Halkın taleplerini kanalize etmek ve rafine etmek için hayati önem taşıyan bu kuruluşların arabuluculuk rolü atlanır ve gereksiz hale gelir. Esasen, yapay zeka sadece “halkı” değil, aynı zamanda halkı simüle etmek için en uygun konumda olan siyasi kuruluşları ve kaynakları bol çıkar gruplarını da güçlendirir, bu da onu sivil ele geçirme için nihai araç haline getirir.
Güvenin aşınması
Son olarak, yapay zekanın yaygın kullanımı, demokratik sonuçları meşrulaştıran güveni aşındırır. Bir kampanyadaki kritik bir argüman yapay zekadan kaynaklanıyorsa, kimi sorumlu tutarsınız? Bir yasanın ilk taslağı kara kutu algoritmasıyla yazılmışsa, niyeti nasıl tartışılabilir? Bu yeni dinamikler, demokratik uygulamaya derin bir epistemik belirsizlik getirerek, Stephan Grimmelikhuijsen ve Albert Meijer’in meşruiyete yönelik merkezi bir tehdit olarak tanımladıkları şeyi pekiştirir: kamu denetiminin azalması ve anlamlı hesap verebilirliğin aşınması.19 Ve oy teknik olarak özgür ve adil olsa bile, kazanan tarafın sofistike, muhtemelen anlaşılmaz bir AI ikna makinesini kullanmış olması, sonucun meşruiyetini sonsuza kadar şüpheye düşürecektir. Hem kaybeden taraf hem de uluslararası gözlemciler, gerçek bir demokratik ifadeye mi yoksa teknolojik olarak güçlendirilmiş bir darbeye mi tanık olduklarını makul bir şekilde sorgulayabilirler.20
Kısacası, AI’yı doğrudan demokrasi için bu kadar güçlü bir hızlandırıcı yapan faktörler, onun meşruiyet temelini ortadan kaldıran faktörlerle aynıdır. AI, müzakereleri parçalayarak, sivil toplumu bastırarak ve güveni zayıflatarak, doğrudan demokrasi girişimlerini emniyet valflerinden yangın çıkaran cihazlara dönüştürme riski taşır. [Sayfa 37’nin sonu]
Tablo: Dijital Demokrasi Senaryoları
| Boyut | Senaryo A: Kalıcı Halk Oylaması (En Az Dirençli Yol) | Senaryo B: Artırılmış Müzakere (Bilinçli Tasarım Yolu) |
| Yönetici İlke | Verimlilik ve hız. AI, siyasi katılımı otomatikleştirerek, doğrudan oyların hacmini ve hızını önceliklendirir. | Meşruiyet ve kalite. AI, kamuoyunun muhakeme kalitesini ve bilgilendirilmiş onayı önceliklendirerek müzakere sürecini geliştirir. |
| Kamusal Alanın Doğası | Parçalanmış, bunalmış. Yapay zeka tarafından üretilen propaganda ve kişiselleştirilmiş ikna çabalarının yarattığı kakofoni, ortak söylemi yok ediyor. | Yapılandırılmış, netleştirilmiş. AI araçları, kamuya açık forumlarda tartışmaları yönetmek, gerçekleri doğrulamak, çevirmek ve sentezlemek için kullanılır. |
| Vatandaşların Rolü | “Demokratik yorgunluk”tan muzdarip, bunalmış ve sinik seçmenler. Güç, harekete geçen, genellikle aşırı uçtaki azınlıklara geçiyor. | Bilgili ve katılımcı katılımcılar. Tarafsız özetler ve doğruluk kontrolü için kamu yararına AI asistanları ile donatılmış. |
| Sivil Toplumun Kaderi | Marjinalleştirilmiş ve göz ardı edilmiş. AI destekli kampanyaların hızı ve ölçeği ile rekabet edemeyen bu yaklaşım, artık geçerliliğini yitirmiştir. | “Zırhlı” ve güçlendirilmiş. Yapay zeka araçlarını kullanarak mevzuatı analiz eder, yanlış bilgileri tespit eder ve bilgilendirilmiş karşı kampanyalar düzenler. |
| Vatandaşların Başlattığı Doğrudan Demokrasi Mekanizmalarının Kullanımı | Silah olarak kullanıldı. Kurumları atlatmak ve çoğunluk diktatörlüğünü meşrulaştırmak için sık sık, istikrarı bozan referandumlar olarak kullanıldı. | İstikrar sağlama. Yapılandırılmış kamu müzakeresinin ardından kasıtlı, “tamponlu” emniyet valfleri olarak kullanılır, meşruiyet oluşturur. |
| Nihai Sonuç | Uçucu İlliberalizm. Tercihleri bir araya getirmede etkili olan ancak istikrarlı ve meşru sonuçlar üretemeyen bir sistem. Hakların ve güvenin erozyonu. | Uyarlanabilir Dayanıklılık. Daha kapsayıcı, yansıtıcı ve dayanıklı, gelişmiş sivil kapasiteyle çatışmaları yönetebilen bir sistem.* |
İKİ AI SENARYOSU VE DEMOKRASİ ÜZERİNDEKİ ETKİLERİ
AI’nın lojistik gücü ve oluşturduğu riskler göz önüne alındığında, gelecek belirsizdir. AI’nın sağladığı verimlilik ile demokrasiyi zayıflatma potansiyeli arasındaki gerilim, demokrasiler için iki farklı yol sunmaktadır. Bu iki yol arasında yapılacak seçim teknolojik değil, politik bir seçimdir ve AI’yı demokrasinin işlevini yerine getirmek için mi yoksa onu güçlendirmek için mi tasarladığımıza bağlıdır. Tablo, demokratik sağlığın temel boyutları açısından bu iki senaryoyu — “kalıcı halk oylaması” ile “güçlendirilmiş müzakere” — karşılaştırmaktadır.
Steven Levitsky ve Daniel Ziblatt, demokrasilerin resmi yetkilerin sistematik kullanımıyla “ışıklar açıkken” ölebileceği konusunda uyarıda bulunmuştur.21 “Kalıcı referandum” mantığı, tam da bu yolu kolaylaştırmaktadır: kurumsal denge unsurları olmaksızın kararların sürekli olarak halkın anlık nabzına sunulması. Macaristan hükümeti tarafından yürütülen, Ukrayna’nın AB’ye katılımına ilişkin Voks 2025 danışma süreci — Başbakan Viktor Orbán’ın katılım karşıtı tutumuna ulusal bir yetki kazandırmak için kullanıldı — bu referandum eğilimini göstermektedir: Voks 2025 birkaç hafta içinde organize edildi ve yürütüldü. Resmi olarak bağlayıcı olmasa da, oylama, zayıf güvenceler, anlamlı bir soğuma süresinin olmaması ve müzakere eksikliği nedeniyle eleştirilen Brüksel’de hükümetin veto pozisyonuna halkın meşruiyetini kazandırdı.22
Daha iyi bir yol var, ancak bu yol daha fazla dirençle karşılaşıyor. “Geliştirilmiş müzakere” — veya AI odaklı demokrasi — proaktif yönetişim, sürdürülebilir kamu yatırımı ve demokratik ilkelere güçlü bağlılık gerektirir.
Dahası, siyasi sistemleri bu tercih edilebilir geleceğe yönlendirmek için kurumsal ve teknolojik koruyucu önlemler gerekecektir.
AI Odaklı Demokrasi için Gerçekçi Bir Yol Haritası
Günlük yaşamın talepleriyle zaten zor durumda olan sıradan vatandaşları aşırı yüklemeden, kamusal söylemin bütünlüğünü koruyan sistemleri nasıl tasarlayabiliriz? Hedef, sorunsuz bir güven ortamıdır — bireyler, gerçekliğini değerlendirmek için herhangi bir teknik uzmanlığa sahip olmadan siyasi içeriklerle güvenle etkileşime girebilmelidir. Bunu mümkün kılmak için, doğrulama yükünü bireylerden kurumsal ve teknolojik altyapılara kaydırmalıyız.
Dikkat ekonomisinin baskısı altında yaşayan gerçek insanlar düşünülerek tasarlanan aşağıdaki öneriler, ne hiperbilgili “süper vatandaşlar”a yönelik naif beklentilere ne de demokratik sorunlara tamamen teknik çözümler bulma yönündeki yanlış inancına dayanmaktadır. Sağlıklı bir AI odaklı demokrasi, kolektif özyönetimin temellerini korurken, insanın bilişsel sınırlarını gerçekçi bir şekilde dikkate alan kurumsal ve teknolojik ekosistemlere dayanmalıdır. Bu yaklaşım, OECD, AB’nin Yapay Zeka Yüksek Düzeyli Uzman Grubu ve UNESCO’nun, teknolojik gelişmeyi demokratik değerlerle uyumlu hale getiren, şeffaflık, hesap verebilirlik ve kapsayıcı yönetişimi vurgulayan “güvenilir AI” çerçevesi çağrısına dayanmaktadır ve bunu hayata geçirmeyi amaçlamaktadır.23
Yasal ve düzenleyici koruyucu önlemler
İlk olarak, görüntüler, videolar, sesler ve toplu metinler dahil olmak üzere tüm yapay zeka tarafından üretilen siyasi içeriklerin, açık ve makine tarafından okunabilir bir filigran taşımasını yasal olarak zorunlu kılmalıyız. Sosyal medya platformları ve haber toplayıcılar, bu tür içeriklerin üzerinde örneğin “Sentetik Olarak Üretilmiştir” gibi bir etiketi belirgin bir şekilde görüntülemek zorunda kalacaklardır. Bu önlemler, vatandaşların gerçekliği değerlendirmek için adli tıp uzmanlığına ihtiyaç duymamalarını sağlayacaktır; materyalin kaynağı, gıdalardaki besin değerleri etiketleri gibi, hemen anlaşılabilir olacaktır. Bu tür adımlar, algoritmik şeffaflık ve anlamlı kamu denetimi yolunda temel bir adım olacaktır.24
Ancak filigranlama her derde deva değildir: Yeni ortaya çıkan AI modelleri, dijital imzaları minimum izlenebilirlikle silebilir veya değiştirebilir, bu da [Sayfa 39’un sonu] tek bir savunma hattına güvenmek yerine çok katmanlı yasal, teknik ve kurumsal güvenlik önlemlerine duyulan ihtiyacı vurgulamaktadır. Platformların tamamı sentetik içerikle dolduğunda, filigranlama ve menşe takibi bile yetersiz kalabilir. “Karanlık orman” senaryosunda, zorluk artık sahte olanı tespit etmek değil, herhangi bir şeyin hala insan yapımı olup olmadığını ayırt etmektir.25 Bu metafor, sentetik içerikle doymuş bir bilgi ekosisteminin daha derin epistemik riskini yansıtmaktadır: Özgünlüğün kendisi kanıtlanamaz hale geldiğinde, demokratik güvenin temel koşulları aşınmaya başlar.
Zorunlu “soğuma” süreleri
AI kaynaklı viral dalgalanmalara karşı koymak için, bir vatandaş girişiminin oylamaya hak kazanması ile oylama arasında yasal olarak bir düşünme süresi zorunlu kılmalıyız. Bu süre, yapılandırılmış, moderatörlü bir kamuoyu tartışması için ayrılacak ve karşı mesajların ortaya çıkmasını ve kamuoyunda mantıklı analizlerin dolaşmasını sağlayacaktır. Bu tür önlemler, Katar’ın Kasım 2024’teki anayasa referandumu gibi “anlık halk oylamaları” riskini azaltacak ve müzakere için zamansal alan yaratacaktır. Katar emirinin “oylamayı durdurmak” için referandum duyurusu ile oylama arasında sadece birkaç hafta geçti, bu da anlamlı bir soğuma süresi veya kamu müzakeresi için zaman bırakmadı.
Reform, seçmenlerin %90,6’sı tarafından onaylandı.26
AI destekli astroturfing için katı sorumluluk
Büyük ölçekli, koordineli sahte kampanyalar yürütmek için AI kullanımı, ciddi bir seçim suçu olarak değerlendirilmelidir. Kamuoyunu manipüle etmek için AI sürülerini finanse eden veya kullanan kuruluşlar, katı mali ve hukuki yaptırımlarla karşı karşıya kalmalıdır. Bu tür bir sorumluluk, bu tür çabaların potansiyel organizatörlerini ve sponsorlarını caydırmaya yardımcı olacaktır. Ancak, yasaların yazılması ve kabul edilmesi, özellikle teknolojik yeniliklerin hızıyla karşılaştırıldığında, genellikle çok yavaş gerçekleşir. Şili’nin 1993 tarihli Siber Suçlar Yasası’nı ele alalım. Yasa, 2022 yılına kadar phishing, veri ele geçirme ve dijital dolandırıcılık gibi suçları da kapsayacak şekilde güncellenmedi. Ve yine de, bu uzun zamandır beklenen reform, AI destekli manipülasyon, koordineli dezenformasyon ve algoritmik hesap verebilirlik konularında büyük ölçüde sessiz kalmaktadır.
John Wihbey’in de belirttiği gibi, demokrasiler, teknolojik değişimin hızı ile kurumsal adaptasyonun yavaş ritmi arasındaki yapısal uyumsuzluktan muzdariptir.27 Bu nedenle, yasa koyucular genellikle dünün teknolojisi için yasalar çıkarırken, yeni algoritmik manipülasyon biçimleri ortaya çıkmaktadır. Sonuç, sürekli ilerleyen teknolojik sınırları sonsuza kadar kovalayan bir yasal yapıdır.
Kurumsal ve altyapısal güçlendirmeler
Sivil toplum kuruluşlarının ve gazetecilerin kendi başlarının çaresine bakmasını beklemek yerine, kamu tarafından finanse edilen veya bağımsız olarak desteklenen yapay zeka araçları sivil toplumun kullanımı için geliştirilmelidir — ben buna sivil toplum için kamu yararına yapay zeka cephaneliği diyorum. Şunları sunan güvenilir bir platform düşünün: 1) tek tıklamayla doğrulama API’leri (uygulama programlama arayüzleri), bunlar haber kuruluşlarının ve sivil grupların tek bir istekle iddiaların, görüntülerin ve viral içeriğin gerçekliğini anında doğrulamasına olanak tanıyan basit yazılım araçlarıdır; ve 2) oy pusulası önlemlerinin artıları, eksileri ve mali etkilerinin sade bir dille özetlendiği otomatik yasal analiz. Bu tür araçlar, her gönüllünün teknik uzman olmasını gerektirmeden sivil toplumu dijital manipülasyona karşı koyma yeteneği ile “donatır”.
Diğer önemli reformlar arasında “algoritmik ombudsmanlar”ın kurulması, AI sistemlerinin bağımsız denetimlerinin yapılması ve dijital platformların yanlış bilgilerin yayılmasını yavaşlatmak veya sınırlamak için adımlar atmasının teşvik edilmesi yer alır. Siyasi kampanyalarda ve kamu yönetiminde kullanılan AI sistemlerini denetleme yetkisi ve teknik kapasitesine sahip bağımsız kamu kurumları, demokratik kurallara uyumu sağlayan güvenilir bir üçüncü taraf olan seçim komisyonunun dijital eşdeğeri olarak işlev görecektir. Öte yandan, büyük dijital platformların doğrulanmamış siyasi içeriğin yayılmasını yavaşlatmak için tasarım özellikleri getirmesi, seçmenlerin daha iyi bilgilenmesini sağlayacak ve kampanyalar etrafındaki çılgınlığı azaltacaktır. Bunun bir örneği, siyasi bilgilerin geçerliliği hakkında kullanıcıya gösterilen uyarılar olabilir. Web sitelerinde, sosyal medya platformlarında veya mobil uygulamalarda “Bu oy pusulası ile ilgili iddia doğrulanmamıştır. Paylaşmadan önce her iki tarafın argümanlarının özetini görmek ister misiniz?” şeklinde kısa pop-up’lar gösterilebilir. Bu tür uyarılar, kullanıcılara ağır yükler getirmeden düşünme fırsatı yaratır.
Bu yol haritası temel bir gerçeği kabul eder: Sistemik, teknoloji odaklı sorunlar bireysel, analog çözümlerle ele alınamaz. Cevap, vatandaşlara medya okuryazarlığı hakkında ders vermek değil, gerçeğin gerçekten galip gelebileceği bir dijital ortam oluşturmaktır. Amaç, katılımın erişilebilir kaldığı ve kararların bilinçli bir şekilde alındığı bir demokrasi yaratmaktır; bu, vatandaşların olağanüstü çabalarıyla değil, kurumların akıllı mimarisiyle sağlanır.
Demokrasinin İnsani Özünü Geri Kazanmak
Üretken yapay zekanın ortaya çıkışı, demokratik yönetişimin evriminde kritik bir dönüm noktasıdır ve doğrudan vatandaş katılımı mekanizmaları en derin şekilde etkilenmiştir. Yapay zekanın cazip vaadi, daha duyarlı ve verimli görünen bir demokrasidir; halkın iradesinin benzeri görülmemiş bir hız ve ölçekte yasaya dönüştürülebileceği bir sistemdir.
Ancak bu vaat, temel bir tehdit de barındırmaktadır. Doğrudan demokrasinin araçlarını güçlendirirken, aynı zamanda bilinçli müzakere, güçlü sivil toplum ve kurumsal güvenin temellerini aşındırarak, yapay zeka, tüm gücü elinde bulunduran ancak hiçbir meşruiyeti olmayan bir sistem yaratma riski taşımaktadır.
Bu nedenle en büyük tehlike, AI’nın temsili demokrasinin yerini alması değil, çarpık ve istikrarsız bir doğrudan demokrasi biçimi yaratmasıdır. Bu senaryoda, koşullu güvenceleri ortadan kaldırılan oy pusulası girişimleri, referandumlar ve benzeri uygulamalar, kutuplaşma ve halk oylaması ile yönetimin motorları haline gelir. Bu, doğrudan[Sayfa 41’in sonu] demokrasiye karşı bir argüman değil, daha çok, başarısız olduğu belirli koşullar hakkında ampirik kanıtlara dayanan bir uyarıdır.
“Geliştirilmiş müzakere” alternatif yolu, teknolojik bir fantezi değil, siyasi bir projedir. Bu yol, AI’yı tercihleri hızlı bir şekilde saymak için kullanmaktan, kamuoyunun muhakeme kalitesini iyileştirmek için kullanmaya odaklanmaya geçmeyi gerektirir. Burada önerilen koruyucu önlemler, idealize edilmiş vatandaşlar için değil, gerçek insanlar için tasarlanmıştır ve amacı, zaten yorgun olan kamuoyundan sürekli uyanıklık talep etmek yerine, güveni teşvik eden sistemler oluşturmaktır.
Nihayetinde, yapay zeka ikilemi bizi demokratik yönetimin merkezinde yer alan en insani sorularla yüzleşmeye zorlar. Yapay zekayı demokratik yargıyı güçlendirmek için mi kullanacağız — insan müzakeresini, şeffaflığı ve kolektif özyönetimi artırmak için — yoksa onayların uydurulduğu, kamuoyu tartışmalarının içi boşaltıldığı ve vatandaşların anlamlı bir sesi olmadığı yapay zeka odaklı bir siyasi sisteme mi sürükleneceğiz? İlki, evrensel teknik uzmanlık gerektiren imkansız bir hedef değildir, ancak siyasi nihilizmden sağlıklı şüpheciliğe pragmatik bir zihniyet değişikliği gerektirecektir. Bu şüphecilik, açık etiketler, güvenilir aracılar ve şeffaf sistemler tarafından kolaylaştırılacaktır; vatandaşlar dedektif olmaya gerek kalmayacaktır, çünkü yerleşik doğrulama sistemine güvenerek şu soruları sorabileceklerdir: “Bunun arkasında kim var? Bu sentetik mi? Tarafsız kaynaklar ne diyor?” Bu senaryoda, güvensizliği felç etmek yerine, yönetilebilir bir doğrulama uygulaması vardır. Ancak bu yolu reddedip, bunun yerine pasif bir şekilde kontrolü yapay zekaya devretmeyi tercih edersek, nihilizm ve distopya bizi bekliyor olacaktır — vatandaşların gerçeği kurgudan ayırt edemediği ve siyasetten tamamen uzaklaştığı toplumlar.
Teknoloji bu ikilemleri çözmez, sadece aciliyetlerini artırır. Bu nedenle, yapay zekanın gücünü, kolektif öz yönetişim için insana özgü kapasiteyi yeniden teyit etmek ve güçlendirmek için kullanmalıyız. Demokrasinin geleceği, iyi kurallar belirleme ve kolektif zihniyetimizi nihilizmden güçlendirilmiş, sürdürülebilir şüpheciliğe başarıyla yönlendirme konusunda insanların bilgeliğine bağlıdır. Demokrasi algoritmalar tarafından yok edilmeyecek veya kurtarılmayacak, onları nasıl yönettiğimize göre şekillenecektir.
Orjinal Makale: The AI Democracy Dilemma
Photo: Greggory DiSalvo/Getty Images
REFERANSLAR:
1. Morgan Meaker, “Slovakia’s Election Deepfakes Show AI Is a Danger to Democracy,” Wired, 3 October 2023; Aditya Kalra, Munsif Vengattil, and Dhwani Pandya, “Deepfakes of Bollywood Stars Spark Worries of AI Meddling in India Election,” Reuters, 22 April 2024, https://www.reuters.com/world/india/deepfakes-bollywood-stars-spark-worries-aimeddling-india-election-2024-04-22/; “Desinformación en el plebiscito: el vacío legal que dejó a 202 denuncias ante el Servel sin ser investigadas ni sancionadas,” CIPER podcast, 21 November 2022, https://www.ciperchile.cl/2022/11/21/podcast-desinformacion-en-elplebiscito-el-vacio-legal-que-dejo-a-202-denuncias-ante-el-servel-sin-ser-investigadasni-sancionadas/; and U.K. House of Commons Digital, Culture, Media, and Sport Committee, “Disinformation and ‘Fake News’: Final Report,” Eighth Report of Session 2017–19, https://publications.parliament.uk/pa/cm201719/cmselect/cmcumeds/1791/1791.pdf.
2. Sarah Kreps and Doug Kriner, “How AI Threatens Democracy,” Journal of Democracy 34 (October 2023):122–31; Emilio Ferrara, “Charting the Landscape of Nefarious Uses of Generative Artificial Intelligence for Online Election Interference,” arXiv preprint 2406.01862 (2024); Daniel Thilo Schroeder et al., “How Malicious AI Swarms Can Threaten Democracy,” arXiv preprint 2506.06299 (2025).
3. Robert Chesney and Danielle Keats Citron, “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security,” California Law Review 107 (2018); Cristian Vaccari and Andrew Chadwick, “Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News,” Social Media+Society 6, no. 1 (2020); Meaker, “Slovakia’s Election Deepfakes Show AI Is a Danger to Democracy.”
4. Hélène Landemore, Open Democracy: Reinventing Popular Rule for the Twenty-First Century (Princeton: Princeton University Press, 2020); Nadia Urbinati, Democracy Disfigured: Opinion, Truth, and the People (Cambridge: Harvard University Press, 2014).
5. The debate around AI often falls into two opposing camps: the optimists, who view technological acceleration as a pathway to human progress (see, for example, Kevin Kelly, The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future [New York: Viking, 2016]); and the pessimists, who see it as a force of alienation, surveillance, and cognitive decay (see Nicholas Carr, The Shallows: What the Internet Is Doing to Our Brains [New York: W. W. Norton, 2011]). Here, I am trying to plot a middle ground, recognizing AI’s extraordinary potential to enhance participation and deliberation, while warning that without institutional guardrails it risks amplifying precisely the pathologies it promises to cure.
6. David Altman, “Decompressing to Prevent Unrest: Political Participation through Citizen-Initiated Mechanisms of Direct Democracy,” Social Movement Studies (forthcoming).
7. John Parkinson and Jane Mansbridge, eds., Deliberative Systems: Deliberative Democracy at the Large Scale (Cambridge: Cambridge University Press, 2012); David Alt-man, “Citizen-Initiated Direct Democracy and Democratic Backsliding: A Conditional Institutional Theory” (unpubl. ms., 2025).
8. Kreps and Kriner, “How AI Threatens Democracy”; Stephan Grimmelikhuijsen and Albert Meijer, “Legitimacy of Algorithmic Decision-Making: Six Threats and the Need for a Calibrated Institutional Response,” Perspectives on Public Management and Governance 5, no. 3 (2022): 232–42.
9. John G. Matsusaka, “Direct Democracy Works,” Journal of Economic Perspectives 19, no. 2 (2005): 185–206; Shaun Bowler and Todd Donovan, Demanding Choices: Opinion, Voting, and Direct Democracy (Ann Arbor: The University of Michigan Press, 1998); David Altman, Citizenship and Contemporary Direct Democracy (New York, NY: Cambridge University Press, 2019).
10. U.S. Supreme Court, “Buckley v. American Constitutional Law Foundation,” 525 U.S. (1999); Raluca Onufreiciuc and Oana Olariu, “Citizen Law Making vs. Legal Illiteracy,” Logos Universality Mentality Education Novelty: Law 7, no. 2 (2019): 1–9.
11. Christopher Summerfield et al., “How Will Advanced AI Systems Impact Democracy?,” arXiv preprint 2409.06729 (2024).
12. W. Lance Bennett and Alexandra Segerberg, “The Logic of Connective Action: Digital Media and the Personalization of Contentious Politics,” Information, Communication & Society 15, no. 5 (2012): 739–68.
13. Daniel Kreiss and Shannon C. McGregor, “Technology Firms Shape Political Communication: The Work of Microsoft, Facebook, Twitter, and Google with Campaigns During the 2016 U.S. Presidential Cycle,” Political Communication 35, no. 2 (2018): 155–77.
14. Eitan D. Hersh, Hacking the Electorate: How Campaigns Perceive Voters (New York: Cambridge University Press, 2015).
15. Schroeder et al., “How Malicious AI Swarms Can Threaten Democracy.”
16. Kreps and Kriner, “How AI Threatens Democracy.”; Frederik J. Zuiderveen Borgesius et al., “Online Political Microtargeting: Promises and Threats for Democracy,” Utrecht Law Review 14, no. 1 (2018): 82–96.
17. Borgesius et al., “Online Political Microtargeting: Promises and Threats for Democracy.”
18. Zeynep Tufekci, Twitter and Tear Gas: The Power and Fragility of Networked Protest (New Haven: Yale University Press, 2017).
19. Steve McKinlay, “Trust and Algorithmic Opacity” in Kevin Macnish and Jai Galliott, eds., Big Data and Democracy (Edinburgh: Edinburgh University Press, 2020). See Grimmelikhuijsen and Meijer, “Legitimacy of Algorithmic Decision-Making”; Chile’s experience is illustrative: At least 117 algorithmic systems—some using AI and most using personal data—are currently deployed across public agencies in the country, including those that decide who receives priority healthcare, who fills the last available seat in a public school, and which taxpayer or company should be inspected (see Repositorio de Algoritmos Públicos GobLab UAI, “Repositorio De Algoritmos Públicos. Informe Anual 2025,” Escuela de Gobierno, Universidad Adolfo Ibáñez, 2025).
20. W. Lance Bennett and Steven Livingston, “The Disinformation Order: Disruptive Communication and the Decline of Democratic Institutions,” European Journal of Communication 33, no. 2 (2018): 122–39.
21. Steven Levitsky and Daniel Ziblatt, How Democracies Die (New York: Crown, 2018).
22. See Keno Verseck, “Orban to Continue Anti-Ukrainian Course After ‘Referendum'” Deutsche Welle, 27 June 2025, https://www.dw.com/en/orban-to-continue-antiukrainian-course-after-referendum/a-73063866.
23. Oier Mentxaka et al., “Aligning Trustworthy AI with Democracy: A Dual Taxonomy of Opportunities and Risks,” arXiv preprint2505.13565 (2025); Levitsky and Ziblatt, How Democracies Die; Organisation for Economic Co-operation and Development, OECD Principles on Artificial Intelligence (Paris: OECD, 2019); European Commission, High-Level Expert Group on Artificial Intelligence, Ethics Guidelines for Trustworthy AI (Brussels: European Commission, 2019); UNESCO, Recommendation on the Ethics of Artificial Intelligence(Paris: UNESCO, 2021).
24. Matías Valderrama, María Paz Hermosilla, and Romina Garrido, “State of the Evidence: Algorithmic Transparency,” Gob_Lab UAI May (2023).
25. Maggie Appleton, “The Dark Forest and Generative AI,” https://maggieappleton.com/ai-dark-forest/, 2023.
26. See “Qatar Passes Referendum, Replaces Shura Council Elections with Appointments, Interior Minister Says,” Reuters, 5 November 2024, https://www.reuters.com/world/middle-east/qatar-passes-referendum-replaces-shura-council-elections-with-appointments-state-2024-11-05/.
27. John P. Wihbey, “AI and Epistemic Risk for Democracy: A Coming Crisis of Public Knowledge?,” in Democracy’s Mega Challenges: How Climate Change, Migration, and Big Data Threaten the Future of Liberal Democratic Governance (Hartford: Trinity College, 2024).