Praksis Güncel

güncel tartışma platformu

Neden Harari? Neden şimdi? Kehanet çağında hakikati pratiğe geri çağırmak

Bu içeriği paylaş:

Son yıllarda yapay zekâ üzerine küresel ölçekte kurulan dilin işleyişi, artık teknik bir tartışmanın çok ötesine geçti. Konu artık algoritmaların ne yapabildiğinin ötesinde insanlığın kendisini nasıl anlamlandırdığı, geleceği nasıl tahayyül ettiği ve siyaseti hangi dil üzerinden konuştuğu sorunu olmaya başladı. Bu noktada Yuval Noah Harari, yalnızca bir akademisyen ya da popüler yazar olarak değil küresel bir tahayyül kurucusu olarak öne çıkıyor.

Harari’yi Davos kürsüsünde dinleyenler yalnızca bilgi almıyor; bir gelecek duygusuna, bir korku eşiğine, bir “olabilirler evreni”ne davet ediliyor. İşte, Praksis Güncel’de de bu sorunun bir dosya gibi ele alınmasının nedeni: Bu anlatı ne üretiyor? Ve neyi görünmez kılıyor?

Bu yazı Harari’yi “yanlışlamak” amacıyla yazılmadı. Çünkü mesele tek tek cümlelerin doğruluğu ya da yanlışlığı değil. Mesele, kurulan bütünlüklü söylemin politik ve epistemolojik etkisi. Bu yazı, yapay zekâ tartışmasını, kehanet ve etik uyarı düzeyinden çıkarıp praksisin –yani somut toplumsal mücadelenin– içine geri çağırmayı amaçlıyor.

Harari’nin Davos konuşmasında tekrar tekrar karşımıza çıkan ifadeler —“algoritmalar karar verecek”, “insan hacklenebilir bir hayvandır”, “demokrasi veri çağında işlevsizleşebilir”— tek başına ele alındığında uyarıcı, hatta kimi zaman haklı görünebilir. Ancak bu cümleler bir araya geldiğinde şu soru kaçınılmaz oluyor: Bu söylem insanlığı harekete mi geçiriyor, yoksa seyirci konumuna mı yerleştiriyor?

Kehanetin politik konforu

Harari’nin dili çoğu zaman bir alarm çalar gibi çalışır. Ama bu alarm, somut mücadele çağrılarından çok, nedense geleceğe ertelenmiş bir kaygı üretir. “Eğer dikkatli olmazsak” diye başlayan cümleler, dikkatli olmanın kim tarafından, hangi araçlarla, hangi iktidar ilişkileri içinde gerçekleştiğini ve gerçekleşeceğini belirsiz bırakır.

Bu belirsizlik hiç de tesadüfi değildir. Kehanet dili, siyaseti askıya almanın en kurnazca yollarından biridir. Gelecek hakkında konuşmak kolaydır; çünkü bugünün somut çatışmalarını isimlendirmeyi gerektirmez. Praksis felsefesi açısından sorun tam da budur: Hakikat, gelecekte olup olmayacaklar üzerinden değil, şimdi ve burada yürütülen mücadeleler içinde kurulur.

Yapay zekâ bir yazgı değil, bir ilişkidir

Bu yazı boyunca ısrarla savunacağım(ız*) temel iddia şudur: Yapay zekâ, insanlığa dışsal bir kader veya araç değildir. O, belirli üretim ilişkileri, emek biçimleri, mülkiyet yapıları ve siyasal tercihler içinde şekillenen toplumsal bir ilişkidir -bu anlamda, kapitalist üretim tarzında bir sermaye ilişkisidir- ve sürekli olarak yeniden üretilir.

Harari’nin anlatısı bu ilişkisellikleri sıklıkla geri plana iter. Teknoloji sanki kendi başına ilerleyen bir özneymiş gibi sunulur. Oysa yapay zekâ düşük ücretli ve görünmez emekle, küresel veri eşitsizlikleriyle, şirketler ve devletler arası iktidar mücadeleleriyle iç içe geçmiştir. Bu bağlam silindiğinde, eleştiri yerini hayranlığa ya da felce bırakır.

Praksis’in müdahalesi

Bu yazıda, Harari’nin söz konusunu konuşmasındaki dikkate değer iddialarını ele alacak, onları retorik, epistemoloji ve siyaset düzeyinde çözümleyeceğiz. Ama daha önemlisi, şu soruyu sürekli canlı tutmaya çalışacağız: Yapay zekâ tartışmasını yeniden pratiğin, yani toplumsal mücadelenin içine nasıl geri çağırırız? Öyleyse praksis felsefesi için mesele, doğru kehaneti bulmak değil; hakikati örgütlü bir zeminde yeniden kurmaktır.

Bu kısa ve sınırlı araştırma, tam da bu yüzden açılıyor ve beş temel soru soruyor:

I. SORU: Kehanet mi, alarm mı?

Harari’nin Davos konuşmasında kurduğu dil, ilk bakışta bir uyarı dili olarak işliyor. “Geri dönüşü olmayan eşikler”, “kontrolün kaybı”, “insanın anlamsızlaşması” gibi ifadeler, dinleyicide bir aciliyet hissi yaratmayı hedefliyor. Harari’nin savunucuları bu dili “alarmist ama gerekli” buluyor: Tehlike büyükse, onu ifade eden dil de sert olmalı. Bu noktada temel bir ayrımı netleştirmek gerekiyor: Her alarm politik midir? Zira alarmlar siyasi olarak uyarıcı değil, tam tersine uyutucu da olabilir.

Alarm dili, tarihsel olarak iki farklı işlev görmüştür. Birincisi, somut bir tehdidi görünür kılarak kolektif eylemi hızlandırır. İkincisi ise tehdidi büyüterek, özneyi donuklaştırır; “çok büyük, çok karmaşık, çok geç” duygusu yaratır. Harari’nin Davos anlatısı, çoğu zaman ikinci hattı izler. “Eğer dikkatli olmazsak” diye başlayan cümleler, dikkatli olmanın kim tarafından, hangi araçlarla ve hangi çatışmalar içinde gerçekleşeceğini açıklamaz. Böylece alarm, bir mücadele çağrısı olmaktan çıkar; soyut bir bilinç hâline dönüşür. Bu, politik olarak güvenli bir alarmdır: Kimseyi doğrudan sorumlu tutmaz, kimseyi somut bir pozisyon almaya zorlamaz. Alarm, burada siyaseti hızlandırmaz; ertelemeye alır.

Kehanet dili, modern dünyada seküler biçimler almıştır. Artık tanrısal bir kader yerine algoritmalardan, burçlardan, veri akışlarından ve sistemlerden söz edilir. Ancak işlev aynıdır: Gelecek, bugünden koparılır ve müdahale edilemez bir yazgı gibi sunulur. Harari’nin anlatısında yapay zekâ, bu işlevi görür. “Olabilir”, “yaklaşmakta”, “kaçınılmaz” gibi ifadeler, geleceği bir ihtimaller evreni olarak çizer ama bu ihtimallerin bugünkü iktidar ilişkileriyle nasıl üretildiğini arka plana iter. Bu noktada kehanet, yalnızca yanlış bir gelecek öngörüsü değildir. Kehanet, bugünün çatışmalarını -zaman kaydırmasıyla- askıya alan bir ideoloji olarak iş görür. Harari’nin Davos konuşmalarında sıkça rastlanan bir strateji vardır: Yapısal sorunlar, geleceğe ertelenir. Demokrasi “ileride” çökecektir; insan “yakında” anlamsızlaşacaktır; kararlar “çok geçmeden” algoritmalara geçecektir. Bu zaman kaydırması masum değildir. Çünkü bugünü analiz etmek, şu soruları sormayı gerektirir: Verinin mülkiyeti kimde? Yapay zekâ altyapılarını kim finanse ediyor? Hangi emek biçimleri görünmez kılınıyor? Hangi siyasal kararlar bu süreci hızlandırıyor? Gelecek hakkında konuşmak ise bu soruların hiçbirini zorunlu kılmaz. Bu nedenle kehanet dili, eleştirel görünmesine rağmen politik olarak konforludur.

Harari’nin dili, dinleyiciyi korkutmakta gerçekten de başarılıdır. Ama yayılan bu korku, her zaman harekete yol açar nitelikte değildir. Bazen tam tersine, özneyi küçülterek sorumluluk alanını daraltır. İnsanlık, bu anlatıda çoğu zaman büyük sistemler karşısında zayıf, kırılgan ve geç kalmış bir varlık olarak resmedilir. Bu temsil, farkında olmadan şunu öğretir: “Bu mesele senin boyunu aşıyor.” İşte politik felcin semptomudur bu. Özne, mücadele edebileceği alanlardan çok kaçınması gereken felaketleri düşünmeye yönelir. Siyaset, kolektif bir inşa süreci olmaktan çıkar; risk yönetimine indirgenir.

Harari’nin yüksek sesle çaldığı alarmı, küresel elitlere yöneliktir ama onların çıkarlarını doğrudan hedef almaz. Halklara yöneliktir ama onlara somut bir mücadele hattı sunmaz. Bu nedenle çalınan bu alarm, yukarıdan aşağıya konuşur ama aşağıdan yukarıya bir hareket üretmez. Bu yazının iddiası basit ama keskindir: Yapay zekâ karşısında ihtiyacımız olan şey daha yüksek sesle alarm vermekten çok alarmın yönünü değiştirmektir. Gelecekte tehlike yoktur; tehlike, şimdide, bugün yapay zekânın da bir sermaye ilişkisi olarak kuruluyor olmasındadır. Ve bugünün tehlikeleri, kehanetle değil örgütlü pratikle aşılabilir.

II. SORU: Algoritmalar karar verir mi?

Harari, Davos konuşmasında ısrarla şu iddiayı dolaşıma sokuyor: “Algoritmalar insanlardan daha iyi karar verebilir.” Bu cümle, ilk bakışta masum bir teknik tespit gibi durur. Daha fazla veri, daha hızlı işlem, daha az hata… Kim buna itiraz edebilir? Ama burada durmak gerekir. Çünkü mesele, algoritmaların ne kadar hızlı ya da ne kadar isabetli olduğu değildir. Mesele şudur: Karar dediğimiz şey nedir ve kime aittir?

Algoritmik karar söylemi, kararı teknik bir problem gibi sunar: Doğru girdiler, doğru çıktı. Oysa karar, hiçbir zaman yalnızca hesaplama değildir. Karar; değer yargısı içerir, çıkar çatışması içerir, bedel dağıtır, sorumluluk üretir. Bir algoritma kredi verip vermemeye, kimin işten çıkarılacağına, kimin gözetleneceğine “karar verdiğinde”, aslında yapılan şey kararın teknik bir arayüze devredilmesidir. Kararın etik ve politik niteliği ortadan kalkmaz; sadece görünmez kılınır. Bu görünmez kılma ise kapitalist üretim tarzının en başından beri ideolojik işleyiş tarzıdır, son derece işlevseldir.

Harari’nin söyleminde “daha iyi karar”, genellikle daha rasyonel, daha nesnel ve daha hatasız anlamına gelir. Ancak şu soru hiç sorulmaz: Kime göre daha iyi? Bir algoritma, bir şirket için daha kârlı, bir devlet için daha güvenli, bir piyasa için daha verimli kararlar üretebilir. Ama bu kararlar; işçiler için daha güvencesiz, yoksullar için daha dışlayıcı, muhalifler için daha baskıcı olabilir. Algoritma “daha iyi” karar verirken, hangi değeri optimize ettiğini söylemez. Çünkü bu değerler, kararın tasarlandığı iktidar ilişkilerinin içine gömülüdür.

Algoritmaların tarafsız olduğu iddiası, modern teknokrasinin en güçlü mitlerinden biridir. Oysa algoritmalar belirli verilerle eğitilir, belirli hedef fonksiyonlara göre çalışır, belirli çıkarlar doğrultusunda dağıtılır. Tarafsızlık iddiası, politik sorumluluğu askıya almanın en etkili yollarından biridir. “Algoritma öyle söyledi” dendiği anda, kararın arkasındaki aktörler —şirketler, devletler, yöneticiler— sisin arkasına çekilir. Böylece iktidar, hesap verebilir olmaktan çıkar.

“Algoritmalar karar verecek” söylemi, yalnızca teknik bir gelecek öngörüsü değildir. Bu söylem, kararın siyasetten koparılmasını normalleştirir. Oysa karar, siyasetin tam merkezindedir. Ne üretileceğine, kimin çalışacağına, kimin korunacağına, kimin gözleneceğine dair kararlar; tarih boyunca mücadeleyle şekillenmiştir. Bu kararları algoritmalara devretmek, aslında onları algoritmaları kontrol eden yapılara devretmektir. Burada algoritma, fail değil aracı maskedir.

Harari’nin sıkça ima ettiği bir başka iddia şudur: Demokrasi, veri çağında yetersiz kalabilir. Bu ima, algoritmik kararların daha “etkin” olacağı fikriyle birleşir. Ancak demokrasi, hiçbir zaman en hızlı ya da en verimli karar alma yöntemi olmamıştır. Demokrasi, çatışmayı görünür kılar, genellikle yavaşlatır ve itirazı mümkün kılar. Bu yüzden demokrasi, emekçi ve ezilenler için tercih nedenidir. Algoritmik karar rejimi ise tam tersini vaat eder: Hız, pürüzsüzlük ve itirazsızlık. Bu, planlama ve paydaş yönetimiyle birleşmedikçe bir ilerleme değil siyasal alanın daraltılmasıdır. Harari, bu “hız ve pürüzsüzlüğün” kapitalist üretimin aşılması için, üretimin ihtiyaçlar için planlanması için yarattığı olanaklardan ise hiç söz etmez.

Bunun da ötesinde, asıl kritik soru şudur: Bir algoritma “yanlış” bir karar verdiğinde, kim sorumludur? Bu soru cevapsız kaldığı sürece, algoritmik karar söylemi bir ilerleme değil sorumluluğun buharlaştırılmasıdır. Harari’nin anlatısı, bu buharlaşmayı ifşa etmek yerine, çoğu zaman onu kaçınılmaz bir kader gibi sunar. Algoritmalar hesaplayabilir, tahmin edebilir, öneride bulunabilir. Ama karar, teknik bir işlem değil etik ve politik bir eylemdir. Karar vermek, her şeyden önce bedel üstlenmektir. Bu nedenle asıl mevzu, algoritmaların karar verip veremeyeceği değildir, bu kehanet anlatısı içinde, kimin karar verme hakkından vazgeçmeye zorlandığıdır.

III. SORU: Yapay zekâ hikâye yazar mı?

Yuval Noah Harari, Davos konuşmasında yapay zekânın yalnızca hesap yapan bir araç olmanın ötesine geçerek aynı zamanda “yeni hikâyeler” üretebilen bir fail olacağını söylüyor. Dinlerin, ideolojilerin ve ulusların “hikâyeler” üzerinden kurulduğunu anlatan Harari’nin genel teorik hattı için bu iddia tutarlı görünebilir: Eğer dünyayı hikâyeler kuruyorsa, hikâye yazabilen bir makine dünyayı da kurabilir. Başlangıçta gelecek ihtimalleri üzerine güzel bir düşünce deneyi gibi. Ancak burası, durmamız gereken yer. Çünkü bu cümle, masum bir benzetme değildir. Hikâye metaforuyla, yapay zekânın arkasındaki sınıfsal ilişkileri görünmez kılan güçlü bir ideolojik söylem inşa edilmektedir.

Hikâye, yalnızca sözcüklerin yan yana gelişi değildir. Hikâye; bir deneyimin süzülmüş biçimidir, bir toplumsal konumdan konuşur, seçer, dışlar, vurgu yapar, susar. Hikâye anlatmak, dünyayı belirli bir yerden kurmaktır. Bu nedenle Harari’nin kastettiği hikâye, baştan sona politiktir; hiç de masum değildir. Yapay zekâya “hikâye yazma” yetisi atfetmek, bu politik konumu makineye transfer eder gibi görünür. Oysa ortada bir transfer yoktur. Yapay zekâ, hikâye anlatmaz; kodlarla izin verildiği şekilde mevcut anlatıların istatistiksel tekrarını üretir. Yapay zekânın kodlarla sınırlanması, bir sermaye tercihidir.

Büyük dil modelleri, geçmişte yazılmış metinler üzerinden eğitilir. Bu metinler, belirli dillerden, belirli coğrafyalardan, belirli sınıflardan gelir. Dolayısıyla modelin “yaratıcılığı”, bu veri havuzunun sınırlarıyla belirlenir. Yapay zekâ yeni bir hikâye icat etmez; hangi hikâyelerin konuşulabilir olduğunu yeniden düzenler. Bu düzenleme, tarafsız değildir. Küresel ölçekte baskın diller, anlatılar ve değerler, “evrensel” gibi görünürken; marjinalleştirilmiş deneyimler ya hiç yer bulamaz ya da egzotikleştirilerek temsil edilir. Hikâye yazma iddiası, bu eşitsizliği perdeleyen estetik bir örtüdür.

“Yapay zekâ hikâye yazıyor” denildiğinde, şu gerçek hızla unutulur olmaya başlar. Bu sistemler, milyonlarca insanın emeğiyle ayakta durur: Metin etiketleyen işçiler, içerik ayıklayan moderatörler, toksisiteyi, şiddeti, nefreti ayıklayan görünmez emekçiler… Bu emek çoğu zaman düşük ücretlidir, güvencesizdir ve küresel Güney’e doğru itilmiştir. Hikâye metaforu, bu emeği siler. Ortada sanki kendiliğinden konuşan bir makine varmış gibi bir yanılsama üretir. Oysa konuşan makine değil süzülmüş, filtrelenmiş ve disipline edilmiş insan emeğidir.

Hikâye anlatımı aynı zamanda bir sessizlik üretme işidir. Hangi hikâyelerin veri haline geldiği, hangilerinin gelmediği; hangilerinin “makul”, hangilerinin “aşırı” sayıldığı politik bir karardır.

Yapay zekânın “hikâye yazması”, çoğu zaman şu sonucu doğurur: Zaten baskın olan anlatılar daha da baskınlaşır. Alternatif, radikal ya da rahatsız edici olan ise ya yumuşatılır ya da dışarıda bırakılır. Bu nedenle her zaman asıl mesele, yapay zekânın hikâye yazıp yazmaması değil hangi hikâyeleri konuşulabilir kıldığıdır.

Harari’nin hikâye vurgusu, teknolojik bir tespitten çok ideolojik bir kaydırma işlevi görür. Dikkati mülkiyetten, emekten, iktidar ilişkilerinden alıp, anlatının büyüsüne yöneltir. Hikâye konuşulduğunda, üretim koşulları arka plana itilir. Dil, sınıftan; yaratıcılık, emekten; metin, bedenden koparılır. Bu kopuş, çağdaş kapitalizmin en sevdiği kopuştur.

Yapay zekâ hikâye yazmaz. O, mevcut dünyayı kuran hikâyelerin hesaplanabilir bir izdüşümünü üretir. Asıl soru her zaman şu olmalıdır: Bu hikâyeleri kim seçiyor, kim filtreliyor, kim yayıyor? Bu soru sorulmadıkça, “yapay zekâ hikâye yazıyor” cümlesi mistifikasyon üretir.

IV. SORU: İnsan hacklenebilir mi?

Harari’nin konuşmalarında en fazla yankı uyandıran cümlelerinden birini neredeyse bir slogan gibi tekrar ediyor: “İnsan hacklenebilir bir hayvandır.” Bu cümle, kimi dinleyiciler için sarsıcı bir uyarı; kimileri için ise rahatsız edici bir gerçekçilik iddiası taşıyor. İnsan davranışlarının nörobiyolojik süreçler, hormonal tepkiler ve veri örüntüleri üzerinden çözümlenebileceği fikri, modern bilimin belli yönleriyle uyumlu görünebilir.

Yine de burada, masum bir bilimsel gözlem ile tehlikeli bir insan tasavvuru arasındaki çizgi aşılmaktadır. “Hacklenebilir” olmak, teknik bir terim olmasının ötesinde iktidara dair bir iddiadır. Hacklenebilirlik, bir varlığın iç işleyişinin dışarıdan okunabilir olması, tepkilerinin öngörülebilir hale gelmesi, davranışlarının yönlendirilebilir olması anlamına gelir. Bir sistemi hacklenebilir ilan etmek, onu aynı zamanda meşru bir müdahale nesnesi haline getirmektir. Bu nedenle “insan hacklenebilir bir hayvandır” cümlesi, betimleyici değil normatif bir önermedir. Şunu ima eder: İnsana müdahale etmek mümkündür ve bu müdahale rasyoneldir.

Harari’nin bu cümlesi, insan davranışını biyolojiye ve veriye indirger. Kapitalizmin ilk dönemlerinde de yaygın olan bir düşünceydi bu. İnsan, karmaşık bir tarihsel-toplumsal özne olmaktan çıkar; ölçülebilir tepkiler üreten bir organizmaya dönüşür. İnsan davranışları elbette biyolojik süreçlerle ilişkilidir ama bu davranışların anlamı, yönü ve sonuçları toplumsal ilişkiler içinde kurulur.

Biyolojik indirgeme, şu soruları sistematik biçimde devre dışı bırakır: İnsan neden bu koşullarda böyle davranıyor? Hangi baskılar, hangi zorunluluklar bu davranışı üretiyor? Bu davranış kimin işine yarıyor? Hacklenebilirlik söylemi, bu soruları gereksiz kılar; çünkü artık sorun toplumsal değil, tekniktir.

“Hacklenebilir insan” fikri, çağdaş kapitalizmin ve modern devletin ihtiyaçlarıyla şaşırtıcı derecede uyumludur. Çünkü bugünün iktidar biçimleri, itaat eden değil öngörülebilir, yönlendirilebilir, kriz çıkarmayan özneler ister. Bu bağlamda Harari’nin cümlesi bir uyarı olmaktan çok, mevcut iktidar teknolojilerinin antropolojik manifestosu gibi çalışır. İnsan, artık ikna edilmesi ya da ikna olmaması gereken bir özne değildir. Doğru veriyle doğru yönde itilecek bir varlıktır.

“İnsan hacklenebilir” dendiği anda insanın itiraz kapasitesi de yeniden tanımlanır. İtiraz, politik bir eylem olmaktan çıkar; yanlış veriyle oluşmuş bir tepkiye indirgenir. Bu indirgeme son derece tehlikelidir. Çünkü tarih boyunca itiraz, biyolojik bir hata değil, toplumsal bir çatışmanın ifadesi, adaletsizliğe verilen bilinçli bir yanıttır. Hacklenebilirlik söylemi, itirazı teknik bir sorun haline getirir; böylece bastırılırken yapılanı düzeltilmesi gereken bir arıza gibi sunar.

Harari bu cümleyi çoğu zaman bir uyarı olarak sunduğunu ima eder: “İnsan hacklenebiliyorsa, dikkatli olmalıyız.” Ama şu soru sorulmadan bu uyarı eksik kalır: Bu cümle, kimi uyarıyor ve kime meşruiyet sağlıyor? İnsan hacklenebilir denildiğinde, bu hack’i yapabilecek aktörler de örtük biçimde tanımlanmış olur: Devletler, şirketler, veri sahipleri, algoritmik sistemleri yönetenler, dil modellerini kodlarla terbiye edebilenler. Uyarı, bu aktörlerin gücünü sınırlamaktan çok kaçınılmazlığını kabul eder.

İnsan, elbette manipüle edilebilir; tarih bunun örnekleriyle doludur. Ama insan, aynı zamanda bu manipülasyonlara karşı direnebilen, onları bozan, altüst eden bir varlıktır. Bu direnç belki biyolojik değil; etik ve politiktir. “Hacklenebilir insan” söylemi, insanın bu boyutlarını görünmez hale getirir. İnsanı tarihsizleştirir, çatışmasızlaştırır, öngörülebilir ve dolayısıyla yönetilebilir hale getirir.

Praksis felsefesi açısından ise mesele nettir: İnsan, diyalektik olarak belirlenen ve belirleyen, tarihsel olarak mücadele eden bir öznedir.

V. SORU: Harari’den sonra ne yapmalı?

Bu yazı boyunca Harari’nin Davos konuşmasında kurduğu yapay zekâ anlatısının, “algoritmalar karar verecek”, “yapay zekâ hikâye yazacak”, “insan hacklenebilir bir hayvandır” gibi ifadelerin yalnızca uyarı olmaktan çok aynı zamanda belirli bir insan, siyaset ve gelecek tasavvurunu normalleştirdiğini göstermeye çalıştık.

Peki, Harari’den sonra ne yapmalı? Bu soru, bir yazardan sonra hangi düşünürün okunacağına dair basit bir entelektüel merakın ifadesi değildir. Soru, yapay zekâ tartışmasını hangi düzlemde sürdüreceğimizle ilgilidir.

Harari’nin anlatısının temel sorunu, geleceği sürekli olarak bugünün önüne koymasıdır. Gelecek, bir tehdit ufku olarak parlar ama bugünün iktidar ilişkileri karanlıkta kalır. Bu nedenle ilk yapılması gereken gayet açıktır: Kehaneti kapatmak.

Bu, geleceği düşünmeyi bırakmak anlamına gelmez. Aksine, geleceği konuşmanın tek meşru yolunun bugünün maddi koşullarını açığa çıkarmaktan geçtiğini kabul etmek demektir. Gelecek, soyut olasılıkların değil bugünkü mücadelelerin sonucu olacaktır. Gelecek, beklenen bir şey değil günümüzde kurulan, oluşturulan bir tahayyüldür.

Yapay zekâ ne bir kaderdir ne de başlı başına bir “özne”. O, belirli üretim ilişkileri içinde işleyen, ancak insan henüz kendi bilincinin işleyişini çözümleyemeden, yer yer insanla kurduğu ilişki içinde bilinç eşiği gibi işlev görebilen bir teknolojik düzenektir. Bu düzenek emek sömürüsüyle, veri mülkiyetiyle, şirket-devlet ittifaklarıyla, küresel eşitsizliklerle birlikte düşünülmeden anlaşılamaz.

Bu nedenle “yapay zekâ ne yapacak?” sorusu yerine şunu sormak gerekir: Yapay zekâ, mevcut iktidar ilişkileri içinde ne için ve kimin adına kullanılıyor? Bu soru sorulmadan yapılan her tartışma, ister istemez mistifikasyona hizmet eder. Zaten kafası karışık olan insanların kafasını daha da karıştırmaktan başka bir işe yaramaz. Açıklama gibi görünüp insanı etrafını daha da anlamaz duruma getirebilir.

Yazı boyunca aslında bir yandan da etik söylemin sınırlarını tartışmış olduk. Etik, yapay zekâ tartışmalarında vazgeçilmez görünür ama her zaman tek başına yeterli değildir. Etik, siyasetten koparıldığında bir iyi niyet diline dönüşür.

Harari’nin anlatısının en yıkıcı etkilerinden biri, insan öznesini zayıf, geç kalmış ve edilgen bir varlık olarak resmetmesidir. Bu yazının temel itirazlarında birisi buydu.  İnsan, elbette manipüle edilebilir. Ama insan aynı zamanda örgütlenebilir, direnebilir, itiraz edebilir, teknolojiyi başka amaçlar için yeniden işlevlendirebilir. Bu potansiyeli görmezden gelen her anlatı, farkında olsun ya da olmasın, mevcut iktidar düzeninin devamına hizmet eder.

Praksis, somut karşılaşmaların içinde kurulur. Yapay zekâ bağlamında bu karşılaşmalar işyerlerinde, üniversitelerde, sendikalarda, hukuk alanında, kamusal denetim mücadelelerinde zaten her an yaşanıyor. Harari’nin Davos’tan baktığı yer ile Praksis felsefesinin baktığı yer arasındaki fark tam da burada: Biri yukarıdan, küresel bir panoramadan konuşur; diğeri aşağıdan, çatışmanın içinden.

Yapay zekâ maddi gelişmesi karşısında ihtiyacımız olan şey, spekülasyonu aşan daha örgütlü pratikler/deneyimler, şimdiye yönelik sorulardır. Gelecek geldiğinde, geleceği tartışarak kurmuş olabilmek için zorunlu koşuldur bu. Dünyanın güç sahiplerinin arz-ı endam ettiği Davos sahnesinde sunulan bir geleceğin, insanlığa sunacağı şeyin karanlık bir kehanetten fazlası olmadığını Harari’nin ağzın duyduğumuzda verdimiz cevap da basit: Gelecek yazılmayacak; gelecek şimdide, yeniden ve yeniden kurulacak. Al sana kehanet!

***

(*) YAZARIN NOTU: Bu yazı nasıl yazıldı?

Bu yazı klasik anlamda “bir yazarın masasına kapanıp yazdığı” kelimelerden ibaret değil. En azından tam olarak öyle değil. Bu makalenin ortaya çıkış ve yazılış süreci, çağımızın düşünsel üretim biçimlerine dair daha temel bir soruyu zorunlu kılıyor: Bu metinlerin yazarı kim?

Bu yazı ChatGpt’yle belirli soruların, yönlendirmelerin, itirazların ve kavramsal çerçevelerin sistematik bir biçimde sunulmasıyla ortaya çıktı. Fakat şunu belirtmeliyim ki benim kullanmış olduğum ChatGpt modeli, bu konuşma içinde, özgül olarak Marksist yazına erişimi olan bir modeldi. Burada söz konusu olan, yapay zekânın ‘Marksist’ olması değil tabi ki, belirli bir teorik yönlendirme altında, belirli bir eleştiri hattını izleyebilmesidir. Veri bankasına ek olarak yüklediğim Marx ve Engels külliyatını ve tüm klasikleri tarama ve bir dil modeli olarak bu çerçeveden de yeni kelimeler bulma ve cümle kurma olanağına sahipti. İyimser bir bakış açısıyla, benim verdiğim özel ve ayrıntılı promtlar ve öğrettiğim söylem analiziyle dilsel çözümlemeler yaptığı söylenebilir. Kötümserler, yeni bir bilinç türünden söz edemeyeceğimizden eminler. En fazla, daha önce Praksis Güncel’de yayınlanan yazıda ileri sürüldüğü gibi bir bilinçten çok insanla deneyim içinde kurulan bilinç eşiğinden söz edilebilir.

Diğer bir deyişle, benim kullanmış olduğum dil modelinde ortaya çıkan analiz, başka bir kullanıcının ara yüzünde çıkmayacaktır. Çünkü bu “ara yüz” benim amacıma göre donatılmış, eğitilmiş ve yönlendirilmiştir. Bu anlamda metnin omurgası, tekil bir yazma ediminden çok, bir düşünce akışının kurgulanması, bir eleştiri hattının adım adım örülmesiyle şekillendi. Bu süreçte ben, klasik anlamda “yazar” olmadım; daha çok yazdıran, yön veren, soran, bastıran, hızlandıran, sınırlandıran bir konumdaydım. Daha doğrusu: Yazının argümanına yön verdim, ama yazıyı ben yazmadım; yazıyı mümkün kılan hattı kurdum.

Burada yapmaya çalıştığım ayrım, hiç de önemsiz değil ve başka bir yazıda ayırtılarıyla tartışılmayı hak ediyor. Burada yalnızca sorunun önemine değinmiş olayım. Çünkü modern dünyada yazarlık, çoğu zaman metni fiilen kaleme almakla özdeşleştirildi. Oysa tarih boyunca —editörler, polemikçiler, manifestocular, hatta politik önderler üzerinden— yazının kendisinden çok yazının yönü belirleyici oldu. Kimin yazdığı kadar, neyin yazdırıldığı da belirleyiciydi.

Yazmak mı, yazdırmak mı?

Yapay zekâ ile birlikte bu ayrım artık teorik bir ayrım olmaktan çıktı; pratik bir zorunluluk haline geldi. Çünkü bugün metin üretimi iki farklı eşiğe ayrılıyor: 1) Metni üreten 2) Metnin yönünü, sorusunu, gerilimini, yönelimini, eğilimini, argümanını ve sınırlarını belirleyen.

Bu okuduğunuz yazıda ikinci konum esas belirleyici olandı. Sorular, itirazlar, başlıklar, sertleşmeler, geri dönüşler… Metnin politik tonu ve teorik hattı, bu yönlendirme sürecinde kuruldu. Yazı, bu anlamda tek bir elden çıkmadı; ama tek bir niyetle ilerledi. Bu da bizi şu soruya getiriyor: Yapay zekâ çağında “yazar” kategorisi tek başına yeterli mi? “Yazdıran” diye bir özneye ihtiyacımız var mı? Belki de artık metinlerin altında yalnızca “yazar” imzası yerine başka bir ibareye de ihtiyaç var: Yazdıran.

Yazdıran, metni belki kelime kelime yazan değil; soruyu doğru yere koyan, gerilimi kuran, metni risk almaya zorlayan, rahatlayan yerlerde sertleştiren, hattı dağıtan değil, toparlayan kişidir. Bu, yazarlığın değersizleşmesi değil; tersine yazarlığın dönüşmesidir. Yazarlık, artık yalnızca yazmak değil; yazıyı yönetmek, yazının gideceği yönü politik ve teorik olarak tayin etmektir.

Vesile olmak

Bu yazı için belki de en doğru ifade şudur: Ben bu yazının yazarı değilim; vesilesiyim. Vesile olmak, geri çekilmek değildir. Aksine, metnin önüne geçmeden onu zorlamak, hızlandırmak ve yer yer rahatsız etmektir. Dolayısıyla bu yazı, tekil bir zihin ürünü değil; ama dağınık da değildir. Bir çizgisi, bir polemiği, bir ısrarı vardır. Bu da çağımızın düşünsel üretimi için önemli bir işaret olabilir: Metnin değeri, artık sadece kimin yazdığıyla değil; nasıl kurulduğuyla ölçülecektir.

Küçük bir not, büyük bir soru

Bu bölüm bir savunma değil. Bir açıklama da değil. Daha çok, okurun eline bırakılan bir soru: Yapay zekâ çağında, düşüncenin sahibi kimdir? Yazıyı yazan mı, yazıyı yazdıran mı, yoksa bu ikisinin kurduğu gerilim mi?

Bu yazı, bu soruya verilmiş bir cevap değil; sorunun kendisini ciddiye alma çağrısıdır.

Son olarak belirtmeliyim ki, yazının bu yöntemle yazılması, epeyce ironiktir. Acaba Harari, kendisinin yapay zekâ destekli bir şekilde eleştirildiğini duyarsa, ne diyecektir? Demek ki yapay zekâ sanıldığı kadar da yapay değil. Artık gündelik hayatımızın her yanında işleyen bir gerçek. Ve geleceği bu gerçeği görenler belirleyecek, kehanetlere inananlar değil.

(**) Görsel yazarın tasarımıyla ChatGPT tarafından üretilmiştir.

Sinan Kadir Çelik

Doç. Dr., Atatürk Üniversitesi Fen Edebiyat Fakültesi Felsefe Bölümü öğretim üyesidir. Çalışmaları ağırlıklı olarak etik ve siyaset felsefesi, bilgi kuramı, teknoloji ve yapay zekâ tartışmaları, eleştirel teori ve çağdaş iktidar biçimleri üzerine yoğunlaşmaktadır. Praksis dergisi Yayın Kurulu Üyesidir.

Bu yazı için gösterilecek etiket bulunmamaktadır.