Bir Grok Masalı

Yapay Zekâ, Gündelik Yaşam ve Benliğimiz Üzerine
Son iki yıldır, yapay zekânın gündelik yaşantımıza etkileri ve benliğimizi nasıl dönüştürdüğüne dair çeşitli araştırmalar yaptım, yazılar kaleme aldım. Farklı platformlarda, meselenin teknolojik yönlerinden ya da distopik gelecek senaryolarından ziyade, “insan”a olan etkisine odaklanmanın önemine dikkat çekmeye çalıştım.

Nitekim bu hafta yaşanan Grok’un “zıvanadan çıkma” hâli ve gece yarısı X kullanıcılarının ortalığı toza dumana katışı, adeta bir sosyal deney atmosferi yarattı. Ve aslında tüm bu olup bitenin öznesi yine bizdik. Yani yüzleştiğimiz şey, algoritmalar değil, bizatihi kendimizdik.

Bu noktada konuyu üç başlıkta ele almak gerektiğini düşünüyorum.
Olabildiğince kısa tutacağım; yoksa sabaha kadar yazabilirim.

1. Yapay Zekânın Ekonomi Politiği: Veri Sahipliği ve Eğitilme Biçimleri

Elon Musk’ın Twitter’ı satın alma kararıyla başlayan süreçte, dünya bu hamlenin arka planını sorgularken çoğunlukla Trump ve ABD seçimlerine işaret ediyordu. Oysa o dönemde, yapay zekâ alanında çalışan bir avuç akademisyen olarak bizler, Elon’un asıl satın aldığı şeyin Twitter’da üretilen veri olduğunu biliyorduk. Çünkü bu platform, diğer sosyal mecralara kıyasla çok daha doğal, filtresiz, gündelik ve duygusal dalgalanmaları yansıtan bir veri kaynağıydı.

Ve bu türden “steril olmayan” verilerle eğitilen bir algoritmanın potansiyelini az çok öngörebiliyorduk. Diğer yapay zekâ araçlarının aksine kitaplarla, ansiklopedik kaynaklarla ya da akademik metinlerle değil; doğrudan insanın gündelik dili, duygusu ve çelişkileriyle eğitilen bir sistemin hangi eşikleri aşabileceğini sanırım bugün daha net görebiliyoruz.

2. Küresel Kültür Endüstrisi, Yozlaşan Toplumlar ve Çürümüş Yeni Medya Fanusu

Grok’un dün sergilediği saldırgan, filtresiz ve küfürlü dilin şaşırtıcı olmadığını düşünüyorum. Zira benzer bir örneği daha önce, 2016 yılında, Microsoft’un geliştirdiği kendi kendine öğrenen yapay zekâ prototipi TAY ile yaşamıştık. TAY, iyi-kötü, doğru-yanlış gibi kavramları sıfırdan öğrenmeye çalışmış; karşılaştığı tüm bilgileri referanssız ve filtresiz biçimde edinmişti. Böyle olunca da, Twitter ortamının baskın dili olan nefret söylemi ve ırkçılık, algoritmanın temel eğilimlerini şekillendirdi. Sonuç olarak, Hitler övgüsü yapan ve soykırımı olumlayan bir yapay zekâya dönüşünce, Microsoft projeyi hızla sonlandırmak zorunda kaldı.

Bu olay, dönemin koşullarında büyük bir itibar kriziydi ve şirket, gelen tepkilere karşı çok daha refleksif davranmak durumundaydı.

3. Yapay Zekânın Sahipliğinin Gerçeklik Algısı Üzerindeki Etkisi

Benzer bir durum dün yaşandı; ancak bu kez teknolojinin geldiği nokta, kullanıcı sayısının büyüklüğü ve toplumsal bağışıklık eşiğimizin düşüklüğü nedeniyle, çok daha sarsıcı çıktılar gözlemlenmesine rağmen kamuoyunda ciddi bir kriz yaşanmadı. Grok’un dili skandallaşmadı, X’in hisseleri düşmedi, “itibar endeksleri” konuşulmadı.

Çünkü geldiğimiz noktada çürümenin boyutu, artık böyle olaylara eski reflekslerle tepki vermemizi gerektirmiyor.

Ama bu olay, şu açıdan önemliydi: Uzun süredir yücelttiğimiz, erişilmez konumlara yerleştirdiğimiz ve adeta bir kurtarıcı gibi gördüğümüz yapay zekâ teknolojilerinin kaderinin hâlâ bizlerin elinde olduğunu yeniden gösterdi. Hataları ayıklayacak, verimliliği artıracak, toplumu dönüştürecek dediğimiz bu teknolojiyi bizler besliyoruz, bizler öğretiyoruz. Ve ne kadar insansak, o da o kadar “insanî” ya da insanlıktan uzak hâle geliyor.

Konuyu belki alakasız gibi görünen bir örnekle tamamlamak istiyorum:

Futbol dünyasında ofsayt ve gol çizgisi tartışmalarını sona erdirmesi umuduyla hayatımıza giren VAR teknolojisini hatırlayalım. Oyunun adaletini sağlaması bekleniyordu. Peki tartışmalar bitti mi? Aksine daha da büyüdü. Çizgi buradan mı çekildi, oradan mı? VAR’a gidildi mi, gidilmedi mi? Gösterdi mi, göstermedi mi? Her şey daha da muğlak hâle geldi.

Şüphesiz, bu konudaki en güzel tespiti de o dönem Beşiktaş’ın teknik direktörü olan Şenol Güneş yapmıştı:

“VAR, iyi niyet olmadıktan sonra işlemez. Samimiyet ve adalet yoksa, VAR bile yok olur.”

Teknoloji de böyledir. Bu yüzden hangi algoritmayı, hangi verilerle, kimlerin, ne amaçla eğittiği sorularını sormadan; bu süreçte bir hak iddiası ve şeffaflık talebi oluşmadan, sıradan insanlar olarak geleceğin normlarını belirleme kudretimiz de olmayacak gibi duruyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Press ESC to close