
Yirmi birinci yüzyılda hayatımızın her köşesine sızan yapay zekâ (YZ) sistemleri, sağlığımızdan iş başvurularımıza, sanatsal üretimlerden hukuki süreçlere kadar pek çok alanda kararlar alıyor.
Çoğumuz bu algoritmaların son derece rasyonel, nesnel ve insani duygulardan arınmış olduğu için tarafsız olduğuna inanıyoruz. Oysa gerçek, dijital ekranın ardında çok daha farklı bir tablo çiziyor: Yapay zeka, toplumun en eski ayrımcı kodlarını ve özellikle cinsiyet temelli önyargıları dijital dünyada görünmez bir şekilde yeniden üretiyor
Üretken yapay zeka araçları bilgiyi bir insan gibi bilinçli öğrenmek yerine, uçsuz bucaksız veri kümelerindeki örüntüleri istatistiksel olarak analiz ediyor. Bir başka deyişle, gerçeği "bilmekten" ziyade, geçmiş verilere bakarak en yüksek olasılıklı tahmini yapıyor. Sorun da tam burada başlıyor. Sistemlerin eğitildiği bu devasa veri setleri, insanlığın yüzyıllardır biriktirdiği ataerkil kalıpları ve cinsiyet eşitsizliklerini barındırdığı için yapay zekâ da aslında bu eşitsizlikleri "doğru" kabul ederek kopyalıyor. Bu duruma, algoritmaları tasarlayan küresel yapay zeka iş gücünün yalnızca %22’sini kadınların oluşturması gerçeği de eklenince, teknoloji tamamen erkek egemen bir bakış açısıyla şekilleniyor.
Sonuç mu? Kelimelerden görsellere kadar her alanda karşımıza çıkan "algoritmik cinsiyetçilik". Yapay zekâ erkekleri "mantıklı, güçlü, lider" ve kamusal alanda otorite sahibi olarak tanımlarken; kadınları "nazik, duygusal, şefkatli" sıfatlarıyla, ev içi veya destekleyici rollerle sınırlandırıyor
Bunun somut zararlarını iş hayatında şimdiden görüyoruz. Örneğin, Amazon'un geliştirdiği bir işe alım algoritması, geçmiş verilerdeki erkek ağırlıklı yapıyı bir "başarı ölçütü" sanarak, özgeçmişinde "kadın" kelimesi geçen adayları sistematik olarak elediği için kullanımdan kaldırılmak zorunda kalmıştı.
Aynı şekilde, dil işleme (NLP) modelleri, "erkek bilgisayar programcısıdır" diyorsa, analojik olarak "kadın ev hanımıdır" eşleştirmesini yapmaktan çekinmiyor. Görsel üretim araçlarına (DALL-E, Gemini vb.) cinsiyet belirtmeden nötr bir ifadeyle "bir hemşire" veya "çocuğuyla oynayan bir ebeveyn" çizmesini söylediğinizde bile algoritmalar eril figürü bir "norm" (varsayılan) olarak kabul ediyor ya da kadınları doğrudan bakım emeğine hapsediyor
Toplumsal güç ilişkilerini kodlayan, pekiştiren ve dolaşıma sokan bu sosyo-teknik sistemleri "nesnel" diye kabullenmek zorunda değiliz. Daha adil ve kapsayıcı bir dijital gelecek için; yapay zekâ veri setlerinin acilen çeşitlendirilmesi, algoritmaların eşitlik kriterlerine göre düzenli olarak denetlenmesi ve teknoloji sektöründeki kadın temsilinin artırılması şart
Teknoloji ancak onu tasarlayan ve besleyen toplum kadar adil olabilir. Geçmişin hatalarını ve eşitsizliklerini geleceğin dijital hafızasına kazımak istemiyorsak , algoritmalarımıza eşitliği öğretmenin vakti çoktan geldi.




Haklısınız zaten internet altmışlı yıllarda ARPANET olarak Amerikan ordusuna hizmet için kuruldu. Yedeklensin diye beş sunucu ve bir IP sunucusu oluşturularak internete geçildi. Bu mekanizma emir komuta zinciri olarak işleyen eril bir yapıdır. yapay zeka oluşumları ile bu eril yapı devam ediliyor.