İsmail Gökhan Bayram
‘Derin sahtecilik’ gerçeğinden kolayca ayrılamayan sahte video, görsel ve seslere verilen ad. Mizah amaçlı daha makul sayılabilecek kullanımları bir kenara bırakırsak derin sahtelerin yaygın kullanım alanı olarak geriye siyasi amaçlı yanıltma, sahtecilik, dolandırıcılık, taciz ve şantaj gibi hemen her biri suç teşkil eden fiiller kalıyor. Klasik görsel/video/ses işleme araçları ile derin sahte oluşturmak epeyce bilgi ve beceri gerektirdiğinden üretken yapay zeka (Gen. AI) araçlarının ortaya çıkışına dek yaygınlığı oldukça düşüktü. Gen. AI araçları ile yaygınlık hızla artmaya başladı. Indicator’ın temmuz 2025 tarihli görsel tabanlı cinsel taciz içerikleri oluşturarak satan 85 web sitesini ele alan araştırmasına göre söz konusu ‘çıplaklaştırma siteleri’ toplamda aylık 18.5 milyon ziyaretçi alıyor. Bu alçak sistemin ‘ekonomik büyüklüğü’ ise yıllık 36 milyon dolar civarında. Bu sayılar irice olmakla birlikte içeriklerin kamusal alanlara sızması ve buralarda yayılması sınırlı olduğundan etkileri de çok gözlemlenebilir değildi.
Aralık ayı sonlarında bir grup yetişkin içerik üreticisinin X/Twitter’da bir pazarlama kampanyası olarak Elon Musk’a ait Grok’tan kendilerinin cinsel içerikli sistemlerin kendisinin sorumlu örüntülerini üretmesini istemelerinin ardından çoğunluğu anonim binlerce kullanıcı kadınların ve kimi örneklerde de çocukların görsellerini benzer gönderilerle rızaları dışında bikinili, az kıyafetli vb. talep etmeye başladı. Oluşturulan görsel sayısının büyüklüğü açısından Copyleaks’in 31 Aralık tarihli tahminlerine göre Grok ortalama olarak dakikada bir adet rıza dışı cinsel içerikli görüntü oluşturdu. Oluşturulan taciz niteliğindeki rıza dışı görüntüler ezici bir ağırlıkla kadınları ve kız çocuklarını hedef alıyordu. Dijital cinsel tacizi kamusal alana yaymayı başaran Elon Musk’ın bu konudaki ilk refleksinin kendisinin bikinili hale getirilmiş bir görseli ile normalleştirmeye çalışmak olduğunu not düşelim. Yükselen tepkiler ve bazı ülkelerden gelen sert uyarılar üzerine X/Twitter, Grok’a bu şekilde rıza dışı görsel ürettirmenin hem yasal olarak hem de platformda suç olduğunu ve cezalandırılacağını ifade etmek zorunda kaldı.
Bu xAI’nin ilk vakası değil. Ağustos 2025’te Grok Imagine ile üretilmiş çıplak Taylor Swift görselleri yine X/Twitter’da yayılmıştı. O dönemde yapılan çeşitli analizlerde Grok Imagine’in OpenAI, Google ve Midjourney’nin sistemlerindekilere benzer bu durumları engellemek üzere tasarlanmış temel korumalardan yoksun olduğu ortaya çıkmıştı.
Dijital sistemler söz konusu olduğunda sistemin kendisinin hesap verebilirliği ve sorumlu tutulabilirliği gibi bir tartışma mümkün değildir. Ancak bu sistemi geliştirenlerin sorumlu tutulamayacağı anlamına gelmez. Grok gibi bir sistem söz konusu olduğunda yapay zeka ile görüntü işleme gibi bir özellik son kullanıcıya açılmadan önce temel işi kullanıcıların güvenliği olan departmanın ilk aklına gelmesi gereken başlıklardan biri Grok’un bu şekilde kullanılması olasılığı. İster bu alanda tedbir almak tartışılıp bilerek umursanmamış olsun isterse de tartışılmamış olsun binlerce, belki on binlerce kadının dijital tacize uğramasına yol açan ciddi bir ihmal söz konusu.
Alınabilecek ve artık endüstri standardı sayılan temel tedbirlerden biri alınmadığı için ya da verili bir parçasında üretim kaynaklı bir kusur olduğu için bir araba modelinde birkaç kaza gerçekleşse aracı üreten şirket kazalar nedeni ile ciddi yaptırıma uğrar. Buna ek olarak da ilgili seriyi geri çağırmak, çözebiliyorsa sorunu çözmek, çözemiyorsa iade yapmak zorunda kalır. Kazalarda başka sorumluluğu olan varsa onlara da bakılır ama kusurlu tasarımın kendisi tasarlayanın sorumlu tutulmasını gerektirir.
Grok destekli dijital cinsel taciz vakaları açısından iki ayaklı bir sorumluluk söz konusu. Biri yeterli tedbiri almayan Elon Musk’ın xAI’si. Diğeri ise Grok’tan talepte bulunan tacizci kitlesi. Eğer Internet’i kadınlar ve çocuklar için daha güvenli bir yer haline getirmek istiyorsak derin sahtecilik yoluyla yapılan tacizlerde derin sahtenin geliştirildiği sistemin ve yayıldığı platformun eğer eksiği varsa cezalandırılması en az derin sahteyi yapan/talep edenin cezalandırılması kadar önemli.
Gen AI sistemlerinde alınacak tedbirlerin bu sistemler ile oluşturulacak dijital cinsel taciz görsellerini tümüyle ortadan kaldıracağını söyleyemeyiz. Alınan tedbirlerin jail-break olarak da anılan çeşitli yöntemler ile aşılabilmesi mümkün. Ya da yaygın modellerde alınan tedbirlerle sorun tümüyle çözülse dahi mutlaka bu tip içeriklerin oluşturulabileceği kıyıda köşede modeller bulunacak. Ancak tedbir alınmaması ve cezasızlığa kıyasla çok daha iyi durumda olacağımız da neredeyse kesin.




