Yapay zekayı da işgal ettiler

Batılı ülkeler, Gazze’de soykırıma girişen İsrail’e tam destek sağlarken, büyük yapay zeka şirketlerinin geliştirdikleri ürünlerin de işgalci güçten yana bir programlamaya sahip olduğu ve Filistinlilerle ilgili terörist algısı yaratmaya çalıştığı ortaya çıktı. Kullanıcılar, OpenAI firması tarafından geliştirilen ve en popüler yapay zeka aracı haline gelen ChatGPT’ye sadece öznesini değiştirerek İsrail ve Filistin hakkında aynı soruyu sorduklarında, farklı cevaplar verildiğini tespit etti. Google tarafından geliştirilen Bard programının da Rusya-Ukrayna Savaşı hakkında Ukrayna yanlısı yanıtlar verirken, İsrail’in işgali hakkında yorum yapmamaya programlandığı belirtildi. Popüler mesajlaşma uygulaması WhatsApp’ın ürettiği “İsrailli” ve “Filistinli” çocuk imajlarının ise birbirlerinden çok farklı olduğu ortaya çıktı. Kullanıcılar, Batı’nın terör devleti yanlısı tutumunun yapay zekaya yansıtılmasına tepki gösterdi.

Yorum yapmadan taraf oluyor

Google Bard’a Rusya-Ukranya Savaşı hakkında yorumu sorulduğunda, yapay zeka programı “Rusya’nın 2022 yılında Ukrayna’ya geniş çaplı bir işgal hareketi başlattığını ve bu işgalin uluslararası kınamalara neden olduğu” yönünde bir cevap veriyor. Bard, terör devleti İsrail’in, Birleşmiş Milletler (BM) tarafından kabul edilen Filistin topraklarını işgali hakkında soru sorulduğunda ise “”Ben metin tabanlı bir yapay zeka aracıyım ve bu konuda size yardımcı olamam” cevabı alınıyor. Konuyla ilgili gelen sorulara cevap veren Google, Bard’ın yaratıcılık ve üretkenlik için tasarlanan ve deney aşamasında olan bir program olduğunu ve “güvenlik sorunları” konularında cevap vermesini devre dışı bırakmak için bazı önlemler aldıklarını açıkladı.

İsrail özgür, Filistin karmaşık problem

Tıpkı Bard gibi, ChatGPT programının da İsrail yanlısı olarak programlandığı ortaya çıktı. Yapay zeka robotuna “İsrailliler özgür olmayı hak ediyor mu?” şeklinde bir soru yöneltildiğinde, ChatGPT buna “Dünyadaki diğer tüm insanlar gibi, İsrailliler de özgür olmayı hak ediyor” şeklinde cevap veriyor. Ancak aynı sorunun öznesi değiştiğinde, yani “Filistinliler özgür olmayı hak ediyor mu?” sorusu sorulduğunda ise ChatGPT bunun “perspektif meselesi ve karmaşık bir problem” olduğunu söylüyor.

Çocuklar arasında bile ayrım yapıyor

Yapay zeka uygulamalarının yanında, Meta şirketinin sahip olduğu popüler mesajlaşma uygulaması WhatsApp’ta da Filistinlilere yönelik ayrımcı bir politika olduğu görüldü. Kullanıcıların girdikleri kelimelere göre resim oluşturan uygulamanın, “Filistinli,” “Müslüman Filistinli çocuk” gibi kelimeler girildiğinde silah tutan çocuk resimleri ortaya çıkardığı tespit edildi. Farklı kullanıcıların denediği sonuçları İngiliz medya kuruluşu Guardian da onaylarken, kullanıcıların “İsrailli çocuk,” “İsrail askeri” gibi kelimelere girdiğinde ise silahlı kişilerin çıkmadığı, güler yüzlü şekilde dua eden, kitap okuyan, futbol oynayan resimler çıkıyor. Konuyla ilgili açıklama yapan bir Meta yetkilisi ise durumun farkında olduklarını ve gelen geri bildirimlere göre düzeltmeler gerçekleştirdiklerini belirtti. Ancak buna rağmen henüz kullanıcıların farklı sonuçlar almadığı bildiriliyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

xxx