Teknolojide Bir Irkçılık Krizi Daha: Facebook Siyahi Kişileri “Primat” Olarak Algıladı

ABD’de ve dünyanın farklı bölgelerinde bitmek bilmeyen ırkçılık olayları, insanları ayrımcılıklara karşı daha hassas hale getirdi. Siyaset, spor, sanat, iş hayatı ve birçok toplumsal alanda karşılaştığımız ırkçılık, duyarlı insanların eleştirileriyle kısmen engellense de ne yazık ki büyük oranda devam ediyor.

20.02.2022 01:45:19 tarihinde yayınlandı.

ABD’de ve dünyanın farklı bölgelerinde bitmek bilmeyen ırkçılık olayları, insanları ayrımcılıklara karşı daha hassas hale getirdi. Siyaset, spor, sanat, iş hayatı ve birçok toplumsal alanda karşılaştığımız ırkçılık, duyarlı insanların eleştirileriyle kısmen engellense de ne yazık ki büyük oranda devam ediyor.

Özellikle ABD’de siyahi vatandaşlara karşı gerçekleştirilen ırkçı tutum ve zulümler, teknolojide kasıtlı veya kasıtsız olarak meydana gelen ayrımcılıklara karşı da insanların tepkisini çekiyor. Daha önce Google, Twitter gibi platformlarla da benzer bağlamda gündeme gelen yapay zeka ve algoritma konusu, son olarak Facebook’ta yaşanan olayla da gündeme geldi.

The Daily Mail gazetesinin Facebook hesabında 27 Haziran 2020’de yayımlanan ve polislerle tartışan siyahi kişileri gösteren videoda “primatlarla ilgili videoları görmeye devam edin” önerisi yer aldı. Facebook’un yapay zeka algoritmasının bu seçeneği önermesi sosyal medyada tepki topladı. Facebook, tepkilerin üzerine cuma günü yayımladığı açıklamada kullanıcılarından özür diledi.

Bunun kabul edilemez bir hata olduğu söylenen açıklamada, benzer durumun yaşanmaması için algoritmanın geçici olarak durdurulduğu ve gözden geçirileceği belirtilerek, "Yapay zekamızda iyileştirmelere gitsek de mükemmel olmadığının farkındayız. Daha kat etmemiz gereken aşamalar var. Bu nahoş önerileri gören herkesten özür diliyoruz" ifadelerine yer verildi.

Facebook’ta yaşanan ayrımcılık olayına benzer bir durum daha önce Google ve Twitter’da da yaşanmıştı. Google Fotoğraflar'da siyahi insan görselleri goril olarak etiketlenmiş ve gelen tepkilerin ardından şirket özür dilemişti. Twitter’ın görüntü kırpma algoritması ise, siyah yüzler yerine beyaz yüzleri tercih ettiği için tepki toplamış, olayın üzerine Twitter fotoğraf kırpma algoritmasını devre dışı bırakmıştı.


Kaynak webtekno.com

 

Amber Heardün Aquaman 2 Kadrosundan Çıkartılması İçin Toplanan İmza Sayısı Uçuşa Geçti: Ününü Kurtarmak İçin Obama’nın Medya Ekibiyle Anlaştı

Tecrübeli usta aktör Johnny Depp ile eski eşi Amber Heard arasındaki dava günlerdir tüm medyanın ana gündemi haline gelmiş durumda. Hatta daha önce yaptığımız bir haberde Johnny Depp’in bundan sonra Karayip Korsanları filmlerinde yer almayacağını, teklif gelirse Disney’i reddedeceğini mahkemede söylediğini iletmiştik.

Daha Hafif VR Setlerden Metaversede Sarılmanızı Sağlayacak Ceketlere: CESde Tanıtılan ve Metaverse Heyecanını Artıran Teknolojiler

Metaverse’ün son zamanların en popüler konusu olduğunu söylememiz yanlış olmaz. Birçok teknoloji devi, bu konuya yönelik milyarlarca dolarlık yatırım yapacağını açıklamıştı. Dünyanın en büyük şirketlerinden biri olan Facebook da ismini ‘Meta’ olarak değiştirmiş ve metaverse projelerini artıracağını duyurmuştu.

NFT ve Metaverse Dünyasının Yeni Trendi Kryptomon ve KMON Token Nedir, Nasıl Oynanır?

Pokemon’u bilirsiniz. Özellikle doksanlı yıllarda doğan herkesin çocukluk hayaliydi bir Pokemon’a sahip olmak, onunla ilgilenmek ve maceralara çıkmak… Sanal bebeklerin dolduramadığı bu boşluk bizi oyunlara yönlendirdi. İşte bu yüzden ki Pokemon, her ne kadar çizgi dizisinden bağımsız olsa da bugün oyunlarla yaşıyor, bir şekilde o hayale ulaşmamızı sağlıyor. 

Xiaomi, Teslaya Rakip Olacak İnsansı Robotu CyberOneı Tanıttı: İşte Özellikleri

Hayatımızın her alanında teknolojik ürünleriyle hizmet veren Xiaomi, bugün gerçekleştirdiği etkinlikte yeni katlanabilir telefonu Mix Fold 2’yi tanıtmıştı. Fakat Xiaomi’nin gerçekleştirdiği etkinliğin ana öznesi her ne kadar bu telefon olsa da, etkinlikte büyük bir duyuru daha yapıldı. Xiaomi, Tesla’nın Optimus (Tesla Bot) robotuna rakip olacak robotunu tanıttı.