Yapay Zeka ve Irkçı İçerikler
ABD merkezli Wired dergisi, yapay zeka destekli arama motorlarının ırkçı içerikleri yaygınlaştırdığını ortaya koyan bir makale yayımladı. Google, Microsoft ve Perplexity gibi şirketlerin yapay zeka sistemlerinin, beyazların genetik üstünlüğünü savunan, bilim dışı verilere dayalı yanıtlar ürettiği belirtildi. İngiltere merkezli “Hope Not Hate” grubunun araştırmacısı Patrik Hermansson’ın çalışmalarına dayanarak yapılan araştırmada, Google’ın “AI Overviews” özelliğinin ırkçı sonuçlar verdiği ortaya çıktı.
Yapay Zeka ve Önyargıları
Bilişim Uzmanı Tolga Mürtezaoğlu, yapay zekanın tarafsız olmadığını ve genellikle öğrendiği önyargıları yansıttığını belirtiyor. Örnek vererek, MIT araştırmacısı Joy Buolamwini’nin yüz tanıma algoritmalarında siyahi kadınların doğru tanınmadığını ortaya çıkararak algoritmik önyargılara dikkat çekiyor. Ayrıca yapay zeka sistemlerinin zaman zaman yanlış verileri doğru algılayarak “halüsinasyon” yaşayabileceğine dikkat çekiyor.
Yapay Zeka ve Güvenilirlik Sorunu
Mürtezaoğlu, yapay zekanın internetteki yanlış ve önyargılı bilgileri öğrenip yayabileceğini vurguluyor. Özellikle sağlık sektöründe ve sosyal medyada yapılan yanlış sınıflandırmalar ve bilgi hataları yapay zekanın güvenilirliğini sorgulatıyor. Bu nedenle, algoritmaların daha adil ve tarafsız çalışabilmesi için denetim ve geliştirme sürecine ihtiyaç duyulduğu belirtiliyor.