Araştırmaya göre, sürücüsüz araçlardaki yaya algılama sistemlerinin çocukları ve beyaz olmayan kişileri algılama olasılığının daha düşük olduğu ortaya çıktı. Bu durum bir kere daha ABD’de ırkçılık iddialarını gündeme getirdi.
Yapay zeka devrimi hızlandıkça, bir eğilim netleşiyor: Yapay zeka sistemlerinin eğitimindeki önyargılar, gerçek dünyada ayrımcı uygulamalarla sonuçlanıyor.
YÜZ TANIMA TEKNOLOJİSİ SKANDALA NEDEN OLMUŞTU
Yapay zeka işe alım araçlarının kadınlara karşı ayrımcılık yaptığı gösterilmiştir. ChatGPT ırkçı ve ayrımcı önyargıları ortaya koymuştur. Polisin yüz tanıma teknolojisi nedeniyle bir şüpheliyi yanlış teşhis ettiği bildirilen her vakada, bu kişinin ise siyahi bir kişiydi.
ABD’de skandal büyüyor: Yapay zeka siyahi 6 kişinin haksız yere tutuklanmasına neden oldu!
Şimdi de yeni bir araştırma, sürücüsüz araçlardaki yaya algılama yazılımının bile yapay zeka önyargısının bir sonucu olarak renkli insanları ve genel olarak çocukları tespit etmede daha az etkili olabileceğini ve daha fazla otomobil üreticisi teknolojiyi kullandıkça onları daha büyük güvenlik riskine sokabileceğini öne sürüyor.
KOYU RENKTEKİ YAYALARI TESPİT ETMEDE BAŞARISIZ
Insider’in aktardığı bilgilere göre, İngiltere ve Çin’de bir grup araştırmacı, sekiz popüler yaya dedektörünün kişinin ırkına, cinsiyetine ve yaşına bağlı olarak ne kadar iyi çalıştığını test etti.
Cinsiyet doğrulukta sadece küçük bir farklılık gösterirken, araştırmacılar tespit sistemlerinin koyu ten rengine sahip yayaları tespit etmede daha az doğru olduğunu buldular.
“Daha önce azınlık bireyler hayati hizmetlerden mahrum bırakılabiliyordu. Şimdi ise ciddi yaralanmalarla karşı karşıya kalabilirler.” King’s College London’da bilgisayar bilimcisi ve araştırma ekibinin bir üyesi olan Jie Zhang yaptığı açıklamada şunları söyledi
“Araştırmaya göre, tespit sistemlerinin yetişkinleri tespit etme olasılığı çocuklara kıyasla %19,67 ve daha açık ten rengine sahip kişileri tespit etme olasılığı daha koyu ten rengine sahip kişilere kıyasla %7,52 daha yüksekti.
“Genel olarak, bu çalışma mevcut yaya dedektörlerinin karşılaştığı adalet sorunlarına ışık tutmakta, yaş ve cilt tonuyla ilgili önyargıları ele almanın önemini vurgulamaktadır.” “Elde edilen bilgiler gelecekte daha adil ve tarafsız otonom sürüş sistemlerinin önünü açabilir.”
YAPAY ZEKAYA YÖNELİK ÖNYARGILAR HAKLI ÇIKIYOR
Bu eğilim, birçok şirketin dedektörleri oluşturmak için kullandığı açık kaynaklı yapay zeka sistemlerinde zaten mevcut olan önyargıların bir sonucu olarak görülüyor.
Zhang’a göre, çalışma Tesla gibi şirketlerin sürücüsüz araçlara güç sağlamak için kullandıkları yazılımları gizli oldukları için tam olarak kullanmamış olsa da, çalışma için kullanılan yazılım sistemleri bu şirketlerin kullandığı aynı açık kaynaklı yapay zekaya dayanıyor.
Araştırma ekibi, kanun koyucuları, algılama sistemlerindeki önyargıyı önlemek için sürücüsüz araç yazılımlarını düzenlemeye çağırdı.
Çalışmada, “Politika yapıcıların tüm bireylerin haklarını koruyan ve bu endişeleri uygun bir şekilde ele alan yasa ve yönetmelikleri yürürlüğe koyması elzemdir” deniyor.
Abone Ol
Kaynak : İHA