Alexandria Ocasio-Cortez Algoritmaların Irkçı Olabileceğini Söyledi. İşte Neden Doğru.

Pin
Send
Share
Send

Geçen hafta, yeni seçilen ABD Temsilcisi Alexandria Ocasio-Cortez dördüncü yıllık MLK Now etkinliğinin bir parçası olarak, yüz tanıma teknolojileri ve algoritmalarının "her zaman bu ırksal eşitsizliklere sahip olduğunu" çünkü algoritmalar hala yapıldığını söylediğinde manşetlerde bulundu. ve bu algoritmalar hala temel insan varsayımlarına bağlıdır. Onlar sadece otomatiktir. Ve otomatik varsayımlar - önyargıyı düzeltmezseniz, sadece önyargıyı otomatikleştiriyorsunuzdur. "

Bu teorik olarak matematiğin nesnel gerçeklerine dayanan algoritmaların "ırkçı" olabileceği anlamına mı geliyor? Ve eğer öyleyse, bu önyargıyı gidermek için ne yapılabilir?

Algoritmalardan elde edilen çıktının gerçekten taraflı sonuçlar üretebileceği ortaya çıkıyor. Veri bilimcileri, bilgisayar programlarının, sinir ağlarının, makine öğrenme algoritmalarının ve yapay zekanın (AI) çalıştıklarını, çünkü verdikleri verilerden nasıl davranacaklarını öğrendiklerini söylüyorlar. Yazılım, önyargısı olan insanlar tarafından yazılır ve eğitim verileri de önyargısı olan insanlar tarafından oluşturulur.

Makine öğreniminin iki aşaması, bu yanlılığın görünüşte otomatik bir sürece nasıl sürünebileceğini göstermektedir. İlk aşamada, eğitim aşaması, bir algoritma bir veri kümesine veya belirli kurallara veya kısıtlamalara dayalı olarak öğrenir. İkinci aşama, bir algoritmanın pratikte öğrendiklerini uyguladığı çıkarım aşamasıdır. Bu ikinci aşama bir algoritmanın önyargılarını ortaya koymaktadır. Örneğin, bir algoritma sadece uzun saçlı kadınların resimlerinde eğitilirse, kısa saçlı herkesin bir erkek olduğunu düşünecektir.

Google, 2015 yılında siyah fotoğrafları goriller olarak etiketlediğinde, muhtemelen eğitim setindeki tek koyu tenli varlıklar olduğu için şöhreti ateşlendi.

Ve önyargı birçok yoldan geçebilir. Veri bilimi eğitimi eğitim kampı Metis'te kıdemli bir veri bilimcisi olan Sophie Searcy, Live Science'a verdiği demeçte, "Yaygın bir hata, önyargılı insanların geçmiş kararlarına dayalı tahminler yapmak için bir algoritma eğitmektir." "Daha önce bir grup kredi görevlisi tarafından alınan kararları otomatikleştirmek için bir algoritma yaparsam, kolay yoldan gidebilir ve algoritmayı bu kredi memurlarının geçmiş kararları hakkında eğitebilirim. Ancak, elbette, eğer bu kredi memurları önyargılıysa, oluşturduğum algoritma bu önyargılara devam edecek. "

Searcy, ABD'nin ceza adalet sisteminde cezalandırma için kullanılan ve suçun nerede ortaya çıkacağını tahmin etmeye çalışan tahmin aracı olan COMPAS örneğini gösterdi. ProPublica, COMPAS üzerinde bir analiz gerçekleştirdi ve diğer istatistiksel açıklamaları kontrol ettikten sonra, aracın siyah sanıklar için tekrar suçluluk riskini abarttığını ve beyaz sanıklar için riski hafife aldığını buldu.

Algoritmalı önyargılarla mücadeleye yardımcı olmak için Searcy, Live Science'a, mühendislere ve veri bilim adamlarına yeni sorunlar için daha çeşitli veri setleri oluşturmanın yanı sıra mevcut veri kümelerine yerleşik önyargıları anlamaya ve azaltmaya çalıştıklarını söyledi.

Öncelikle ve en önemlisi, tahminci analitik şirketi Anodot'un veri bilimcisi Ira Cohen, mühendislerin etnik veya cinsiyet özelliklerini tanımlamak için bir algoritma eğitiyorlarsa, tüm nüfus türlerini nispeten tek biçimli temsil eden bir eğitim setine sahip olmaları gerektiğini söyledi. Cohen, Live Science'a verdiği demeçte, "İncelenen toplam nüfusta bir azınlık olsalar bile, her nüfus grubundan yeterli örnekleri temsil etmek önemlidir." Dedi. Son olarak Cohen, tüm bu gruplardan insanları içeren bir test setindeki önyargıların kontrol edilmesini önerir. Cohen, LiveScience'a verdiği demeçte, "Belirli bir yarış için doğruluk, diğer kategorilere göre istatistiksel olarak önemli ölçüde düşükse, algoritmanın bir sapması olabilir ve bunun için kullanılan eğitim verilerini değerlendiririm." Dedi. Örneğin, algoritma 1000 beyaz yüzün 900'ünü doğru bir şekilde tanımlayabilir, ancak 1.000 asya yüzünün sadece 600'ünü doğru bir şekilde tespit ederse, algoritmanın Asyalılara karşı bir önyargıya sahip olabileceğini "diye ekledi Cohen.

Önyargıların kaldırılması AI için inanılmaz derecede zor olabilir.

Ticari AI'da bir öncü olarak kabul edilen Google bile, görünüşe göre 2015'ten itibaren goril sorununa kapsamlı bir çözüm bulamadı. Wired, algoritmalarının renk ve goriller arasında ayrım yapmasının bir yolunu bulmak yerine, gorilleri tanımlamaktan görüntü tanıma algoritmaları.

Google'ın örneği, özellikle yazılım temsili ve çeşitli bir grup insan tarafından test edilmediğinde veya eğitilmediğinde AI yazılımını eğitmenin zor bir egzersiz olabileceğini hatırlatmaktır.

Pin
Send
Share
Send