Makineler ve Güven: Yapay Zeka Önyargısını Azaltma
Yayınlanan: 2022-03-112016'da Dünya Ekonomik Forumu, Sanayi Devrimi'nin dördüncü dalgasını yaşadığımızı iddia etti: siber-fiziksel sistemleri kullanan otomasyon. Bu dalganın temel unsurları arasında makine zekası, blok zinciri tabanlı merkezi olmayan yönetişim ve genom düzenleme yer alıyor. Önceki dalgalarda olduğu gibi, bu teknolojiler insan emeğine olan ihtiyacı azaltmakta ancak özellikle yapay zeka geliştirme şirketleri ve müşterileri için yeni etik zorluklar ortaya çıkarmaktadır.
Bu makalenin amacı, makine öğrenimi modellerinde istenmeyen yanlılıkları tespit etme ve azaltma konusundaki son fikirleri gözden geçirmektir. Güvenilir yapay zeka hakkında yakın zamanda oluşturulmuş yönergeleri tartışacağız, hem model seçiminden hem de toplumsal önyargının altında yatan yapay zeka yanlılığı örneklerini inceleyeceğiz, önyargılı yapay zekayı tespit etmek ve azaltmak için iş ve teknik uygulamalar önereceğiz ve yasal yükümlülükleri şu anda GDPR kapsamında ve nerede var oldukları gibi tartışacağız. ileride gelişebilirler.
İnsanlar: Makine Öğreniminde En Büyük Önyargı Kaynağı
Tüm modeller insanlar tarafından yapılır ve insan önyargılarını yansıtır. Makine öğrenimi modelleri, organizasyon ekiplerinin, bu ekiplerdeki tasarımcıların, modelleri uygulayan veri bilimcilerin ve veri toplayan veri mühendislerinin önyargılarını yansıtabilir. Doğal olarak, verilerin kendisinde bulunan önyargıyı da yansıtırlar. İnsan karar vericilerden bir düzeyde güvenilirlik beklediğimiz gibi, modellerimizden de bir düzeyde güvenilirlik beklemeli ve sunmalıyız.
Güvenilir bir model yine de birçok önyargı içerecektir çünkü önyargı (en geniş anlamıyla) makine öğreniminin bel kemiğidir. Bir meme kanseri tahmin modeli, meme kanseri öyküsü olan hastaların pozitif bir sonuca karşı önyargılı olduğunu doğru bir şekilde tahmin edecektir. Tasarıma bağlı olarak, kadınların olumlu bir sonuca karşı önyargılı olduğunu öğrenebilir. Nihai model, kadınlar ve erkekler için farklı doğruluk seviyelerine sahip olabilir ve bu şekilde önyargılı olabilir. Sorulacak anahtar soru, modelim önyargılı mı? çünkü cevap her zaman evet olacaktır.
Daha iyi sorular arayan Avrupa Birliği Yapay Zeka Yüksek Düzeyli Uzman Grubu, model oluşturmaya uygulanabilir yönergeler üretti. Genel olarak, makine öğrenimi modelleri şöyle olmalıdır:
- Yasal—geçerli tüm yasalara ve düzenlemelere saygı duymak
- Etik — etik ilke ve değerlere saygı duymak
- Sağlam - hem teknik açıdan hem de sosyal çevresini hesaba katarak
Bu kısa gereksinimler ve daha uzun biçimleri, mühendisler ve ekipler için bir kontrol listesi görevi görerek önyargı konularını içerir ve bunların ötesine geçer. Modellerimizde yasa dışı, etik olmayan veya sağlam olmayan önyargıları sorun bildirimi ve etki alanı bağlamında inceleyerek daha güvenilir yapay zeka sistemleri geliştirebiliriz.
AI Önyargısının Tarihsel Örnekleri
Aşağıda, yasa dışı, etik olmayan veya sağlam olmayan AI önyargısı nedeniyle güvenilirliği şüpheli üç tarihsel model bulunmaktadır. İlk ve en ünlü vaka olan COMPAS modeli, en basit modellerin bile ırka göre etik olmayan bir şekilde ayrımcılık yapabildiğini gösteriyor. İkinci vaka, çoğu doğal dil işleme (NLP) modelindeki bir kusuru göstermektedir: Bunlar ırksal, cinsel ve diğer önyargılara karşı dayanıklı değildir. Son durum, Allegheny Aile Tarama Aracı, önyargılı verilerle temelde kusurlu bir modelin bir örneğini ve bu kusurları hafifletmeye yönelik bazı en iyi uygulamaları göstermektedir.
PUSULALAR
Önyargılı, güvenilmez AI'nın kanonik örneği, Florida'da ve ABD'deki diğer eyaletlerde kullanılan COMPAS sistemidir. COMPAS sistemi, bir failin tekrar suç işleme olasılığının olup olmadığını tahmin etmek için bir regresyon modeli kullandı. Model, genel doğruluk için optimize edilmiş olmasına rağmen, Afrika kökenli Amerikalı etnik kökenler için, Kafkas etnik kökenlerine göre tekrar suç işlemeye ilişkin yanlış pozitiflerin sayısını iki katına çıkaracağını öngördü.
COMPAS örneği, metodolojimiz ne kadar rahat olursa olsun, istenmeyen önyargıların modellerimize nasıl sızabileceğini gösterir. Teknik bir perspektiften bakıldığında, temeldeki anket verilerinin alakası şüpheli sorular içermesine rağmen, COMPAS verilerine uygulanan yaklaşım son derece sıradandı. Küçük bir denetimli model, az sayıda özelliğe sahip bir veri kümesi üzerinde eğitildi. (Uygulamamda, muhtemelen herhangi bir veri bilimcisi veya ML mühendisi için olduğu gibi, benzer bir teknik prosedürü onlarca kez izledim.) Yine de, sıradan tasarım seçimleri, istenmeyen, ırk ayrımcılığı içeren bir model üretti.
COMPAS vakasındaki en büyük sorun, basit model seçimi veya hatta verilerin hatalı olması değildi. Aksine, COMPAS ekibi, etki alanı (cezalandırma), sorunun (tekrar suç işlemeyi tespit etme) ve yanıtların (tekrar suç işleme puanları) algoritmalar dahil olmadığında bile ırk, cinsel ve diğer eksenlerde eşitsizlikler içerdiğinin bilindiğini göz önünde bulundurmadı. Takım önyargı arasaydı, bulurlardı. Bu farkındalıkla, COMPAS ekibi, farklı yaklaşımları test edebilir ve önyargı için ayarlamalar yaparken modeli yeniden oluşturabilirdi. Bu, Afrikalı Amerikalıların haksız yere hapsedilmesini şiddetlendirmek yerine azaltmak için işe yarayabilirdi.
Herhangi Bir NLP Modeli, Word2Vec'ten Beri Ortak Tarama, Google Haberler veya Diğer Herhangi Bir Derleme Üzerine Safça Önceden Eğitimli
Büyük, önceden eğitilmiş modeller çoğu NLP görevinin temelini oluşturur. Bu temel modeller, belirli bir eksen boyunca önyargıdan kaçınmak için özel olarak tasarlanmadıkça, eğitildikleri kurumların doğal önyargılarıyla dolu oldukları kesindir - bu modellerin işe yaramasıyla aynı nedenden dolayı. Bu önyargının sonuçları, ırksal ve cinsiyetçi çizgilerle, sırasıyla Common Crawl ve Google Haberler'de eğitilen Word2Vec ve GloVe modellerinde gösterildi. BERT gibi bağlamsal modeller en son teknoloji olsa da (Word2Vec ve GloVe yerine), bu modellerin eğitildiği kurumların daha az ayrımcı olduğuna dair hiçbir kanıt yoktur.
Herhangi bir NLP problemi için en iyi model mimarileri ayrımcı duygularla dolu olsa da, çözüm önceden eğitilmiş modellerden vazgeçmek değil, daha ziyade söz konusu belirli alanı, problem ifadesini ve verileri ekiple bütünlük içinde düşünmektir. Bir uygulama, insanlar tarafından yapılan ayrımcı önyargıların önemli bir rol oynadığı biliniyorsa, geliştiriciler, modellerin bu ayrımcılığı sürdürme olasılığının yüksek olduğunun farkında olmalıdır.
Allegheny Aile Tarama Aracı: Tarafsız, Ama İyi Tasarlanmış ve Azaltılmış
Bu son örnekte, haksız şekilde ayrımcı verilerden oluşturulmuş bir modeli tartışıyoruz, ancak istenmeyen önyargı birkaç şekilde hafifletiliyor. Allegheny Aile Tarama Aracı, bir çocuğun istismar edici koşullar nedeniyle ailesinden uzaklaştırılması gerekip gerekmediğine karar vermede insanlara yardımcı olmak için tasarlanmış bir modeldir. Araç, yazılımdaki kusurları ve eşitsizlikleri bulmak için halka açık forumlar ve fırsatlarla açık ve şeffaf bir şekilde tasarlanmıştır.
Modeldeki istenmeyen önyargı, daha geniş toplumsal önyargıları yansıtan halka açık bir veri kümesinden kaynaklanmaktadır. Orta ve üst sınıf ailelerin, özel sağlık sağlayıcılarını kullanarak istismarı “gizleme” konusunda daha yüksek yetenekleri vardır. Allegheny County'ye yapılan başvurular, Afrikalı-Amerikalı ve iki ırklı ailelerde beyaz ailelere göre üç kat daha sık görülür. Virginia Eubanks ve Ellen Broad gibi yorumcular, bunun gibi veri sorunlarının ancak toplum düzeltilirse çözülebileceğini, herhangi bir mühendisin ötesinde bir görev olduğunu iddia ettiler.
Üretimde, ilçe, modelindeki eşitsizliklerle, onu yalnızca ön cephe çalışanları için bir danışma aracı olarak kullanarak mücadele eder ve ön cephe çalışanlarının kararlarını verirken danışma modelinin başarısızlıklarından haberdar olmaları için eğitim programları tasarlar. Algoritmaların saptırılmasındaki yeni gelişmelerle, Allegheny County, modeldeki gizli yanlılığı azaltmak için yeni fırsatlara sahiptir.
Allegheny aracının geliştirilmesi, mühendislere, verilerdeki gizli ayrımcılığın ve bu verilerin altında yatan toplumsal ayrımcılığın üstesinden gelmek için algoritmaların sınırları hakkında öğretecek çok şeye sahiptir. Mühendislere ve tasarımcılara, bir modeldeki potansiyel ayrımcı önyargının gerçek dünyadaki etkisini azaltabilecek bir danışmanlık modeli oluşturma örneği sunar.
Yapay Zeka Önyargısını Önlemek ve Azaltmak: Temel İş Bilinci
Neyse ki, çoğu COMPAS veri setini bir kıyaslama olarak kullanan bazı önyargıları azaltan yaklaşımlar ve yöntemler var.
Çeşitliliği İyileştirin, Çeşitlilik Açıklarını Azaltın
Hem demografik hem de beceri setleri açısından çeşitli ekipleri korumak, istenmeyen AI önyargılarından kaçınmak ve bunları azaltmak için önemlidir. Teknoloji yöneticilerinin çeşitliliğe yaptığı sürekli yalan söylemeye rağmen, kadınlar ve beyaz olmayan insanlar yeterince temsil edilmiyor.
Çeşitli ML modelleri, AI endüstrisindeki istatistiksel azınlıklar üzerinde daha düşük performans gösterir ve bu sorunları ilk fark eden kişiler, kadın ve/veya beyaz olmayan kullanıcılardır. Yapay zeka ekiplerinde daha fazla çeşitlilik sayesinde, üretime geçmeden önce istenmeyen önyargılarla ilgili sorunlar fark edilebilir ve azaltılabilir.
Proxy'lerin Farkında Olun: Bir Modelden Korumalı Sınıf Etiketlerini Kaldırmak Çalışmayabilir!
Korunan sınıflarla (cinsiyet veya ırk gibi) ilgili önyargıyı verilerden kaldırmaya yönelik yaygın, saf bir yaklaşım, ırk veya cinsiyeti işaretleyen etiketleri modellerden silmektir. Çoğu durumda bu işe yaramaz çünkü model, posta kodları gibi diğer etiketlerden bu korumalı sınıfların anlaşılmasını sağlayabilir. Genel uygulama, hem üretimdeki modellerin sonuçlarını iyileştirmek hem de yasal gereklilikler nedeniyle bu etiketlerin çıkarılmasını da içerir. Aşağıda tartışacağımız sapma azaltma algoritmalarının son gelişimi, etiketleri kaldırmadan AI sapmasını azaltmanın bir yolunu temsil ediyor.
Teknik Sınırlamaların Farkında Olun
Ürün tasarımı ve model oluşturmadaki en iyi uygulamalar bile, özellikle önyargılı veriler söz konusu olduğunda, istenmeyen önyargı risklerini ortadan kaldırmak için yeterli olmayacaktır. Verilerimizin, modellerimizin ve yanlılığa yönelik teknik çözümlerimizin sınırlamalarını, hem farkındalık adına hem de döngüdeki insan gibi makine öğreniminde yanlılığı sınırlamaya yönelik insan yöntemlerinin dikkate alınabilmesi için önemlidir.
Yapay Zeka Önyargısını Önleme ve Azaltma: Farkındalık ve Önyargıyı Azaltma için Temel Teknik Araçlar
Veri bilimcileri, bir ekibin AI önyargısını önleme ve azaltma kapasitesini destekleyen, giderek artan sayıda teknik farkındalık ve önyargı giderme araçlarına sahiptir. Şu anda, farkındalık araçları daha karmaşıktır ve çok çeşitli model seçimlerini ve önyargı ölçümlerini kapsarken, önyargı giderme araçları henüz yeni ortaya çıkmıştır ve yalnızca belirli durumlarda modellerdeki önyargıyı azaltabilir.
Denetimli Öğrenme Algoritmaları için Farkındalık ve Önyargı Giderme Araçları
IBM, AI Fairness projesi kapsamında ikili sınıflandırıcılar için bir farkındalık ve önyargı giderme araçları paketi yayınladı. AI önyargısını tespit etmek ve buna karşı hafifletmek için tüm yöntemler bir sınıf etiketi gerektirir (örneğin, ırk, cinsel yönelim). Bu sınıf etiketine karşı, modelin sınıfın belirli üyelerine yönelik önyargısını ölçen bir dizi metrik çalıştırılabilir (örneğin, farklı etki ve eşit fırsat farkı). Bu metriklerin bir açıklamasını makalenin altına ekliyoruz.

Önyargı tespit edildiğinde, AI Fairness 360 kitaplığında (AIF360), basit sınıflandırıcılardan derin sinir ağlarına kadar değişen modellere uygulanabilen 10 sapma giderme yaklaşımı (ve sayma) bulunur. Bazıları, verilerin kendisini dengelemeyi amaçlayan ön işleme algoritmalarıdır. Diğerleri, modeli oluştururken istenmeyen önyargıları cezalandıran işleme içi algoritmalardır. Yine de diğerleri, bir tahminden sonra olumlu sonuçları dengelemek için işlem sonrası adımları uygular. Özellikle en iyi seçim, probleminize bağlı olacaktır.
AIF360, önyargı algılama ve azaltma algoritmalarının ikili sınıflandırma sorunları için tasarlandığından ve çok sınıflı ve regresyon sorunlarına genişletilmesi gerektiğinden önemli bir pratik sınırlamaya sahiptir. Aequitas ve LIME gibi diğer kitaplıklar, bazı daha karmaşık modeller için iyi ölçütlere sahiptir - ancak yalnızca yanlılığı tespit ederler. Düzeltmeye güçleri yetmez. Ancak, bir modelin üretime girmeden önce önyargılı olduğu bilgisi bile, piyasaya sürülmeden önce alternatif yaklaşımların test edilmesine yol açması gerektiği için hala çok faydalıdır.
Genel Farkındalık Aracı: KIRMIZI
Yerel Yorumlanabilir Model-agnostik Açıklamalar (LIME) araç takımı, özelliğin önemini ölçmek ve çoğu modelin yerel davranışını açıklamak için kullanılabilir - çok sınıflı sınıflandırma, regresyon ve derin öğrenme uygulamaları dahildir. Genel fikir, sapma için test edilen modelin tahminlerine yüksek oranda yorumlanabilir doğrusal veya ağaç tabanlı bir model uydurmaktır.
Örneğin, görüntü tanıma için derin CNN'ler çok güçlüdür ancak çok yorumlanabilir değildir. Ağın davranışını taklit etmek için doğrusal bir model eğiterek, nasıl çalıştığına dair bir fikir edinebiliriz. İsteğe bağlı olarak, insan karar vericiler, belirli durumlarda modelin kararının arkasındaki nedenleri LIME aracılığıyla inceleyebilir ve bunun üzerine nihai bir karar verebilir. Tıbbi bağlamda bu süreç aşağıdaki görüntü ile gösterilmiştir.
NLP Modellerini Debiasing
Daha önce, NLP modellerini eğitmek için kullanılan çoğu korporada gizli olan yanlılıkları tartışmıştık. Belirli bir sorun için istenmeyen yanlılık olması muhtemelse, kolayca elde edilebilen, saptırılmış sözcük yerleştirmelerini öneririm. Akademik çevrenin ilgisine bakılırsa, BERT gibi daha yeni NLP modellerinin kısa süre içinde önyargısız sözcük yerleştirmelerine sahip olması muhtemeldir.
Evrişimsel Sinir Ağlarını (CNN'ler) Debiasing
LIME, bireysel özelliklerin önemini açıklayabilmesine ve belirli görüntü girişlerinde yerel davranış açıklamaları sunabilmesine rağmen, LIME bir CNN'nin genel davranışını açıklamaz veya veri bilimcilerinin istenmeyen önyargıları aramasına izin vermez.
İstenmeyen CNN yanlılığının bulunduğu ünlü vakalarda, halkın üyeleri (Joy Buolamwini gibi), ayrıcalıklı olmayan bir gruba üyeliklerine dayanan önyargı örneklerini fark ettiler. Bu nedenle, azaltma konusundaki en iyi yaklaşımlar, teknik ve iş yaklaşımlarını birleştirir: Sık sık test edin ve üretimden önce test ederek istenmeyen AI önyargısını bulabilen çeşitli ekipler oluşturun.
Yapay Zeka Etiği Çevresindeki Yasal Yükümlülükler ve Gelecek Yönergeleri
Bu bölümde, Avrupa Birliği'nin Genel Veri Koruma Yönetmeliği'ne (GDPR) odaklanıyoruz. GDPR, veri koruma mevzuatında küresel olarak fiili standarttır. (Ancak tek mevzuat bu değil - örneğin Çin'in Kişisel Bilgi Güvenliği Spesifikasyonu da var.) GDPR'nin kapsamı ve anlamı oldukça tartışmalıdır, bu nedenle bu makalede hiçbir şekilde yasal tavsiye sunmuyoruz. Bununla birlikte, GDPR yalnızca Avrupa kuruluşları için değil, aynı zamanda Avrupa vatandaşlarına veya sakinlerine ait verileri işleyen tüm kuruluşlar için geçerli olduğundan, buna uymanın küresel ölçekte kuruluşların çıkarına olduğu söyleniyor.
GDPR , bağlayıcı maddeler ve bağlayıcı olmayan açıklamalar olarak ayrılmıştır. Makaleler, kişisel verileri kullanan mühendislere ve kuruluşlara bazı yükler getirirken, önyargının azaltılmasına yönelik en katı hükümler, Gerekçe 71 kapsamındadır ve bağlayıcı değildir. 71. gerekçe, yasa koyucular tarafından zaten düşünüldüğü için en olası gelecekteki düzenlemeler arasındadır. Yorumlar, GDPR yükümlülüklerini daha ayrıntılı olarak inceler.
İki temel gereksinime ve bunların model oluşturucular için ne anlama geldiğine odaklanacağız.
1. Ayrımcı Etkilerin Önlenmesi
GDPR, kişisel veriler üzerinde herhangi bir modellemeye yönelik teknik yaklaşımlara ilişkin gereksinimler getirir. Hassas kişisel verilerle çalışan veri bilimcileri, özellikle hassas kişisel verilerin (ırk tanımlayıcılar gibi) birçok kullanımını yasaklayan 9. Madde metnini okumak isteyeceklerdir. Daha genel gereksinimler Gerekçe 71'de bulunabilir:
[. . .] uygun matematiksel veya istatistiksel prosedürleri kullanın, [. . .] hata riskinin en aza indirilmesini sağlayın [. . .] ve ırk veya etnik köken, siyasi görüş, din veya inançlar, sendika üyeliği, genetik veya sağlık durumu veya cinsel yönelim temelinde ayrımcı etkileri önlemek .
GDPR (benimkine vurgu yapın)
Bu anlatımın çoğu, iyi bir model oluşturmanın temeli olarak kabul edilir: Hata riskini azaltmak ilk ilkedir. Ancak bu resital kapsamında veri bilimcileri yalnızca doğru modeller değil, ayrım yapmayan modeller de oluşturmakla yükümlüdür! Yukarıda belirtildiği gibi, bu her durumda mümkün olmayabilir. Anahtar, eldeki sorudan ve etki alanından kaynaklanabilecek ayrımcı etkilere karşı duyarlı olmak, yapay zeka modellerinde istenmeyen önyargıları tespit etmek ve azaltmak için iş ve teknik kaynakları kullanmaktır.
2. Açıklama Hakkı
Otomatik karar vermede "içerilen mantık hakkında anlamlı bilgi" hakları, GDPR 13-15. Maddelerde bulunabilir. Gerekçe 71, açıkça "hak [. . .] otomatik kararların bir açıklamasını ” (benim vurgum) elde etmek için. (Ancak, herhangi bir bağlayıcı açıklama hakkının kapsamı konusunda tartışmalar devam etmektedir.)
Tartıştığımız gibi, model davranışı için açıklamalar sağlamak için bazı araçlar mevcuttur, ancak karmaşık modeller (bilgisayarlı görme veya NLP içerenler gibi) doğruluğu kaybetmeden kolayca açıklanabilir hale getirilemez. Bir açıklamanın nasıl olacağı konusunda tartışmalar devam ediyor. Asgari en iyi uygulama olarak, 2020'de kullanılması muhtemel modeller için LIME veya diğer yorumlama yöntemleri geliştirilmeli ve üretim için test edilmelidir.
Etik ve Yapay Zeka: Değerli ve Gerekli Bir Mücadele
Bu gönderide, modellerimizde istenmeyen önyargı sorunlarını inceledik, bazı tarihsel örnekleri tartıştık, işletmeler için bazı yönergeler ve teknoloji uzmanları için araçlar sağladık ve istenmeyen önyargı ile ilgili temel düzenlemeleri tartıştık.
Makine öğrenimi modellerinin zekası, insan zekasını geçtiği gibi, insan anlayışını da aşar. Ancak modeller insanlar tarafından tasarlandıkları ve insanlar tarafından toplanan veriler üzerinde eğitildikleri sürece, insan önyargılarını miras alacaklardır.
Bu insan önyargılarını yönetmek, verilere dikkatle dikkat etmeyi, gerektiğinde istenmeyen önyargıları tespit etmeye ve bunlarla mücadele etmeye yardımcı olmak için yapay zekayı kullanmayı, yeterince çeşitli ekipler oluşturmayı ve belirli bir sorun alanının kullanıcıları ve hedefleri için ortak bir empati duygusuna sahip olmayı gerektirir. Yapay zekanın adil olmasını sağlamak, otomasyonun temel bir zorluğudur. Bu otomasyonun arkasındaki insanlar ve mühendisler olarak, AI'nın adalet için bir güç olarak hareket etmesini sağlamak etik ve yasal yükümlülüğümüzdür.
Yapay Zeka Etiği ve Makine Öğreniminde Önyargı Üzerine Daha Fazla Okuma
AI Bias ile ilgili kitaplar
- İnsanlar Tarafından Yapıldı: Yapay Zeka Durumu
- Eşitsizliği Otomatikleştirme: Yüksek Teknoloji Araçları Nasıl Profil, Polis ve Yoksulları Cezalandırıyor?
- Dijital Çıkmaz: Bilgi Çağında Sosyal Adalet İçin Mücadele
Makine Öğrenimi Kaynakları
- Yorumlanabilir Makine Öğrenimi: Kara Kutu Modellerini Açıklanabilir Hale Getirme Kılavuzu
- IBM'in AI Fairness 360 Demosu
AI Önyargı Kuruluşları
- Algoritmik Adalet Birliği
- AINow Enstitüsü ve makaleleri Ayrımcılık Sistemleri - Yapay Zekada Cinsiyet, Irk ve Güç
Debiasing Konferans Makaleleri ve Dergi Makaleleri
- Kadın Ev Kadını için Ne ise Erkek de Bilgisayar Programcısı mı? Sözcük Gömmelerini Önemseme
- AI Fairness 360: İstenmeyen Algoritmik Önyargıları Tespit Etme, Anlama ve Azaltma İçin Genişletilebilir Bir Araç Takımı
- Makine Sapması (Uzun biçimli dergi makalesi)
AI Bias Metriklerinin Tanımları
Farklı Etki
Farklı etki, "ayrıcalıksız ve ayrıcalıklı gruplar arasındaki olumlu sonuçların olasılığındaki oran" olarak tanımlanır. Örneğin, kadınların mükemmel bir kredi notu alma olasılığı erkekler kadar %70 ise, bu farklı bir etkiyi temsil eder. Hem eğitim verilerinde hem de modelin tahminlerinde farklı etkiler mevcut olabilir: bu durumlarda, temel eğitim verilerine daha derinlemesine bakmak ve farklı etkinin kabul edilebilir olup olmadığına veya hafifletilmesi gerektiğine karar vermek önemlidir.
Eşit Fırsat Farkı
Eşit fırsat farkı (yukarıda bulunan AI Fairness 360 makalesinde) "ayrıcalıksız ve ayrıcalıklı gruplar arasındaki gerçek pozitif oranlardaki [hatırlayın] fark" olarak tanımlanır. Yüksek fırsat eşitliği makalesinde tartışılan ünlü örnek, COMPAS davasıdır. Yukarıda tartışıldığı gibi, Afrikalı-Amerikalılar, beyaz suçlulardan daha yüksek oranda hatalı bir şekilde yüksek riskli olarak değerlendiriliyordu. Bu farklılık bir fırsat eşitliği farkı oluşturmaktadır.
GDPR bölümü hakkında bazı yararlı bilgiler sağladığı için Jonas Schuett'e özel teşekkürler.