الآلات والثقة: كيفية التخفيف من انحياز الذكاء الاصطناعي
نشرت: 2022-03-11في عام 2016 ، ادعى المنتدى الاقتصادي العالمي أننا نشهد الموجة الرابعة من الثورة الصناعية: الأتمتة باستخدام الأنظمة الفيزيائية السيبرانية. تشمل العناصر الرئيسية لهذه الموجة الذكاء الآلي ، والحوكمة اللامركزية القائمة على blockchain ، وتحرير الجينوم. كما كان الحال مع الموجات السابقة ، تقلل هذه التقنيات من الحاجة إلى العمالة البشرية ولكنها تفرض تحديات أخلاقية جديدة ، خاصة لشركات تطوير الذكاء الاصطناعي وعملائها.
الغرض من هذه المقالة هو مراجعة الأفكار الحديثة حول اكتشاف التحيز غير المرغوب فيه والتخفيف من حدته في نماذج التعلم الآلي. سنناقش الإرشادات التي تم إنشاؤها مؤخرًا حول الذكاء الاصطناعي الجدير بالثقة ، ونراجع أمثلة على انحياز الذكاء الاصطناعي الناشئ عن اختيار النموذج والتحيز المجتمعي الأساسي ، ونقترح الممارسات التجارية والتقنية لاكتشاف الذكاء الاصطناعي المتحيز والتخفيف من حدته ، ومناقشة الالتزامات القانونية كما هي موجودة حاليًا بموجب اللائحة العامة لحماية البيانات وأين قد يتطورون في المستقبل.
البشر: المصدر النهائي للتحيز في التعلم الآلي
جميع النماذج من صنع البشر وتعكس التحيزات البشرية. يمكن أن تعكس نماذج التعلم الآلي تحيزات الفرق التنظيمية والمصممين في تلك الفرق وعلماء البيانات الذين ينفذون النماذج ومهندسي البيانات الذين يجمعون البيانات. وبطبيعة الحال ، فإنها تعكس أيضًا التحيز المتأصل في البيانات نفسها. مثلما نتوقع مستوى من الجدارة بالثقة من صانعي القرار البشريين ، يجب أن نتوقع ونقدم مستوى من الجدارة بالثقة من نماذجنا.
سيظل النموذج الجدير بالثقة يحتوي على العديد من التحيزات لأن التحيز (بمعناه الأوسع) هو العمود الفقري للتعلم الآلي. سيتنبأ نموذج التنبؤ بسرطان الثدي بشكل صحيح بأن المرضى الذين لديهم تاريخ من الإصابة بسرطان الثدي يميلون إلى نتيجة إيجابية. اعتمادًا على التصميم ، قد يتعلم أن النساء منحازات نحو نتيجة إيجابية. قد يكون للنموذج النهائي مستويات مختلفة من الدقة للنساء والرجال ، ويكون متحيزًا بهذه الطريقة. السؤال الرئيسي الذي يجب طرحه ليس هل نموذجي متحيزًا؟ ، لأن الإجابة ستكون دائمًا نعم .
بحثًا عن أسئلة أفضل ، أصدر فريق الخبراء رفيع المستوى التابع للاتحاد الأوروبي والمعني بالذكاء الاصطناعي إرشادات تنطبق على بناء النماذج. بشكل عام ، يجب أن تكون نماذج التعلم الآلي:
- قانوني - يحترم جميع القوانين واللوائح المعمول بها
- الأخلاقية - احترام المبادئ والقيم الأخلاقية
- متينة — من منظور تقني مع مراعاة بيئتها الاجتماعية
تتضمن هذه المتطلبات القصيرة ، وشكلها الأطول ، قضايا التحيز وتتجاوزها ، حيث تعمل كقائمة مراجعة للمهندسين والفرق. يمكننا تطوير أنظمة ذكاء اصطناعي أكثر جدارة بالثقة من خلال فحص تلك التحيزات داخل نماذجنا والتي قد تكون غير قانونية أو غير أخلاقية أو غير قوية في سياق بيان المشكلة والمجال.
الحالات التاريخية للانحياز للذكاء الاصطناعي
فيما يلي ثلاثة نماذج تاريخية مشكوك في مصداقيتها ، بسبب انحياز الذكاء الاصطناعي غير القانوني أو غير الأخلاقي أو غير القوي. تُظهر الحالة الأولى والأكثر شهرة ، نموذج كومباس ، كيف يمكن لأبسط النماذج أن تميز بشكل غير أخلاقي وفقًا للعرق. توضح الحالة الثانية عيبًا في معظم نماذج معالجة اللغة الطبيعية (NLP): فهي ليست قوية ضد التحيزات العرقية والجنسية وغيرها. تُظهر الحالة الأخيرة ، أداة Allegheny Family Screening Tool ، مثالاً لنموذج معيب جوهريًا بسبب البيانات المتحيزة ، وبعض أفضل الممارسات في التخفيف من هذه العيوب.
كومباس
المثال الأساسي للذكاء الاصطناعي المتحيز وغير الموثوق به هو نظام كومباس ، المستخدم في فلوريدا وولايات أخرى في الولايات المتحدة. استخدم نظام كومباس نموذج الانحدار للتنبؤ بما إذا كان من المحتمل أن يعود الجاني إلى الجاني أم لا. على الرغم من أنه تم تحسينه من أجل الدقة الشاملة ، إلا أن النموذج تنبأ بضعف عدد الإيجابيات الكاذبة لعودة الأعراق الأمريكية من أصل أفريقي مقارنة بالأعراق القوقازية.
يوضح مثال كومباس كيف يمكن للانحياز غير المرغوب أن يتسلل إلى نماذجنا بغض النظر عن مدى راحة منهجيتنا. من منظور تقني ، كان النهج المتبع في بيانات كومباس عاديًا للغاية ، على الرغم من أن بيانات المسح الأساسية احتوت على أسئلة ذات صلة مشكوك فيها. تم تدريب نموذج صغير خاضع للإشراف على مجموعة بيانات تحتوي على عدد صغير من الميزات. (في ممارستي ، اتبعت إجراءً تقنيًا مشابهًا عشرات المرات ، كما هو الحال على الأرجح لأي عالم بيانات أو مهندس ML). ومع ذلك ، أنتجت خيارات التصميم العادية نموذجًا يحتوي على تحيز عنصري غير مرغوب فيه.
أكبر مشكلة في حالة COMPAS لم تكن مع اختيار النموذج البسيط ، أو حتى أن البيانات كانت معيبة. بدلاً من ذلك ، فشل فريق كومباس في اعتبار أن المجال (إصدار الأحكام) ، والسؤال (الكشف عن النكوص) ، والإجابات (درجات العودة إلى الإجرام) من المعروف أنها تتضمن تباينات في المحاور العرقية والجنسية وغيرها حتى عندما لا تكون الخوارزميات متورطة. لو بحث الفريق عن التحيز لوجدوه. مع هذا الإدراك ، ربما يكون فريق كومباس قادرًا على اختبار مناهج مختلفة وإعادة إنشاء النموذج مع ضبط التحيز. كان من الممكن أن يعمل هذا بعد ذلك على الحد من السجن غير العادل للأمريكيين من أصل أفريقي ، بدلاً من تفاقمه.
أي نموذج من نماذج البرمجة اللغوية العصبية (NLP) تم تدريبه مسبقًا بشكل ساذج على الزحف المشترك أو أخبار Google أو أي مجموعة أخرى ، منذ Word2Vec
تشكل النماذج الكبيرة المدربة مسبقًا الأساس لمعظم مهام البرمجة اللغوية العصبية. ما لم يتم تصميم هذه النماذج الأساسية خصيصًا لتجنب التحيز على طول محور معين ، فمن المؤكد أنها مشبعة بالأفكار المسبقة المتأصلة للمجموعة التي تم تدريبها عليها - لنفس السبب الذي تعمل به هذه النماذج على الإطلاق. تم عرض نتائج هذا التحيز ، على طول الخطوط العرقية والجنسانية ، في نماذج Word2Vec و GloVe المدربة على الزحف المشترك وأخبار Google على التوالي. في حين أن النماذج السياقية مثل BERT هي أحدث ما توصلت إليه التكنولوجيا (بدلاً من Word2Vec و GloVe) ، لا يوجد دليل على أن المجموعات التي يتم تدريب هذه النماذج عليها أقل تمييزًا.
على الرغم من أن أفضل تصميمات النماذج لأي مشكلة في البرمجة اللغوية العصبية مشبعة بمشاعر تمييزية ، فإن الحل لا يكمن في التخلي عن النماذج المحددة مسبقًا ، بل بالأحرى النظر في المجال المعين المعني ، وبيان المشكلة ، والبيانات في مجملها مع الفريق. إذا كان أحد التطبيقات معروفًا أن التحيز التمييزي من قبل البشر يلعب دورًا مهمًا ، فيجب أن يدرك المطورون أن النماذج من المحتمل أن تديم هذا التمييز.
أداة فحص عائلة Allegheny: متحيزة بشكل غير عادل ، ولكنها جيدة التصميم ومخففة
في هذا المثال الأخير ، نناقش نموذجًا مبنيًا من بيانات تمييزية غير عادلة ، لكن التحيز غير المرغوب فيه يتم تخفيفه بعدة طرق. أداة Allegheny Family Screening Tool هي نموذج مصمم لمساعدة البشر في تقرير ما إذا كان يجب إخراج الطفل من أسرته بسبب ظروف مسيئة. تم تصميم الأداة بشكل مفتوح وشفاف مع المنتديات العامة والفرص لاكتشاف العيوب وعدم المساواة في البرنامج.
ينبع التحيز غير المرغوب فيه في النموذج من مجموعة بيانات عامة تعكس تحيزات مجتمعية أوسع. تتمتع العائلات من الطبقة الوسطى والعليا بقدرة أعلى على "إخفاء" سوء المعاملة باستخدام مقدمي الرعاية الصحية الخاصين. تحدث الإحالات إلى مقاطعة Allegheny أكثر من ثلاثة أضعاف في كثير من الأحيان للعائلات الأمريكية من أصل أفريقي وذوي العرق الواحد مقارنة بالعائلات البيضاء. ادعى المعلقون مثل Virginia Eubanks و Ellen Broad أن مشكلات البيانات مثل هذه لا يمكن إصلاحها إلا إذا تم إصلاح المجتمع ، وهي مهمة تتجاوز أي مهندس واحد.
في الإنتاج ، تكافح المقاطعة أوجه عدم المساواة في نموذجها من خلال استخدامه فقط كأداة استشارية للعاملين في الخطوط الأمامية ، وتصميم برامج تدريبية بحيث يكون عمال الخطوط الأمامية على دراية بإخفاقات النموذج الاستشاري عندما يتخذون قراراتهم. مع التطورات الجديدة في خوارزميات إزالة الحواف ، تمتلك مقاطعة Allegheny فرصًا جديدة للتخفيف من التحيز الكامن في النموذج.
إن تطوير أداة Allegheny لديه الكثير لتعليم المهندسين حول حدود الخوارزميات للتغلب على التمييز الكامن في البيانات والتمييز المجتمعي الذي تقوم عليه تلك البيانات. يزود المهندسين والمصممين بمثال على بناء النموذج الاستشاري الذي يمكن أن يخفف من تأثير العالم الحقيقي للتحيز التمييزي المحتمل في النموذج.
تجنب وتخفيف انحياز الذكاء الاصطناعي: الوعي التجاري الرئيسي
لحسن الحظ ، هناك بعض الأساليب والطرق التي تستخدم في إزالة الحواف - يستخدم العديد منها مجموعة بيانات كومباس كمعيار.
تحسين التنوع وتخفيف عجز التنوع
يعد الحفاظ على فرق متنوعة ، سواء من حيث التركيبة السكانية أو من حيث مجموعات المهارات ، أمرًا مهمًا لتجنب التحيز غير المرغوب فيه للذكاء الاصطناعي والتخفيف من حدته. على الرغم من التشدق المستمر الذي يدفعه مديرو التكنولوجيا للتنوع ، إلا أن النساء والأشخاص الملونين لا يزالون غير ممثلين.
تعمل نماذج ML المختلفة بشكل أكثر فقراً على الأقليات الإحصائية داخل صناعة الذكاء الاصطناعي نفسها ، والأشخاص الذين يلاحظون هذه المشكلات أولاً هم المستخدمون الإناث و / أو الأشخاص الملونون. مع وجود المزيد من التنوع في فرق الذكاء الاصطناعي ، يمكن ملاحظة المشكلات المتعلقة بالتحيز غير المرغوب فيه والتخفيف من حدته قبل طرحه في الإنتاج.
كن على دراية بالوكلاء: قد لا تعمل إزالة ملصقات الفئات المحمية من نموذج!
من الأساليب الشائعة والساذجة لإزالة التحيز المرتبط بالفئات المحمية (مثل الجنس أو العرق) من البيانات حذف العلامات التي تشير إلى العرق أو الجنس من النماذج. في كثير من الحالات ، لن ينجح ذلك ، لأن النموذج يمكنه تكوين فهم لهذه الفئات المحمية من تسميات أخرى ، مثل الرموز البريدية. تتضمن الممارسة المعتادة إزالة هذه الملصقات أيضًا ، لتحسين نتائج النماذج في الإنتاج وأيضًا بسبب المتطلبات القانونية. يمثل التطوير الأخير لخوارزميات إزالة الحواف ، والذي سنناقشه أدناه ، طريقة للتخفيف من تحيز الذكاء الاصطناعي دون إزالة الملصقات.
كن على دراية بالقيود الفنية
حتى أفضل الممارسات في تصميم المنتج وبناء النماذج لن تكون كافية لإزالة مخاطر التحيز غير المرغوب فيه ، لا سيما في حالات البيانات المتحيزة. من المهم التعرف على قيود بياناتنا ونماذجنا وحلولنا التقنية للتحيز ، من أجل الوعي ، وحتى يمكن النظر في الأساليب البشرية للحد من التحيز في التعلم الآلي مثل الإنسان في الحلقة.
تجنب وتخفيف انحياز الذكاء الاصطناعي: الأدوات التقنية الرئيسية للتوعية وإزالة التحيز
يمتلك علماء البيانات عددًا متزايدًا من الوعي التقني وأدوات إزالة الحيازة المتاحة لهم ، والتي تكمل قدرة الفريق على تجنب انحياز الذكاء الاصطناعي والتخفيف منه. في الوقت الحالي ، تعد أدوات التوعية أكثر تعقيدًا وتغطي نطاقًا واسعًا من خيارات النماذج ومقاييس التحيز ، في حين أن أدوات إزالة الحواف ناشئة ويمكن أن تخفف من التحيز في النماذج فقط في حالات محددة.
أدوات التوعية وإزالة التحيز لخوارزميات التعلم الخاضع للإشراف
أصدرت شركة IBM مجموعة من أدوات التوعية وإزالة الحواف للمصنفات الثنائية في إطار مشروع AI Fairness. لاكتشاف انحياز الذكاء الاصطناعي والتخفيف منه ، تتطلب جميع الطرق تسمية فئة (على سبيل المثال ، العرق والتوجه الجنسي). مقابل تسمية الفئة هذه ، يمكن تشغيل مجموعة من المقاييس (على سبيل المثال ، التأثير المتباين وفرق تكافؤ الفرص) التي تحدد تحيز النموذج تجاه أعضاء معينين في الفصل. نقوم بتضمين شرح لهذه المقاييس في الجزء السفلي من المقالة.

بمجرد اكتشاف التحيز ، تحتوي مكتبة AI Fairness 360 (AIF360) على 10 أساليب تصحيح (والعد) يمكن تطبيقها على نماذج تتراوح من المصنفات البسيطة إلى الشبكات العصبية العميقة. بعضها يقوم بمعالجة الخوارزميات ، والتي تهدف إلى موازنة البيانات نفسها. البعض الآخر عبارة عن خوارزميات قيد المعالجة تعاقب التحيز غير المرغوب فيه أثناء بناء النموذج. ومع ذلك ، يطبق آخرون خطوات المعالجة اللاحقة لتحقيق التوازن بين النتائج الإيجابية بعد التنبؤ. سيعتمد الخيار الأفضل المحدد على مشكلتك.
يحتوي AIF360 على قيود عملية كبيرة تتمثل في أن خوارزميات الكشف عن التحيز والتخفيف منه مصممة لمشاكل التصنيف الثنائي ، وتحتاج إلى توسيعها لتشمل مشاكل الانحدار والطبقات المتعددة. المكتبات الأخرى ، مثل Aequitas و LIME ، لديها مقاييس جيدة لبعض النماذج الأكثر تعقيدًا - لكنها تكتشف فقط التحيز. إنهم غير قادرين على إصلاحه. ولكن حتى مجرد معرفة أن النموذج متحيز قبل أن يدخل حيز الإنتاج لا يزال مفيدًا للغاية ، حيث يجب أن يؤدي إلى اختبار مناهج بديلة قبل إطلاقه.
أداة توعية عامة: لايم
يمكن استخدام مجموعة أدوات التفسيرات الحيادية للنموذج المحلي (LIME) لقياس أهمية الميزة وشرح السلوك المحلي لمعظم النماذج - بما في ذلك التصنيف متعدد الفئات والانحدار وتطبيقات التعلم العميق. الفكرة العامة هي ملاءمة نموذج خطي أو قائم على الشجرة قابل للتفسير بدرجة عالية لتنبؤات النموذج الذي يتم اختباره من أجل التحيز.
على سبيل المثال ، شبكات CNN العميقة للتعرف على الصور قوية جدًا ولكنها غير قابلة للتفسير. من خلال تدريب نموذج خطي لمحاكاة سلوك الشبكة ، يمكننا الحصول على نظرة ثاقبة حول كيفية عملها. اختياريًا ، يمكن لصانعي القرار البشريين مراجعة الأسباب الكامنة وراء قرار النموذج في حالات محددة من خلال LIME واتخاذ قرار نهائي فوق ذلك. يتم توضيح هذه العملية في السياق الطبي بالصورة أدناه.
نماذج Debiasing البرمجة اللغوية العصبية
في وقت سابق ، ناقشنا التحيزات الكامنة في معظم الهيئات المستخدمة لتدريب نماذج البرمجة اللغوية العصبية. إذا كان من المحتمل وجود تحيز غير مرغوب فيه لمشكلة معينة ، فإنني أوصي بإدراج الكلمات غير المرغوب فيها بسهولة. انطلاقًا من اهتمام المجتمع الأكاديمي ، من المحتمل أن نماذج البرمجة اللغوية العصبية الأحدث مثل BERT ستشتمل على حفلات زفاف منقوشة بالكلمات قريبًا.
تحييد الشبكات العصبية التلافيفية (CNN)
على الرغم من أن LIME يمكن أن تشرح أهمية الميزات الفردية وتوفر تفسيرات محلية للسلوك على مدخلات صور معينة ، فإن LIME لا تشرح السلوك العام لـ CNN أو تسمح لعلماء البيانات بالبحث عن التحيز غير المرغوب فيه.
في الحالات الشهيرة التي تم فيها العثور على تحيز غير مرغوب فيه لـ CNN ، لاحظ أفراد من الجمهور (مثل Joy Buolamwini) حالات من التحيز على أساس عضويتهم في مجموعة محرومة. ومن ثم فإن أفضل الأساليب في التخفيف تجمع بين الأساليب التقنية والتجارية: اختبر كثيرًا ، وقم ببناء فرق متنوعة يمكنها العثور على التحيز غير المرغوب فيه في الذكاء الاصطناعي من خلال الاختبار قبل الإنتاج.
الالتزامات القانونية والتوجهات المستقبلية حول أخلاقيات الذكاء الاصطناعي
في هذا القسم ، نركز على اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي. اللائحة العامة لحماية البيانات هي المعيار الواقعي في تشريعات حماية البيانات على مستوى العالم. (لكنه ليس التشريع الوحيد - فهناك أيضًا مواصفات أمن المعلومات الشخصية في الصين ، على سبيل المثال.) نطاق ومعنى اللائحة العامة لحماية البيانات (GDPR) محل نقاش إلى حد كبير ، لذلك نحن لا نقدم المشورة القانونية في هذه المقالة ، بأي وسيلة. ومع ذلك ، يُقال إنه من مصلحة المنظمات على مستوى العالم الامتثال ، حيث لا تنطبق اللائحة العامة لحماية البيانات على المنظمات الأوروبية فحسب ، بل على أي منظمات تتعامل مع بيانات تخص مواطنين أو مقيمين في أوروبا.
يتم فصل اللائحة العامة لحماية البيانات ( GDPR ) إلى مقالات ملزمة وحالات غير ملزمة. بينما تفرض المقالات بعض الأعباء على المهندسين والمؤسسات التي تستخدم البيانات الشخصية ، فإن الأحكام الأكثر صرامة لتخفيف التحيز تكون بموجب Recital 71 ، وليست ملزمة. Recital 71 هي من بين اللوائح المستقبلية الأكثر احتمالية كما تم التفكير فيها بالفعل من قبل المشرعين. تستكشف التعليقات التزامات القانون العام لحماية البيانات (GDPR) بمزيد من التفصيل.
سنقوم بالتركيز على متطلبين رئيسيين وما يعنيهما لبناة النماذج.
1. منع الآثار التمييزية
يفرض القانون العام لحماية البيانات (GDPR) متطلبات على الأساليب الفنية لأي نمذجة على البيانات الشخصية. سيرغب علماء البيانات الذين يتعاملون مع البيانات الشخصية الحساسة في قراءة نص المادة 9 ، التي تحظر العديد من استخدامات البيانات الشخصية الحساسة بشكل خاص (مثل المعرفات العرقية). يمكن العثور على المزيد من المتطلبات العامة في Recital 71:
[. . .] استخدام الإجراءات الرياضية أو الإحصائية المناسبة ، [. . .] تأكد من تقليل مخاطر الأخطاء [. . .] ، ومنع الآثار التمييزية على أساس الأصل العرقي أو الإثني ، أو الرأي السياسي ، أو الدين أو المعتقدات ، أو العضوية النقابية ، أو الحالة الجينية أو الصحية ، أو التوجه الجنسي.
اللائحة العامة لحماية البيانات (منجم التركيز)
يتم قبول الكثير من هذه الحيثية على أنها أساسية لبناء نموذج جيد: الحد من مخاطر الأخطاء هو المبدأ الأول. ومع ذلك ، بموجب هذه الحيثية ، فإن علماء البيانات ملزمون ليس فقط بإنشاء نماذج دقيقة ولكن النماذج التي لا تميز! كما هو موضح أعلاه ، قد لا يكون هذا ممكنًا في جميع الحالات. يبقى المفتاح هو أن تكون حساسًا للآثار التمييزية التي قد تنشأ من السؤال المطروح ومجاله ، وذلك باستخدام الموارد التجارية والتقنية للكشف عن التحيز غير المرغوب فيه في نماذج الذكاء الاصطناعي والتخفيف منه.
2. الحق في التفسير
يمكن العثور على حقوق "المعلومات المفيدة حول المنطق المتضمن" في صنع القرار الآلي في جميع مواد القانون العام لحماية البيانات (GDPR) من 13 إلى 15 .. وتدعو Recital 71 صراحةً إلى "الحق [.] . .] للحصول على تفسير "(التركيز لي) للقرارات الآلية. (ومع ذلك ، يستمر الجدل حول مدى أي حق ملزم في الحصول على تفسير ).
كما ناقشنا ، توجد بعض الأدوات لتقديم تفسيرات لسلوك النموذج ، لكن النماذج المعقدة (مثل تلك التي تتضمن رؤية الكمبيوتر أو البرمجة اللغوية العصبية) لا يمكن تفسيرها بسهولة دون فقدان الدقة. يستمر الجدل حول الشكل الذي سيبدو عليه التفسير. كحد أدنى من أفضل الممارسات ، بالنسبة للنماذج التي من المحتمل أن تكون قيد الاستخدام حتى عام 2020 ، يجب تطوير واختبار LIME أو طرق تفسير أخرى من أجل الإنتاج.
الأخلاق والذكاء الاصطناعي: تحدٍ جدير وضروري
في هذا المنشور ، راجعنا مشاكل التحيز غير المرغوب فيه في نماذجنا ، وناقشنا بعض الأمثلة التاريخية ، وقدمنا بعض الإرشادات للأعمال التجارية وأدوات التقنيين ، وناقشنا اللوائح الرئيسية المتعلقة بالتحيز غير المرغوب فيه.
نظرًا لأن ذكاء نماذج التعلم الآلي يفوق الذكاء البشري ، فإنها تتفوق أيضًا على الفهم البشري. ولكن ما دامت النماذج مصممة من قبل البشر وتم تدريبها على البيانات التي يجمعها البشر ، فإنها سترث التحيزات البشرية.
تتطلب إدارة هذه التحيزات البشرية اهتمامًا دقيقًا بالبيانات ، واستخدام الذكاء الاصطناعي للمساعدة في اكتشاف ومكافحة التحيز غير المرغوب فيه عند الضرورة ، وبناء فرق متنوعة بما فيه الكفاية ، وامتلاك شعور مشترك بالتعاطف مع المستخدمين والأهداف في مساحة مشكلة معينة. يعد ضمان عدالة الذكاء الاصطناعي تحديًا أساسيًا للأتمتة. بصفتنا البشر والمهندسين الذين يقفون وراء هذه الأتمتة ، فمن واجبنا الأخلاقي والقانوني ضمان أن يعمل الذكاء الاصطناعي كقوة لتحقيق الإنصاف.
مزيد من القراءة حول أخلاقيات الذكاء الاصطناعي والتحيز في التعلم الآلي
كتب عن الانحياز للذكاء الاصطناعي
- من صنع البشر: حالة الذكاء الاصطناعي
- أتمتة عدم المساواة: كيف توصيف أدوات التكنولوجيا العالية والشرطة ومعاقبة الفقراء
- الطريق المسدود الرقمي: النضال من أجل العدالة الاجتماعية في عصر المعلومات
مصادر التعلم الآلي
- التعلم الآلي القابل للتفسير: دليل لجعل نماذج الصندوق الأسود قابلة للتفسير
- آي بي إم AI Fairness 360 Demo
منظمات الانحياز للذكاء الاصطناعي
- رابطة العدالة الحسابية
- معهد AINow وورقتهم الخاصة بالتمييز بين الجنسين والعرق والقوة في الذكاء الاصطناعي
أوراق المؤتمر Debiasing ومقالات المجلات
- الرجل هو مبرمج كمبيوتر كما المرأة ربة منزل؟ إزالة الحياكة Word Embeddings
- AI Fairness 360: مجموعة أدوات قابلة للتوسيع للكشف عن التحيز الخوارزمي غير المرغوب فيه وفهمه والتخفيف من حدته
- انحياز الآلة (مقالة دورية مطولة)
تعريفات مقاييس الانحياز للذكاء الاصطناعي
تأثير متباين
يُعرَّف التأثير المتباين على أنه "النسبة في احتمالية النتائج الإيجابية بين الفئات المحرومة والمتميزة." على سبيل المثال ، إذا كان من المرجح أن تحصل النساء على تصنيف ائتماني مثالي بنسبة 70٪ مثل الرجال ، فإن هذا يمثل تأثيرًا متباينًا. قد يكون التأثير المتباين موجودًا في كل من بيانات التدريب وفي تنبؤات النموذج: في هذه الحالات ، من المهم النظر بشكل أعمق في بيانات التدريب الأساسية وتحديد ما إذا كان التأثير المتباين مقبولًا أم يجب تخفيفه.
فرق تكافؤ الفرص
يتم تعريف فرق تكافؤ الفرص (في مقال AI Fairness 360 الموجود أعلاه) على أنه "الفرق في المعدلات الإيجابية الحقيقية [استدعاء] بين المجموعات المحرومة والمتميزة." المثال الشهير الذي نوقش في ورقة فرق تكافؤ الفرص المرتفع هو حالة كومباس. كما نوقش أعلاه ، تم تقييم الأمريكيين الأفارقة خطأً على أنهم معرضون لمخاطر عالية بمعدل أعلى من المجرمين القوقازيين. هذا التناقض يشكل فرق تكافؤ الفرص.
شكر خاص لجوناس شويت لتقديم بعض المؤشرات المفيدة حول قسم القانون العام لحماية البيانات (GDPR).