เครื่องจักรและความน่าเชื่อถือ: วิธีลดอคติของ AI

เผยแพร่แล้ว: 2022-03-11

ในปี 2559 ฟอรัมเศรษฐกิจโลกอ้างว่าเรากำลังประสบกับคลื่นลูกที่สี่ของการปฏิวัติอุตสาหกรรม: ระบบอัตโนมัติโดยใช้ระบบกายภาพไซเบอร์ องค์ประกอบหลักของคลื่นนี้ ได้แก่ ความฉลาดของเครื่องจักร การกำกับดูแลแบบกระจายอำนาจบนบล็อคเชน และการแก้ไขจีโนม เช่นเดียวกับกรณีที่เกิดขึ้นกับคลื่นครั้งก่อน เทคโนโลยีเหล่านี้ลดความต้องการแรงงานมนุษย์ แต่ก่อให้เกิดความท้าทายด้านจริยธรรมใหม่ๆ โดยเฉพาะอย่างยิ่งสำหรับบริษัทพัฒนาปัญญาประดิษฐ์และลูกค้าของบริษัท

บทความนี้มีจุดประสงค์เพื่อทบทวนแนวคิดล่าสุดเกี่ยวกับการตรวจจับและบรรเทาอคติที่ไม่ต้องการในแบบจำลองการเรียนรู้ของเครื่อง เราจะหารือเกี่ยวกับแนวทางปฏิบัติที่สร้างขึ้นเมื่อเร็ว ๆ นี้เกี่ยวกับ AI ที่น่าเชื่อถือ ทบทวนตัวอย่างความเอนเอียงของ AI ที่เกิดขึ้นจากการเลือกแบบจำลองและอคติทางสังคมที่แฝงอยู่ แนะนำแนวทางปฏิบัติทางธุรกิจและทางเทคนิคเพื่อตรวจจับและบรรเทา AI ที่มีอคติ และหารือเกี่ยวกับภาระหน้าที่ทางกฎหมายตามที่มีอยู่ในปัจจุบันภายใต้ GDPR และที่ พวกเขาอาจจะพัฒนาในอนาคต

มนุษย์: แหล่งที่มาของอคติขั้นสูงสุดในการเรียนรู้ของเครื่อง

แบบจำลองทั้งหมดถูกสร้างขึ้นโดยมนุษย์และสะท้อนถึงอคติของมนุษย์ โมเดลแมชชีนเลิร์นนิงสามารถสะท้อนอคติของทีมองค์กร นักออกแบบในทีมเหล่านั้น นักวิทยาศาสตร์ข้อมูลที่ใช้แบบจำลอง และวิศวกรข้อมูลที่รวบรวมข้อมูล โดยธรรมชาติแล้ว พวกมันยังสะท้อนอคติที่มีอยู่ในตัวข้อมูลด้วย เช่นเดียวกับที่เราคาดหวังระดับความน่าเชื่อถือจากผู้มีอำนาจตัดสินใจที่เป็นมนุษย์ เราควรคาดหวังและส่งมอบระดับความน่าเชื่อถือจากแบบจำลองของเรา

โมเดลที่น่าเชื่อถือยังคงมีอคติอยู่มากมาย เนื่องจากอคติ (ในความหมายที่กว้างที่สุด) คือกระดูกสันหลังของการเรียนรู้ของเครื่อง แบบจำลองการทำนายมะเร็งเต้านมจะทำนายได้อย่างถูกต้องว่าผู้ป่วยที่มีประวัติมะเร็งเต้านมมีอคติต่อผลลัพธ์ที่เป็นบวก ขึ้นอยู่กับการออกแบบ อาจเรียนรู้ว่าผู้หญิงมีอคติต่อผลลัพธ์ในเชิงบวก โมเดลสุดท้ายอาจมีระดับความแม่นยำต่างกันสำหรับผู้หญิงและผู้ชาย และลำเอียงในลักษณะนั้น คำถามสำคัญที่ต้องถามไม่ใช่ โมเดลของฉันลำเอียงหรือไม่ เพราะคำตอบจะเป็น ใช่ เสมอ

ค้นหาคำถามที่ดีกว่า กลุ่มผู้เชี่ยวชาญระดับสูงของสหภาพยุโรปด้านปัญญาประดิษฐ์ได้จัดทำแนวทางปฏิบัติที่ใช้กับการสร้างแบบจำลอง โดยทั่วไป โมเดลการเรียนรู้ของเครื่องควรมีลักษณะดังนี้:

  1. ถูกต้องตามกฎหมาย—เคารพกฎหมายและข้อบังคับที่เกี่ยวข้องทั้งหมด
  2. จริยธรรม—เคารพหลักการและค่านิยมทางจริยธรรม
  3. แข็งแกร่ง—ทั้งจากมุมมองทางเทคนิคโดยคำนึงถึงสภาพแวดล้อมทางสังคมด้วย

ข้อกำหนดสั้นๆ เหล่านี้และรูปแบบที่ยาวกว่านั้น รวมถึงและก้าวข้ามปัญหาอคติ โดยทำหน้าที่เป็นรายการตรวจสอบสำหรับวิศวกรและทีมงาน เราสามารถพัฒนาระบบ AI ที่น่าเชื่อถือมากขึ้นโดยตรวจสอบอคติเหล่านั้นภายในแบบจำลองของเราที่อาจผิดกฎหมาย ผิดจรรยาบรรณ หรือไม่แข็งแกร่ง ในบริบทของคำชี้แจงปัญหาและขอบเขต

กรณีศึกษาทางประวัติศาสตร์ของ AI Bias

ด้านล่างนี้คือแบบจำลองทางประวัติศาสตร์สามแบบที่มีความน่าเชื่อถือที่น่าสงสัย อันเนื่องมาจากความลำเอียงของ AI ที่ผิดกฎหมาย ผิดจรรยาบรรณ หรือไม่แข็งแกร่ง กรณีแรกและมีชื่อเสียงที่สุดคือ โมเดล COMPAS แสดงให้เห็นว่าแม้แต่โมเดลที่ง่ายที่สุดก็สามารถเลือกปฏิบัติที่ผิดจรรยาบรรณตามเชื้อชาติได้อย่างไร กรณีที่สองแสดงให้เห็นข้อบกพร่องในรูปแบบการประมวลผลภาษาธรรมชาติ (NLP) ส่วนใหญ่: พวกเขาไม่แข็งแกร่งต่ออคติทางเชื้อชาติ เพศ และอคติอื่นๆ กรณีสุดท้ายคือ Allegheny Family Screening Tool แสดงตัวอย่างของแบบจำลองที่มีข้อบกพร่องโดยพื้นฐานจากข้อมูลที่มีอคติ และแนวทางปฏิบัติที่ดีที่สุดในการบรรเทาข้อบกพร่องเหล่านั้น

COMPAS

ตัวอย่างที่เป็นที่ยอมรับของ AI ที่มีอคติและไม่น่าไว้วางใจคือระบบ COMPAS ที่ใช้ในฟลอริดาและรัฐอื่นๆ ในสหรัฐอเมริกา ระบบ COMPAS ใช้แบบจำลองการถดถอยเพื่อคาดการณ์ว่าผู้กระทำความผิดมีแนวโน้มที่จะได้รับโทษอีกหรือไม่ แม้ว่าจะปรับให้เหมาะสมเพื่อความแม่นยำโดยรวม แต่แบบจำลองคาดการณ์จำนวนผลบวกปลอมสำหรับการกระทำผิดซ้ำสำหรับกลุ่มชาติพันธุ์แอฟริกันอเมริกันเป็นสองเท่ามากกว่าสำหรับกลุ่มชาติพันธุ์คอเคเซียน

ตัวอย่าง COMPAS แสดงให้เห็นว่าอคติที่ไม่ต้องการสามารถเล็ดลอดเข้ามาในแบบจำลองของเราได้อย่างไร ไม่ว่าวิธีการของเราจะสะดวกเพียงใด จากมุมมองทางเทคนิค แนวทางที่ใช้กับข้อมูล COMPAS นั้นธรรมดามาก แม้ว่าข้อมูลการสำรวจที่อยู่ภายใต้จะมีคำถามที่มีความเกี่ยวข้องที่น่าสงสัย โมเดลที่มีการควบคุมดูแลขนาดเล็กได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลที่มีคุณสมบัติจำนวนน้อย (ในทางปฏิบัติของฉัน ฉันได้ปฏิบัติตามขั้นตอนทางเทคนิคที่คล้ายคลึงกันหลายสิบครั้ง เช่นเดียวกับกรณีของนักวิทยาศาสตร์ข้อมูลหรือวิศวกร ML) กระนั้น ตัวเลือกการออกแบบทั่วไปได้สร้างแบบจำลองที่มีอคติที่ไม่พึงปรารถนาและแบ่งแยกทางเชื้อชาติ

ปัญหาที่ใหญ่ที่สุดในกรณีของ COMPAS ไม่ได้อยู่ที่การเลือกรุ่นที่เรียบง่าย หรือแม้แต่ข้อมูลก็มีข้อบกพร่อง แต่ทีม COMPAS ล้มเหลวในการพิจารณาว่าโดเมน (การพิจารณาคดี) คำถาม (การตรวจจับการกระทำผิดซ้ำ) และคำตอบ (คะแนนการกระทำผิดซ้ำ) เป็นที่รู้กันว่าเกี่ยวข้องกับความไม่เสมอภาคทางเชื้อชาติ เพศ และแกนอื่นๆ แม้ว่าจะไม่เกี่ยวข้องกับอัลกอริทึมก็ตาม หากทีมมองหาอคติ พวกเขาจะพบมัน ด้วยความตระหนักรู้ดังกล่าว ทีมงาน COMPAS อาจสามารถทดสอบแนวทางต่างๆ และสร้างแบบจำลองขึ้นใหม่ในขณะที่ปรับความเอนเอียง สิ่งนี้จะได้ผลเพื่อลดการกักขังที่ไม่เป็นธรรมของชาวแอฟริกันอเมริกัน แทนที่จะทำให้รุนแรงขึ้น

โมเดล NLP ใด ๆ ที่ได้รับการฝึกฝนล่วงหน้าอย่างไร้เดียงสาในการรวบรวมข้อมูลทั่วไป Google News หรือคลังข้อมูลอื่น ๆ ตั้งแต่ Word2Vec

โมเดลขนาดใหญ่ที่ได้รับการฝึกฝนมาล่วงหน้าเป็นพื้นฐานสำหรับงาน NLP ส่วนใหญ่ เว้นแต่โมเดลพื้นฐานเหล่านี้ได้รับการออกแบบมาเป็นพิเศษเพื่อหลีกเลี่ยงอคติในแกนใดแกนหนึ่ง แน่นอนว่าโมเดลเหล่านี้จะต้องตื้นตันไปด้วยอคติโดยธรรมชาติของร่างกายที่พวกเขาฝึกด้วย ด้วยเหตุผลเดียวกันกับที่โมเดลเหล่านี้ใช้งานได้ทั้งหมด ผลลัพธ์ของอคตินี้ ตามแนวเชื้อชาติและเพศ ได้แสดงบนโมเดล Word2Vec และ GloVe ที่ได้รับการฝึกอบรมเกี่ยวกับ Common Crawl และ Google News ตามลำดับ ในขณะที่แบบจำลองเชิงบริบท เช่น BERT เป็นแบบจำลองที่ทันสมัยที่สุดในปัจจุบัน (แทนที่จะเป็น Word2Vec และ GloVe) ไม่มีหลักฐานว่าแบบจำลองทางร่างกายเหล่านี้ได้รับการฝึกฝนให้มีการเลือกปฏิบัติน้อยกว่า

แม้ว่าสถาปัตยกรรมแบบจำลองที่ดีที่สุดสำหรับปัญหา NLP ใดๆ จะเต็มไปด้วยความรู้สึกที่เลือกปฏิบัติ แต่วิธีแก้ปัญหาไม่ใช่การละทิ้งแบบจำลองที่ได้รับการฝึกมาล่วงหน้า แต่ให้พิจารณาโดเมนเฉพาะที่เป็นปัญหา คำชี้แจงปัญหา และข้อมูลทั้งหมดกับทีม หากแอปพลิเคชันเป็นที่ทราบกันว่าอคติการเลือกปฏิบัติของมนุษย์มีส่วนสำคัญ นักพัฒนาควรตระหนักว่าแบบจำลองมีแนวโน้มที่จะขยายเวลาการเลือกปฏิบัตินั้น

เครื่องมือคัดกรอง Allegheny Family: อคติอย่างไม่เป็นธรรม แต่ได้รับการออกแบบและบรรเทาผลกระทบอย่างดี

ในตัวอย่างสุดท้ายนี้ เราจะหารือเกี่ยวกับแบบจำลองที่สร้างขึ้นจากข้อมูลการเลือกปฏิบัติอย่างไม่เป็นธรรม แต่ความลำเอียงที่ไม่ต้องการจะได้รับการบรรเทาลงได้หลายวิธี เครื่องมือคัดกรอง Allegheny Family เป็นรูปแบบที่ออกแบบมาเพื่อช่วยเหลือมนุษย์ในการตัดสินใจว่าควรนำเด็กออกจากครอบครัวหรือไม่เนื่องจากสถานการณ์ที่ไม่เหมาะสม เครื่องมือนี้ได้รับการออกแบบอย่างเปิดเผยและโปร่งใสพร้อมฟอรัมสาธารณะและโอกาสในการค้นหาข้อบกพร่องและความไม่เท่าเทียมกันในซอฟต์แวร์

อคติที่ไม่ต้องการในรูปแบบนี้เกิดจากชุดข้อมูลสาธารณะที่สะท้อนถึงอคติทางสังคมในวงกว้าง ครอบครัวชนชั้นกลางและชนชั้นสูงมีความสามารถสูงขึ้นในการ "ซ่อน" การล่วงละเมิดโดยใช้ผู้ให้บริการด้านสุขภาพของเอกชน การอ้างอิงไปยัง Allegheny County เกิดขึ้นบ่อยครั้งสำหรับครอบครัวแอฟริกัน-อเมริกันและ biracial มากกว่าครอบครัวผิวขาว นักวิจารณ์เช่น Virginia Eubanks และ Ellen Broad อ้างว่าปัญหาด้านข้อมูลเหล่านี้สามารถแก้ไขได้ก็ต่อเมื่อสังคมได้รับการแก้ไข ซึ่งเป็นงานที่นอกเหนือไปจากวิศวกรคนเดียว

ในการผลิต เคาน์ตีต่อสู้กับความไม่เท่าเทียมในรูปแบบของตนโดยใช้เป็นเพียงเครื่องมือให้คำปรึกษาสำหรับพนักงานแนวหน้า และออกแบบโปรแกรมการฝึกอบรมเพื่อให้พนักงานแนวหน้าตระหนักถึงความล้มเหลวของรูปแบบการให้คำปรึกษาเมื่อพวกเขาทำการตัดสินใจ ด้วยการพัฒนาใหม่ในอัลกอริธึม debiasing Allegheny County มีโอกาสใหม่ในการบรรเทาอคติที่แฝงอยู่ในโมเดล

การพัฒนาเครื่องมือ Allegheny มีหลายอย่างที่ต้องสอนวิศวกรเกี่ยวกับขีดจำกัดของอัลกอริธึมเพื่อเอาชนะการเลือกปฏิบัติที่แฝงอยู่ในข้อมูลและการเลือกปฏิบัติทางสังคมที่รองรับข้อมูลนั้น นำเสนอตัวอย่างการสร้างแบบจำลองการให้คำปรึกษาแก่วิศวกรและนักออกแบบ ซึ่งสามารถบรรเทาผลกระทบในโลกแห่งความเป็นจริงของอคติการเลือกปฏิบัติที่อาจเกิดขึ้นในแบบจำลอง

การหลีกเลี่ยงและบรรเทาอคติของ AI: การรับรู้ทางธุรกิจที่สำคัญ

โชคดีที่มีวิธีการและวิธีการที่บิดเบือน ซึ่งหลายๆ วิธีนั้นใช้ชุดข้อมูล COMPAS เป็นเกณฑ์มาตรฐาน

ปรับปรุงความหลากหลาย บรรเทาการขาดดุลความหลากหลาย

การดูแลทีมที่หลากหลาย ทั้งในแง่ของข้อมูลประชากรและในแง่ของชุดทักษะ เป็นสิ่งสำคัญสำหรับการหลีกเลี่ยงและบรรเทาอคติของ AI ที่ไม่ต้องการ แม้ว่าผู้บริหารด้านเทคโนโลยีจะจ่ายค่าบริการริมฝีปากอย่างต่อเนื่องเพื่อความหลากหลาย แต่ผู้หญิงและคนที่มีผิวสียังคงมีบทบาทน้อย

โมเดล ML ต่างๆ มีประสิทธิภาพที่แย่กว่าในกลุ่มชนกลุ่มน้อยทางสถิติในอุตสาหกรรม AI และคนที่สังเกตเห็นปัญหาเหล่านี้ในตอนแรกคือผู้ใช้ที่เป็นผู้หญิงและ/หรือคนที่มีผิวสี ด้วยความหลากหลายที่มากขึ้นในทีม AI ปัญหาเกี่ยวกับอคติที่ไม่ต้องการสามารถสังเกตได้และบรรเทาลงก่อนปล่อยสู่การผลิต

ระวังผู้รับมอบฉันทะ: การลบป้ายชื่อคลาสที่ได้รับการป้องกันออกจากแบบจำลองอาจไม่ทำงาน!

วิธีการทั่วไปที่ไร้เดียงสาในการขจัดอคติที่เกี่ยวข้องกับคลาสที่ได้รับการคุ้มครอง (เช่น เพศหรือเชื้อชาติ) ออกจากข้อมูลคือการลบป้ายกำกับที่ทำเครื่องหมายเชื้อชาติหรือเพศออกจากแบบจำลอง ในหลายกรณี วิธีนี้ใช้ไม่ได้ผล เนื่องจากโมเดลสามารถสร้างความเข้าใจของคลาสที่ได้รับการป้องกันเหล่านี้จากป้ายกำกับอื่นๆ เช่น รหัสไปรษณีย์ แนวทางปฏิบัติตามปกติเกี่ยวข้องกับการนำฉลากเหล่านี้ออกด้วย เพื่อปรับปรุงผลลัพธ์ของแบบจำลองในการผลิต แต่ยังเนื่องมาจากข้อกำหนดทางกฎหมายด้วย การพัฒนาอัลกอริธึม debiasing เมื่อเร็ว ๆ นี้ ซึ่งเราจะพูดถึงด้านล่าง แสดงให้เห็นถึงวิธีการลดอคติของ AI โดยไม่ต้องลบป้ายกำกับ

ระวังข้อจำกัดทางเทคนิค

แม้แต่แนวทางปฏิบัติที่ดีที่สุดในการออกแบบผลิตภัณฑ์และการสร้างแบบจำลองก็ไม่เพียงพอต่อการขจัดความเสี่ยงของการมีอคติที่ไม่ต้องการ โดยเฉพาะอย่างยิ่งในกรณีของข้อมูลที่มีอคติ สิ่งสำคัญคือต้องตระหนักถึงข้อจำกัดของข้อมูล แบบจำลอง และโซลูชันทางเทคนิคของเราต่ออคติ ทั้งเพื่อประโยชน์ในการตระหนักรู้ และเพื่อให้สามารถพิจารณาวิธีการของมนุษย์ในการจำกัดอคติในการเรียนรู้ด้วยเครื่อง เช่น มนุษย์ในวง

การหลีกเลี่ยงและบรรเทาอคติของ AI: เครื่องมือทางเทคนิคที่สำคัญสำหรับการตระหนักรู้และการพิจารณาอย่างรอบคอบ

นักวิทยาศาสตร์ด้านข้อมูลมีการรับรู้ทางเทคนิคและเครื่องมือ debiasing เพิ่มขึ้นเรื่อยๆ ซึ่งช่วยเสริมความสามารถของทีมในการหลีกเลี่ยงและลดอคติของ AI ปัจจุบัน เครื่องมือการรับรู้มีความซับซ้อนมากขึ้นและครอบคลุมตัวเลือกแบบจำลองและการวัดความเอนเอียงที่หลากหลาย ในขณะที่เครื่องมือ debiasing นั้นเพิ่งเริ่มต้นและสามารถลดอคติในแบบจำลองได้เฉพาะในบางกรณีเท่านั้น

การรับรู้และเครื่องมือ Debiasing สำหรับอัลกอริธึมการเรียนรู้ภายใต้การดูแล

IBM ได้เปิดตัวชุดเครื่องมือการรับรู้และ debiasing สำหรับตัวแยกประเภทไบนารีภายใต้โครงการ AI Fairness ในการตรวจจับอคติของ AI และบรรเทาปัญหานั้น วิธีการทั้งหมดต้องมีป้ายกำกับระดับ (เช่น เชื้อชาติ รสนิยมทางเพศ) เทียบกับป้ายกำกับคลาสนี้ ช่วงของเมตริกสามารถเรียกใช้ได้ (เช่น ผลกระทบที่แตกต่างกันและความแตกต่างของโอกาสที่เท่าเทียมกัน) ที่กำหนดปริมาณอคติของโมเดลที่มีต่อสมาชิกในชั้นเรียนโดยเฉพาะ เราได้รวมคำอธิบายของตัวชี้วัดเหล่านี้ไว้ที่ด้านล่างของบทความ

เมื่อตรวจพบอคติแล้ว ไลบรารี AI Fairness 360 (AIF360) มี 10 วิธีในการลดความเอนเอียง (และการนับ) ที่สามารถนำไปใช้กับโมเดลต่างๆ ตั้งแต่ตัวแยกประเภทอย่างง่ายไปจนถึงโครงข่ายประสาทเทียมระดับลึก บางส่วนเป็นอัลกอริธึมการประมวลผลล่วงหน้าซึ่งมุ่งสร้างสมดุลของข้อมูล ส่วนอื่นๆ เป็นอัลกอริธึมในการประมวลผลซึ่งจะลงโทษอคติที่ไม่ต้องการขณะสร้างแบบจำลอง ทว่าคนอื่น ๆ ยังใช้ขั้นตอนหลังการประมวลผลเพื่อสร้างสมดุลระหว่างผลลัพธ์ที่น่าพึงพอใจหลังจากการคาดคะเน ทางเลือกที่ดีที่สุดจะขึ้นอยู่กับปัญหาของคุณ

AIF360 มีข้อจำกัดในทางปฏิบัติที่สำคัญว่าอัลกอริธึมการตรวจจับอคติและการบรรเทาผลกระทบได้รับการออกแบบมาสำหรับปัญหาการจำแนกประเภทไบนารี และจำเป็นต้องขยายไปสู่ปัญหาหลายคลาสและการถดถอย ไลบรารีอื่นๆ เช่น Aequitas และ LIME มีตัววัดที่ดีสำหรับโมเดลที่ซับซ้อนกว่าบางตัว แต่จะตรวจพบเฉพาะอคติเท่านั้น พวกเขาไม่สามารถแก้ไขได้ แต่แม้เพียงความรู้ที่ว่าแบบจำลองมีความเอนเอียงก่อนจะเข้าสู่กระบวนการผลิตก็ยังมีประโยชน์มาก เนื่องจากควรนำไปสู่การทดสอบแนวทางอื่นก่อนที่จะเผยแพร่

เครื่องมือให้ความรู้ทั่วไป: LIME

ชุดเครื่องมือ Local Interpretable Model-agnostic Explanations (LIME) สามารถใช้เพื่อวัดความสำคัญของคุณลักษณะและอธิบายพฤติกรรมในเครื่องของแบบจำลองส่วนใหญ่ได้ รวมถึงแอปพลิเคชันการจำแนกประเภทหลายคลาส การถดถอย และการเรียนรู้เชิงลึก แนวคิดทั่วไปคือการปรับโมเดลเชิงเส้นหรือแบบต้นไม้ที่สามารถตีความได้สูงให้เข้ากับการคาดคะเนของโมเดลที่กำลังทดสอบอคติ

ตัวอย่างเช่น CNN เชิงลึกสำหรับการจดจำภาพนั้นทรงพลังมากแต่ไม่สามารถตีความได้มากนัก โดยการฝึกโมเดลเชิงเส้นเพื่อจำลองพฤติกรรมของเครือข่าย เราจะได้รับข้อมูลเชิงลึกเกี่ยวกับวิธีการทำงานของเครือข่าย ผู้มีอำนาจตัดสินใจที่เป็นมนุษย์สามารถตรวจสอบเหตุผลเบื้องหลังการตัดสินใจของแบบจำลองได้ในบางกรณีผ่าน LIME และตัดสินใจขั้นสุดท้ายนอกเหนือจากนั้น กระบวนการนี้ในบริบททางการแพทย์แสดงให้เห็นด้วยภาพด้านล่าง

อธิบายการทำนายส่วนบุคคลแก่ผู้มีอำนาจตัดสินใจที่เป็นมนุษย์ แบบจำลองคาดการณ์ว่าผู้ป่วยเป็นไข้หวัดใหญ่โดยพิจารณาจากอาการหรือขาดอาการดังกล่าว LIME ผู้อธิบายจะเปิดเผยให้แพทย์ทราบถึงน้ำหนักที่อยู่เบื้องหลังอาการแต่ละอาการและความเหมาะสมกับข้อมูลอย่างไร แพทย์ยังคงทำการตัดสินใจขั้นสุดท้าย แต่ควรทราบเหตุผลของนางแบบดีกว่า อิงจากภาพที่สร้างขึ้นโดย Marco Tulio Ribeiro

Debiasing NLP Models

ก่อนหน้านี้ เราได้พูดถึงอคติที่แฝงอยู่ในร่างกายส่วนใหญ่ที่ใช้สำหรับการฝึกโมเดล NLP หากมีแนวโน้มว่าจะมีอคติที่ไม่ต้องการสำหรับปัญหาหนึ่งๆ ฉันขอแนะนำการฝังคำแบบ debiased ที่พร้อมใช้งาน เมื่อพิจารณาจากความสนใจของชุมชนวิชาการแล้ว มีแนวโน้มว่าโมเดล NLP ที่ใหม่กว่าอย่าง BERT จะมีการฝังคำแบบ debiased ในไม่ช้า

Debiasing Convolutional Neural Networks (CNNs)

แม้ว่า LIME จะสามารถอธิบายความสำคัญของคุณลักษณะแต่ละอย่างและให้คำอธิบายเกี่ยวกับพฤติกรรมในท้องถิ่นเกี่ยวกับอินพุตรูปภาพโดยเฉพาะ LIME ไม่ได้อธิบายพฤติกรรมโดยรวมของ CNN หรืออนุญาตให้นักวิทยาศาสตร์ด้านข้อมูลค้นหาอคติที่ไม่ต้องการ

ในกรณีที่มีชื่อเสียงซึ่งพบอคติที่ไม่ต้องการของ CNN ประชาชน (เช่น Joy Buolamwini) สังเกตเห็นอคติที่เกิดขึ้นจากการเป็นสมาชิกของกลุ่มผู้ด้อยโอกาส ดังนั้นแนวทางที่ดีที่สุดในการลดผลกระทบจึงรวมเอาวิธีการทางเทคนิคและทางธุรกิจเข้าด้วยกัน: ทดสอบบ่อยๆ และสร้างทีมที่หลากหลายที่สามารถค้นหาอคติของ AI ที่ไม่ต้องการได้ผ่านการทดสอบก่อนการผลิต

ภาระผูกพันทางกฎหมายและทิศทางในอนาคตเกี่ยวกับจริยธรรม AI

ในส่วนนี้ เราเน้นที่กฎระเบียบให้ความคุ้มครองข้อมูลส่วนบุคคลของผู้บริโภค (GDPR) ของสหภาพยุโรป GDPR เป็นมาตรฐานสากลในกฎหมายคุ้มครองข้อมูล (แต่ไม่ใช่กฎหมายเพียงฉบับเดียว—ยังมีข้อกำหนดด้านความปลอดภัยของข้อมูลส่วนบุคคลของจีนด้วย เป็นต้น) ขอบเขตและความหมายของ GDPR เป็นที่ถกเถียงกันอย่างมาก ดังนั้นเราจึงไม่ได้เสนอคำแนะนำทางกฎหมายในบทความนี้ไม่ว่าด้วยวิธีใดๆ อย่างไรก็ตาม การปฏิบัติตามกฎระเบียบเพื่อประโยชน์ขององค์กรทั่วโลก เนื่องจาก GDPR ไม่ได้บังคับใช้กับองค์กรในยุโรปเท่านั้น แต่ยังรวมถึงองค์กรใดๆ ที่จัดการข้อมูลที่เป็นของพลเมืองหรือผู้อยู่อาศัยในยุโรป

GDPR ถูกแยกออกเป็น บทความ ที่มีผลผูกพันและบทบรรยายที่ไม่มีผลผูกพัน แม้ว่าบทความจะกำหนดภาระบางอย่างให้กับวิศวกรและองค์กรที่ใช้ข้อมูลส่วนบุคคล แต่บทบัญญัติที่เข้มงวดที่สุดสำหรับการบรรเทาอคติอยู่ภายใต้ Recital 71 และไม่มีผลผูกพัน Recital 71 เป็นหนึ่งในกฎระเบียบในอนาคตที่น่าจะเป็นไปได้มากที่สุด เนื่องจากมีการไตร่ตรองโดยสมาชิกสภานิติบัญญัติแล้ว ข้อคิดเห็นสำรวจภาระผูกพันของ GDPR ในรายละเอียดเพิ่มเติม

เราจะขยายความข้อกำหนดหลักสองประการและความหมายสำหรับผู้สร้างแบบจำลอง

1. การป้องกันผลการเลือกปฏิบัติ

GDPR กำหนดข้อกำหนดเกี่ยวกับแนวทางทางเทคนิคในการสร้างแบบจำลองข้อมูลส่วนบุคคล นักวิทยาศาสตร์ด้านข้อมูลที่ทำงานกับข้อมูลส่วนบุคคลที่ละเอียดอ่อนจะต้องการอ่านข้อความในมาตรา 9 ซึ่งห้ามไม่ให้มีการใช้ข้อมูลส่วนบุคคลที่มีความละเอียดอ่อนโดยเฉพาะ (เช่น ตัวระบุเชื้อชาติ) ในหลายกรณี ข้อกำหนดทั่วไปเพิ่มเติมสามารถพบได้ใน Recital 71:

[. . .] ใช้ ขั้นตอนทางคณิตศาสตร์หรือสถิติที่เหมาะสม [. . .] ตรวจสอบให้แน่ใจว่าความ เสี่ยงของข้อผิดพลาดลดลง [. . .] และ ป้องกันผลกระทบจากการเลือกปฏิบัติ บนพื้นฐานของเชื้อชาติหรือชาติพันธุ์ ความคิดเห็นทางการเมือง ศาสนาหรือความเชื่อ การเป็นสมาชิกสหภาพแรงงาน สถานะทางพันธุกรรมหรือสุขภาพ หรือรสนิยมทางเพศ

GDPR (เน้นที่เหมือง)

บทบรรยายนี้ส่วนใหญ่ได้รับการยอมรับว่าเป็นพื้นฐานในการสร้างแบบจำลองที่ดี: การลดความเสี่ยงของข้อผิดพลาดเป็นหลักการแรก อย่างไรก็ตาม ภายใต้การบรรยายนี้ นักวิทยาศาสตร์ด้านข้อมูลไม่เพียงแต่ต้องสร้างแบบจำลองที่ถูกต้องเท่านั้น แต่ยังต้องไม่เลือกปฏิบัติด้วย! ตามที่อธิบายไว้ข้างต้น อาจไม่สามารถทำได้ในทุกกรณี กุญแจยังคงมีความละเอียดอ่อนต่อผลการเลือกปฏิบัติที่อาจเกิดขึ้นจากคำถามที่มีอยู่และขอบเขตของคำถาม โดยใช้ทรัพยากรทางธุรกิจและทางเทคนิคในการตรวจจับและลดอคติที่ไม่ต้องการในแบบจำลอง AI

2. สิทธิในการอธิบาย

สิทธิ์ใน “ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง” ในการตัดสินใจอัตโนมัติสามารถพบได้ในบทความ GDPR 13-15.. การบรรยาย 71 เรียกร้องอย่างชัดเจนสำหรับ “สิทธิ์ [. . .] เพื่อรับคำ อธิบาย ” (เน้นของฉัน) ของการตัดสินใจอัตโนมัติ (อย่างไรก็ตาม การอภิปรายยังคงดำเนินต่อไปตามขอบเขตของ สิทธิ์ที่มีผลผูกพันในการอธิบาย )

ดังที่เราได้กล่าวไปแล้ว เครื่องมือบางอย่างสำหรับการให้คำอธิบายสำหรับพฤติกรรมของแบบจำลองนั้นมีอยู่จริง แต่แบบจำลองที่ซับซ้อน (เช่น คอมพิวเตอร์วิทัศน์หรือ NLP) ไม่สามารถอธิบายได้อย่างง่ายดายโดยไม่สูญเสียความแม่นยำ การอภิปรายยังคงดำเนินต่อไปว่าคำอธิบายจะเป็นอย่างไร ตามแนวทางปฏิบัติที่ดีที่สุดขั้นต่ำ สำหรับแบบจำลองที่มีแนวโน้มว่าจะใช้งานในปี 2020 LIME หรือวิธีการตีความอื่นๆ ควรได้รับการพัฒนาและทดสอบสำหรับการผลิต

จริยธรรมและปัญญาประดิษฐ์: ความท้าทายที่คู่ควรและจำเป็น

ในโพสต์นี้ เราได้ตรวจสอบปัญหาของอคติที่ไม่ต้องการในแบบจำลองของเรา อภิปรายตัวอย่างทางประวัติศาสตร์บางส่วน ให้แนวทางบางประการสำหรับธุรกิจและเครื่องมือสำหรับนักเทคโนโลยี และหารือเกี่ยวกับกฎระเบียบที่สำคัญเกี่ยวกับอคติที่ไม่ต้องการ

เนื่องจากโมเดลการเรียนรู้ของแมชชีนเลิร์นนิงมีสติปัญญาเหนือกว่าสติปัญญาของมนุษย์ จึงเกินความเข้าใจของมนุษย์ด้วย แต่ตราบใดที่แบบจำลองได้รับการออกแบบโดยมนุษย์และได้รับการฝึกฝนเกี่ยวกับข้อมูลที่รวบรวมโดยมนุษย์ แบบจำลองเหล่านั้นก็จะสืบทอดอคติของมนุษย์

การจัดการอคติของมนุษย์เหล่านี้ต้องการความเอาใจใส่อย่างรอบคอบในข้อมูล การใช้ AI เพื่อช่วยตรวจจับและต่อสู้กับอคติที่ไม่ต้องการเมื่อจำเป็น สร้างทีมที่มีความหลากหลายเพียงพอ และมีความรู้สึกเห็นอกเห็นใจร่วมกันต่อผู้ใช้และเป้าหมายของพื้นที่ปัญหาที่กำหนด การทำให้มั่นใจว่า AI มีความยุติธรรมเป็นความท้าทายขั้นพื้นฐานของระบบอัตโนมัติ ในฐานะที่เป็นมนุษย์และวิศวกรที่อยู่เบื้องหลังการทำงานอัตโนมัตินั้น ภาระหน้าที่ตามหลักจริยธรรมและกฎหมายของเราคือการทำให้มั่นใจว่า AI ทำหน้าที่เป็นตัวขับเคลื่อนความเป็นธรรม

อ่านเพิ่มเติมเกี่ยวกับจริยธรรม AI และอคติในการเรียนรู้ของเครื่อง

หนังสือเกี่ยวกับ AI Bias

  • สร้างโดยมนุษย์: เงื่อนไข AI
  • ความไม่เท่าเทียมกันโดยอัตโนมัติ: โปรไฟล์เครื่องมือไฮเทค ตำรวจ และการลงโทษคนจน
  • Digital Dead End: การต่อสู้เพื่อความยุติธรรมทางสังคมในยุคสารสนเทศ

ทรัพยากรการเรียนรู้ของเครื่อง

  • การเรียนรู้ของเครื่องที่ตีความได้: คู่มือสำหรับการสร้างแบบจำลองกล่องดำที่อธิบายได้
  • การสาธิต AI Fairness 360 ของ IBM

AI องค์กรอคติ

  • อัลกอริธึม Justice League
  • สถาบัน AINow และรายงานระบบการเลือกปฏิบัติ - เพศ เชื้อชาติ และอำนาจใน AI

Debiasing เอกสารการประชุมและบทความในวารสาร

  • ผู้ชายเป็นโปรแกรมเมอร์คอมพิวเตอร์ในขณะที่ผู้หญิงเป็นแม่บ้าน? Debiasing Word Embeddings
  • AI Fairness 360: ชุดเครื่องมือที่ขยายได้สำหรับการตรวจจับ ทำความเข้าใจ และบรรเทาอคติเกี่ยวกับอัลกอริทึมที่ไม่ต้องการ
  • Machine Bias (บทความวารสารแบบยาว)

คำจำกัดความของ AI Bias Metrics

ผลกระทบที่แตกต่างกัน

ผลกระทบที่แตกต่างกันถูกกำหนดให้เป็น "อัตราส่วนในความน่าจะเป็นของผลลัพธ์ที่น่าพอใจระหว่างกลุ่มที่ไม่ได้รับสิทธิพิเศษและกลุ่มอภิสิทธิ์" ตัวอย่างเช่น หากผู้หญิง 70% มีแนวโน้มที่จะได้รับการจัดอันดับเครดิตที่สมบูรณ์แบบเหมือนผู้ชาย สิ่งนี้แสดงถึงผลกระทบที่แตกต่างกัน ผลกระทบที่แตกต่างกันอาจเกิดขึ้นทั้งในข้อมูลการฝึกอบรมและในการคาดการณ์ของแบบจำลอง: ในกรณีเหล่านี้ สิ่งสำคัญคือต้องมองลึกลงไปในข้อมูลการฝึกอบรมที่อยู่ภายใต้ และตัดสินใจว่าผลกระทบที่แตกต่างกันเป็นที่ยอมรับหรือควรได้รับการบรรเทา

ความแตกต่างของโอกาสที่เท่าเทียมกัน

ความแตกต่างของโอกาสที่เท่าเทียมกันถูกกำหนด (ในบทความ AI Fairness 360 ที่ด้านบน) เป็น "ความแตกต่างในอัตราเชิงบวกที่แท้จริง [เรียกคืน] ระหว่างกลุ่มที่ไม่ได้รับสิทธิพิเศษและกลุ่มที่มีสิทธิพิเศษ" ตัวอย่างที่มีชื่อเสียงที่กล่าวถึงในบทความเรื่องความแตกต่างของโอกาสที่เท่าเทียมกันสูงคือกรณีของ COMPAS ตามที่กล่าวไว้ข้างต้น ชาวแอฟริกัน-อเมริกันกำลังได้รับการประเมินอย่างผิดพลาดว่ามีความเสี่ยงสูงในอัตราที่สูงกว่าผู้กระทำความผิดคอเคเซียน ความคลาดเคลื่อนนี้ก่อให้เกิดความแตกต่างของโอกาสที่เท่าเทียมกัน


ขอขอบคุณเป็นพิเศษสำหรับ Jonas Schuett สำหรับการให้คำแนะนำที่เป็นประโยชน์เกี่ยวกับส่วน GDPR

ที่เกี่ยวข้อง: จัดตำแหน่งดวงดาว: การปรับปรุงระบบการจัดเรต IMDb