Alexandria Ocasio-Cortez กล่าวว่าอัลกอริทึมสามารถแบ่งแยกเชื้อชาติได้ นี่คือเหตุผลที่เธอถูก

Pin
Send
Share
Send

สัปดาห์ที่แล้วผู้แทนสหรัฐที่ได้รับการเลือกตั้งใหม่ซานเดรียโอคาซิโอ - คอร์เตซทำข่าวเมื่อเธอกล่าวว่าเป็นส่วนหนึ่งของเหตุการณ์ MLK ประจำปีที่สี่ซึ่งเทคโนโลยีและอัลกอริธึมการจดจำใบหน้า "มักมีความไม่เสมอภาคทางเชื้อชาติ โดยมนุษย์และอัลกอริธึมเหล่านั้นยังคงถูกตรึงอยู่กับสมมติฐานขั้นพื้นฐานของมนุษย์พวกมันเป็นไปโดยอัตโนมัติและตั้งสมมติฐานอัตโนมัติ - ถ้าคุณไม่แก้ไขอคติคุณก็แค่ทำให้อคตินั้นเป็นไปโดยอัตโนมัติ "

นั่นหมายความว่าอัลกอริทึมซึ่งมีพื้นฐานทางทฤษฎีตามความจริงตามวัตถุประสงค์ของคณิตศาสตร์อาจเป็น "ชนชั้น" ได้หรือไม่? และถ้าเป็นเช่นนั้นจะทำอะไรได้บ้างเพื่อลบอคตินั้น?

ปรากฎว่าผลลัพธ์จากอัลกอริธึมสามารถให้ผลลัพธ์ที่เอนเอียง นักวิทยาศาสตร์ด้านข้อมูลกล่าวว่าโปรแกรมคอมพิวเตอร์เครือข่ายประสาทอัลกอริทึมการเรียนรู้ด้วยเครื่องจักรและปัญญาประดิษฐ์ (AI) ทำงานเพราะพวกเขาเรียนรู้วิธีการทำงานจากข้อมูลที่ได้รับ ซอฟต์แวร์เขียนขึ้นโดยมนุษย์ผู้มีอคติและข้อมูลการฝึกอบรมก็ถูกสร้างขึ้นโดยมนุษย์ที่มีอคติด้วยเช่นกัน

การเรียนรู้ของเครื่องสองขั้นตอนแสดงให้เห็นว่าอคตินี้สามารถคืบเข้าสู่กระบวนการอัตโนมัติที่ดูเหมือนว่าอย่างไร ในขั้นตอนแรกขั้นตอนการฝึกอบรมอัลกอริทึมเรียนรู้ตามชุดข้อมูลหรือตามกฎหรือข้อ จำกัด บางอย่าง ขั้นตอนที่สองเป็นขั้นตอนการอนุมานซึ่งอัลกอริทึมใช้สิ่งที่เรียนรู้ในทางปฏิบัติ ขั้นตอนที่สองนี้แสดงอคติของอัลกอริทึม ตัวอย่างเช่นหากอัลกอริทึมได้รับการฝึกฝนกับภาพของผู้หญิงเท่านั้นที่มีผมยาวก็จะคิดว่าทุกคนที่มีผมสั้นเป็นผู้ชาย

Google เสียชื่อในปี 2558 เมื่อ Google Photos ระบุว่าคนดำเป็นกอริลล่าน่าจะเป็นเพราะคนเหล่านี้เป็นสิ่งมีชีวิตผิวดำคนเดียวในชุดฝึกอบรม

และความลำเอียงสามารถคืบคลานเข้าไปในถนนได้หลายทาง “ ข้อผิดพลาดทั่วไปคือการฝึกอบรมอัลกอริทึมในการทำนายตามการตัดสินใจที่ผ่านมาจากมนุษย์ลำเอียง” โซฟีเซียร์ซีนักวิทยาศาสตร์อาวุโสด้านข้อมูลจากการฝึกอบรมด้านวิทยาศาสตร์ข้อมูลจาก Metis บอกกับ Live Science "ถ้าฉันทำอัลกอริทึมเพื่อทำการตัดสินใจก่อนหน้านี้โดยกลุ่มเจ้าหน้าที่สินเชื่อฉันอาจใช้เส้นทางที่ง่ายและฝึกอัลกอริทึมในการตัดสินใจที่ผ่านมาจากเจ้าหน้าที่สินเชื่อเหล่านั้น แต่แน่นอนถ้าเจ้าหน้าที่สินเชื่อเหล่านั้นมีอคติแล้ว อัลกอริทึมที่ฉันสร้างจะยังคงมีอคติต่อไป "

เซียร์ซีอ้างถึงตัวอย่างของ COMPAS ซึ่งเป็นเครื่องมือการคาดการณ์ที่ใช้ในระบบยุติธรรมทางอาญาของสหรัฐอเมริกาในการพิจารณาคดีซึ่งพยายามทำนายว่าอาชญากรรมจะเกิดขึ้นที่ใด ProPublica ดำเนินการวิเคราะห์เกี่ยวกับ COMPAS และพบว่าหลังจากควบคุมคำอธิบายทางสถิติอื่น ๆ แล้วเครื่องมือประเมินความเสี่ยงของการกระทำผิดซ้ำสำหรับจำเลยดำและประเมินความเสี่ยงของจำเลยขาวต่ำเกินไป

เพื่อช่วยต่อสู้กับอคติอัลกอริทึม Searcy กล่าวกับ Live Science วิศวกรและนักวิทยาศาสตร์ด้านข้อมูลควรสร้างชุดข้อมูลที่มีความหลากหลายมากขึ้นสำหรับปัญหาใหม่รวมทั้งพยายามทำความเข้าใจและลดอคติที่สร้างขึ้นในชุดข้อมูลที่มีอยู่

Ira Cohen นักวิทยาศาสตร์ด้านข้อมูลที่ บริษัท Anodot แห่งการวิเคราะห์เชิงพยากรณ์กล่าวว่าวิศวกรควรจะมีชุดฝึกอบรมที่มีรูปแบบประชากรค่อนข้างหลากหลายหากพวกเขาฝึกอบรมอัลกอริทึมในการระบุลักษณะทางชาติพันธุ์หรือเพศ “ มันเป็นสิ่งสำคัญที่จะแสดงตัวอย่างที่เพียงพอจากกลุ่มประชากรแต่ละกลุ่มถึงแม้ว่าพวกเขาจะเป็นกลุ่มน้อยในประชากรโดยรวมที่กำลังตรวจสอบอยู่” โคเฮนบอกกับ Live Science ในที่สุดโคเฮนแนะนำให้ตรวจสอบอคติในชุดทดสอบที่มีผู้คนจากทุกกลุ่มเหล่านี้ “ หากสำหรับบางเชื้อชาติความแม่นยำต่ำกว่าหมวดอื่นอย่างมีนัยสำคัญทางสถิติอัลกอริทึมอาจมีอคติและฉันจะประเมินข้อมูลการฝึกอบรมที่ใช้สำหรับมัน” โคเฮนบอก LiveScience ตัวอย่างเช่นหากอัลกอริทึมสามารถระบุใบหน้าขาวได้ถึง 900 จาก 1,000 ใบหน้าอย่างถูกต้อง แต่ตรวจพบใบหน้าเอเชียเพียง 600 จาก 1,000 ใบหน้าอย่างถูกต้องอัลกอริธึมอาจมีอคติ "ต่อ" เอเชียนโคเฮนเสริม

การลบอคตินั้นเป็นเรื่องที่ท้าทายอย่างมากสำหรับ AI

แม้แต่ Google ซึ่งเป็นผู้เบิกทางใน AI เชิงพาณิชย์ก็ดูเหมือนจะไม่สามารถหาวิธีแก้ปัญหากอริลลาแบบครบวงจรจากปี 2015 แบบมีสายพบว่าแทนที่จะหาวิธีสำหรับอัลกอริทึมในการแยกแยะความแตกต่างระหว่างคนที่มีสีและกอริลล่า อัลกอริธึมการรู้จำภาพของมันไม่สามารถระบุกอริลล่าได้เลย

ตัวอย่างของ Google เป็นเครื่องเตือนใจที่ดีว่าการฝึกอบรมซอฟต์แวร์ AI นั้นเป็นเรื่องยากโดยเฉพาะอย่างยิ่งเมื่อซอฟต์แวร์ไม่ได้รับการทดสอบหรือฝึกอบรมโดยตัวแทนและกลุ่มคนที่หลากหลาย

Pin
Send
Share
Send