Digital Transformation ทุกวันนี้น่าจะกลายเป็น buzzword หรือคำที่ถูกใช้และได้รับความสนใจกันอย่างแพร่หลายในโลกองค์กร ที่นำเทคโนโลยีเข้ามาเปลี่ยนผ่านกระบวนการทำงานภายใน ให้รวดเร็วขึ้น, มีประสิทธิภาพมากขึ้นไปจนถึงประหยัดต้นทุนมากขึ้น ปัญญาประดิษฐ์ (Artificial Intelligence) ก็เป็นหนึ่งในเทคโนโลยีที่ถูกพูดถึงกันมากในกระบวนการ Digital Transformation ที่จะถูกนำมาใช้แทนคนในกระบวนการตัดสินใจ คัดกรองหรือเรียนรู้พฤติกรรมลูกค้า เพื่อนำเสนอผลิตภัณฑ์ให้ตรงใจลูกค้ามากที่สุด

อย่างไรก็ตาม เราอาจจะมีภาพปัญญาประดิษฐ์มีความถูกต้อง แม่นยำและเป็นกลาง เพราะเบื้องหลังคือคือการคำนวนทางคณิตศาสตร์ น่าจะมีความเป็นกลางและเที่ยงตรง ทว่าในความเป็นจริงแล้ว “ความไม่เป็นกลางของอัลกอริทึม หรือ “Algorithmic Bias” กำลังเป็นหนึ่งในประเด็นที่ได้รับความสนใจ ทั้งยังเป็นปัญหาที่นักวิจัยและบริษัทไอทีในต่างประเทศหลายบริษัทยังไม่สามารถหาทางแก้ที่เป็นรูปธรรมได้

Algorithm Bias หมายถึงว่าผลลัพธ์หรือผลการตัดสินใจของอัลกอริทึมออกมาไม่เป็นกลางอย่างที่ควรจะเป็น อย่างกรณีงานวิจัยจากมหาวิทยาลัย Carnegie Mellon ของสหรัฐที่พบว่า Google แสดงผลโฆษณาตำแหน่งงานที่เงินเดือนสูงให้กับผู้ชายมากกว่าผู้หญิง หรือที่ ProPublica สื่อของสหรัฐเขียนรายงานข่าวเจาะ ที่ว่าด้วยอัลกอริทึมของซอฟต์แวร์ที่ประเมินความเสี่ยงด้านอาชญากรรม มีความลำเอียงที่จะประเมินว่ากลุ่มคนผิวดำมีแนวโน้มก่ออาชญากรรมมากกว่ากลุ่มคนผิวสีอื่นๆ

หรือตัวอย่างการใช้อัลกอริทึมในกระบวนการคัดกรองผู้สมัครงาน ที่น่าจะใกล้ตัวเข้ามาหน่อย อย่างกรณีที่ Amazon ค้นพบว่าอัลกอริทึมที่ใช้กรองและคัดเลือก CV ของผู้สมัครมีความลำเอียงด้านเพศ และเลือกคัดกรองใบสมัครของผู้ชายมากกว่า

“อัลกอริทึมสามารถผลิตซ้ำการเลือกปฏิบัติจากมนุษย์”

ถึงแม้กระบวนการเรียนรู้ของอัลกอริทึมในการหาแพทเทิร์นหรือโมเดล เพื่อนำไปใช้ในกระบวนการตัดสินใจอาจจะมีรูปแบบที่ตายตัว แต่ในท้ายที่สุดแล้ว กระบวนการที่ได้มาซึ่งข้อมูลหรือคำตอบที่อัลกอริทึมนำเสนอออกมานั้นมักถูกเรียกว่าเป็นกล่องดำ หรือ Black Box เนื่องจากเราไม่มีทางรู้ได้ว่าผ่านกระบวนการอะไรมาบ้างหรือตัวอัลกอริทึมคัดเลือกคำตอบนี้มาได้ยังไง 

แน่นอนว่าความไม่เป็นกลางของอัลกอริทึมไม่ได้เกิดขึ้นมาโดดๆโดยไม่มีที่มาที่ไป สาเหตุของความไม่เป็นกลางนี้เกิดขึ้นได้หลายสาเหตุ ในที่นี้จะขอยกตัวอย่างที่ไม่ซับซ้อนและเข้าใจง่ายๆมา 3 ตัวอย่าง

ภาพจาก Pexels

ตัวอย่างแรกคือตัวข้อมูลที่ถูกนำมาสอนอัลกอริทึม ไม่เป็นกลางมาตั้งแต่แรกจากพฤติกรรมของมนุษย์เอง ซึ่งศาสตราจารย์ David Oppenheimer ที่สอนด้านกฎหมายอยู่ที่มหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์ชี้ว่า แม้อัลกอริทึมจะถูกออกแบบมาอย่างเป็นกลางมากแค่ไหน มันก็สามารถผลิตซ้ำการเลือกปฏิบัติของมนุษย์ได้อยู่ดี โดยเฉพาะในกรณีที่ผลลัพธ์ของอัลกอริทึมออกมาสอดคล้องกับความพึงพอใจ (preference) ของสังคม 

เคสที่ชัดเจนที่สุดว่าความไม่เป็นกลางของอัลกอริทึมเกิดจากการเลือกปฏิบัติของมนุษย์ ก็คือกรณีของ Amazon ข้างต้น เนื่องจากอัลกอริทึมของ Amazon เรียนรู้จากประวัติการรับคนเข้าทำงานตลอดระยะเวลา 10 ปีที่ผ่านมาของบริษัทที่รับผู้ชายมากกว่าผู้หญิง ซึ่งการเลือกปฏิบัติระหว่างเพศนี้เองก็เป็นปัญหาในกลุ่มบริษัทเทคโนโลยีระดับโลกมานาน 

อีกแง่หนึ่งของคือกระบวนการเก็บข้อมูลไม่ได้สะท้อนสภาวะความเป็นจริง เช่น หากอัลกอริทึมถูกสอนด้วยรูปภาพคนขาวอย่างเดียว อัลกอริทึมก็อาจไม่สามารถตรวจจับใบหน้า (facial recognition) ของคนดำได้

ส่วนอีกสาเหตุมาจากตัวนักวิจัยเองไม่ว่าจะตั้งใจหรือไม่ตั้งใจ ในกระบวนการออกแบบเงื่อนไขในการสอนอัลกอริทึมที่อาจส่งผลให้ผลออกมาไม่เป็นกลาง ยกตัวอย่างเดิมคือกรณีของ Amazon ที่นักวิจัยเลือกจะให้อัลกอริทึมเรียนรู้จากปัจจัยด้านเพศเข้าไปด้วย แทนที่จะเป็นคุณสมบัติ, ประวัติการทำงานและการศึกษาแต่เพียงอย่างเดียว

ภาพจาก Pixabay

การทำให้อัลกอริทึมเป็นกลางโดยสมบูรณ์อาจจะไม่มี เพราะตราบเท่าที่มนุษย์มีส่วนเกี่ยวข้องกับอัลกอริทึม ไม่ว่าจะเป็นแหล่งข้อมูลหรือในกระบวนการออกแบบ ความไม่เป็นกลางก็เป็นสิ่งที่ไม่อาจหลีกเลี่ยงได้

แต่ก็ไม่ได้หมายความว่าองค์กรที่นำอัลกอริทึมไปใช้งาน จะแก้ปัญหาหรือลดผลกระทบจากอคติลงไม่ได้ อย่างกรณีที่กระบวนการทำงานของอัลกอริทึมแม้จะเป็น Black Box องค์กรก็สามารถตรวจสอบความไม่เป็นกลางได้ด้วยการรันซิมูเลชันซ้ำๆและสังเกตผลเอา

หรืออย่างน้อยๆองค์กรควรป้องกันตั้งแต่นโยบายและการออกแบบอัลกอริทึมและการเตรียมข้อมูลตั้งแต่ต้น เพื่อลดปัจจัยที่อาจส่งผลให้เกิดอคติลงให้น้อยที่สุด 

อ้างอิง