กูเกิลเลิกจ้างนักวิจัยชื่อดัง Timnit Gebru หลังพยายามให้ถอนรายงานวิจัย, พนักงานกว่า 1500 คนลงชื่อประท้วง

สัปดาห์ที่ผ่านมา Timnit Gebru นักวิจัยด้านจริยธรรมปัญญาประดิษฐ์ (Ethical AI) ได้ออกมาเปิดเผยว่าเธอถูกไล่ออกจากกูเกิลหลังจากพยายามตีพิมพ์งานวิจัยใหม่แต่ถูกผู้บริหารกูเกิลสั่งให้ถอนงานวิจัยออก จนเธอยื่นคำขาดว่าหากไม่ได้ตีพิมพ์งานวิจัยชิ้นนี้เธอจะลาออกจากบริษัท หลังจากนั้นเธอได้รับอีเมลว่าบริษัทตอบรับการลาออกของเธอและเตรียมให้เธอคืนอุปกรณ์ของกูเกิลในภายหลัง และพนักงานกูเกิลจำนวนมากแสดงความไม่พอใจจนลงชื่อไม่เห็นด้วยต่อการเลิกจ้างครั้งนี้มากกว่า 1,500 คน

Timnit เป็นผู้ร่วมวิจัยกับ Joy Buolamwini นักวิจัยของไมโครซอฟท์ในงานวิจัยเมื่อปี 2018 ที่แสดงให้เห็นว่าปัญญาประดิษฐ์จดจำใบหน้ามีแนวโน้มจะจดจำใบหน้ากลุ่มคนผิวสีได้แย่กว่ากลุ่มคนผิวขาวมาก กระตุ้นให้วงการปัญญาประดิษฐ์ศึกษากันมากขึ้นว่าโมเดลปัญญาประดิษฐ์ที่นำมาใช้งานกันกว้างขวางนั้นสร้างผลกระทบต่อชนกลุ่มน้อย หรือมีความโน้มเอียงในรูปแบบใดที่กระทบคนกลุ่มใดเป็นพิเศษหรือไม่

No Description

Timnit Gebru เมื่อปี 2018 ภาพโดย TechCrunch

งานวิจัยใหม่ของ Timnit ที่ร่วมกับนักวิจัยอีก 5 คน โดยนอกจาก Timnit เองแล้ว ยังมี Emily M. Bender ศาสตราจารย์ด้านการประมวลผลภาษาจากมหาวิทยาลัยวอชิงตัน (ยังไม่มีการเปิดเผยชื่อนักวิจัยอื่นในงานนี้) ระบุบุถึงความเสี่ยงของการพัฒนาโมเดลภาษาธรรมชาติทุกวันนี้ ที่โมเดลปัญญาประดิษฐ์มีขนาดใหญ่ขึ้นเรื่อยๆ และทำงานได้ดีขึ้นเรื่อยๆ จนผู้คนเริ่มไว้ใจในงานหลายๆ อย่าง โดนบทนำของงานวิจัยนี้ตั้งคำถามว่ามีการศึกษาความเสี่ยงของการใช้ปัญญาประดิษฐ์เหล่านี้ และมีแนวทางแก้ไขความผิดพลาดของโมเดลเหล่านี้เพียงพอหรือไม่

ความเสี่ยงของโมเดลปัญญาประดิษฐ์ซับซ้อนสูงที่งานวิจัยนำเสนอ มีตั้งแต่การใช้พลังงานในการฝึกปัญญาประดิษฐ์ที่สูงมาก เช่นโมเดล Tranformer นั้นปล่อยคาร์บอนประมาณ 284 ตัน และมีต้นทุนการฝึกแต่ละครั้งที่สูงมากจนกระทั่งมีเฉพาะบริษัทขนาดใหญ่เท่านั้นที่สามารถใช้พัฒนาปัญญาประดิษฐ์แบบนี้ได้ และเนื่องจากโมเดลขนาดใหญ่ต้องอาศัยข้อมูลอินพุตมหาศาล นักวิจัยมักใช้ข้อความทุกประเภทเท่าที่จะกวาดได้จากอินเทอร์เน็ต ไม่ว่าข้อความเหล่านั้นจะเหยียดเพศ, มุ่งร้าย, หรือมีด้านแย่อย่างไรก็ตาม ข้อมูลขนาดใหญ่เช่นนี้ยังทำให้นักวิจัยไม่สามารถตรวจสอบได้ว่าโมเดลปัญญาประดิษฐ์ของตัวเองมีแนวโน้มเหยียดคนกลุ่มใดเป็นพิเศษหรือไม่

แนวทางการสร้างปัญญาประดิษฐ์ที่ใหญ่ขึ้นเรื่อยๆ เช่นนี้ยังดึงความสนใจของนักวิจัย แทนที่จะสร้างโมเดลที่พยายามทำความเข้าใจภาษาอย่างแท้จริง และใช้ข้อมูลในการฝึกลดลง ไปจนถึงใช้พลังงานในการฝึกลดลง สำหรับผู้ใช้งานเองก็อาจจะเข้าใจว่าปัญญาประดิษฐ์เหล่านี้มีความเก่งกาจทั้งที่หลายครั้งมันทำผิดได้โดยง่าย กรณีตัวอย่างเช่นเฟซบุ๊กแปลคำว่า “อรุณสวัสดิ์” ในภาษาอราบิกผิดเป็น “โจมตีมัน” ในภาษาฮีบรู ทำให้นักเรียนปาเลสไตน์ถูกจับกุม (กรณีของไทยก็เคยมีกรณีคล้ายกัน)

หลังจากกูเกิลไล่ Timnit ออก Jeff Dean หัวหน้าฝ่ายวิจัยออกมาชี้แจง ยืนยันว่ากระบวนการตรวจสอบงานวิจัยก่อนเผยแพร่นั้นเป็นเรื่องปกติ และฝ่าย PR ต้องใช้เวลาอย่างน้อยสองสัปดาห์เพื่อยืนยันว่าสามารถตีพิมพ์ได้หรือไม่ แต่ Timnit กลับส่งร่างงานวิจัยให้ตรวจสอบเพียงไม่กี่วัน และเมื่อเขาตรวจสอบก็พบว่ารายงานวิจัยไม่ได้พูดถึงความพยายามแก้ข้อกังวลที่รายงานของ Timnit ได้พูดถึงไปแล้วหลายประการ ทำให้ร่างรายงานวิจัยนี้ไม่ผ่านมาตรฐานการตีพิมพ์ของกูเกิล

อย่างไรก็ดี พนักงานและอดีตพนักงานคนอื่นๆ ของกูเกิลก็ออกมาระบุว่าปกติบริษัทไม่ได้เข้ามาตรวจสอบมาตรฐานงานวิจัยอะไรมากมายนัก Nicolas Le Roux นักวิจัยของ Google Brain ระบุว่าปกติมีการตรวจสอบเพียงเนื้อหาล่อแหลมเท่านั้น ไม่ได้ตรวจสอบว่าอ้างอิงงานคนอื่นครบถ้วนหรือไม่ William Fitzgerald อดีตเจ้าหน้าที่ PR ของกูเกิลก็ระบุเหมือนว่าทีม PR รีวิวงานวิจัยไม่ทันเป็นเรื่องปกติ และไม่เคยมีการลงโทษนักวิจัยที่ไม่ทำตามกระบวนการขนาดนี้ ข้อความที่ขัดกับ Jeff Dean เช่นนี้ทำให้มองได้ว่ากูเกิลมุ่งจะเซ็นเซอร์งานนี้เป็นพิเศษ โดยเอาเรื่องคุณภาพงานวิจัยมาเป็นข้ออ้าง Bender ผู้ร่วมงานวิจัยนี้เองก็ระบุว่าการไล่ Timnit ออกครั้งนี้จะสร้างความกังวล (chilling effect) ต่อการวิจัยด้านจริยธรรมปัญญาประดิษฐ์ในอนาคต

ที่มา – MIT Technology Review, Google Walkout, The Guardian

Topics: 
Google
Artificial Intelligence