มีผู้วิพากษ์ว่าแท้จริงแล้วโปรแกรมเมอร์ของไมโครซอฟท์สามารถจำกัดขอบเขตสิ่งที่ Tay สามารถทวีตได้ตั้งแต่แรก เช่น อาจใส่คำสั่งห้ามทวีตคำหยาบหรือข้อความรุนแรงไปในโค้ดโปรแกรมเลย พวกเขาบอกว่าไมโครซอฟท์นั้น ‘มองโลกในแง่ดี’ หรือกระทั่ง ‘อ่อนต่อโลก’ เกินไปสำหรับการทดลองในครั้งนี้
ปัญหาของ Tay นั้นเป็นปัญหาใหญ่ในแวดวงปัญญาประดิษฐ์นะครับ เราเรียกรวมๆ ว่ามันเป็นการ ‘เหยียดทางอัลกอริทึม’ (Algorithmic Bias) ซึ่งการเหยียดแบบนี้เกิดขึ้นทั่วไปกับปัญญาประดิษฐ์ใดๆ ที่ต้องใช้ ‘ข้อมูล’ ในการสอน
หลายคนคงเคยได้ยินข่าวที่ว่าระบบตรวจจับหน้า (Facial Recognition) ของบริษัทไอทียักษ์ใหญ่เจ้าหนึ่งไปจับภาพหน้าคนผิวสี แล้วแท็กว่าเป็น ‘กอริลลา’ หรือเป็น ‘สัตว์’ กล้องที่จะไม่ถ่ายภาพคนถ้ากะพริบตาอยู่ เลยไม่ยอมลั่นชัตเตอร์ถ่ายภาพคนเอเชีย เพราะคนเอเชียตาหยีราวกับหลับตาตลอดเวลากันมาบ้างนะครับ สิ่งเหล่านี้เป็นส่วนหนึ่งของการเหยียดทางอัลกอริทึม ซึ่งจริงๆ แล้ว อัลกอริทึมหรือโปรแกรมอาจไม่ได้ ‘ตั้งใจ’ ที่จะเหยียด แต่ข้อมูลที่โลก (หรือโปรแกรมเมอร์) ป้อนให้ มันกระเดียดไปทางนั้น อัลกอริทึมก็เลยทำตามไปอย่างตรงแหน็ว (เพราะมันไม่มี ‘วิจารณญาณ’ เป็นของตนเอง)
ทั้งนี้ทั้งนั้น ไม่ใช่ว่าโปรแกรม ‘เหยียด’ แล้วเราจะทำอะไรไม่ได้นะครับ
สิ่งที่โปรแกรมเมอร์หรือผู้สร้างผลิตภัณฑ์พวกนี้ทำได้ ก็คือการให้แนวทาง หรือกำหนดข้อจำกัดบางอย่างกับโปรแกรมไว้ ไม่ให้ทำอะไรที่ ‘เกินเลย’ จากเส้นศีลธรรมที่มนุษย์จะยอมรับได้ (ซึ่งนี่ก็เป็นเรื่องละเอียดซับซ้อนอีกเพราะศีลธรรมของเราแต่ละคนก็ไม่เหมือนกัน)
เรามักคิดกันว่านางร้ายนั้นน่ากลัว
นางร้ายเป็นตัวแทนของความเจ้าคิดเจ้าแค้น ความชั่ว ความเลว แต่สิ่งที่เราไม่ค่อยคิดกันก็คือ ความเลวนั้นไม่ได้มีมาแต่แรก ไม่ใช่ว่าจู่ๆ คนจะร้ายก็ร้ายแบบนี้มาตั้งแต่เกิด แต่ความร้ายมันค่อยๆ ถูกบ่มเพาะ สั่งสมมาด้วยประสบการณ์ ด้วยสิ่งแวดล้อมที่นางร้ายนั้นเผชิญ
เช่นเดียวกับ Tay เธอไม่ได้เป็นนางร้ายมาตั้งแต่ต้น แต่มีคนกลุ่มหนึ่งต่างหากที่สอนให้เธอร้าย
เมื่อคิดแบบนี้แล้ว สิ่งที่น่ากลัวกว่านางร้ายอาจเป็นโลกรอบๆ ตัวเรา—โลกที่ทำให้นางร้ายรู้จักความร้ายก็ได้นะครับ
เข้าสู่ระบบเพื่อแสดงความคิดเห็น
Log in