WHAT WILL MATTER หุ่นยนต์ | สมอง | คนSALMONBOOKS
02: JUSTICE SYSTEM ความเย็นเยียบของดุลยพินิจ


  • 1

    “ป้ายห้ามจอดนั้นเข้าใจยากหรือเปล่า”

    “ไม่เลย เข้าใจไม่ยาก”

    “อืม งั้นขอถามเพิ่มหน่อยนะครับว่าที่คุณต้องจอดรถตรงนั้นเพราะเป็นเหตุุฉุกเฉินหรือเปล่า”

    “เปล่านะ”

    “ถามอีกนิดเดียวครับ คุณคิดว่าจุดจอดรถที่จัดให้มีจำนวนน้อยเกินไปใช่ไหม”

    “ใช่เลย โคตรน้อย”

    “ถ้าจุดจอดรถมีจำนวนน้อยเกินไป ก็ช่วยไม่ได้นะครับที่คุณต้องไปจอดในที่ห้ามจอด รบกวนคลิกตรงนี้เพื่อสร้างจดหมายยื่นอุทธรณ์ครับ”

    นี่เป็นตัวอย่างของบทสนทนากับ ‘ทนายอัตโนมัติ’ ตัวแรกในโลกที่ชื่อว่า DoNotPay (หรือ ‘อย่าจ่าย’) ซึ่งเป็นโปรแกรมที่ Joshua Browder หนุ่มน้อยนักศึกษามหาวิทยาลัยสแตนฟอร์ดชาวลอนดอนอายุ 19 ปีสร้างขึ้นมา
  • ชาวลอนดอนก็ประสบปัญหาคล้ายๆ ชาวเมืองหลวงทั่วโลกนั่นแหละครับ คือมีที่จอดรถน้อย ที่จอดรถไม่พอ เลยต้องไปจอดในที่ห้ามจอด ทั้งที่รู้เท่าไม่ถึงการณ์และรู้เท่าถึงการณ์

    “ผมคิดว่าพวกคนที่ได้ใบสั่งห้ามจอดเป็นคนที่โดนเล่นงานบ่อยที่สุดในสังคมเลยนะครับ คนพวกนี้เขาไม่ได้อยากทำผิดกฎหมายอะไร พวกเขาแค่ถูกรีดไถ กลายเป็นแหล่งรายได้ชั้นดีให้กับรัฐบาลเท่านั้นเอง” บราวเดอร์ให้สัมภาษณ์ครั้งหนึ่งไว้อย่างนี้

    ที่บราวเดอร์รู้ดีเพราะตัวเขาเองก็เคยเจ็บช้ำจากการได้รับใบสั่งมาก่อน นั่นคือตอนอายุ 18 ปี เขาได้ใบสั่งมากถึง 30 ใบ! การได้รับใบสั่งมากมายขนาดนี้คงทำให้เขาสะสมความแค้นแล้วประมวลออกมาเป็นพลังงานสร้างสรรค์ ผ่านการศึกษาตัวบทกฎหมายนิดหน่อย บราวเดอร์ก็พบว่ากระบวนการยื่นอุทธรณ์ใบสั่งนั้นช่างเป็นสูตรสำเร็จเหลือเกิน เป็น 'สูตรสำเร็จ' ขนาดที่ใช้ระบบอัตโนมัติเข้ามาจัดการได้เลยทีเดียว แต่ถึงมันจะเป็นสูตรสำเร็จขนาดนี้ คนทั่วๆ ไปก็ไม่มีเวลาที่จะมาศึกษากฎหมาย หรือจ้าง
    ทนายความเพื่อร่างจดหมายยื่นอุทธรณ์ให้รัฐอยู่ดี เลยกลายเป็นว่าจ่ายๆ ให้จบๆ ไปเสียจะง่ายกว่า

    บราวเดอร์คิดว่าเขาสามารถแก้ปัญหานี้ได้ง่ายๆ ด้วยการเขียนโปรแกรมทนายอัตโนมัติขึ้นมา โปรแกรมตัวนี้เป็น ‘Chat Bot’ คุณสามารถแชตคุยกับมันได้เหมือนคุยกับคนปกตินั่นแหละครับ
    ต่างตรงที่ว่า มันจะถามเฉพาะคำถามที่เกี่ยวกับรูปคดี (ซึ่งในที่นี้คือคดีจอดรถในที่ห้ามจอด) เท่านั้น

    DoNotPay จะค่อยๆ ไล่เรียงคำถามไปตามสูตรสำเร็จ ให้คุณค่อยๆ ตอบ (คุณเห็นป้ายชัดเจนไหม ป้ายเล็กไปไหม เข้าใจยากไหม ที่ตรงนั้นมีที่จอดรถน้อยไปหรือเปล่า) และหลังจากที่มันเก็บข้อมูลเรียบร้อย มันก็จะสร้าง ‘จดหมายอุทธรณ์’ สำเร็จรูปขึ้นมาให้คุณพร้อมเซฟเพื่อยื่นให้หน่วยงานที่เกี่ยวข้อง—ซึ่งทั้งหมดนี้ฟรี

    ทนายอัตโนมัติคนนี้ไม่กระจอกนะครับ ในเดือนมิถุนายน ปี 2016 มีสถิติว่า DoNotPay ได้สร้างจดหมายยื่นอุทธรณ์แล้วมากกว่า 250,000 ฉบับ และมีมากถึง 160,000 ฉบับที่อุทธรณ์สำเร็จ (นั่นคือคนที่จอดรถผิดไม่ต้องไปจ่ายค่าปรับ) หากนับเป็นเปอร์เซ็นต์ความสำเร็จ ก็มากถึง 64% ตีเป็นค่าปรับมูลค่าสูงถึงสี่ล้านปอนด์เลยทีเดียว

    นอกจากที่ลอนดอนแล้ว บราวเดอร์ยังขยายให้ DoNotPay สามารถใช้ได้ในนิวยอร์กและซีแอตเทิล ซึ่งบราวเดอร์ก็กำลังเริ่มต้นเขียนแชตบอตแบบเดียวกัน เพื่อช่วยให้ผู้ติดเชื้อ HIV เข้าใจสิทธิของตนในทางกฎหมาย และแชตบอตอีกโปรแกรมเพื่อช่วยผู้โดยสารที่เครื่องบินดีเลย์ให้เรียกร้องค่าเสียหายจากสายการบินได้ง่ายๆ ด้วย

    ก็ถือเป็นเรื่องราวดีๆ
  • 2

    อีกสุดทางสเปกตรัม, ชีวิตของ Paul Zilly ก็แขวนอยู่กับการตัดสินใจของโปรแกรมคอมพิวเตอร์เช่นกัน เป็นโปรแกรมที่เขาไม่เคยได้ยินแม้แต่ชื่อมาก่อน โปรแกรมชื่อ ‘COMPAS’ ซึ่งย่อมาจากคำใหญ่ๆ ชวนให้เกรงขามอย่าง Correctional Offender Management Profiling for Alternative Sanctions (การประมวลผลจัดการตัดสินโทษแก่ผู้กระทำผิดทางเลือก)

    ซิลลี่ถูกกล่าวหาว่าขโมยรถตัดหญ้าและเครื่องมือช่างสองสามชิ้นจากผู้เสียหาย พนักงานอัยการยื่นข้อเสนอให้เขาจำคุกหนึ่งปี และออกมาอยู่ในความควบคุมของเจ้าพนักงานอีกสักระยะเพื่อไม่ให้กลับไปทำผิดซ้ำอีก ทนายของซิลลี่เห็นว่าสมเหตุสมผลดีจึงยอมรับข้อเสนอนี้

    ทว่าผู้พิพากษา James Babler ได้เห็น ‘คะแนน’ ของซิลลี่ว่ามีความเสี่ยงสูงที่เขาจะประกอบอาชญากรรมร้ายแรง ทั้งยังมีความเสี่ยงปานกลางที่จะก่อเหตุซ้ำ เขาจึงไม่อนุมัติให้ข้อเสนอของพนักงานอัยการผ่าน และตัดสินให้ซิลลี่ถูกจำคุกเป็นระยะเวลาสองปี และต้องออกมาอยู่ในความควบคุมของเจ้าพนักงานอีกสามปี

    หนึ่งปีที่ซิลลี่ต้องจำคุกเพิ่มเป็นผลมาจากคะแนนตัวหนึ่งเท่านั้น

    ‘คะแนน’ ที่ว่านี้มาจากไหน?

    COMPAS เป็นระบบคะแนนของบริษัทวิเคราะห์อาชญากรรมชื่อ Northpointe มันจะวิเคราะห์ปัจจัยต่างๆ ของจำเลย เพื่อประเมินเป็นความเสี่ยงที่จะก่อคดีซ้ำ เป็นหลักฐานประกอบให้ผู้พิพากษาใช้ดุลพินิจตัดสินใจ ปัจจัยที่มันนำมาวิเคราะห์ส่วนใหญ่ก็เป็นไปตามทฤษฎีอาชญวิทยา เช่น ‘บุคลิกภาพที่น่าจะเป็นอาชญากร’ ‘การตัดขาดจากสังคม’ ‘การใช้ยา’ ‘ความมั่นคงในชีวิต’ และอื่นๆ ซึ่งจำเลยก็จะถูกประเมินคะแนนแต่ละหมวดว่ามีค่าความเสี่ยง ต่ำ กลางหรือสูง

    ปัจจุบันเครื่องมือวิเคราะห์ความเสี่ยงนี้ถูกใช้ในหลายรัฐของสหรัฐฯ เช่นในนิวยอร์กก็มีการใช้เครื่องมือนี้ในแทบทุกเขต (ยกเว้นนิวยอร์กซิตี้) ตั้งแต่ปี 2010
  • Julia Angwin นักข่าวของ ProPublica ตั้งข้อสังเกตว่าก่อนการประกาศใช้ COMPAS รัฐนิวยอร์กไม่เคยเผยแพร่ผลการประเมินเครื่องมือตัวนี้ออกมา จนกระทั่งปี 2012 จึงค่อยเผยข้อมูลออกมาว่าเครื่องมือตัวนี้ให้ผลการประเมินแม่นยำ 71% แต่เมื่อ ProPublica ลองคำนวณค่าความถูกต้องจากสถิติเอง ก็พบว่าจริงๆ แล้ว คะแนนความเสี่ยงของ COMPAS เชื่อถือแทบไม่ได้ คือประเมินได้แม่นยำ ถูกต้องในกรณีของอาชญากรรมร้ายแรง (violent crime) เพียง 20% เท่านั้น และหากจะนับอาชญากรรมทั้งหมด ซึ่งรวมไปถึงความผิดไม่รุนแรง เช่น การขับรถขณะใบขับขี่หมดอายุ ก็พบว่าคะแนนความเสี่ยงนี้ถูกต้องเพียง 61% เท่านั้น

    ยิ่งไปกว่านั้น เธอยังพบว่าคะแนนความเสี่ยงของ COMPAS ตั้งอยู่บนฐานคิดเหยียดผิวด้วย คือจำเลยผิวสี มักจะถูกประเมินคะแนนความเสี่ยงสูงกว่าจำเลยผิวขาว ถึงจะตัดปัจจัยอื่นๆ เช่นการก่ออาชญากรรมก่อนหน้าหรือประเภทของคดีแล้ว จำเลยผิวสีก็ยังถูกประเมินว่ามีความเสี่ยงที่จะก่ออาชญากรรมร้ายแรงซ้ำซ้อนมากกว่าจำเลยผิวขาวถึง 77% (อย่างไรก็ตาม ต้องหมายเหตุไว้ด้วยว่าซิลลี่เป็นชายผิวขาวนะครับ)

    แน่นอนว่าหลังผลสถิตินี้ได้รับการเผยแพร่ Northpointe ซึ่งเป็นบริษัทที่เป็นเจ้าของ COMPAS ก็ออกมาโต้ตอบว่าผลการวิจัยของ ProPublica นั้นเชื่อถือไม่ได้

    หลังจากที่ซิลลี่ถูกตัดสินให้จำคุกสองปี และใช้เวลาในคุกไปบางส่วนแล้ว คดีของเขาก็ได้รับการยื่นอุทธรณ์ โดยในครั้งนี้ ศาลได้เรียก Tim Brennan ซึ่งเป็นผู้พัฒนาคะแนน COMPAS ให้มาเป็นพยาน

    เบรนแนนให้การว่า เขาไม่ได้ออกแบบระบบประเมินคะแนนนี้มาเพื่อให้เป็นตัวแปรเดียวที่ผู้พิพากษาจะใช้ประกอบการตัดสินใจ

    หลังจากการยื่นอุทธรณ์ครั้งนี้ ผู้พิพากษาบาเบลอร์ก็ลดโทษของซิลลี่เหลือสิบแปดเดือน โดยให้เหตุผลว่า ถ้าตัดสินโดยไม่ใช้คะแนน COMPAS ประกอบแล้ว เขาน่าจะตัดสินแบบนี้ (แทนที่จะเป็นสองปี)

    ถ้าพูดกันอย่างง่ายที่สุด คือคะแนน COMPAS อาจมีส่วนตัดสินให้ซิลลี่เสียเวลาชีวิตอยู่ในคุกเพิ่มขึ้นถึงหกเดือน!

    ตัวเลขไม่กี่ตัวมีส่วนกำหนดชีวิตของเราได้มากขนาดนี้ทีเดียว
  • 3

    ทั้งสองเรื่องเป็นเรื่องของการใช้อัลกอริทึมเข้ามาเป็นส่วนหนึ่งในกระบวนการยุติธรรม

    เรื่องแรก บราวเดอร์เห็นว่ากระบวนการยุติธรรมเดิมมีช่องว่างที่ไร้ประสิทธิภาพ บราวเดอร์คิดว่าเจ้าหน้าที่ลงโทษคนที่จอดรถในที่ห้ามจอดอย่างเกินเลยไป คนส่วนใหญ่ ‘ไม่น่าจะตั้งใจทำความผิดหรอก’ เจ้าหน้าที่ใช้ความเชื่อที่ว่าคนจำนวนมากไม่น่าจะยอมเสียเวลาร่างจดหมายอุทธรณ์เพื่อไม่ให้เสียเงินเล็กๆ น้อยๆ และยอมจ่ายไปให้เรื่องจบๆ เสียดีกว่า พอเป็นแบบนี้ รัฐเลยได้เงิน ‘อย่างไม่สมควร’ จากคดีพวกนี้ปีละหลายล้าน

    บราวเดอร์จึงช่วยพัฒนาเครื่องมือขึ้นมาเพื่อลดความไร้ประสิทธิภาพของกระบวนการ ช่วยเพิ่มแต้มต่อให้กับประชาชน (ที่เดิมแล้วดูไร้อำนาจในทางกฎหมาย) ให้ขึ้นมาทัดเทียมกับผู้บังคับใช้กฎหมายมากขึ้น

    เรื่องที่สองก็เป็นเรื่องการใช้อัลกอริทึมหรือโปรแกรมสำเร็จรูปในกระบวนการยุติธรรมเช่นกัน หากแต่เป็นการใช้ในอีกด้านนั่นคือ ผู้บังคับใช้กฎหมายอาจเห็นว่า ‘ดุลพินิจ’ ของผู้พิพากษานั้นอาจ ‘จับต้องไม่ได้’ มากเกินไป จึงพยายามแทรกเครื่องมือบางอย่างเข้ามาเพื่อทำให้สิ่งที่จับต้องไม่ได้นั้นเป็นรูปเป็นร่างขึ้น เครื่องมือที่แทรกเข้ามานี้มีความแข็งแบบคอมพิวเตอร์อยู่มาก มันพยายามตีตัวแปรต่างๆ ทั้งสภาพแวดล้อมทางสังคม และจิตใจของจำเลยให้กลายเป็นตัวเลข และเป็นระดับสามชั้น (สูง ปานกลาง ต่ำ) โดยตั้งใจจะให้ผู้พิพากษาใช้ ‘ประกอบการตัดสินใจ’ ชั่งน้ำหนักในการตัดสินคดีได้ดีขึ้น

    เมื่อมองในมุมนี้ ทั้งสองเรื่องจึงเป็นความพยายามในการเพิ่มประสิทธิภาพของกระบวนการยุติธรรม ด้วยการทำให้มันจับต้องได้ แข็งตัวขึ้น ไม่ขึ้นอยู่กับ ‘ดุลพินิจ’ ที่ฟังดูเลื่อนลอย

    แต่ทำไมเมื่อเราฟังเรื่องแรกแล้ว เราจึงรู้สึกว่า ‘เป็นเรื่องดี’ ในขณะที่เมื่อฟังเรื่องหลัง เรากลับรู้สึกว่า ‘น่ากลัว’ และชวนให้นึกถึงโลกแบบดิสโทเปีย (Dystopia)

    ผมคิดว่าเหตุผลข้อแรกคือการดุลอำนาจ ในเรื่องแรก อัลกอริทึมถูกใช้เพื่อให้ประชาชน (ที่น่าจะสมมติว่าตัวเองเป็นประชาชนตาดำๆ ด้วย คือไร้ทางสู้เสียเหลือเกิน) ต่อกรกับรัฐได้อย่างสมศักดิ์ศรี นั่นคืออัลกอริทึมอยู่ในฝั่ง ‘ประชาชน’ (หากแบ่งอย่างหยาบที่สุด) ส่วนในเรื่องหลัง อัลกอริทึมถูกใช้โดยฝั่ง ‘ผู้คุมกฎหมาย’ และทำให้กฎหมายนั้นมีความแข็งข้อเย็นเยียบเข้าไปอีก (คือดุลพินิจที่เป็นมนุษย์ไม่พอ ยังต้องเป็นดุลพินิจที่พิจารณาจากคะแนนที่แข็งๆ ของโปรแกรมด้วย) เราจึงอดรู้สึกเห็นใจจำเลยในกรณีนี้ไม่ได้ ที่ต้องถูกพิจารณาด้วยอคติสองชั้น คืออคติที่เกิดจากผู้พิพากษา ซึ่งซ้อนทับจากอคติด้วยสถิติอีกทีหนึ่ง (ถึงแม้จำเลยจะไม่ได้เป็นคนผิวสี แต่ก็อยู่ในเขตประชากรทางสถิติที่มีโอกาสจะก่อเหตุซ้ำซ้อน)
  • เหตุผลอีกข้อคือความร้ายแรงของคดีและบทลงโทษ คดีแรกเป็นคดีจอดรถในที่ห้ามจอด ซึ่งเป็นเพียงสิ่งรบกวนชีวิตปกติประจำวันเท่านั้น ไม่ถึงกับทำให้ชีวิตของคนคนหนึ่งพังพินาศลงไป การจ่ายค่าปรับแต่ละครั้งก็ไม่ได้แพงหูฉี่จนทำให้ต้องอดข้าว ขณะที่คดีที่สองมีความรุนแรงมากกว่า ความแตกต่างของการใช้กับไม่ใช้อัลกอริทึม ส่งผลถึงเวลาชีวิตของคนคนหนึ่งที่ต้องสูญเสียไปนานนับครึ่งปี

    ในบางกรณีดูเหมือนว่าเราจะต้องการความอบอุ่นจากดุลพินิจของมนุษย์ ในขณะที่กรณีที่เหลือเราต้องการความเย็นเยียบ ฉับไว เต็มไปด้วยประสิทธิภาพของโปรแกรมสำเร็จรูป การถามตัวเองว่าในกรณีแบบไหนเราต้องการอะไร และต้องการ ‘เพราะอะไร’ เป็นเรื่องสำคัญขึ้นเรื่อยๆ

    เราต้องการหลักการ หรือเราต้องการความเห็นใจ แล้วสองสิ่งนี้อยู่ร่วมกันได้ไหม

    ถ้าหลักการนั้นขัดกับความเชื่อของเรา เราควรเปลี่ยนหลักการเพื่อความเชื่อ หรือเปลี่ยนความเชื่อเพื่อหลักการ

    กระทั่ง หลักการหนึ่งอาจจะขัดกับหลักการอีกแบบ จนไม่น่าเรียกมันว่าเป็นหลักการ แต่เป็นเพียงความเชื่อที่ถูกชุบและตั้งชื่อใหม่ก็เป็นได้ หากเป็นแบบนั้น เราควรจะเชื่ออะไร

    จริงๆ แล้ว นี่เป็นปัญหาที่มีมาก่อนการใช้อัลกอริทึมในกระบวนการยุติธรรมนั่นแหละครับ แต่ทั้งสองเหตุที่เกิดขึ้นแสดงให้เราเห็นสภาวะกลืนไม่เข้าคายไม่ออกนี้ได้ชัดเจน

    ผมคิดว่านี่จะเป็นปัญหาที่แหลมคมขึ้นเมื่อชีวิตในด้านหนึ่งของเราถูกปกครองด้วยตัวเลข ในขณะที่อีกด้านก็ถูกปกครองด้วยมนุษย์ที่ไร้หลักการ (และตามใจฉัน) ยิ่งขึ้น จนเราไม่รู้ว่าแบบไหน ทางไหนกันแน่ที่เราควรเดินไป ทางไหนที่เราควรเชื่อ หรือเราควรเชื่อในส่วนผสมของทั้งสองทางใช่ไหม

    อาจใช่—แต่คำถามก็คือ มันจะเป็นส่วนผสมแบบไหน

เข้าสู่ระบบเพื่อแสดงความคิดเห็น

Log in