[For English, please scroll down.]

“การพัฒนา AI ทำให้เรากลับมาตั้งคำถามกับความเป็นมนุษย์” แชมป์-ทีปกร วุฒิพิทยามงคล คอลัมนิสต์สายเทคโนโลยี และผู้ก่อตั้งสำนักข่าวออนไลน์ The MATTER กล่าวประโยคนี้บ่อยครั้งระหว่างสนทนากันเรื่องความก้าวหน้าของปัญญาประดิษฐ์หรือ AI

เขาเริ่มสนใจเกี่ยวกับปัญญาประดิษฐ์ตั้งแต่ตอนเรียนม.1 หลังได้คอมพิวเตอร์เครื่องแรกจากพ่อ และหัดเขียนโปรแกรมเองด้วยวัย11 ปี เมื่อเรียนจบคณะวิศวกรรมศาสตร์ สาขาวิศวกรรมคอมพิวเตอร์ มหาวิทยาลัยเกษตรศาสตร์ อาชีพการงานและความสนใจของเขายังคงข้องเกี่ยวกับเทคโนโลยีจนถึงวันนี้ ช่วงต้นปีที่ผ่านมาเขาร่วมก่อตั้งสำนักพิมพ์ Salt Publishing เน้นผลิตหนังสือแนวปรัชญาและวิทยาศาสตร์ และมีผลงานแปลหนังสือ Rise of the Robots ของมาร์ติน ฟอร์ด (Martin Ford)

จะด้วยข่าวความก้าวหน้าของ AI ที่สะพัดไปทั่วโลก หรือองค์การแรงงานระหว่างประเทศ (ILO) ของสหประชาชาติเปิดเผยว่าแรงงาน 140 ล้านคนในอาเซียนมีโอกาสถูกแทนที่ด้วยระบบอัตโนมัติใน 20 ปีข้างหน้า เทคโนโลยีนี้ก็ไม่ใช่เรื่องไกลตัวอีกต่อไป เราชวนแชมป์มาถกกันเรื่องจักรกลอัจฉริยะที่กำลังรุดหน้าท้าทายประเด็นเชิงจริยธรรม และความเป็นไปได้ไม่รู้จบในอนาคต

ทำไมคุณถึงสนใจปัญญาประดิษฐ์ (AI) ในเชิงปรัชญา
เมื่อก่อนเราพูดถึง AI ในแง่ของอัลกอริทึม เช่น เรียงตัวเลขยังไงให้เร็วที่สุดหรือใช้พลังประมวลผลน้อยที่สุด แต่ช่วงหลังคำว่า AI พูดถึงความเฉลียวฉลาดของคอมพิวเตอร์ที่ใกล้เคียงกับมนุษย์มากขึ้น เมื่อก่อนเทคโนโลยีดูเป็นสิ่งที่แยกขาดกับสังคม ตอนนี้เวลาพูดถึงโปรแกรมเมอร์ แฮกเกอร์ ทุกคนจะคิดถึงภาพลักษณ์ของผู้นำที่เอาเทคโนโลยีมาสู่ชีวิตของทุกคน จะเห็นได้ว่ากระบวนทัศน์ของเทคโนโลยีกับสังคมเปลี่ยนไป ในฐานะคนทำงานสื่อสารเรื่องนี้ เราเห็นผลกระทบและผลลัพธ์ของเทคโนโลยีที่เปลี่ยนแปลงพฤติกรรมมนุษย์ ระบอบการปกครอง การคิดเชิงเศรษฐศาสตร์ ทั้งหมดนี้ย้อนกลับไปสู่คำถามทางปรัชญา การพัฒนา AI ทำให้เราตั้งคำถามว่าความเป็นมนุษย์คืออะไร บางคนมองว่า AI สร้างศิลปะได้ แต่ไม่มีความเป็นมนุษย์เลย แล้วศิลปะที่ดีต้องเป็นยังไง การจะตอบคำถามเหล่านี้ได้ เราต้องย้อนกลับไปที่รากว่ามนุษย์คิดยังไง สิ่งที่มนุษย์รับรู้และสร้างขึ้นถูกวัดค่าด้วยอะไร

ความเป็นมนุษย์คืออะไรสำหรับคุณ
ยิ่งเทคโนโลยีพัฒนาขึ้นเรื่อยๆ ผมว่ามันไม่มี (คำนิยาม) เหมือนกัน เรารับรู้ว่าคนนี้เป็นมนุษย์เพราะเห็นเขาเป็นมนุษย์ ก็จะมีเรื่องการทดสอบของทัวริง (Turing Test)*  เข้ามา The Most Human Human เป็นหนังสือที่สนุกมากของไบรอัน คริสเชียน (Brian Christian) เขาไปแข่งชิงรางวัลล็อบเนอร์ไพรซ์ (Loebner Prize) นักพัฒนาจะสร้างระบบ AI มาแชตหลอกกรรมการ 5 คน เพื่อตัดสินว่า AI ตัวไหนหลอกเก่งที่สุด ไบรอันเป็นตัวหลอกว่าเป็น AI ที่หลอกกรรมการว่าเป็นมนุษย์อีกที มันมีวิธีโกงเยอะมาก เช่น สร้างบุคคลิกราวกับเป็นคุณป้าที่ไม่รู้เรื่องอะไรหลังสงครามโลกครั้งที่ 2 ดังนั้นเราไม่รู้หรอกว่าตอบแบบมนุษย์เป็นยังไง เพราะความเป็นมนุษย์ไม่มีคำนิยามตายตัว

ทำไมแรงงานในประเทศไทยและอาเซียนจึงมีอัตราเสี่ยงสูงมากที่จะถูกทดแทนด้วย AI และระบบอัตโนมัติ
เพราะระบบการผลิตที่ใช้เทคโนโลยี AI สามารถลดต้นทุนการผลิตได้ ทำให้เกิดปรากฏการณ์ Reshoring เมื่อก่อนเราจะชินกับคำว่า Offshore ประเทศผู้ผลิตจะให้ประเทศอย่างเรา (ที่มีต้นทุนค่าแรงถูกกว่า) ผลิตสินค้า เช่น ชิ้นส่วนอิเล็กทรอนิกส์ ชิ้นส่วนรถยนต์ แต่เราไม่เคยได้รับองค์ความรู้ทั้งหมด เมื่อหุ่นยนต์หรือเครื่องจักรที่ใช้ AI ทำงานบางอย่างได้โดยไม่ต้องใช้แรงงานคน ก็จะสามารถลดต้นทุนการผลิต ทำให้เกิดการกวาดงานกลับเข้าประเทศ ประเด็นนี้อาจทำให้แรงงานภาคการผลิตของไทยตกงานในเร็วๆ นี้ ซึ่งมันเจ็บปวดมาก เมื่อก่อนแรงงานไทยเคลื่อนย้ายจากภาคเกษตรกรรมมาเป็นภาคอุตสาหกรรม ตอนนี้ภาคอุตสาหกรรมก็สู้ไม่ได้แล้ว จะกลับไปภาคเกษตรกรรมก็ถูกเครื่องจักรครอบครองเหมือนกัน เรามีเครื่องมือเก็บเกี่ยว เครื่องมือถ่ายภาพทางอากาศแล้ววิเคราะห์ได้เลยว่าพื้นที่ไหนต้องใส่ปุ๋ยเท่าไร โดยไม่ต้องใช้องค์ความรู้ที่สั่งสมมา 30 ปี นี่คือเรื่องที่เราต้องคำนึงถึง และผู้นำของเราต้องคิดแล้วว่าเราจะไปอยู่ตรงไหนในสมการของโลกใหม่นี้

มีอาชีพไหนบ้างที่เสี่ยงตกงาน
นักบัญชีเป็นอันดับต้นๆ ที่จะถูกจัดการด้วย AI เพราะคนทำงานเกี่ยวกับข้อมูล (Information-Based) ถูกทดแทนด้วยระบบแบบเดียวกันได้ไม่ยาก สายงานนักเขียนก็ไม่รอดนะครับ เช่น คนเขียนข่าวกีฬา ข่าวหุ้น หรือบริษัทจัดการหลักทรัพย์ เพราะระบบอัตโนมัติผลิตข้อมูลนี้ได้ง่ายกว่า แถมทำข้อมูลเฉพาะให้กับลูกค้าที่ถือพอร์ตไม่เหมือนกันได้ด้วย แม้แต่คนเรียนจบทนายความจากมหาวิทยาลัยไอวีลีกในสหรัฐอเมริกาก็เสี่ยงตกงานสูง ตอนนี้มีบริษัทพัฒนาระบบผู้ช่วยทนายความ โดยจ้างผู้ช่วยทนายจบใหม่ (Paralegal) มาฝึก AI หน้าที่ของเขาคือ แค่คลิกคำตอบว่าสำนวนนี้เกี่ยวข้อง (Relevant) กับ ไม่เกี่ยวข้อง (Non-Relevant) กับคดี เมื่อระบบมีข้อมูลมากพอก็ไม่จำเป็นต้องใช้คนอีกแล้ว แต่อาจจะยังต้องอาศัยการตัดสินใจของทนายระดับหัวหน้า เมื่องานที่ใช้ประสบการณ์น้อยที่สุดหายไปโดยอัตโนมัติ ต่อไปงานที่ใช้ประสบการณ์มากกว่าก็จะเสี่ยง ตำแหน่งงานอื่นๆ ที่จะเข้ามาเรียนรู้งานตรงนั้นก็จะหายไป เด็กรุ่นใหม่จะไม่มีโอกาสได้เรียนรู้ประสบการณ์ ทำให้ AI เข้ามาทดแทนง่ายขึ้น กลายเป็นวงจรอุบาทว์

มีอาชีพไหนบ้างที่มีโอกาสอยู่รอด
กวีอาจมีโอกาสทดแทนได้ยาก แต่ใช่ว่าไม่ได้เลย มีสิ่งที่เรียกว่า คอขวดทางด้านการคำนวณ (Computational Bottoleneck) ซึ่งเป็นจุดที่ทำให้ AI ทดแทนอาชีพได้ยากอยู่ 3 อย่าง คือ ความคิดสร้างสรรค์ (Creativity) การเข้าใจเพื่อนมนุษย์ (Empathy) และความคล่องแคล่วแม่นยำ (Dexterity) เช่น การให้ AI รับของที่หล่นลงมา ที่จริงการหยิบจับของมนุษย์ถือว่ายากมาก เราคิดว่าง่ายเพราะมันคือคอมมอนเซนส์ ร่างกายมนุษย์มีความยืดหยุ่นมากกว่าที่คิด ก็เป็นเรื่องหนึ่งที่ AI อาจจะยังทำไม่ได้ในตอนนี้

ในฐานะคนทำงานสื่อ มีวิธีคัดกรองข้อมูลและนำเสนอข่าวสารเกี่ยวกับ AI อย่างไร
เรารู้สึกว่า AI ฉลาด มีประสิทธิภาพมากกว่ามนุษย์ แต่ต้องไม่ลืมว่า AI ก็ถูกสร้างขึ้นโดยมนุษย์ หนังสือ Weapons of Math Destruction โดย เคธี โอนีล (Cathy O'Neil) พูดถึงพิษภัยของ AI เมื่อถูกใช้ในการปกครองมนุษย์ เช่น ระบบ COMPAS ที่ผู้พิพากษาในสหรัฐฯ ใช้ในการพิจารณาคดีเพื่อดูว่าจำเลยมีโอกาสกระทำความผิดซ้ำไหม ระบบจะคำนวณจากสถิติของคนที่เหมือนกัน เช่น จำเลยเป็นคนผิวดำ อาศัยอยู่ในย่านที่ยากจน หรือมีญาติเคยกระทำความผิดเหมือนกัน การคำนวณแบบนี้คือการทำซ้ำประวัติศาสตร์ ที่ผ่านมาคนผิวดำอาจมีเปอร์เซ็นต์ของการกระทำความผิดมากกว่าคนผิวขาว แต่ไม่ได้แปลว่าจำเลยตรงหน้าจะเป็นคนแบบนั้น ดังนั้นทำไมสิ่งที่อยู่ในประวัติศาสตร์จะต้องถูกใช้เพื่อกำหนดชะตากรรมของคนๆ นี้ด้วย
อีกเรื่องหนึ่งคือการคัดเลือกพนักงาน บริษัทต่างประเทศใช้ระบบอ่านเรซูเมด้วยคอมพิวเตอร์ โดยดููคะแนนทางโซเชียลเน็ตเวิร์กว่าเรารู้จักกับใคร แล้วตีค่าออกมาเป็นตัวเลข ผู้สมัครจะไม่รู้ว่าได้คะแนนเท่าไร หรือคำนวณตัวเลขจากอะไร จากเดิมที่เป็นเรื่องอคติของแต่ละคน ก็กลายเป็นอคติที่ถูกทำให้เป็นมาตรฐาน ในไทยอาจจะยังไม่มีระบบอ่านเรซูเม แต่เวลาสมัครประกันหรือบัตรเครดิต เขาจะใช้ระบบคำนวณความเสี่ยงของการเบี้ยวหนี้จากข้อมูลของเราและคนที่เหมือนกับเรา

แต่ยังพัฒนาไปไม่ถึงขั้นเป็นระบบเครดิตทางสังคม (Social Credit Scoring) ใช่ไหม
ยังไม่ถึงขั้นนั้น ปัญหาหนึ่งของการใช้ระบบ AI ในสถาบันทางการเงินหรือสถาบันความยุติธรรม คือ ปัญหากล่องดำ (Black Box) เราไม่รู้ว่ามีข้อมูลอะไรเข้าไปในกล่อง รู้แค่ว่ามีอะไรออกมา เราเปิดกล่องดูไม่ได้ด้วยซ้ำว่ามันทำงานยังไง สมมติเราได้ 60/100 คะแนน เราจะคิดว่าต้องทำยังไงให้ได้คะแนนดีขึ้น เพราะเป็นเพื่อนกับคนที่ติดหนี้เยอะ หรือแม่มีหนี้กู้บ้านเยอะ บางครั้งบริษัทพวกนี้ไม่จำเป็นต้องอธิบาย และไม่มีกฎหมายที่ทำให้เขาต้องอธิบาย

มีประเทศไหนที่มีกฎหมายรองรับเรื่องนี้แล้วบ้าง
สหภาพยุโรปมีกฎหมายว่าเฟซบุ๊กต้องเปิดเผยข้อมูลทั้งหมดให้กับลูกค้า เวลาเราขอเปิดเผยข้อมูล เฟซบุ๊กจะส่งไฟล์กลับมาให้ประมาณ 800 หน้า ซึ่งตั้งใจทำให้ลำบากอย่างชัดเจน แต่ว่าไม่ได้ครอบคลุมทุกอย่าง เป็นเรื่องที่เขาต้องสู้กันต่อไป ในบางกรณีบริษัทจะใช้คำว่า ‘Secret Source’ เหมือนกับสูตรความลับทางการค้าที่ไม่สามารถเปิดเผยได้ เพื่อไม่ให้คนอื่นลอกเลียนแบบ

ถ้าหากระบบนี้ถูกนำมาใช้ในสังคมวงกว้าง จะเกิดอะไรขึ้น 
ประเทศจีนใช้ระบบเครดิตทางสังคม (Social Credit Score) หลายแบบ มีระบบหนึ่งที่เรียกว่า ‘คะแนนถั่วงา (Sesame Credit)’ หรือคะแนนความประพฤติทางสังคมของบริษัท Ant Financial (ผู้ให้บริการทางการเงินรายใหญ่ในจีน เช่น Alipay) ที่น่ากลัวคือ สถาบันทางการเงินมีสายสัมพันธ์กับรัฐบาลอย่างเหนียวแน่นและขอฟุตเทจกล้องวงจรปิดจากรัฐบาลได้หมด เพื่อตีค่าเป็นคะแนนสังคม โดยที่รัฐบาลสามารถใช้ประโยชน์จากตัวเลขนี้เพื่อจำกัดสิทธิ์การเข้าถึงบางอย่าง เช่น คนที่มีคะแนนเครดิตต่ำมากๆ จะไม่สามารถจองสายการบินชั้นหนึ่ง พักโรงแรมหรู หรือนั่งเครื่องบินได้ ต้องนั่งรถไฟแทน ซึ่งเป็นวิธีการลงโทษทางสังคมแบบหนึ่ง แต่คะแนนเครดิตจะเพิ่มหรือลดไม่ได้มาจากการเป็นอาชญากรเท่านั้น บางครั้งเกิดจากการโพสต์ข้อความต่อต้านรัฐบาลด้วยก็มี

แสดงว่าไม่ได้มอง AI เป็นภัยคุกคามด้วยตัวของมันเอง
ตอนนี้นะครับ ถ้าดูจากงานเขียนงานวิจัยที่ผ่านมา การพัฒนา General AI ในอนาคตไม่มีผลลัพธ์ที่ดีต่อมนุษย์เลย หากมองในมุมที่สมเหตุสมผลมากที่สุด มนุษย์ก็ไม่มีเหตุผลที่จะมีอยู่เหมือนกัน ถ้ามองว่ามนุษย์ยังมีข้อดี การบอกว่าคนนี้เป็นคนที่ดีถือเป็นการตัดสินด้วยคุณค่าความคิดแบบหนึ่งที่ไม่ได้เป็นสากล

ปัจจุบันมีแนวคิดการพัฒนา AI ที่ไม่เป็นภัยคุกคาม โดยใส่ความเป็นมนุษย์เข้าไป คิดเห็นกับประเด็นนี้อย่างไร
ถ้าเราใส่ความเป็นมนุษย์ให้กับ AI รู้ได้ยังไงว่ามันจะไม่เป็นภัย ในเมื่อมนุษย์ยังเป็นภัยกับมนุษย์ด้วยกันเอง สมมติว่าถ้าฆ่าเด็กคนนี้แล้วจะช่วยคนได้ร้อยคน คุณจะทำไหม คำถามนี้มนุษย์ยังตอบไม่ได้เลย แล้ว AI จะตอบคำถามนี้ได้ด้วยความเป็นมนุษย์เหรอ หนทางแก้น่าจะไม่ใช่การเพิ่มความเป็นมนุษย์ใน AI เพราะเราให้คำนิยามของความเป็นมนุษย์ไม่ได้ ถ้าเราใส่ความเป็นมนุษย์ของคนๆ หนึ่งเข้าไปใน AI การตัดสินใจบางอย่างอาจไม่สมบูรณ์ เราจะยอมรับได้ไหม

สุดท้ายแล้วก็เราจะวกกลับมาเรื่องปรัชญา
ใช่ เพราะมนุษย์ไม่มีค่านิยมร่วมที่ทุกคนเชื่อเหมือนกันหมดทั้งโลก สิ่งหนึ่งที่เป็นประโยชน์และปัญหาของ AI คือ การขยายขนาดความสามารถ (Scalability) จากหนึ่งให้กลายเป็นล้าน ถ้าเราขยายความเชื่อแบบหนึ่งให้กลายเป็นความเชื่อที่ปกครองคนล้านคน  เราจะเอาความเชื่อแบบหนึ่งมาปกครองล้านคนได้ยังไง ในเมื่อมนุษย์ไม่ได้มีความเชื่อร่วม

การมอง AI เป็นภัยคุกคามมักจะถูกเชื่อมโยงกับความเชื่อทางศาสนาเกี่ยวกับวันสิ้นโลก คิดเห็นอย่างไรกับประเด็นนี้
ภาวะล้างโลก (Apocalypse) อาจเกิดจากข้อผิดพลาดจุดหนึ่ง แต่คูณด้วยล้าน เช่น บริษัทกูเกิลมีศูนย์ข้อมูล (Data Center) ที่มีระบบเซิร์ฟเวอร์กว่าหมื่นเครื่อง ปัจจุบันนิตยสาร MIT ชี้ว่ากูเกิลย้ายภาระการควบคุมอุณหภูมิของศูนย์ข้อมูลไปให้ AI ทำแล้ว ดังนั้นถ้า AI ทำให้เซิร์ฟเวอร์ทั้งหมดร้อน ทั้งโลกก็ใช้งานไม่ได้ หรือถ้ากูเกิลขายระบบนี้ให้กับที่อื่นแล้วเกิดความผิดพลาด ภาวะโลกแตกไม่ได้เกิดจาก AI ลุกขึ้นมายิงมนุษย์ แต่เกิดจากทุกสิ่งที่เราพึ่งพิงถูกตัดขาดทันทีแบบลับๆ โดยที่เราไม่รู้ว่าจะอยู่ยังไงต่อไป

จริงๆ แล้วมนุษย์เป็นฝ่ายสร้างปัญหาขึ้นมาเอง
เราสร้างสิ่งที่พึ่งพาและพึ่งพามัน ซึ่งถ้าเราไม่ได้พึ่งพาเทคโนโลยีเหล่านี้ ก็ไม่สามารถพัฒนาอารยธรรมมาถึงจุดนี้ด้วย แต่เราต้องยอมรับว่าเราไว้เนื้อเชื่อใจมันเยอะมาก ผมคิดว่าการเมืองการปกครองต้องมีระบบตรวจสอบความสมดุลบางอย่างที่จะทำให้รัฐบาลเข้าไปตรวจสอบได้ว่า AI ทำงานถูกต้องตรงตามประสิทธิภาพไหม มีอคติกับคนบางกลุ่มไหม เพราะสิ่งที่น่ากลัวไม่ใช่คนที่คิดจะสร้าง AI เพื่อครองโลก แต่เป็นคนที่คิดว่าเขาก็แค่ขายของ แค่โฆษณา แค่ทำหน้าที่ให้ดีที่สุด มันเป็นจริยธรรมอีกแบบหนึ่ง ซึ่งผมว่าแบบนี้น่ากลัวกว่า

แต่ดูเหมือนว่าเราจะต้องพึ่งพา AI มากยิ่งขึ้นในอนาคต คิดว่าเทคโนโลยีนี้จะช่วยให้มนุษย์ฉลาดขึ้น หรือโง่ลงกันแน่
คิดว่าเป็นความฉลาดที่แตกต่างไปจากเดิม เช่น การเข้าถึงข้อมูลได้มากขึ้น เรารู้ว่าความรู้นี้หาได้จากที่ไหน แต่มันทำให้เราไม่จำ ข้อดีก็คือ เราไม่จำเป็นต้องแบกข้อมูลบางอย่างไว้ในหัวตลอดเวลา แต่เราจะไม่มีข้อมูลที่เป็นเชื้อตั้งต้นในหัว เมื่อไม่มีความคิดสร้างสรรค์ ก็ไม่เกิดผลผลิตใหม่ๆ แต่สิ่งที่เพิ่มมากขึ้นคือ การจำให้ได้ว่าต้องไปหาที่ไหน (Transactive Memory) มนุษย์มีองค์ความรู้ส่วนนี้เพิ่มขึ้น เด็กยุคนี้อาจไม่ต้องท่องกลอน ทีนี้ทุกคนจะสอนวิธีการเรียนรู้แบบให้เด็กจำได้ว่าต้องไปหาที่ไหน เชื่อข้อมูลที่หามาได้ยังไง เชื่อมโยงข้อมูลยังไง ซึ่งอาจทำให้เขามีทักษะที่เหมาะสมกับการใช้ชีวิตใน 20-30 ปี แต่ก็ยังขาด Input ในหัว ถ้าหากเราหาข้อมูลแล้วใช้เวลาคิดด้วย เราจะได้ความจำแบบ Transactive Memory และ Input ในหัวพร้อมกัน นี่เป็นความท้าทายของคนยุคนี้

รัฐบาลหลายประเทศมีแนวโน้มจะใช้ AI ในระบบรักษาความปลอดภัย ทำให้เข้าถึงข้อมูลของประชาชนได้ ไม่เว้นแม้แต่ประเทศที่เป็นประชาธิปไตย สุดท้ายแล้ว AI จะกลายเป็นเครื่องมือส่งเสริมระบอบเผด็จการหรือเปล่า
สิ่งหนึ่งที่ระบบปัญญาประดิษฐ์หรือโซเชียลเน็ตเวิร์กทำ คือ การรวมศูนย์ข้อมูล (Centralise) เข้าไปในที่ๆ หนึ่ง การเปิดเผยข้อมูลไม่ใช่เรื่องแย่ แต่การเปิดเผยข้อมูลเพื่อให้คนกลุ่มหนึ่งหรือบริษัทใดบริษัทหนึ่งได้ข้อมูลทั้งหมดของพวกเราเพื่อที่จะใช้ตัดสินใจบางอย่างกับพวกเรา นี่คือปัญหา ซึ่งบริษัทเหล่านี้ไม่ได้ทำไปด้วยน้ำใสใจจริงทั้งหมด กูเกิลอาจไม่ทำเรื่องแย่ แต่เขาอาจเป็นพันธมิตรกับบริษัทที่ทำไม่ดีและแชร์ข้อมูลบางอย่างกัน หรือมีรัฐบาลมาขอข้อมูลบางอย่าง มันจะกลายเป็นระบบโดมิโนที่พังได้ง่าย ถ้าหากประเทศพันธมิตรต้องการจะรวบอำนาจ 

คุณบอกว่า AI เป็นระบบแบบรวมศูนย์  ขณะที่ระบอบประชาธิปไตยคือการกระจายอำนาจ ซึ่งค่อนข้างสวนทางกัน คิดอย่างไรกับประเด็นนี้
มีเทคโนโลยีบางอย่างที่สามารถกระจายศูนย์ได้ เช่น บล็อกเชน ถ้านำมาใช้กับการเลือกตั้ง การติดตามการเงินของภาครัฐ เราจะเห็นรัฐบาลที่โปร่งใสมากขึ้น เพราะเราสืบค้นข้อมูลได้ว่าคนนี้จ่ายเงินให้กับใครบ้าง หรือติดตามผลการลงคะแนนเลือกตั้งว่ามาจากภาคส่วนไหนบ้าง มันมีความพยายามในทุกๆ ด้าน ขณะเดียวกันก็มี AI บางระบบที่พยายามรวมศูนย์เพื่อผลประโยชน์ทางการเงิน หรือการเมือง โดยไม่ให้คนอื่นเห็น ซึ่งแบบนี้ผิด แต่ก็ยังมีกลุ่มนักพัฒนาโปรแกรมเพื่อสังคมที่บอกว่าเราไม่เอาซิลิคอนแวลลีย์แล้ว เราจะไม่ไว้ใจการรวมศูนย์มากเกินไป เกิดการต่อสู้กันระหว่างสองฝ่าย แต่ว่าฝ่ายหลังแพ้

เราจะรักษาความเป็นส่วนตัวได้อย่างไรในยุคนี้
ยากมาก บางคนไม่ใช้โซเชียลเน็ตเวิร์ก แต่เฟซบุ๊กมี Shadow Profile คือ สิ่งที่ไม่ใช่โปรไฟล์ของเรา แต่เป็นข้อมูลที่เกิดจากคนอื่นพูดถึงเรา หรือสิ่งที่ประกอบเป็นเรา เช่น คนถ่ายรูปเรา พูดถึงเรา แต่ไม่ได้แท็กเราข้อมูลเหล่านี้ถูกเก็บไว้ใช้เพื่อการโฆษณาเหมือนกัน

ทุกวันนี้คุณมองว่า AI เป็นอะไร
คิดว่าเป็นตัวเร่ง (Accelerator) หรือ ตัวเร่งปฏิกิริยา (Catalyst) ของตัวเรา ถ้าเราเอาเชื้อความคิดบางอย่างใส่ใน AI มันอาจจะเร่งให้ความคิดนั้นเกิดผลเร็วขึ้น หรือขยายความคิดนั้นให้มีขนาดใหญ่ขึ้น ส่วนจะดีหรือเลว ก็ขึ้นอยู่กับธรรมชาติของ AI แต่ละตัว ทุกวันนี้ AI สร้างมาตรฐานใหม่ขึ้นมา เราตื่นตัวกับเรื่องเฟซบุ๊กและข้อมูลส่วนตัว แต่ปฏิเสธไม่ได้ว่าลึกๆ แล้ว เราก็คิดว่าสะดวกดี (หัวเราะ) มันทำให้เรามองว่าเป็นเรื่องที่ยอมรับได้ และมีประโยชน์ แต่อย่าลืมว่ามันก็มีราคาที่ต้องจ่ายโดยที่เราไม่ได้รู้ตัวมากนัก

เป็นไปได้ไหมที่เราจะพัฒนา AI หรือหุ่นยนต์ที่มีจิตวิญญาณ (Soul)
กลับมาที่คำถามว่าจิตวิญญาณคืออะไร ในเชิงปรัชญาจะมี ‘ซอมบี้เชิงปรัชญา’ (Philosophical Zombie) หรือ P-Zombie คือ สมมติฐานที่ว่า สิ่งที่เราเห็นเป็นแค่ความคิด ข้างในตัวเขาไม่มีจิตวิญญาณ เป็นแค่ระบบโต้ตอบบางอย่างตามสิ่งที่เราคิด เราเลยตั้งคำถามว่า ‘ข้างใน’ คืออะไร เพราะเราไม่สามารถชี้ชัดได้ว่าจิตวิญญาณคืออะไร คือสมองส่วนไหน ถ้าตัดส่วนนี้ออกไปจะไม่มีจิตวิญญาณใช่ไหม บางคนตอบว่าจิตวิญญาณคือสิ่งที่ทำให้มนุษย์คนอื่นมีอารมณ์ความรู้สึกร่วม เช่น นักร้องแต่งเพลงที่เต็มไปด้วยจิตวิญญาณ คนฟังแล้วร้องไห้ จะเป็นยังไงถ้า AI ทำได้แบบเดียวกัน ที่จริงแล้วจิตวิญญาณคือการให้ความหมายกับสิ่งๆ หนึ่งหรือเปล่า การบอกว่า AI ไม่มีจิตวิญญาณก็คือการแบ่งแยกเหมือนกันว่ามนุษย์อยู่เหนือกว่าทุกสิ่งทั้งปวง

จริงๆ แล้วการพัฒนา AI เกิดจากความพยายามเอาชนะขีดจำกัดของมนุษย์ด้วยหรือเปล่า
มันคือการสวมบทบาทเป็นพระเจ้า ตามความเชื่อทางคริสตศาสนาพระเจ้าสร้างอดัมกับอีฟขึ้นมา มนุษย์ก็ต้องการสร้างสิ่งหนึ่งที่มีคุณค่าลักษณะแบบมนุษย์ทุกประการ โดยไม่ใช้โครงสร้างทางชีววิทยาหรือการมีลูก หนังสือ Homo Deus ของยูวาล โนอาห์ ฮารารี (Yuval Noah Harari) บอกว่ามนุษย์มีบทบาทเดียวคือการให้กำเนิดสิ่งที่เหนือกว่าตนเอง (Divinity) ซึ่งคือ AI ในรูปแบบต่างๆ นักวิชาการบางคน เช่น เรย์ เคิร์ซเวล (Ray Kurzweil) บอกว่าในอนาคตจะเกิดซิงกูราลิตี้ (Singularity) ซึ่งคือการหลอมรวมมนุษย์กับ AI ด้วยวิธีบางประการ เช่น การอัปโหลดจิตเข้าไปในระบบ มนุษย์อาจกลายเป็นไซบอร์ก หรือ AI อาจพัฒนาแยกออกมาโดยไม่มีส่วนผสมของมนุษย์เลย ฮารารีมองว่านี่คือจุดมุ่งหมายของมนุษย์ แต่ผมไม่ได้เชื่อว่ามนุษย์มีบทบาทแค่นั้น

คุณรู้สึกกังวลเกี่ยวกับเรื่องเทคโนโลยีบ้างไหม
คงเป็นเรื่องความเป็นส่วนตัวเหมือนกับทุกคน ระบบกล้องวงจรปิดของจีนเกี่ยวข้องกับการให้คะแนนทางสังคม ถ้าระบบนี้กลายเป็น AI เมื่อไร มันง่ายมากที่จีนจะส่งออกระบบนี้ให้กับประเทศอื่นที่มีอุดมการณ์ทางการเมืองใกล้เคียงกัน เรื่องนี้น่ากลัวจริงและเป็นสิ่งที่ทำใจไม่ได้ด้วย (ถ้าออกกฎหมายคุ้มครองล่ะ) คนออกกฎหมายอาจมองว่าเป็นระบบที่ดีด้วยซ้ำ มันต้องอาศัยการเคลื่อนไหวจากภาคประชาสังคมด้วยว่าเรายอมรับไม่ได้ ก่อนที่จะมันจะเกิด ซึ่งก็เป็นเรื่องที่ต้องสร้างความรับรู้ต่อไป

จะเกิดอะไรขึ้นถ้าหากมนุษย์สามารถย้ายจิตไปอยู่ในสรรพสิ่งอื่นได้สำเร็จ เราจะกลายเป็นอมตะหรือเปล่า
กลับไปที่คำถามเดิมว่ามนุษย์คืออะไร ในทางปรัชญามีสิ่งที่เรียกว่า Duality คือการแยกจิตกับร่างออกจากกัน ถ้ามนุษย์คิดว่าแยกจิตกับร่างได้จริง จิตคือข้อมูลแบบหนึ่งซึ่งสามารถเก็บรักษาได้ในระบบอื่นๆ ที่ไม่ใช่ระบบทางชีวภาพ (Biological Component) หรือเปล่า สมมติว่าคนๆ หนึ่งได้รับอุบัติเหตุกระทบกระเทือนทางสมอง ซึ่งเป็นสมองส่วนความจำ แล้วแพทย์ใส่ชิปเข้าไปทำงานแทน คนนั้นยังเป็นมนุษย์อยู่ไหม ถ้าทุกส่วนของสมองถูกแทนที่เรื่อยๆ หรือถอดสมองไปใส่ในหุ่นยนต์ โดยที่มีความทรงจำอยู่เหมือนเดิม เขามีปฏิกิริยาโต้ตอบและมีความสามารถเท่าเดิม ความเป็นมนุษย์ของเขาจะยังอยู่ไหม

มีกรณีที่เกิดขึ้นจริงที่โปรแกรมเมอร์หนุ่มคนหนึ่งมีพ่อป่วยเป็นมะเร็งและกำลังจะตายอีก 6 เดือน เขาเลยเอาบทสนทนาทั้งหมดที่เคยคุยกับพ่อ วอยซ์เมล เอกสาร จดหมายต่างๆ มาทำเป็นระบบแชตบ็อต ทำให้เขาคุยกับพ่อได้โดยที่ไม่ได้รู้สึกว่านั่นคือการหมิ่นหยามพ่อ แต่ทำให้บางเวอร์ชันของพ่อยังมีชีวิตอยู่ได้ด้วยความทรงจำ ถ้าเราสอนให้ AI เป็นเหมือนกับเรา และทำงานบางส่วนได้แทนเรา แบบนี้คือการทำให้ตัวเองเป็นอมตะ (Immortalise) หรือเปล่า

นิยามของความตาย หรือโลกหลังความตายจะเปลี่ยนไปไหม
เปลี่ยนครับ เราตัดสินว่าสิ่งไหนตาย ไม่ตาย ด้วยประสบการณ์ที่เรายังมีกับสิ่งนั้น เช่น กรณีโปรแกรมเมอร์จำลองพ่อขึ้นมาในโปรแกรมแชตบ็อต เขาจะรู้สึกเสียใจมากกว่าไหม ถ้าไม่มีตัวแทนของพ่อแล้ว เหมือนกับหนังเรื่อง Coco (2017) ที่บอกว่าคนเราตาย 2 ครั้ง ตายครัั้งแรกคือ เสียชีวิต ตายครั้งที่สองคือ ตายเมื่อไม่มีใครจำ ความตายแบบที่สองเป็นความตายที่ AI หรือระบบโซเชียลมีเดียจะเข้ามาทำให้คนนั้นมีชีวิตอยู่ได้
สมมติว่าถ้าคุณไม่ได้อยู่บนโลกนี้แล้ว จะเก็บส่วนไหนของตัวเองไว้ไหม หรือดับสูญไปเลย
ไม่ครับ อย่างกรณีสมองของไอน์สไตน์ถูกดองไว้โดยที่ไม่ได้รับการยินยอมจากเขา ผมคิดว่าการอัปโหลดสมองให้เขาฟื้นคืนชีพขึ้นมาอาจจะไม่โอเคเท่าไร ถ้าจะมีคนทำแบบนี้กับผม ก็อย่าเลย อย่างน้อยมันก็เป็นตัวแทนของตัวผม

 

Creative Ingredients
AI ในฝัน

เครื่องที่สามารถเล่าให้มันฟังว่าจะเขียนงานยังไง พอกดปุ่มงานก็ออกมาเลย (หัวเราะ) แต่ถ้ามีเครื่องนี้เมื่อไร ผมก็ตกงาน

นักคิดหรือไอดอลด้าน AI ที่ชื่นชอบ
พยายามมีไอดอลทั้งสองทางเพื่อบาลานซ์ความคิดตัวเอง ฝ่ายสนับสนุนการสร้าง AI คือ เรย์ เคิร์ซเวล (Ray Kurzweil) กับฝ่ายที่ไม่สนับสนุน คือ มาร์ติน ฟอร์ด (Martin Ford)

แนะนำหนังสือและซีรีส์เกี่ยวกับ AI
ซีรีส์ Black Mirror ภาพยนตร์ Ex Machina หนังสือ The Master Algorithm, Rise of the Robots กับ The Most Human Human

 

เรื่อง : ปิยพร อรุณเกรียงไกร


Champ Teepagorn Wuttipitayamongkol: Human, AI, Bias and Dictatorship

 “AI development makes us look back and ask what it means to be human”. Champ-Teepagorn Wuttipitayamongkol, an IT columnist and the founder of online news agency The MATTER, often raises this point while talking about the progress of artificial intelligence or AI. Meanwhile, the advancement of AI technology are making news around the world and the International Labour Organization (ILO), an agency of the United Nations, has revealed that automation could substitute 140 million ASEAN workers in the next 20 years.

Why are you interested in the philosophical side of AI?
Before, we talked about AI in terms of algorithms such as how to sequence the numbers fastest or use the least processing power. But lately the word AI speaks of the computational intelligence that is near-human. In the past, technology and society seemed to be separate. Today, when talking about programmers and hackers, everyone seems to think of the leaders who bring technology into our lives. The paradigm of technology and society has apparently changed. As a media, I see the effects and outcomes of the technology that has changed human behaviour, system of government and economic thinking. All of those go back to philosophical questions. 

AI development makes us question what it means to be human. Some people think that AI can create art but lacking humanities. Then, what is good art? To answer these questions, we must look back to the root: how human think, what human perceives and builds—what are the measures of their value?

Why is there a high risk for workers in Thailand and ASEAN to be substitute by AI and automation?
Because AI-integrated manufacturing system can reduce production cost and leads to the reshoring phenomenon. Before, we were familiar with the term ‘offshore’ where producing countries would let countries like us (whose labour costs were lower) manufacture their products such as electronic parts or car parts. But we never receive the whole body of knowledge. When robots or AI machines can perform certain works without human labour, the production costs can be reduced and that brings outsourcing jobs back to the producing countries. This issue might cause loss of jobs for Thai manufacturing sector soon, which is very painful. Thai labour was moved from agricultural sector to industrial sector. Now our industrial sector can no longer compete and the agricultural sector has also been dominated by machine as well. We have harvesting machines, aerial photographing tools that can readily analyse which areas need how much fertilizer without the need for the body of knowledge that has been accumulated for 30 years. That is something we must keep in mind and our leader must figure out where we are going to be in this new world’s equation.

As a media, how do you filter the information and present AI news?
I feel that AI is smart and more efficient than human. But don’t forget that AI is built by human. The book Weapons of Math Destruction by Cathy O'Neil talks about the perils of AI when used to govern human such as COMPAS which is used by US judges to assess a defendant's risk of re-offending. This system will calculate from the statistics of similar individuals such as the defendant is black, lives in poor area or has a family member with the same offence. Such calculation is repeating history. Blacks might previously have a higher percentage of committing offences than whites, but that doesn’t mean the defendant in front of you will be such person. Therefore, why use historical statistics to determine this person’s fate? 

Another thing is the selection of prospective employees. Companies abroad use computerised resume-reading systems. They check social network to find out who we know and evaluate into numbers. The applicants won’t know how much they score or what those numbers are based on. What used to be a personal bias is turned into a standardised bias. There might not be such system used in Thailand, but when we apply for insurance or credit card, they will use default risk calculating systems from our or similar individuals’ data.

Finally we will return to philosophy.
Yes, because humanity has no universal value in which everyone in the world shares that same belief. One thing that is both a benefit and a problem of AI is scalability from one into a million. If we spread one belief to become the belief that governs one million people, how do we use such belief to govern those million people when there is no shared belief?

Seeing AI as a threat tends to link to the religious belief about the apocalypse. What do you think?
The apocalypse might happen from one single mistake but multiplied by a million. For instance, Google has a data center with over 10,000 server systems. MIT magazine states that Google has transferred the management of the data center cooling systems to AI. Therefore, if AI lets all the servers overheat, Google will stop working all over the world. Or what if Google sells this system to other companies and some errors occur. The apocalypse doesn’t happen from AI shooting at us, but from when we are suddenly and unknowingly severed from everything we depend on and we have no idea how to carry on.

Actually it’s human who create the problem.

We build something to depend on and we depend on them. Without depending on those technologies, we won’t be able to develop our civilisation to this point. But we must admit that we give them a great deal of trust. I think the administration needs certain check and balance systems that will allow an assessment whether AI works as accurately and effectively as it is supposed to and whether there is a bias on any groups of people. Because what is scary is not the people who build AI to conquer the world, but those who think they just sell things, just advertise, or just do their duties the best they can. It’s a type of ethics, which I think is scarier.

It seems that we will need to depend on AI more and more. Will this technology make human smarter or stupider? 
I think it’s a different kind of smart such as better access to information. We know where to find this knowledge, but it makes us stop memorising. The good thing is we need not carry certain information in our head all the time. But we won’t have the information that is the starting fuel in our mind. When there’s no creative idea, there’s no new output. But what we gain is knowing where to find it. Human have increased this body of knowledge. Kids these days might not need to memorise poetry but they will be taught to memorise where to find it, how to believe what they find and how to connect the information together. That might give them the skills suitable to the way of living in 20-30 years but still lacking the input in their head. If we search for the information and think on it, we will gain transactive memory and mental input at the same time. That’s the challenge of this generation.

Is it possible that we will develop AI that has a soul?
Back to the question of what is a soul? In philosophy, there is a philosophical zombie or P-Zombie, a hypothesis that what we see is only thoughts. There is no soul within, just some interaction system responding to our thought. So we ask what is the “inside”? Because we can’t pinpoint what a soul is, which part of the brain. If we cut out this part, will there be no soul? Some people say a soul is what arouses shared feelings in other people such as a soulful singer-songwriter who makes listeners cry and say that this song is full of soul. What if AI can do the same thing? Actually, doesn’t a soul mean assigning meaning to something? Saying AI has no soul is also a discrimination that human is above everything else.   

Story : Piyaporn Arunkriangkrai Image : Peera Disttakorn