เคยสงสัยกันไหมว่า ทำไมเฟซบุ๊กถึงชอบแจ้งเตือนเมื่อเพื่อนหรือเพจที่เราติดตามกำลังแชร์เนื้อหาแบบถ่ายทอดสด เหตุผลเป็นเพราะว่า เฟซบุ๊กให้คุณค่ากับเนื้อหาไลฟ์ต่างกับโพสต์ทั่วๆ ไป เนื่องจากเนื้อหาสดสามารถสร้างปฏิสัมพันธ์กับผู้ใช้งานมากกว่าเนื้อหาอื่นๆ ชนิดทิ้งห่างแบบขาดลอย เฟซบุ๊กรายงานว่า ยูสเซอร์จะใช้เวลามากกว่าถึง 3 เท่าเพื่อดูวิดีโอแบบถ่ายทอดสดเมื่อเทียบกับวิดีโอที่อัพโหลดแบบธรรมดา อีกทั้งพวกเขายังกดไลก์ แชร์ และคอมเมนต์มากกว่าถึง 10 เท่า

ปรากฏการณ์ไลฟ์ฟีเวอร์ของเฟซบุ๊กน่าจะเริ่มมาจากต้นแบบความฮิตถล่มทลายของแอพพลิเคชั่นสแนปแชทที่ครองใจวัยรุ่นฝั่งตะวันตกได้มากกว่าเฟซบุ๊ก ด้วยการเสนอเนื้อหาที่มีความสดใหม่และมีอายุอยู่แค่ 24 ชั่วโมง ที่หากยูสเซอร์ไม่กดดูก็ถือว่าพลาดแล้วพลาดเลย ความรู้สึกประเภทนี้ที่เรียกว่า “Fear of Missing Out: FOMO” ได้ท้าทายความสงสัยใคร่รู้ให้ยูสเซอร์กดดูได้ไม่ยาก พร้อมๆ กับความตื่นเต้นที่จะได้ดูความเรียล ณ ขณะไลฟ์ ซึ่งกระตุ้นต่อมความลุ้นและรอติดตามให้อยู่ถึงตอนจบได้อยู่หมัด แต่รู้หรือไม่ว่าทุกๆ การไลฟ์ การโพสต์ และคอมเมนต์ของยูสเซอร์เฟซบุ๊กทั่วโลกที่มีจำนวนกว่าพันล้านคน มี AI และคนจำนวนหนึ่งคอยตรวจสอบเนื้อหาในเฟซบุ๊กให้ปลอดภัยต่อการรับชมของยูสเซอร์ให้ได้มากที่สุด ทว่าด้วยจำนวนเนื้อหามหาศาลที่ถูกอัพโหลดในแต่ละวัน ทำให้ภาพข่าวไลฟ์สดทุกรูปแบบ รวมถึงเนื้อหาที่รุนแรงอย่างการฆาตกรรม การทารุณกรรมเด็ก หรือการข่มขืน หลุดรอดออกมาในหน้าฟีดของยูสเซอร์จนกลายเป็นข่าวครึกโครมอยู่ในปัจจุบัน

อย่างไรก็ตาม เฟซบุ๊กเคยรายงานว่าใน 3 เดือนแรกของปีที่แล้ว พวกเขาได้ทำการลบโพสต์กว่า 21 ล้านโพสต์ที่มีเนื้อหาโป๊เปลือย ลบภาพที่แสดงถึงความรุนแรงกว่า 3 ล้านภาพ และลบอีกกว่าล้านโพสต์ที่มีเนื้อหายุยงให้เกลียดชังกัน (Hate Speech) แต่จากการสัมภาษณ์นักตรวจสอบเนื้อหาของบริษัทเฟซบุ๊กจากสารคดีเรื่อง "Inside Facebook: Secrets of the Social Network." ถึงหลักการตัดสินใจว่าเนื้อหาใดควรถูกลบออกจากเฟซบุ๊กก็ชวนให้ยูสเซอร์ตั้งข้อสงสัยถึงวิจารณญาณในการคัดกรองเนื้อหาต่างๆ ของเฟซบุ๊กไม่น้อย เพราะเนื้อหาบางส่วนที่แสดงออกถึงความรุนแรงอย่างชัดเจน เช่น วิดีโอพ่อเลี้ยงทำร้ายร่างกายลูก ฟุตเทจการกินลูกหนูสด และภาพของคนกำลังตาย กลับถูกพิจารณาว่าไม่เป็นอันตรายต่อผู้รับชม โดยหนึ่งในเหตุผลที่เนื้อหาประเภทนี้ยังคงมีอยู่ก็เพราะมันได้สร้าง “ความตระหนักรู้บางอย่าง” ให้กับยูสเซอร์ ซึ่งนี่เป็นคำกล่าวอ้างของนักตรวจสอบเนื้อหาที่บริษัทเฟซบุ๊กได้ว่าจ้างไว้

ซาร่า แคทซ์ (Sarah Katz) อดีตนักตรวจสอบเนื้อหาของเฟซบุ๊กออกมาเผยว่า วันๆ หนึ่งเธอต้องพิจารณาเนื้อหาที่ถูกรีพอร์ตกว่า 8,000 โพสต์และใช้เวลาประมาณ 10 วินาทีเพื่อพิจารณาว่าเนื้อหาเหล่านั้นเป็นอันตรายต่อยูสเซอร์หรือไม่ บ่อยครั้งที่เธอต้องทนดูเนื้อหาที่เข้าข่ายการทารุณกรรมเด็กทางเพศซึ่งเห็นได้ชัดว่ามีกลุ่มคนเบื้องหลังที่จัดฉากถ่ายทำวิดีโอหรือภาพประเภทนี้เพื่อเผยแพร่มันออกมาในเฟซบุ๊ก เธอยอมรับว่าเธอชาชินกับเนื้อหาประเภทนี้เหตุเพราะเธอเห็นมันบ่อยเกินไป และแม้ซาร่าจะไม่ปฏิเสธว่างานนี้ส่งผลกระทบด้านลบต่อจิตใจพนักงาน แต่เธอก็ยังสนับสนุนและยืนยันถึงความสำคัญของนักตรวจสอบเนื้อหาว่าเป็นผู้ที่ช่วยสร้างสังคมที่ปลอดภัยสำหรับผู้ใช้งานเฟซบุ๊กไม่น้อย

ต่างกับลอร์ร่า (นามสมมติ) พนักงานอีกคนที่ให้สัมภาษณ์กับสำนักงานข่าวบีบีซีว่า งานที่เธอทำสร้างบาดแผลให้จิตใจเธออย่างมาก แต่เธอและพนักงานคนอื่นๆ กลับไม่ได้รับการดูแลจากเฟซบุ๊กเท่าที่ควร เธอบอกว่างานนี้ทำให้เธอกลายเป็นเครื่องจักรที่ไร้หัวใจและยังสร้างฝันร้ายที่เธอจำฝังใจไม่เคยลืม “ฉันฝันเห็นคนๆ หนึ่งกำลังจะโดดตึก แทนที่คนอื่นๆ จะเข้าไปช่วย พวกเขากลับถ่ายภาพและอัดคลิปวิดีโอ ฉันร้องไห้และโผเข้ากอดเด็กตัวเล็กๆ ที่อยู่ข้างๆ ฉันเห็นเลือดกระจายไปทั่ว แต่ผู้คนก็ยังคงอยู่กับมือถือ ฉันตื่นขึ้น และร้องไห้อีกครั้ง” 

ความตลกร้ายก็คือ มันเป็นภาพฝันร้ายที่ดูคล้ายกับความจริงในสังคมปัจจุบันเป็นอย่างมาก จนถ้าหากไม่ไตร่ตรองให้ดี คุณอาจมองเห็นเป็นเหตุการณ์ธรรมดาที่ไม่ได้รู้สึกอะไรมากก็ได้ แต่สำหรับล่อร์ร่า มันยังคงเป็นฝันร้ายที่คอยหลอกหลอนจิตใจเธออยู่เสมอ

ที่มาภาพ: Alice Donovan Rouse/Unsplash.com

ที่มา:
บทความ "A former Facebook moderator says she had to review 8,000 posts a day and it made her numb to child porn" (กรกฎาคม 2018) จาก businessinsider.com
บทความ "Secretly filmed footage reveals the training Facebook moderators are put through" (กรกฎาคม 2018) จาก businessinsider.com
บทความ “The Psychology Behind Why We Love Live Video” (พฤษภาคม 2016) จาก skyword.com
วิดีโอ "Meet people who review Facebook's reported content" (เมษายน 2018) จาก bbc.com

เรื่อง: วรรณเพ็ญ บุญเพ็ญ