วันศุกร์ที่ 2 ธันวาคม พ.ศ. 2565

การพัฒนานโยบายที่ YouTube


ตอบคำถามที่พบบ่อยเกี่ยวกับวิธีที่เราพัฒนาหลักเกณฑ์ของชุมชน

นับตั้งแต่ช่วงแรกที่ YouTube เปิดให้บริการ เราได้กำหนดหลักเกณฑ์ของชุมชนเพื่อระบุสิ่งที่อนุญาตบนแพลตฟอร์มของเรา กฎเกณฑ์เหล่านี้ช่วยให้มีการแสดงออกอย่างสร้างสรรค์มากขึ้นในขณะเดียวกันก็ให้ความสำคัญกับการปกป้องทั้งชุมชน YouTube จากเนื้อหาที่เป็นอันตราย ความสมดุลนี้สำคัญอย่างยิ่งต่อการเปิดกว้างให้มีแนวคิดใหม่ๆ เกิดขึ้นและสนับสนุนการแชร์ไอเดีย นอกจากนี้ การรับประกันความสำเร็จระยะยาวของ YouTube ในฐานะธุรกิจก็ยังเป็นสิ่งจำเป็น เนื่องจากโดยพื้นฐานแล้ว พาร์ทเนอร์ด้านโฆษณาไม่ต้องการมีส่วนเกี่ยวข้องกับเนื้อหาที่เป็นอันตราย

เรามักได้รับคำถามต่างๆ เป็นประจำเกี่ยวกับวิธีที่เราตัดสินเรื่องขอบเขตการบังคับใช้นโยบายเหล่านี้ หรือสาเหตุที่ใช้เวลานานในการพัฒนาและเปิดตัวนโยบายใหม่ (ดูภาพรวมกว้างๆ เกี่ยวกับแนวความคิดของเราเรื่องความพยายามในการรับผิดชอบได้ที่นี่) ดังนั้น เราจะอธิบายในบล็อกนี้เกี่ยวกับวิธีพัฒนานโยบายและกระบวนการในการบังคับใช้นโยบายเหล่านี้

เราระบุนโยบายที่จำเป็นต้องปรับปรุงอย่างไร

โลกเปลี่ยนแปลงไปอย่างรวดเร็วและนโยบายของเราก็ต้องพัฒนาตามไปด้วย ด้วยเหตุนี้ เราจึงตรวจสอบนโยบายเป็นประจำเพื่อให้มั่นใจว่านโยบายสอดคล้องกับการเปลี่ยนแปลงที่เกิดขึ้นทั้งในและนอกแพลตฟอร์ม เหมือนกับกฎหมายที่ควบคุมประชาสังคม อธิบายให้เข้าใจง่ายๆ ก็คือเนื้อหาส่วนใหญ่บน YouTube ไม่ละเมิดหลักเกณฑ์ของเรา แต่เรายังคงตรวจหาช่องโหว่ที่อาจเกิดขึ้นหรือค้นหาความเสี่ยงใหม่ๆ ที่ทดสอบนโยบายของเราในรูปแบบที่ต่างจากเดิม

เราพัฒนานโยบายอย่างต่อเนื่องเพื่อให้สอดคล้องกับสถานการณ์ในปัจจุบัน โดยเป้าหมายหลักที่เรามุ่งเน้นมีอยู่ 1 ประการ นั่นคือการป้องกันอันตรายร้ายแรงในโลกแห่งความเป็นจริง ซึ่งไม่ได้หมายความว่าเราจะนำเนื้อหาที่ทำให้เกิดความไม่พอใจทั้งหมดออกจาก YouTube และเราเชื่อว่าการอภิปรายที่เปิดกว้างและการแสดงออกอย่างอิสระมักช่วยให้เกิดผลลัพธ์ที่ดีขึ้นต่อสังคม ทั้งนี้ เรากำหนดนโยบายอย่างระมัดระวังสำหรับเนื้อหาที่อาจก่อให้เกิดภัยอันตรายร้ายแรงต่อผู้ใช้หรือแพลตฟอร์ม


ภัยอันตรายดังกล่าวอาจรวมถึงการทำอันตรายต่อร่างกายหรือสิ่งของ เช่น เมื่อคำกล่าวอ้างที่เชื่อมโยงเทคโนโลยี 5G กับการแพร่ระบาดของโควิด-19 ส่งผลให้เกิดความเสียหายต่อเสาสัญญาณมือถือทั่วทั้งสหราชอาณาจักร เราก็ตัดสินอย่างรวดเร็วว่าคำกล่าวอ้างดังกล่าวละเมิดนโยบาย หรือภัยอันตรายอาจหมายถึงอันตรายร้ายแรงต่อสถาบันประชาธิปไตย ซึ่งเป็นเหตุให้เราไม่อนุญาตให้มีการกล่าวอ้างที่มุ่งเน้นให้ผู้คนเข้าใจผิดเกี่ยวกับการลงคะแนนเสียง รวมถึงการโปรโมตข้อมูลเท็จเกี่ยวกับเวลา สถานที่ หรือข้อกำหนดเกี่ยวกับการมีสิทธิ์ลงคะแนนเสียง

นอกจากนี้ เรายังร่วมงานกับองค์กร NGO ผู้เชี่ยวชาญด้านวิชาการ และผู้เชี่ยวชาญที่เกี่ยวข้องจากทุกฝ่ายและประเทศต่างๆ อย่างใกล้ชิดเพื่อแจ้งให้ทราบเกี่ยวกับการตรวจสอบนโยบายนี้ บุคคลเหล่านี้ช่วยแจ้งข้อกังวลใหม่ๆ หรืออธิบายอย่างละเอียดเกี่ยวกับประเด็นที่มีแนวโน้มว่าจะมีการเปลี่ยนแปลงอย่างต่อเนื่อง เช่น เรากำหนดนโยบายสำหรับการให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับโควิด-19 ในช่วงต้นของการแพร่ระบาดควบคู่กับหน่วยงานด้านสาธารณสุข เช่น ศูนย์ควบคุมและป้องกันโรคและองค์การอนามัยโลก หลังจากนั้น เมื่อคำแนะนำขององค์กรดังกล่าวเริ่มผ่อนปรนข้อจำกัดด้านการเว้นระยะห่างทางสังคมและการสวมหน้ากากอนามัย เราก็ได้ปรับปรุงนโยบายเกี่ยวกับเนื้อหาที่ตั้งคำถามถึงประสิทธิภาพของหน้ากากอนามัยและการเว้นระยะห่างทางสังคม

เรากำหนดขอบเขตในการบังคับใช้นโยบายอย่างไร


เมื่อเราระบุส่วนที่จำเป็นต้องมีการปรับปรุงนโยบายแล้ว ทีมความน่าเชื่อถือและความปลอดภัยจะรับหน้าที่พัฒนาวิธีแก้ไขที่ปรับให้เหมาะกับผู้ใช้แต่ละคนในส่วนดังกล่าว เราเริ่มต้นโดยการประเมินสิ่งต่างๆ เช่น มีการพบเนื้อหาที่เป็นอันตรายประเภทที่เฉพาะเจาะจงนี้บน YouTube บ่อยแค่ไหน (และความเป็นไปได้ที่จะมีจำนวนเพิ่มขึ้น) แล้วเนื้อหาดังกล่าวได้รับการจัดการอย่างไรภายใต้หลักเกณฑ์ปัจจุบันของชุมชน


จากนั้นเราจะดูวิดีโอหลายสิบหรือหลายร้อยรายการเพื่อทำความเข้าใจผลกระทบของการกำหนดนโยบายต่างๆ การกำหนดนโยบายไม่ได้พิจารณาจากวิดีโอเพียงรายการเดียว แต่เป็นการพิจารณาถึงผลกระทบต่อวิดีโอทั้งหมดที่ระบบจะนำออกและที่อาจยังเผยแพร่ได้ต่อไปภายใต้หลักเกณฑ์ใหม่ การปฏิบัติตามการตรวจสอบที่ครอบคลุมนี้ทำให้ทีมงานได้แชร์ตัวเลือกต่างๆ สำหรับนโยบาย รวมถึงอธิบายอย่างละเอียดถึงตัวอย่างวิดีโอที่ระบบจะนำออกหรืออนุมัติสำหรับแต่ละนโยบาย (รวมถึงการดำเนินการบังคับใช้ต่างๆ เช่น การนำออกกับการจำกัดอายุผู้ชม)



หลังจากมีการเลือกตัวเลือกอันดับต้นๆ จากตัวเลือกฉบับร่างดังกล่าว จะมีการประเมินเพิ่มเติม โดยในขั้นนี้ เราจะทำความเข้าใจว่าตัวเลือกที่เสนอนั้นสามารถช่วยให้บรรลุเป้าหมายต่อไปนี้ได้อย่างมีความหมายหรือไม่

  • ลดภัยร้ายแรงในโลกของความเป็นจริงขณะเดียวกันก็สร้างความสมดุลให้กับความต้องการในการแสดงออกอย่างอิสระ
  • ช่วยให้ผู้กลั่นกรองเนื้อหาหลายพันรายทั่วโลกบังคับใช้นโยบายได้อย่างต่อเนื่อง
หากเราพึงพอใจกับการบรรลุเป้าหมายเหล่านี้แล้ว กลุ่มผู้บริหารก็จะให้บรรดาหัวหน้าทั่วทั้งบริษัทตรวจสอบสิ่งที่เสนอ การอนุมัติในขั้นสุดท้ายจะมาจากผู้นำระดับสูงสุด ได้แก่ CEO และประธานเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ของ YouTube หากมีจุดใดจุดหนึ่งที่ทีมต่างๆ มีความเห็นไม่ตรงกันเกี่ยวกับส่วนที่เราบังคับใช้นโยบาย เราจะส่งนโยบายกลับไปยังฝ่ายกำหนดนโยบาย

ใครเป็นผู้ให้ข้อมูลเกี่ยวกับการพัฒนาและบังคับใช้นโยบาย

เราร่วมงานอย่างใกล้ชิดกับผู้เชี่ยวชาญบุคคลที่สามที่มีชื่อเสียงมากมายตลอดกระบวนการพัฒนานโยบายเกี่ยวกับประเด็นต่างๆ เช่น วาจาสร้างความเกลียดชังหรือการล่วงละเมิด นอกจากนี้ เรายังร่วมงานกับหน่วยงานภาครัฐหลายๆ หน่วยงานเพื่อหารือเกี่ยวกับประเด็นอื่นๆ ที่สำคัญ เช่น ลัทธิสุดโต่งที่นิยมความรุนแรงและความปลอดภัยของเด็ก

ผู้เชี่ยวชาญช่วยเราคาดการณ์ว่าเหตุการณ์ต่างๆ ทั่วโลกจะทำให้เนื้อหาที่เป็นอันตรายแพร่กระจายไปทั่วทั้งแพลตฟอร์มได้อย่างไร รวมถึงอุดช่องโหว่ของระบบที่อาจถูกแสวงหาประโยชน์จากผู้ไม่ประสงค์ดี หรือให้คำแนะนำเกี่ยวกับการอัปเดตใหม่ๆ ทั้งยังคอยให้ข้อมูลที่ช่วยเราปรับนโยบายในสถานการณ์ที่คำแนะนำเปลี่ยนแปลงไปอย่างรวดเร็ว อย่างเช่นการแพร่ระบาดของโควิด-19

การร่วมงานกันเหล่านี้ยังมีความสำคัญอย่างยิ่งในการสนับสนุนการบังคับใช้นโยบายสำหรับปัญหาระดับภูมิภาค ซึ่งความเชี่ยวชาญด้านภาษาหรือวัฒนธรรมมักจำเป็นต่อการให้บริบทอย่างถูกต้อง เช่น เราร่วมงานกับผู้เชี่ยวชาญอย่างใกล้ชิดในปี 2021 เกี่ยวกับเหตุการณ์รัฐประหารในเมียนมาเพื่อระบุกรณีที่บุคคลใช้การปราศรัยเพื่อยุยงให้เกิดความเกลียดชังและความรุนแรงด้วยคำพูดที่เชื่อว่าชาติพันธุ์และศาสนาของตนเหนือกว่าบุคคลอื่น การดำเนินการนี้ช่วยให้เรานำเนื้อหาที่ละเมิดออกจากแพลตฟอร์มได้อย่างรวดเร็ว

เราพยายามเตรียมรับมือปัญหาใหม่ๆ ที่เกิดขึ้นไหม

ผู้ใช้มักคิดว่าการกลั่นกรองเนื้อหาเป็นไปตามความรู้สึก โดยคิดว่าเราจะลบเนื้อหาออกเมื่อมีการแจ้งจากระบบหรือผู้ใช้เท่านั้น ในความเป็นจริง งานจำนวนมากของเรามุ่งเน้นไปที่อนาคต เรามีกระบวนการระยะยาวที่ออกแบบมาเพื่อให้ทีมพบปัญหาใหม่ๆ ล่วงหน้าก่อนที่ปัญหาดังกล่าวจะมาถึงหรือแพร่กระจายเป็นวงกว้างในแพลตฟอร์ม


ระดับการมองเห็นที่มีคุณค่าดังกล่าวขับเคลื่อนโดยทีมตรวจสอบข้อมูล ซึ่งเป็นทีมภายในองค์กรความน่าเชื่อถือและความปลอดภัยของ YouTube นักวิเคราะห์ที่มีความเชี่ยวชาญเหล่านี้จะคอยระบุแนวโน้มที่อาจละเมิดนโยบาย ไม่ว่าจะเป็นแนวโน้มใหม่ๆ เกี่ยวกับการให้ข้อมูลที่ไม่ถูกต้องหรือชาเลนจ์บนอินเทอร์เน็ตที่เป็นอันตราย รวมถึงความเสี่ยงที่มี นอกจากนี้ ผู้เชี่ยวชาญเหล่านี้ยังตรวจสอบภัยคุกคามที่กำลังเกิดขึ้นอยู่เป็นประจำ เช่น ทฤษฎีสมคบคิดอย่างสุดโต่ง รวมถึงติดตามความแพร่หลายของทฤษฎีนี้ในสื่อและประเมินว่าทฤษฎีนี้มีลักษณะเปลี่ยนแปลงไปอย่างไรเมื่อเวลาผ่านไป

จากนั้นข้อมูลเชิงลึกเหล่านี้จะมีการนำไปใช้ในขั้นตอนการพิจารณาว่านโยบายปัจจุบันหรือในอนาคตจะจัดการภัยคุกคามเหล่านี้ได้อย่างไร เช่น จากหลักฐานที่รวบรวมโดยทีมตรวจสอบข้อมูล เราได้ปรับปรุงนโยบายการล่วงละเมิดและความเกลียดชังเพื่อรับมือกับทฤษฎีสมคบคิดที่เป็นอันตรายในแพลตฟอร์มให้ดียิ่งขึ้น

เราจะทราบได้อย่างไรว่านโยบายมีการบังคับใช้อย่างสอดคล้องกัน

การนำนโยบายใหม่ไปใช้ถือเป็นความพยายามร่วมกันระหว่างผู้คนและเทคโนโลยีแมชชีนเลิร์นนิง ซึ่งหมายความว่าในสถานการณ์จริง ผู้คนและแมชชีนเลิร์นนิงต้องทำงานร่วมกันเพื่อให้การตรวจสอบเนื้อหามีความถูกต้องอยู่ในระดับสูงอย่างต่อเนื่อง เราจึงจะเปิดตัวและบังคับใช้นโยบายได้สำเร็จ

เราเริ่มต้นโดยการให้ทีมผู้กลั่นกรองเนื้อหาที่มีประสบการณ์มากที่สุดเรียนรู้เกี่ยวกับหลักเกณฑ์การบังคับใช้ (คำอธิบายโดยละเอียดเกี่ยวกับสิ่งที่ทำให้เนื้อหาละเมิดนโยบาย) แล้วถามถึงความแตกต่างระหว่างเนื้อหาที่ละเมิดและไม่ละเมิด หากหลักเกณฑ์ใหม่ช่วยให้ทีมผู้กลั่นกรองเนื้อหาตรวจสอบได้อย่างถูกต้องในระดับที่สูงมาก เราจะขยายกลุ่มการทดสอบเพื่อเพิ่มผู้กลั่นกรองเนื้อหาอีกหลายร้อยคนที่มีภูมิหลัง ภาษาที่ใช้ และระดับประสบการณ์แตกต่างกัน

ในจุดนี้ เราเริ่มแก้ไขหลักเกณฑ์เพื่อให้ตีความได้อย่างถูกต้องจากกลุ่มผู้กลั่นกรองเนื้อหาจำนวนมากที่มีความหลากหลายยิ่งขึ้น กระบวนการนี้อาจใช้เวลา 2-3 เดือน และจะแล้วเสร็จเมื่อกลุ่มผู้กลั่นกรองเนื้อหามีระดับความถูกต้องสูงใกล้เคียงกัน ข้อมูลเหล่านี้ช่วยฝึกเทคโนโลยีแมชชีนเลิร์นนิงให้ตรวจจับเนื้อหาที่อาจละเมิดในวงกว้าง การทดสอบที่เราร่วมมือกับผู้กลั่นกรองเนื้อหาช่วยเราทดสอบโมเดลให้เข้าใจว่าเราได้ให้บริบทเพียงพอต่อการทำการประเมินที่ถูกต้องเกี่ยวกับสิ่งที่จะแสดงให้เจ้าหน้าที่ตรวจสอบหรือไม่

หลังระยะเวลาการทดสอบนี้ นโยบายใหม่จะเปิดตัวได้ในท้ายที่สุด แต่ก็จะมีการปรับปรุงอย่างต่อเนื่องในเดือนต่อๆ มา ทุกสัปดาห์ หัวหน้าฝ่ายความน่าเชื่อถือและความปลอดภัยจะประชุมกับหัวหน้าฝ่ายรับรองคุณภาพจากทั่วโลก (ซึ่งมีหน้าที่ดูแลทีมกลั่นกรองเนื้อหา) เพื่อหารือเกี่ยวกับประเด็นที่ตัดสินใจได้ยากลำบากโดยเฉพาะและตรวจสอบคุณภาพของการบังคับใช้นโยบาย หากจำเป็น จะมีการร่างการปรับเปลี่ยนหลักเกณฑ์เพื่อแก้ไขปัญหาหรือให้ความกระจ่างสำหรับแต่ละกรณีที่เป็นปัญหาที่สุด

ผู้คนและแมชชีนเลิร์นนิงร่วมกันบังคับใช้นโยบายอย่างไร

เมื่อโมเดลได้รับการฝึกให้ระบุเนื้อหาที่อาจละเมิดแล้ว ผู้กลั่นกรองเนื้อหาก็ยังคงมีบทบาทสำคัญตลอดกระบวนการบังคับใช้อยู่ แมชชีนเลิร์นนิงระบุเนื้อหาที่อาจละเมิดในวงกว้าง และเสนอให้ตรวจสอบเนื้อหาที่อาจขัดต่อหลักเกณฑ์ของชุมชน จากนั้นผู้กลั่นกรองเนื้อหาจะช่วยยืนยันหรือปฏิเสธว่าควรนำเนื้อหาออกหรือไม่


แนวทางการทำงานร่วมกันนี้ช่วยปรับปรุงความถูกต้องของโมเดลเรื่อยๆ เนื่องจากโมเดลจะเรียนรู้และปรับเปลี่ยนตามความคิดเห็นของผู้กลั่นกรองเนื้อหาอย่างต่อเนื่อง นอกจากนี้ ยังหมายความว่าระบบการบังคับใช้สามารถจัดการเนื้อหาจำนวนมากที่อัปโหลดลงใน YouTube (มีการอัปโหลดเนื้อหามากกว่า 500 ชั่วโมงในทุกๆ นาที) พร้อมทั้งอธิบายถึงความแตกต่างเล็กๆ น้อยๆ ที่ระบุว่าส่วนใดส่วนหนึ่งของเนื้อหาละเมิดนโยบายหรือไม่

ตัวอย่างเช่น คำปราศรัยของฮิตเลอร์ในการชุมนุมที่นูเรมเบิร์กซึ่งไม่มีบริบทเพิ่มเติมอาจละเมิดนโยบายเกี่ยวกับวาจาสร้างความเกลียดชัง แต่หากมีการใส่คำปราศรัยเดียวกันนี้ไว้ในสารคดีที่วิพากษ์วิจารณ์การกระทำของนาซีอย่างรุนแรง คำปราศรัยดังกล่าวอาจได้รับอนุญาตภายใต้หลักเกณฑ์ EDSA (การศึกษา สารคดี งานทางวิทยาศาสตร์ หรือศิลปะ) EDSA พิจารณาบริบทของเนื้อหา เช่น วิดีโอเพื่อการศึกษาหรือสารคดีประวัติศาสตร์

ความแตกต่างนี้อาจสร้างความยากลำบากให้โมเดลมากยิ่งขึ้นในการจดจำ ขณะที่ผู้กลั่นกรองเนื้อหาสามารถระบุบริบทที่เพิ่มเข้ามาได้ง่ายขึ้น นี่จึงเป็นเหตุผลหนึ่งที่การบังคับใช้ต้องมีการรับผิดชอบร่วมกันโดยพื้นฐาน และเป็นการเน้นย้ำว่าเหตุใดการตัดสินของมนุษย์จึงมีส่วนสำคัญในกระบวนการของเราเสมอ สำหรับหมวดหมู่ส่วนใหญ่ของเนื้อหาที่อาจละเมิดบน YouTube ทางโมเดลจะแจ้งให้ผู้กลั่นกรองเนื้อหาทราบว่าเนื้อหาไม่เหมาะสมเพื่อทำการตรวจสอบก่อนที่จะมีการดำเนินการใดๆ

เราจะวัดความสำเร็จได้อย่างไร

เราดำเนินงานทั้งหมดในการปฏิบัติตามหลักเกณฑ์ของชุมชนและภารกิจของเราในอนาคต เพื่อให้ YouTube เป็นแหล่งรวมแนวคิดใหม่ๆ และเปรียบเสมือนบ้านของชุมชน การประสบความสำเร็จในส่วนนี้จะเกิดขึ้นได้ยากหากใช้ข้อมูลต่างๆ จากเพียงเมตริกเดียว เรารับฟังความคิดเห็นจากผู้มีส่วนเกี่ยวข้องและสมาชิกของชุมชนเกี่ยวกับวิธีที่เราสามารถปรับปรุงได้อยู่เสมอ และเรายังทำให้ระบบและกระบวนการมีความโปร่งใสมากขึ้นอย่างต่อเนื่อง (รวมถึงความพยายามต่างๆ เช่น บล็อกนี้)

เราเปิดตัวเมตริกที่เรียกว่าอัตราการดูที่มีการละเมิด (Violative View Rate: VVR) ซึ่งจะระบุยอดดูบน YouTube ที่มาจากเนื้อหาที่ละเมิด เพื่อวัดประสิทธิภาพของการบังคับใช้ ตั้งแต่เดือนกรกฎาคมจนถึงเดือนกันยายนของปีนี้ จำนวนดังกล่าวอยู่ที่ 0.10-0.11% ซึ่งหมายความว่ายอดดูทุกๆ 10,000 ครั้งจะมียอดดูราว 10 หรือ 11 ครั้งที่มาจากเนื้อหาที่ละเมิดหลักเกณฑ์ของชุมชน

นอกจากนี้ เรายังติดตามจำนวนการอุทธรณ์ที่ครีเอเตอร์ยื่นเข้ามาสำหรับวิดีโอที่ถูกนำออก (ตัวเลือกพร้อมให้ใช้งานสำหรับครีเอเตอร์ทุกรายบน YouTube) เนื่องจากการอุทธรณ์ช่วยให้เราเข้าใจได้ชัดเจนยิ่งขึ้นเกี่ยวกับความถูกต้องของระบบ เช่น ในระยะเวลาเดียวกันกับที่กล่าวถึงข้างต้น เราได้นำวิดีโอมากกว่า 5.6 ล้านรายการออกเนื่องจากละเมิดหลักเกณฑ์ของชุมชน และได้รับการอุทธรณ์การนำวิดีโอออกประมาณ 271,000 รายการ หลังจากที่ตรวจสอบแล้ว เราได้คืนสิทธิให้การอุทธรณ์เหล่านั้นประมาณ 29,000 รายการ

แม้เมตริกต่างๆ เช่น การอุทธรณ์ การคืนสิทธิ และอัตราการดูที่มีการละเมิด ไม่ได้ให้แนวทางที่สมบูรณ์แบบในการทำความเข้าใจความสอดคล้องหรือความถูกต้อง เมตริกเหล่านี้ก็ยังมีบทบาทสำคัญในการวัดเปรียบเทียบความสำเร็จ

หลักเกณฑ์ของชุมชนเป็นเรื่องของภาษาและการแสดงออก โดย 2 สิ่งนี้เป็นสิ่งที่มีความจำเพาะในแต่ละพื้นที่และเปลี่ยนแปลงอยู่ตลอด การเปลี่ยนแปลงดังกล่าวทำให้เรายังคงทำการตรวจสอบนโยบายของเราเป็นประจำเพื่อให้มั่นใจว่ามีการกำหนดนโยบายอย่างเหมาะสม เราจะแชร์ข้อมูลเพิ่มเติมเกี่ยวกับแนวทางที่เราปรับนโยบายในไม่กี่เดือนข้างหน้าเพื่อให้ชุมชนทราบข้อมูลอัปเดตอยู่เสมอ

โดย Matt Halprin รองประธานและหัวหน้าฝ่ายความน่าเชื่อถือและความปลอดภัย และ Jennifer Flannery O'Connor รองประธานฝ่ายการจัดการผลิตภัณฑ์

On policy development at YouTube


Answering commonly asked questions about how we develop our Community Guidelines.

Since the earliest days of YouTube, we've had Community Guidelines to establish what's allowed on our platform. These rules of the road gave rise to creative expression while prioritizing the protection of the entire YouTube community from harmful content. This balance is critical for allowing new voices to participate and to promote the sharing of ideas. It’s also necessary to ensure YouTube’s long-term success as a business, as our advertising partners fundamentally do not want to be associated with harmful content.

A few questions have regularly cropped up around how we decide where to draw these lines or why it can take so long to develop and launch new policies (for a broader overview of how we think about our responsibility efforts, see here). So in this blog, we’re shedding more light on how we develop our policies and the processes that go into enforcing them.

How do we determine what policy updates are needed?

The world moves quickly and our policies need to keep up. That’s why we regularly review our policies to make sure that — similar to the laws that govern civil society — they reflect the changes that occur both on and off our platform. To be clear: the vast majority of content on YouTube does not violate our guidelines. But we still check for gaps that may have opened up or hunt for emerging risks that test our policies in new ways.

As we work to keep our policies evolving with the current landscape, our guiding focus is around one major goal: preventing egregious real-world harm. This doesn’t mean that we remove all offensive content from YouTube, and we generally believe that open debate and free expression leads to better societal outcomes. But we’re careful to draw the line around content that may cause egregious harm to our users or to the platform.


This can include physical harm. For example, when claims that linked 5G technology to the spread of COVID-19 resulted in damage to cell towers across the United Kingdom, we moved quickly to make them violative. Or it could mean significant harm to democratic institutions, which is why we don’t allow claims that aim to mislead people about voting — including by promoting false information about the voting times, places or eligibility requirements.


We also work closely with NGOs, academics, and relevant experts from all sides and different countries to inform this policy review. They help flag new concerns, or bring a deep understanding to complex topics that are prone to consistent change. For example, we established our COVID-19 misinformation policy at the start of the pandemic alongside health authorities like the Center for Disease Control and World Health Organization. Later, as their guidance shifted to ease mask and social distancing restrictions, we updated our policies around content that questioned the efficacy of masks and social distancing.


How do we decide where to draw "the line"?


Once we’ve identified an area where a policy update is needed, that’s where our Trust & Safety team comes in to develop a tailored solution. We start by assessing a few things. How commonly found is this specific type of harmful content on YouTube (and what’s its potential to grow)? And how is it managed under our current Community Guidelines? 


Then we watch dozens or even hundreds of videos to understand the implications of drawing different policy lines. Drawing a policy line is never about a single video; it’s about thinking through the impact on all videos, which would be removed and which could stay up under the new guideline. Following this comprehensive review, the team shares various options for policy lines, making sure to detail examples of videos that would be removed or approved for each (as well as different enforcement actions, like removal vs. age-restriction).



A top choice is selected from those draft options and then goes through further rounds of assessment. At this stage, we’re looking to understand whether the proposal can meaningfully achieve a few key goals:

  • Mitigate egregious real-world harm while balancing a desire for freedom of expression.
  • Allow for consistent enforcement by thousands of content moderators across the globe.

If we’re satisfied that we’re hitting these targets, an executive group made up of leads across the company reviews the proposal. Final sign-off comes from the highest levels of leadership, including YouTube’s Chief Product Officer and CEO. If at any point there is consistent disagreement between teams about where we’ve drawn the line, the policy is sent back to the drawing board.

Who provides input on policy development and enforcement?

Throughout the policy development process, we partner closely with a range of established third-party experts on topics like hate speech or harassment. We also work with various government authorities on other important issues like violent extremism and child safety.

Experts help us forecast how global events could cause harmful content to spread across our platform, including uncovering gaps in our systems that might be exploited by bad actors, or providing recommendations for new updates. And like with COVID-19, they provide input that helps us adapt policies in situations where guidance can change quickly.

These partnerships are also especially critical to support policy enforcement for regional issues, where language or cultural expertise is often needed to properly contextualize content. For example, we worked closely with experts in 2021 during the coup d'état in Myanmar to identify cases where individuals were using speech to incite hatred and violence along ethno-religious lines. This allowed us to quickly remove the violative content from our platform.

Do we try to get ahead of emerging issues?

People often think about content moderation as reactive in nature — that we only take content down when it’s flagged by our systems or people. In reality, the bulk of our work focuses on the future. There’s a long process that’s designed to give our teams visibility into emerging issues before they reach, or become widespread on, our platform. 



That valuable visibility is driven by our Intelligence Desk, a team within YouTube’s Trust & Safety organization. These specialized analysts identify potentially violative trends — whether new vectors of misinformation or dangerous internet challenges — and the risks they pose. They’re also regularly monitoring ongoing threats like extremist conspiracy theories, both tracking their prevalence across media and evaluating how they morph over time.

These insights then feed into thinking through how current or future policies would manage these new threats. For example, based on evidence gathered by the Intelligence Desk, we updated our hate and harassment policies to better combat harmful conspiracy theories on our platform.

How do we make sure policies are enforced consistently?

The implementation of a new policy is a joint effort between people and machine learning technology. In practice, that means in order for a policy to be successfully launched and enforced, people and machines need to work together to achieve consistently high levels of accuracy when reviewing content.

We start by giving our most experienced team of content moderators enforcement guidelines (detailed explanation of what makes content violative), and ask them to differentiate between violative and non-violative material. If the new guidelines allow them to achieve a very high level of accuracy, we expand the testing group to include hundreds of moderators across different backgrounds, languages and experience levels.

At this point, we begin revising the guidelines so that they can be accurately interpreted across the larger, more diverse set of moderators. This process can take a few months, and is only complete once the group reaches a similarly high degree of accuracy. These findings then help train our machine learning technology to detect potentially violative content at scale. As we do with our content moderators, we test models to understand whether we’ve provided enough context for them to make accurate assessments about what to surface for people to review.

After this testing period, the new policy can finally launch. But the refinement continues in the months that follow. Every week, our Trust & Safety leadership meet with quality assurance leads from across the globe (those responsible for overseeing content moderation teams) to discuss particularly thorny decisions and review the quality of our enforcement. If needed, guideline tweaks are then drafted to address gaps or to provide clarity for edge cases.

How do people and machines work together to enforce our policies?

Once models are trained to identify potentially violative content, the role of content moderators remains essential throughout the enforcement process. Machine learning identifies potentially violative content at scale and nominates for review content that may be against our Community Guidelines. Content moderators then help confirm or deny whether the content should be removed.


This collaborative approach helps improve the accuracy of our models over time, as models continuously learn and adapt based on content moderator feedback. And it also means our enforcement systems can manage the sheer scale of content that’s uploaded to YouTube (over 500 hours of content every minute), while still digging into the nuances that determine whether a piece of content is violative.

For example, a speech by Hilter at the Nuremberg rallies with no additional context may violate our hate speech policy. But if the same speech was included in a documentary that decried the actions of the Nazis, it would likely be allowed under our EDSA guidelines. EDSA takes into account content where enough context is included for otherwise violative material, like an educational video or historical documentary.

This distinction may be more difficult for a model to recognize, while a content moderator can more easily spot the added context. This is one reason why enforcement is a fundamentally shared responsibility — and it underscores why human judgment will always be an important part of our process. For most categories of potentially violative content on YouTube, a model simply flags content to a content moderator for review before any action may be taken. 

How do we measure success?

We’re driven in all of our work to live up to our Community Guidelines and further our mission to allow new voices and communities to find a home on YouTube. Success on this front is hard to pin down to a single metric, but we’re always listening to feedback from stakeholders and members of our community about ways we can improve — and we continuously look to provide more transparency into our systems and processes (including efforts like this blog).

To measure the effectiveness of our enforcement, we release a metric called our violative view rate, which looks at how many views on YouTube come from violative material. From July through September of this year, that number was 0.10% – 0.11%, which means that for every 10,000 views, between 10 and 11 were of content that violated our Community Guidelines.

We also track the number of appeals submitted by creators in response to videos that are removed (an option available to any Creator on YouTube), as this helps us gain a clearer understanding about the accuracy of our systems. For example, during the same time period mentioned above, we removed more than 5.6 million videos for violating our Community Guidelines and received roughly 271,000 removal appeals. Upon review, we reinstated about 29,000 appeals. 

And while metrics like appeals, reinstatements, and our violative view rate don’t offer a perfect solution to understand consistency or accuracy, they’re still pivotal in benchmarking success on an ongoing basis.

Community Guidelines are concerned with language and expression — two things that, by their very nature, evolve over time. With that shifting landscape, we’ll continue to regularly review our  policy lines to make sure they’re drawn in the right place. And to keep our community informed, we’ll be sharing further how we’re adapting in the months ahead.

By Matt Halprin, Vice President, Global Head of Trust & Safety and Jennifer Flannery O'Connor, Vice President, Product Management

3 ความคิดเห็น:

  1. เล่นเกมออนไลน์ สนุกลุ้นโชค

    ตอบลบ
  2. สมัครเล่น Win8s บาคาร่า สล็อต และเกมคาสิโนออนไลน์ ครบวงจร ระบบฝาก-ถอน ออโต้ล่าสุด โปรเด็ดเพียบ

    ตอบลบ