ผู้คนหลายพันล้านคนทั่วโลกเข้ามายัง YouTube ด้วยเหตุผลนานาประการ ไม่ว่าคุณจะต้องการดูคอนเสิร์ตหายากหรือวางแผนที่จะเรียนรู้ทักษะใหม่ YouTube ก็จะนำพาผู้ชมให้พบกับเนื้อหาและมุมมองต่างๆ มากมายที่หลากหลาย แต่ทั้งหมดทั้งมวลนี้คงเป็นไปไม่ได้หากเราไม่มุ่งมั่นปกป้องชุมชน ซึ่งเป็นหัวใจสำคัญของการขับเคลื่อนระบบทั้งหมดและเป็นรากฐานที่เรายึดมั่นในการดำเนินงานทุกๆ ด้านของผลิตภัณฑ์
ในหนึ่งปี ผมจะหาโอกาส 2-3 ครั้งเพื่อเล่าเรื่องราวเบื้องหลังให้คุณทราบถึงวิธีที่เรารับมือกับสิ่งที่ท้าทายที่สุดที่ YouTube ต้องเผชิญและข้อดีข้อเสียของแต่ละเส้นทางที่เราอาจเลือกเดิน ในโพสต์ต่อๆ ไป เราอาจพูดถึงหัวข้ออย่างการดำเนินงานเพื่อพัฒนานโยบาย การอธิบายเพิ่มเติมถึงแนวทางการรับมือกับปัญหาที่ยากลำบาก หรืออาจแจกแจงเป้าหมายความรับผิดชอบหลักอย่างคร่าวๆ แต่ในโพสต์แรกนี้ ผมอยากจะเจาะลึกเกี่ยวกับการดำเนินการในปัจจุบันเพื่อจัดการกับการให้ข้อมูลที่ไม่ถูกต้องบน YouTube ซึ่งอาจเป็นอันตราย
ในช่วง 5 ปีที่ผ่านมา เราได้ลงทุนมหาศาลไปกับกรอบการทำงานที่เรียกว่า "หลักความรับผิดชอบ 4R" เรานำเนื้อหาที่ละเมิดออกอย่างรวดเร็ว นำเสนอแหล่งข้อมูลที่เชื่อถือได้ และลดการเผยแพร่เนื้อหาที่เป็นปัญหาโดยอาศัยทั้งแมชชีนเลิร์นนิงและเจ้าหน้าที่ (ผมได้อธิบายเหตุผลของกรอบการทำงานนี้ไว้อย่างละเอียดในบล็อกโพสต์นี้) การใช้เครื่องมือเหล่านี้ร่วมกันมีส่วนสำคัญต่อการทำให้เนื้อหาคุณภาพต่ำมียอดดูน้อย และในขณะเดียวกันก็คงการแสดงออกอย่างอิสระของแพลตฟอร์มเอาไว้ ถึงอย่างนั้น ปัจจุบันการให้ข้อมูลที่ไม่ถูกต้องเกิดขึ้นอย่างรวดเร็วและแพร่ขยายในวงกว้างมากขึ้นกว่าเดิม เราจึงต้องพัฒนาแนวทางการจัดการเพื่อก้าวให้ทันเหตุการณ์เหล่านี้ สิ่งที่ท้าทาย 3 ประการที่ทีมของเรามุ่งมั่นจะดำเนินการมีดังนี้
ตรวจหาการให้ข้อมูลใหม่ที่ไม่ถูกต้องก่อนจะกลายเป็นไวรัล
ตลอดหลายปีมานี้ เรื่องราวหลักๆ ที่เป็นการให้ข้อมูลที่ไม่ถูกต้องบนโลกออนไลน์มีอยู่ไม่กี่เรื่อง ได้แก่ กลุ่มคนที่เชื่อว่ามีความจริงเบื้องหลังเหตุการณ์ 9/11 กลุ่มที่เชื่อทฤษฎีสมคบคิดเรื่องการเหยียบดวงจันทร์ และผู้ที่เชื่อว่าโลกแบน ทฤษฎีสมคบคิดที่มีมาเนิ่นนานเหล่านี้ส่งผลให้มีการผลิตเนื้อหาเรื่องนั้นๆ ไว้มากมาย เราจึงสามารถฝึกระบบแมชชีนเลิร์นนิงให้ลดการแนะนำวิดีโอดังกล่าวและวิดีโออื่นๆ ที่คล้ายกันโดยอิงตามแพทเทิร์นของเนื้อหาประเภทนั้น แต่ก็มีเรื่องราวใหม่ๆ ผุดขึ้นมาให้เห็นกันเรื่อยๆ ทั้งยังได้รับยอดดูอย่างรวดเร็ว หรืออาจมีเรื่องราวที่เบี่ยงประเด็นเป็นเรื่องอื่น เช่น เนื้อหาเกี่ยวกับสุขภาพทั่วไปที่อาจกลายเป็นสาเหตุที่ทำให้ผู้ชมไม่กล้ารับวัคซีน แต่ละเรื่องราวอาจนำเสนอเนื้อหาและมีวิธีเผยแพร่ต่างกันด้วย บางครั้งก็เป็นเรื่องราวเฉพาะพื้นที่
เราเผชิญปัญหาเหล่านี้ตั้งแต่ช่วงแรกที่โควิด-19 เริ่มแพร่ระบาด เช่น เมื่อมีทฤษฎีสมคบคิดที่เชื่อว่าหอส่งสัญญาณ 5G เป็นต้นเหตุทำให้ไวรัสโคโรนาแพร่ระบาดจนผู้คนในสหราชอาณาจักรออกมาเผาเสาสัญญาณมือถือ เรื่องนี้มีความเสี่ยงชัดเจนว่าจะเป็นภัยในชีวิตจริง เราจึงตอบสนองด้วยการปรับปรุงหลักเกณฑ์ต่างๆ และทำให้เนื้อหาประเภทนี้เป็นเนื้อหาที่ละเมิด สำหรับกรณีนี้ เราสามารถดำเนินการได้อย่างรวดเร็วเนื่องจากมีนโยบายสำหรับการให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับโควิด-19 ตามคำแนะนำของหน่วยงานด้านสาธารณสุขท้องถิ่นและทั่วโลกอยู่แล้ว
แต่เรื่องราวบางอย่างในอนาคตที่พัฒนาไปอย่างรวดเร็วอาจไม่มีคำแนะนำจากผู้เชี่ยวชาญที่สามารถนำมาใช้เป็นแนวทางการกำหนดนโยบายได้ ยิ่งเป็นข้อมูลใหม่ล่าสุด เราก็ยิ่งมีตัวอย่างน้อยลงที่จะใช้ฝึกระบบ จึงต้องฝึกระบบด้วยข้อมูลใหม่ๆ อย่างต่อเนื่องเพื่อแก้ไขปัญหานี้ เรากำลังมองหาวิธีใช้ประโยชน์จากการทำงานร่วมกันที่เจาะจงมากขึ้นของตัวแยกประเภท คีย์เวิร์ดจากภาษาอื่นๆ และข้อมูลจากนักวิเคราะห์ในภูมิภาคเพื่อระบุเรื่องราวที่ตัวแยกประเภทหลักตรวจไม่พบ เมื่อเวลาผ่านไป การดำเนินการนี้จะช่วยให้เราตรวจหาการให้ข้อมูลที่ไม่ถูกต้องและเป็นไวรัลเหล่านี้ได้อย่างรวดเร็วและแม่นยำยิ่งขึ้น
นอกเหนือจากการลดการเผยแพร่เนื้อหาบางรายการแล้ว ระบบยังนำพาผู้ชมไปยังวิดีโอที่เชื่อถือได้ในผลการค้นหาและวิดีโอแนะนำ แต่บางหัวข้อก็ขาดตัวเนื้อหาที่เชื่อถือได้ ซึ่งทำให้เกิดช่องโหว่ในการแสวงหาประโยชน์จากข้อมูล เช่น ลองนึกถึงเหตุการณ์ที่เป็นข่าวด่วนอย่างภัยธรรมชาติ ซึ่งเราอาจเห็นว่าเนื้อหาที่เผยแพร่ทันทีหลังเกิดภัยพิบัตินำเสนอข้อมูลที่ไม่ได้รับการยืนยัน โดยมีการคาดเดาสาเหตุและความเสียหายไปต่างๆ นานา การสร้างเนื้อหาวิดีโอใหม่โดยแหล่งที่มาที่เชื่อถือได้อาจต้องใช้เวลา และในกรณีที่ข้อมูลที่ไม่ถูกต้องแพร่กระจายอย่างรวดเร็ว เราก็มักมีเนื้อหาที่เชื่อถือได้ไม่เพียงพอที่จะแสดงต่อผู้ชมในระยะสั้น
เราจะแสดงแผงข่าวรายงานความคืบหน้าสำหรับเหตุการณ์ที่เป็นข่าวใหญ่ เช่น ภัยธรรมชาติ เพื่อนำผู้ชมไปยังบทความที่เป็นข้อความบรรยายข่าวใหญ่นั้นๆ สำหรับหัวข้อเฉพาะกลุ่มที่สื่อต่างๆ อาจไม่ได้นำเสนอข้อมูล เราจะแสดงช่องตรวจสอบข้อเท็จจริงให้ผู้ชมเห็น แต่การตรวจสอบข้อเท็จจริงก็ใช้เวลาและไม่ได้ครอบคลุมหัวข้อใหม่ๆ บางหัวข้อ ในกรณีเหล่านี้ เราได้ลองใช้ป้ายกำกับประเภทอื่นๆ ในวิดีโอหรือบนผลการค้นหา เช่น ข้อจำกัดความรับผิดเพื่อเตือนผู้ชมว่าเราไม่มีข้อมูลคุณภาพสูง นอกจากนี้ เราต้องชั่งน้ำหนักว่าการแสดงป้ายกำกับอาจเป็นการให้ความสำคัญกับหัวข้อที่อาจไม่ได้รับความสนใจมาก่อนโดยไม่ตั้งใจหรือไม่ ทีมของเรากำลังพูดคุยเกี่ยวกับข้อควรพิจารณาเหล่านี้เพื่อมองหาแนวทางที่เหมาะสม
ปัญหาที่เกิดข้ามแพลตฟอร์ม - การรับมือกับการแชร์การให้ข้อมูลที่ไม่ถูกต้อง
ความท้าทายอีกเรื่องคือการเผยแพร่วิดีโอที่เสี่ยงต่อการละเมิดนอก YouTube ซึ่งเป็นวิดีโอที่ไม่ถือว่าละเมิดนโยบายจนต้องนำออก แต่เราก็ไม่ต้องการแนะนำแก่ผู้ชม เราได้ปรับปรุงระบบการแนะนำวิดีโอใหม่ทั้งหมดเพื่อลดการรับชมเนื้อหาที่เสี่ยงต่อการละเมิดซึ่งมาจากวิดีโอแนะนำจนเหลือต่ำกว่า 1% อย่างมีนัยสำคัญ อย่างไรก็ตาม แม้เราจะไม่แนะนำวิดีโอนั้นๆ ที่เสี่ยงต่อการละเมิด แต่ก็อาจมีคนรับชมวิดีโอดังกล่าวผ่านเว็บไซต์อื่นๆ ที่ฝังหรือลิงก์ไปยังวิดีโอ YouTube
วิธีหนึ่งที่อาจแก้ไขปัญหานี้ได้คือการปิดใช้ปุ่มแชร์หรือยกเลิกการลิงก์วิดีโอที่เราจำกัดการแนะนำอยู่แล้ว ซึ่งหมายความว่าคุณไม่สามารถฝังหรือลิงก์ไปยังวิดีโอที่เสี่ยงต่อการละเมิดในเว็บไซต์อื่น แต่เราก็คิดหนักว่าการป้องกันการแชร์อาจเป็นการจำกัดเสรีภาพของผู้ชมมากเกินไปหรือไม่ ระบบของเราลดการแนะนำเนื้อหาที่เสี่ยงต่อการละเมิด แต่การแชร์ลิงก์เป็นการกระทำที่ผู้ใช้สามารถเลือกที่จะปฏิบัติ ซึ่งต่างจากการกระทำที่เป็นฝ่ายรับ เช่น การดูวิดีโอแนะนำ
นอกจากนี้ เรายังควรคำนึงถึงบริบท เนื่องจากวิดีโอที่เสี่ยงต่อการละเมิดซึ่งฝังไว้ในงานวิจัยหรือรายงานข่าวอาจต้องได้รับการยกเว้นหรือได้รับการพิจารณาที่ต่างกันไปด้วย เราต้องพยายามหาจุดสมดุลระหว่างการจำกัดการเผยแพร่การให้ข้อมูลที่ไม่ถูกต้องซึ่งอาจเป็นอันตรายกับการอนุญาตให้มีพื้นที่สนทนาและให้ความรู้เกี่ยวกับประเด็นที่เป็นข้อขัดแย้งและละเอียดอ่อน
อีกหนึ่งแนวทางคือการแสดงข้อความคั่นระหว่างหน้าที่ปรากฏขึ้นก่อนที่ผู้ชมจะดูวิดีโอที่ลิงก์หรือฝังไว้ซึ่งเสี่ยงต่อการละเมิด เพื่อบอกให้ผู้ชมรู้ว่าเนื้อหาอาจมีการให้ข้อมูลที่ไม่ถูกต้อง ข้อความคั่นระหว่างหน้าเป็นเสมือนลูกระนาดลดความเร็ว ซึ่งเป็นขั้นตอนเพิ่มเติมที่ช่วยให้ผู้ชมหยุดชั่วคราวก่อนที่จะดูหรือแชร์เนื้อหา ความจริงแล้ว เราใช้ข้อความลักษณะนี้ในเนื้อหาที่จำกัดอายุผู้ชมและวิดีโอที่มีความรุนแรงหรือโจ่งแจ้งอยู่แล้ว ทั้งยังถือว่าเป็นเครื่องมือสำคัญที่ช่วยให้ผู้ชมตัดสินใจได้ว่าจะดูเนื้อหาต่อไปหรือไม่
เราจะพิจารณาทางเลือกอื่นๆ ต่อไปอย่างรอบคอบเพื่อจำกัดการแพร่กระจายของข้อมูลที่ไม่ถูกต้องซึ่งเป็นอันตรายในอินเทอร์เน็ต
ขยายแนวทางการจัดการกับการให้ข้อมูลที่ไม่ถูกต้องไปทั่วโลก
ความพยายามในการควบคุมการให้ข้อมูลที่ไม่ถูกต้องได้สร้างผลลัพธ์ที่แท้จริง แต่ก็ยังมีความซับซ้อนเนื่องจากเราต้องขยายการดำเนินการให้ครอบคลุมพื้นที่กว่า 100 ประเทศและในหลากหลายภาษาที่เราให้บริการ
แต่ละวัฒนธรรมมีทัศนคติที่ต่างกันในการตัดสินว่าแหล่งข้อมูลใดน่าเชื่อถือ ในบางประเทศ ผู้คนส่วนใหญ่มองว่าผู้ออกอากาศสาธารณะอย่าง BBC ในสหราชอาณาจักรเผยแพร่ข่าวสารที่เชื่อถือได้ ในขณะเดียวกัน ประเทศอื่นๆ อาจมองว่าผู้ออกอากาศของรัฐเป็นผู้เผยแพร่โฆษณาชวนเชื่อเสียมากกว่า นอกจากนี้ ประเทศต่างๆ ยังแสดงเนื้อหาที่หลากหลายในระบบนิเวศข้อมูลและข่าวสาร โดยมีตั้งแต่สื่อที่ใช้มาตรฐานการตรวจสอบข้อเท็จจริงอย่างเข้มงวดไปจนถึงสื่อที่ไม่ได้เข้มงวดในเรื่องนี้ สภาพแวดล้อมทางการเมือง บริบททางประวัติศาสตร์ และข่าวด่วนอาจนำไปสู่การเล่าเรื่องในพื้นที่ใดพื้นที่หนึ่งซึ่งเป็นการให้ข้อมูลที่ไม่ถูกต้องและไม่ปรากฏในที่อื่นๆ บนโลก ตัวอย่างเช่น ในช่วงที่มีการแพร่ระบาดของไวรัสซิก้าในบราซิล มีผู้คนบางกลุ่มกล่าวโทษว่าการร่วมมือกันของนานาชาติเป็นต้นเหตุทำให้เกิดการระบาด หรือเมื่อไม่นานมานี้ในญี่ปุ่น มีข่าวลือเท็จเผยแพร่ทางออนไลน์ว่าเหตุแผ่นดินไหวเกิดขึ้นจากฝีมือของมนุษย์
ความหลากหลายทางภูมิภาคนี้ทำให้ทีมของเราต้องเผชิญกับปัญหาเดียวกันหลายๆ ครั้งเกี่ยวกับการให้ข้อมูลใหม่ๆ ที่ไม่ถูกต้อง ตั้งแต่เรื่องราวที่เบี่ยงประเด็นไปจนถึงการไม่มีแหล่งข้อมูลที่เชื่อถือได้ ในช่วงแรกของการแพร่ระบาด เราเห็นว่าบางประเทศไม่มีข้อมูลงานวิจัยล่าสุดจากหน่วยงานด้านสาธารณสุข และในบางครั้ง คำแนะนำจากหน่วยงานท้องถิ่นก็แตกต่างกัน
หลักเกณฑ์การพิจารณาเนื้อหาที่เสี่ยงต่อการละเมิดก็อาจแตกต่างกันไป เราระลึกเสมอว่าหลักเกณฑ์ของผู้ประเมินเนื้อหาอาจสามารถตีความได้แตกต่างกันในภาษาและวัฒนธรรมต่างๆ เราต้องใช้เวลาในการทำงานร่วมกับทีมและผู้เชี่ยวชาญในพื้นที่ เพื่อให้รับรู้บริบททางวัฒนธรรมที่ส่งผลกระทบต่อการจัดประเภทวิดีโอว่าเสี่ยงต่อการละเมิดหรือไม่
นอกเหนือจากการเพิ่มสมาชิกในทีมด้วยผู้คนที่เข้าใจรายละเอียดของความแตกต่างทางภูมิภาคซึ่งเกี่ยวโยงกับการให้ข้อมูลที่ไม่ถูกต้องแล้ว เรายังลองลงทุนเพิ่มเติมเพื่อร่วมมือกับผู้เชี่ยวชาญและองค์กรภาคเอกชนทั่วโลก นอกจากนี้ เรากำลังพัฒนาวิธีอัปเดตโมเดลให้บ่อยขึ้นเพื่อตรวจจับการให้ข้อมูลที่ไม่ถูกต้องซึ่งเจาะจงในพื้นที่ใดพื้นที่หนึ่งด้วยความสามารถในการรองรับภาษาท้องถิ่น ซึ่งคล้ายกับแนวทางที่เราใช้กับหัวข้อไวรัลใหม่ๆ
สร้างความโปร่งใส
YouTube จะมุ่งมั่นทำงานต่อไปเพื่อลดการให้ข้อมูลที่ไม่ถูกต้องซึ่งเป็นอันตรายผ่านผลิตภัณฑ์และนโยบายทั้งหมด ในขณะเดียวกันก็ให้ทุกคนมีพื้นที่แสดงความคิดเห็นที่แตกต่าง เราตระหนักดีว่าไม่อาจตอบทุกคำถามได้ แต่ก็อยากจะแชร์คำถามและปัญหาที่เราได้ไตร่ตรองไว้ ปัจจุบันคือช่วงเวลาเร่งด่วนที่สุดที่เราต้องทำงานอย่างขันแข็งเพื่อคุณภาพชีวิตและความปลอดภัยของชุมชน ผมหวังเป็นอย่างยิ่งว่าจะได้แจ้งข่าวสารอื่นๆ ให้คุณทราบในโอกาสต่อไป
Neal Mohan
ประธานเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ YouTube
Inside Responsibility: What’s next on our misinfo efforts
Billions of people from around the world come to YouTube for every reason imaginable. Whether you’re looking to watch a hard-to-find concert, or planning to learn a new skill, YouTube connects viewers with an incredible array of diverse content and voices. But none of this would be possible without our commitment to protect our community — this core tenet drives all of our systems and underpins every aspect of our products.
A few times a year, I’ll bring you behind the scenes into how we’re tackling some of the largest challenges facing YouTube and the tradeoffs behind each action we’re considering. In future installments, we might explore topics like our policy development work, shed more light on the thinking behind a thorny issue or generally outline key responsibility milestones. But for this first edition, I want to dig into our ongoing work addressing potentially harmful misinformation on YouTube.
Over the past five years, we’ve invested heavily in a framework we call the 4Rs of Responsibility. Using a combination of machine learning and people, we remove violative content quickly, raise up authoritative sources, and reduce the spread of problematic content (I discussed in-depth why in a blog post here). These tools working together have been pivotal in keeping views of bad content low, while preserving free expression on our platform. And yet, as misinformation narratives emerge faster and spread more widely than ever, our approach needs to evolve to keep pace. Here are the next three challenges our teams are looking to tackle.
Catching new misinformation before it goes viral
For a number of years, the misinformation landscape online was dominated by a few main narratives – think 9/11 truthers, moon landing conspiracy theorists, and flat earthers. These long-standing conspiracy theories built up an archive of content. As a result, we were able to train our machine learning systems to reduce recommendations of those videos and other similar ones based on patterns in that type of content. But increasingly, a completely new narrative can quickly crop up and gain views. Or, narratives can slide from one topic to another—for example, some general wellness content can lead to vaccine hesitancy. Each narrative can also look and propagate differently, and at times, even be hyperlocal.
We faced these challenges early on in the COVID-19 pandemic, such as when a conspiracy theory that 5G towers caused the spread of coronavirus led to people burning down cell towers in the UK. Due to the clear risk of real-world harm, we responded by updating our guidelines and making this type of content violative. In this case we could move quickly because we already had policies in place for COVID-19 misinformation based on local and global health authority guidance.
But not every fast-moving narrative in the future will have expert guidance that can inform our policies. And the fresher the misinfo, the fewer examples we have to train our systems. To address this, we’re continuously training our system on new data. We’re looking to leverage an even more targeted mix of classifiers, keywords in additional languages, and information from regional analysts to identify narratives our main classifier doesn’t catch. Over time, this will make us faster and more accurate at catching these viral misinfo narratives.
In addition to reducing the spread of some content, our systems connect viewers to authoritative videos in search results and in recommendations. But certain topics lack a body of trusted content—what we call data voids. For example, consider a fast-breaking news event like a natural disaster, where in the immediate aftermath we might see unverified content speculating about causes and casualties. It can take trusted sources time to create new video content, and when misinformation spreads quickly, there isn’t always enough authoritative content we can point to in the short term.
For major news events, like a natural disaster, we surface developing news panels to point viewers to text articles for major news events. For niche topics that media outlets might not cover, we provide viewers with fact check boxes. But fact checking also takes time, and not every emerging topic will be covered. In these cases, we’ve been exploring additional types of labels to add to a video or atop search results, like a disclaimer warning viewers there’s a lack of high quality information. We also have to weigh whether surfacing a label could unintentionally put a spotlight on a topic that might not otherwise gain traction. Our teams are actively discussing these considerations as we look for the right approach.
The cross-platform problem - addressing shares of misinformation
Another challenge is the spread of borderline videos outside of YouTube – these are videos that don’t quite cross the line of our policies for removal but that we don’t necessarily want to recommend to people. We’ve overhauled our recommendation systems to lower consumption of borderline content that comes from our recommendations significantly below 1%. But even if we aren’t recommending a certain borderline video, it may still get views through other websites that link to or embed a YouTube video.
One possible way to address this is to disable the share button or break the link on videos that we’re already limiting in recommendations. That effectively means you couldn’t embed or link to a borderline video on another site. But we grapple with whether preventing shares may go too far in restricting a viewer’s freedoms. Our systems reduce borderline content in recommendations, but sharing a link is an active choice a person can make, distinct from a more passive action like watching a recommended video.
Context is also top of mind — borderline videos embedded in a research study or news report might require exceptions or different treatment altogether. We need to be careful to balance limiting the spread of potentially harmful misinformation, while allowing space for discussion of and education about sensitive and controversial topics.
Another approach could be to surface an interstitial that appears before a viewer can watch a borderline embedded or linked video, letting them know the content may contain misinformation. Interstitials are like a speed bump – the extra step makes the viewer pause before they watch or share content. In fact, we already use interstitials for age-restricted content and violent or graphic videos, and consider them an important tool for giving viewers a choice in what they’re about to watch.
We’ll continue to carefully explore different options to make sure we limit the spread of harmful misinformation across the internet.
Ramping up our misinformation efforts work around the world
Our work to curb misinformation has yielded real results, but complexities remain as we work to bring it to the 100+ countries and dozens of languages in which we operate.
Cultures have different attitudes towards what makes a source trustworthy. In some countries, public broadcasters like the BBC in the U.K. are widely seen as delivering authoritative news. Meanwhile in others, state broadcasters can veer closer to propaganda. Countries also show a range of content within their news and information ecosystem, from outlets that demand strict fact-checking standards to those with little oversight or verification. And political environments, historical contexts, and breaking news events can lead to hyperlocal misinformation narratives that don’t appear anywhere else in the world. For example, during the Zika outbreak in Brazil, some blamed the disease on international conspiracies. Or recently in Japan, false rumors spread online that an earthquake was caused by human intervention.
Faced with this regional diversity, our teams run into many of the same problems we see with emerging misinformation, from shifting narratives to lack of authoritative sources. Early on in the pandemic, we saw that not all countries had the latest research available from their health authorities, and those local authorities sometimes had differing guidance.
What’s considered borderline can also vary significantly. We’re always accounting for how our content evaluators’ guidelines could be interpreted differently across languages and cultures. It takes time to work with local teams and experts to inform the cultural context that impacts whether a video is classified as borderline.
Beyond growing our teams with even more people who understand the regional nuances entwined with misinformation, we're exploring further investments in partnerships with experts and non-governmental organizations around the world. Also, similar to our approach with new viral topics, we’re working on ways to update models more often in order to catch hyperlocal misinformation, with capability to support local languages.
Building on our transparency
At YouTube, we’ll continue to build on our work to reduce harmful misinformation across all our products and policies while allowing a diverse range of voices to thrive. We recognize that we may not have all the answers, but we think it’s important to share the questions and issues we’re thinking through. There has never been a more urgent time to advance our work for the safety and wellbeing of our community, and I look forward to keeping you all informed along the way.
Neal Mohan
Chief Product Officer, YouTube