เรากำหนดขอบเขตในการบังคับใช้นโยบายอย่างไร
เมื่อเราระบุส่วนที่จำเป็นต้องมีการปรับปรุงนโยบายแล้ว ทีมความน่าเชื่อถือและความปลอดภัยจะรับหน้าที่พัฒนาวิธีแก้ไขที่ปรับให้เหมาะกับผู้ใช้แต่ละคนในส่วนดังกล่าว เราเริ่มต้นโดยการประเมินสิ่งต่างๆ เช่น มีการพบเนื้อหาที่เป็นอันตรายประเภทที่เฉพาะเจาะจงนี้บน YouTube บ่อยแค่ไหน (และความเป็นไปได้ที่จะมีจำนวนเพิ่มขึ้น) แล้วเนื้อหาดังกล่าวได้รับการจัดการอย่างไรภายใต้หลักเกณฑ์ปัจจุบันของชุมชน
จากนั้นเราจะดูวิดีโอหลายสิบหรือหลายร้อยรายการเพื่อทำความเข้าใจผลกระทบของการกำหนดนโยบายต่างๆ การกำหนดนโยบายไม่ได้พิจารณาจากวิดีโอเพียงรายการเดียว แต่เป็นการพิจารณาถึงผลกระทบต่อวิดีโอทั้งหมดที่ระบบจะนำออกและที่อาจยังเผยแพร่ได้ต่อไปภายใต้หลักเกณฑ์ใหม่ การปฏิบัติตามการตรวจสอบที่ครอบคลุมนี้ทำให้ทีมงานได้แชร์ตัวเลือกต่างๆ สำหรับนโยบาย รวมถึงอธิบายอย่างละเอียดถึงตัวอย่างวิดีโอที่ระบบจะนำออกหรืออนุมัติสำหรับแต่ละนโยบาย (รวมถึงการดำเนินการบังคับใช้ต่างๆ เช่น การนำออกกับการจำกัดอายุผู้ชม)
- ลดภัยร้ายแรงในโลกของความเป็นจริงขณะเดียวกันก็สร้างความสมดุลให้กับความต้องการในการแสดงออกอย่างอิสระ
- ช่วยให้ผู้กลั่นกรองเนื้อหาหลายพันรายทั่วโลกบังคับใช้นโยบายได้อย่างต่อเนื่อง
This can include physical harm. For example, when claims that linked 5G technology to the spread of COVID-19 resulted in damage to cell towers across the United Kingdom, we moved quickly to make them violative. Or it could mean significant harm to democratic institutions, which is why we don’t allow claims that aim to mislead people about voting — including by promoting false information about the voting times, places or eligibility requirements.
We also work closely with NGOs, academics, and relevant experts from all sides and different countries to inform this policy review. They help flag new concerns, or bring a deep understanding to complex topics that are prone to consistent change. For example, we established our COVID-19 misinformation policy at the start of the pandemic alongside health authorities like the Center for Disease Control and World Health Organization. Later, as their guidance shifted to ease mask and social distancing restrictions, we updated our policies around content that questioned the efficacy of masks and social distancing.
How do we decide where to draw "the line"?
Once we’ve identified an area where a policy update is needed, that’s where our Trust & Safety team comes in to develop a tailored solution. We start by assessing a few things. How commonly found is this specific type of harmful content on YouTube (and what’s its potential to grow)? And how is it managed under our current Community Guidelines?
Then we watch dozens or even hundreds of videos to understand the implications of drawing different policy lines. Drawing a policy line is never about a single video; it’s about thinking through the impact on all videos, which would be removed and which could stay up under the new guideline. Following this comprehensive review, the team shares various options for policy lines, making sure to detail examples of videos that would be removed or approved for each (as well as different enforcement actions, like removal vs. age-restriction).
- Mitigate egregious real-world harm while balancing a desire for freedom of expression.
- Allow for consistent enforcement by thousands of content moderators across the globe.
People often think about content moderation as reactive in nature — that we only take content down when it’s flagged by our systems or people. In reality, the bulk of our work focuses on the future. There’s a long process that’s designed to give our teams visibility into emerging issues before they reach, or become widespread on, our platform.
Nice post thanks for sharing. lightinthebox discount code
ตอบลบเล่นเกมออนไลน์ สนุกลุ้นโชค
ตอบลบสมัครเล่น Win8s บาคาร่า สล็อต และเกมคาสิโนออนไลน์ ครบวงจร ระบบฝาก-ถอน ออโต้ล่าสุด โปรเด็ดเพียบ
ตอบลบ