สิ่งหนึ่งที่เราชื่นชมมากที่สุดเกี่ยวกับครีเอเตอร์คือความสามารถและทักษะอันน่าทึ่งของพวกเขา พวกเขาเป็นทั้งนักเล่าเรื่อง ผู้กำกับ บรรณาธิการ นักการตลาด และผู้ประกอบการ เพื่อให้ครีเอเตอร์เข้าถึงโอกาสในการต่อยอดสู่ความสำเร็จ YouTube จึงได้พัฒนาจากการเป็นเพียงแพลตฟอร์มสำหรับอัปโหลดและแชร์วิดีโอไปสู่การเป็นสถานที่ที่ครีเอเตอร์สามารถค้นหาฐานผู้ชมใหม่ๆ เชื่อมต่อกับแฟนๆ ในรูปแบบต่างๆ และต่อยอดธุรกิจที่กำลังเติบโต

เราได้วางรากฐานสำหรับเศรษฐกิจสร้างสรรค์แบบใหม่ไว้เมื่อ 14 ปีที่แล้วด้วยการเปิดตัวโปรแกรมพาร์ทเนอร์ YouTube (YPP) ซึ่งเป็นโมเดลธุรกิจรูปแบบใหม่ในเวลานั้นที่มีการแบ่งรายได้ส่วนใหญ่ที่เกิดขึ้นบน YouTube ให้กับครีเอเตอร์ ในช่วงเวลาเพียง 3 ปีที่ผ่านมา เราได้จ่ายเงินไปกว่า 3 หมื่นล้านเหรียญสหรัฐให้แก่ครีเอเตอร์ ศิลปิน และบริษัทสื่อต่างๆ และในไตรมาส 2 ของปีนี้ เราได้จ่ายเงินให้แก่ครีเอเตอร์และพาร์ทเนอร์มากกว่าไตรมาสใดๆ ในประวัติศาสตร์ของเรา

ในระหว่างนี้ เรายังคงเดินหน้าพัฒนาวิธีสร้างรายได้แบบใหม่ๆ สำหรับครีเอเตอร์นอกเหนือจากการโฆษณา ซึ่งรวมถึงสินค้าดิจิทัลแบบชำระเงิน สินค้า เนื้อหาที่มีแบรนด์ และอื่นๆ อีกมากมาย เป้าหมายร่วมกันของเรากับครีเอเตอร์คือการช่วยให้พวกเขาสร้างโมเดลธุรกิจที่แข็งแกร่งและหลากหลายที่ได้ผลทั้งในส่วนของเนื้อหาที่เป็นเอกลักษณ์และส่วนของกลุ่มผู้ชม

จากการเปิดตัวของ YouTube Shorts Fund ตอนนี้เรามีวิธีสร้างรายได้บน YouTube สำหรับครีเอเตอร์และศิลปินถึง 10 วิธีด้วยกัน ซึ่งได้แก่

  1. เงินสนับสนุนของ Shorts เงินสนับสนุนของ YouTube Shorts จำนวน 100 ล้านเหรียญสหรัฐได้รับการจัดสรรสำหรับการสนับสนุนครีเอเตอร์ในช่วงปี 2021-2022 เราจะติดต่อครีเอเตอร์หลายพันคนในแต่ละเดือนเพื่อแจ้งให้ทราบว่าครีเอเตอร์รายนั้นๆ มีสิทธิ์รับเงินสนับสนุนของ YouTube Shorts โดยครีเอเตอร์ที่มีคุณสมบัติตามเกณฑ์จะได้รับเงินสนับสนุนจำนวน 100 - 10,000 เหรียญสหรัฐ ซึ่งจะพิจารณาจากยอดผู้ชมและการมีส่วนร่วมในวิดีโอ Shorts ของพวกเขา เงินสนับสนุนของ Shorts ถือเป็นก้าวแรกในการสร้างโมเดลการสร้างรายได้สำหรับการทำวิดีโอ Shorts บน YouTube และไม่จำกัดเพียงครีเอเตอร์ที่อยู่ในโปรแกรมพาร์ทเนอร์ YouTube (YPP) เท่านั้น โดยครีเอเตอร์ที่มีคุณสมบัติตรงตามเกณฑ์ที่กำหนดก็สามารถเข้าร่วมโครงการนี้ได้เช่นกัน ดูรายละเอียดทั้งหมดได้ที่นี่ นอกจากนี้เรายังมอบเงินสนับสนุนผ่านทาง Black Voices Fund และ Kids Fund อีกด้วย 
  2. โฆษณา โฆษณาถือเป็นแหล่งรายได้หลักของครีเอเตอร์ และยังคงเป็นช่องทางหลักในการสร้างรายได้บน YouTube ซึ่งรายได้ส่วนใหญ่ที่ครีเอเตอร์ได้รับมาจากโฆษณาบน YouTube
  3. YouTube Premium YouTube Premium เป็นการสมัครใช้บริการแบบชำระเงินที่ให้สมาชิกรับชมวิดีโอบน YouTube ได้แบบไม่มีโฆษณาคั่น เล่นขณะล็อกหน้าจอหรือขณะใช้แอปอื่น ดาวน์โหลดวิดีโอ และเข้าถึง YouTube Music Premium ได้ โดยรายได้จากการติดตามส่วนใหญ่จะเป็นของพันธมิตร YouTube
  4. การเป็นสมาชิกของช่อง ครีเอเตอร์สามารถใช้การเป็นสมาชิกของช่องเพื่อมอบสิทธิพิเศษและเนื้อหาแบบเอ็กซ์คลูซีฟให้กับผู้ชมที่สมัครเป็นสมาชิกของช่องแบบชำระเงินรายเดือนในราคาที่ครีเอเตอร์เป็นผู้กำหนดเอง
  5. ฟีเจอร์ Super Chat แฟนๆ ที่รับชมการสตรีมแบบสดและวิดีโอพรีเมียร์สามารถซื้อ Super Chat ซึ่งเป็นข้อความที่จะถูกไฮไลต์ในแชทของสตรีมแบบสดซึ่งจะโดดเด่นกว่าคนอื่นๆ เพื่อให้ได้รับความสนใจจากครีเอเตอร์คนโปรดมากยิ่งขึ้น
  6. ฟีเจอร์ Super Thanks ตอนนี้ผู้ชมสามารถแสดงความชื่นชมและขอบคุณครีเอเตอร์สำหรับวิดีโอที่อัปโหลดผ่านทาง Super Thanks ได้แล้ว โดยผู้ที่ซื้อ Super Thanks จะได้รับความคิดเห็นสีสันสดใสอันโดดเด่นเป็นโบนัสในส่วนความคิดเห็นของวิดีโอ ซึ่งครีเอเตอร์สามารถเข้ามาตอบกลับได้ 
  7. ฟีเจอร์ Super Stickers Super Stickers เป็นอีกหนึ่งช่องทางที่แฟนๆ สามารถแสดงการสนับสนุนครีเอเตอร์ในระหว่างการสตรีมแบบสดและวิดีโอพรีเมียร์ โดยแฟนๆ สามารถซื้อสติกเกอร์ที่โดดเด่นเพื่อส่งให้กับครีเอเตอร์ที่ตนชื่นชอบผ่านทางแชทได้
  8. ฟีเจอร์สินค้า ชั้นวางสินค้าช่วยให้ช่องต่างๆ แสดงสินค้าที่มีแบรนด์อย่างเป็นทางการของตนเองบน YouTube ได้ โดยมีผู้ค้าปลีก 30 รายทั่วโลกให้ครีเอเตอร์เลือก
  9. ฟีเจอร์การจำหน่ายตั๋ว ฟีเจอร์นี้จะช่วยให้แฟนเพลงทราบข้อมูลเกี่ยวกับคอนเสิร์ตที่กำลังจะจัดขึ้น และซื้อตั๋วได้ง่ายๆ เพียงเข้าไปที่เว็บไซต์ของพาร์ทเนอร์ผู้จำหน่ายตั๋วโดยตรง
  10. YouTube BrandConnect YouTube BrandConnect (มีชื่อเรียกเดิมว่า FameBit) ช่วยให้ครีเอเตอร์และแบรนด์สร้างเนื้อหาที่มีแบรนด์ได้อย่างถูกต้องและมีประสิทธิภาพ YouTube BrandConnect นำเสนอข้อมูลเชิงลึก การวัดผล และความเชี่ยวชาญในอุตสาหกรรมที่เป็นประโยชน์สำหรับการวางแผนกลยุทธ์การตลาดผ่านอินฟลูเอนเซอร์ เพื่อเชื่อมโยงแบรนด์ ครีเอเตอร์ และผู้ชมเข้าด้วยกัน
เรามุ่งมั่นที่จะพัฒนาวิธีใหม่ๆ สำหรับครีเอเตอร์ในการยกระดับธุรกิจของพวกเขาไปอีกขั้น เพราะความสำเร็จของพวกเขาคือความสำเร็จของเราเช่นกัน ที่ YouTube เราเฉลิมฉลองความสำเร็จครั้งใหม่หรือเป้าหมายที่ทำได้สำเร็จร่วมกัน ในขณะที่ครีเอเตอร์กำลังกลายเป็นบริษัทสื่อรุ่นต่อไป เราก็จะยังคงเดินหน้านำเสนอวิธีใหม่ๆ เพื่อช่วยให้พวกเขาประสบความสำเร็จและเติบโต

Robert Kyncl Chief Business Officer, YouTube


ปัจจุบัน ผู้คนเข้าถึงข้อมูลได้เพียงปลายนิ้วสัมผัสมากกว่าที่เคยเป็นมา และความก้าวหน้าทางปัญญาประดิษฐ์จะเปลี่ยนวิธีที่เราใช้ข้อมูลเหล่านั้นอย่างสิ้นเชิง ด้วยความสามารถในการค้นพบข้อมูลเชิงลึกใหม่ๆ ที่สามารถช่วยเราทั้งในชีวิตประจำวันและวิธีที่เราสามารถจัดการกับความท้าทายระดับโลกที่ซับซ้อนได้


ในงาน Search On วันนี้ เราได้แชร์วิธีที่เรานำความก้าวหน้าล่าสุดของ AI มาพัฒนาผลิตภัณฑ์ของ Google เพื่อทำให้ผู้คนมีวิธีใหม่ๆ ในการค้นหาและสำรวจข้อมูลด้วยวิธีที่เป็นธรรมชาติมากขึ้น


ทำให้การค้นหาหลายรูปแบบเป็นไปได้ด้วย MUM


เมื่อต้นปีนี้ที่งาน Google I/O เราได้ประกาศความสำเร็จครั้งสำคัญในการทำความเข้าใจข้อมูลด้วยโมเดลหลายรูปแบบ (Multitask Unified Model หรือ MUM) หรือเรียกสั้นๆ ว่า MUM


เราได้ทดลองใช้ความสามารถอันทรงพลังของ MUM เพื่อทำให้ผลิตภัณฑ์ของเรามีประโยชน์มากขึ้น และทำให้เกิดวิธีใหม่ๆ ในการค้นหาข้อมูล วันนี้ เราจะแชร์ข้อมูลเบื้องต้นเกี่ยวกับสิ่งต่างๆ ที่สามารถทำได้ด้วย MUM


ในอีกไม่กี่เดือนข้างหน้า เราจะเปิดตัววิธีใหม่ในการค้นหาข้อมูล ให้คุณสามารถถามคำถามเกี่ยวกับสิ่งที่คุณเห็นได้ นี่คือตัวอย่างว่าคุณสามารถทำอะไรได้บ้างด้วย MUM



ด้วยความสามารถใหม่นี้ เมื่อคุณเจอรูปของเสื้อที่ชอบ คุณสามารถแตะไปที่ไอคอน Lens และขอให้ Google ค้นหาเครื่องแต่งกายชิ้นอื่น เช่น ถุงเท้า ที่มีลายแบบเดียวกันได้ ฟีเจอร์นี้จะเป็นประโยชน์อย่างมากในกรณีที่คุณกำลังมองหาบางสิ่งที่อาจอธิบายได้ยากด้วยคำพูดเพียงอย่างเดียว ตัวอย่างเช่น เมื่อคุณพิมพ์ว่า “ถุงเท้าสไตล์วิคตอเรียนลายดอกไม้สีขาว” คุณอาจไม่พบลายที่ต้องการ การรวมรูปภาพและข้อความเข้าเป็นคำค้นหาเดียว ทำให้เราค้นหาด้วยภาพได้ง่ายขึ้นและแสดงคำถามด้วยวิธีที่เป็นธรรมชาติยิ่งขึ้น


บางคำถามอย่างอาจซับซ้อนกว่าปกติ เช่น จักรยานของคุณมีชิ้นส่วนหนึ่งที่เสีย และคุณต้องการคำแนะนำเกี่ยวกับวิธีซ่อมชิ้นส่วนนั้น แทนที่จะเปิดดูแคตตาล็อกชิ้นส่วนจักรยานแล้วมองหาคลิปสอนวิธีซ่อม โหมดการค้นหาแบบชี้แล้วถามจะช่วยให้คุณพบสิ่งที่ต้องการในวิดีโอได้ง่ายขึ้น

ช่วยคุณสำรวจด้วยหน้าค้นหาที่ออกแบบใหม่


ภายในงาน เรายังได้พูดถึงการใช้ความก้าวหน้าของ AI เช่น MUM เพื่อออกแบบ Google Search ใหม่ ฟีเจอร์ใหม่เหล่านี้เป็นก้าวล่าสุดของเราในการทำให้การค้นหาข้อมูลเป็นธรรมชาติและใช้งานง่ายขึ้น

ประการแรก เราจะทำให้การสำรวจและทำความเข้าใจหัวข้อใหม่ๆ ง่ายขึ้นด้วยฟีเจอร์ “Things to know” (เรื่องน่ารู้) สมมติว่าคุณต้องการตกแต่งอพาร์ทเมนต์ของคุณ และคุณสนใจที่จะเรียนรู้เพิ่มเติมเกี่ยวกับการวาดภาพสีอะคริลิก


หากคุณค้นหา “การวาดภาพสีอะคริลิค” Google จะเข้าใจวิธีที่ผู้คนสำรวจหัวข้อนี้โดยทั่วไป และแสดงแง่มุมต่างๆ ที่ผู้คนมักจะมองเป็นอันดับแรก ตัวอย่างเช่น เราสามารถระบุหัวข้อเกี่ยวกับการวาดภาพสีอะคริลิคได้มากกว่า 350 หัวข้อ และช่วยให้คุณค้นพบสิ่งที่คุณต้องการ

เราจะเปิดตัวฟีเจอร์นี้ในอีกไม่กี่เดือนข้างหน้า ในอนาคต MUM จะปลดล็อกข้อมูลเชิงลึกที่คุณอาจไม่เคยค้นหามาก่อน เช่น “วิธีวาดภาพสีอะคริลิคด้วยของใช้ในบ้าน” และเชื่อมโยงคุณกับเนื้อหาบนเว็บที่คุณไม่เคยพบมาก่อน


ประการที่สอง เพื่อช่วยให้คุณสำรวจไอเดียอื่นๆ เพิ่มเติม เราจะทำให้การขยายหัวข้อเป็นเรื่องง่ายด้วยฟีเจอร์ใหม่ๆ สำหรับปรับแต่งและขยายการค้นหา

ในกรณีนี้ คุณสามารถเรียนรู้เพิ่มเติมเกี่ยวกับเทคนิคเฉพาะ เช่น การเทสีลงบนผ้าใบ หรือชั้นเรียนศิลปะที่คุณสามารถเข้าเรียนได้ นอกจากนี้ คุณยังสามารถขยายขอบเขตการค้นหาของคุณเพื่อดูหัวข้อที่เกี่ยวข้องอื่นๆ เช่น วิธีการวาดภาพแบบอื่นๆ และจิตรกรที่มีชื่อเสียง ฟีเจอร์เหล่านี้จะเปิดตัวในอีกไม่กี่เดือนข้างหน้า



ประการที่สาม เราจะทำให้การค้นหาแรงบันดาลใจด้วยภาพง่ายขึ้นด้วยหน้าผลการค้นหาที่ได้รับการออกแบบใหม่และสามารถเลื่อนดูได้ หากการเทสีลงบนผ้าใบดึงดูดสายตาของคุณ เพียงค้นหา “ไอเดียการเทสีลงบนผ้าใบ” เพื่อดูหน้าเว็บที่เต็มไปด้วยไอเดียต่างๆ ซึ่งมีบทความ รูปภาพ วิดีโอ และอื่นๆ ที่คุณสามารถเลื่อนดูได้อย่างง่ายดาย

หน้าผลการค้นหาภาพใหม่นี้ออกแบบมาสำหรับผู้ที่กำลังมองหาแรงบันดาลใจ เช่น “ไอเดียการตกแต่งธีมฮาโลวีน” หรือ “ไอเดียสวนแนวตั้งในร่ม” และคุณสามารถทดลองใช้ได้แล้ววันนี้

ได้ข้อมูลจากวิดีโอมากขึ้น

เราใช้ระบบ AI ขั้นสูงเพื่อระบุช่วงเวลาสำคัญในวิดีโอ เช่น ช็อตแห่งชัยชนะในการแข่งขันบาสเก็ตบอล หรือขั้นตอนการทำอาหาร วันนี้ เรากำลังก้าวไปอีกขั้นด้วยประสบการณ์ใหม่ที่ระบุหัวข้อที่เกี่ยวข้องในวิดีโอ พร้อมลิงก์สำหรับการเจาะลึกและเรียนรู้เพิ่มเติม


เมื่อใช้ MUM เราสามารถแสดงหัวข้อที่เกี่ยวข้องซึ่งไม่ได้กล่าวถึงอย่างชัดเจนในวิดีโอ โดยอิงจากความเข้าใจขั้นสูงเกี่ยวกับข้อมูลในวิดีโอ ในตัวอย่างนี้ แม้ว่าวิดีโอจะไม่ได้พูดคำว่า “เรื่องราวชีวิตของเพนกวินมักกะโรนี” ระบบของเราก็เข้าใจว่าหัวข้อที่อยู่ในวิดีโอเกี่ยวข้องกับหัวข้อนี้ เช่น วิธีที่เพนกวินมักกะโรนีตามหาสมาชิกในครอบครัวและหลบหลีกจากสัตว์นักล่า  เราจะเปิดตัวเวอร์ชันแรกของฟีเจอร์นี้ในอีกไม่กี่สัปดาห์ข้างหน้า และเราจะเพิ่มการปรับปรุงภาพเพิ่มเติมในอีกไม่กี่เดือนข้างหน้านี้

จากประสบการณ์ MUM ทั้งหมดเหล่านี้ เราหวังว่าจะช่วยให้ผู้คนค้นพบหน้าเว็บ วิดีโอ รูปภาพ และไอเดียต่างๆ ที่พวกเขาอาจไม่เคยพบเจอหรือค้นหามาก่อน

Google ที่เป็นประโยชน์มากขึ้น

การอัปเดตที่เราประกาศในวันนี้ไม่ได้มีเพียงแค่ MUM เท่านั้น เรายังทำให้การซื้อสินค้าจากร้านค้าต่างๆ ทั้งรายใหญ่และรายเล็กเป็นเรื่องง่ายขึ้น และมีทุกอย่างให้คุณเลือกสรร และเรากำลังช่วยให้ผู้คนประเมินความน่าเชื่อถือของข้อมูลบนโลกออนไลน์ได้ดียิ่งขึ้น นอกจากนี้ เรากำลังค้นหาวิธีใหม่ๆ ในการช่วยให้ผู้คนเข้าถึงข้อมูลและข้อมูลเชิงลึกในช่วงเวลาที่สำคัญที่สุด

สิ่งเหล่านี้ไม่เพียงแต่ช่วยผู้คนทั่วโลกเท่านั้น แต่ยังช่วยครีเอเตอร์ ผู้เผยแพร่โฆษณา และธุรกิจอีกด้วย ในแต่ละวันเรานำทางผู้คนไปยังเว็บไซต์ต่างๆ มากกว่า 100 ล้านเว็บไซต์ และในแต่ละเดือน Google เชื่อมโยงผู้คนกับธุรกิจมากกว่า 120 ล้านแห่งที่ไม่มีเว็บไซต์ โดยการเปิดใช้งานการโทร เส้นทางขับรถ และการเข้าชมหน้าร้านจริง

ในขณะที่เรายังคงเดินหน้าสร้างผลิตภัณฑ์ที่มีประโยชน์มากขึ้นอย่างต่อเนื่องและขยายขอบเขตของความหมายของการค้นหา เราก็หวังว่าจะได้ช่วยเหลือผู้คนในการค้นหาคำตอบที่ต้องการ และจุดประกายคำถามให้มากขึ้นไปพร้อมกัน

Prabhakar Raghavan, Senior Vice President


How AI is making information more useful


Today, there’s more information accessible at people’s fingertips than at any point in human history. And advances in artificial intelligence will radically transform the way we use that information, with the ability to uncover new insights that can help us both in our daily lives and in the ways we are able to tackle complex global challenges.


At our Search On livestream event today, we shared how we’re bringing the latest in AI to Google’s products, giving people new ways to search and explore information in more natural and intuitive ways.


Making multimodal search possible with MUM


Earlier this year at Google I/O, we announced we’ve reached a critical milestone for understanding information with Multitask Unified Model, or MUM for short.


We’ve been experimenting with using MUM’s capabilities to make our products more helpful and enable entirely new ways to search. Today, we’re sharing an early look at what will be possible with MUM.


In the coming months, we’ll introduce a new way to search visually, with the ability to ask questions about what you see. Here are a couple of examples of what will be possible with MUM.



With this new capability, you can tap on the Lens icon when you’re looking at a picture of a shirt, and ask Google to find you the same pattern — but on another article of clothing, like socks. This helps when you’re looking for something that might be difficult to describe accurately with words alone. You could type “white floral Victorian socks,” but you might not find the exact pattern you’re looking for. By combining images and text into a single query, we’re making it easier to search visually and express your questions in more natural ways.



Some questions are even trickier: Your bike has a broken thingamajig, and you need some guidance on how to fix it. Instead of poring over catalogs of parts and then looking for a tutorial, the point-and-ask mode of searching will make it easier to find the exact moment in a video that can help.


Helping you explore with a redesigned Search page


We’re also announcing how we’re applying AI advances like MUM to redesign Google Search. These new features are the latest steps we’re taking to make searching more natural and intuitive.


First, we’re making it easier to explore and understand new topics with “Things to know.” Let’s say you want to decorate your apartment, and you’re interested in learning more about creating acrylic paintings.



If you search for “acrylic painting,” Google understands how people typically explore this topic, and shows the aspects people are likely to look at first. For example, we can identify more than 350 topics related to acrylic painting, and help you find the right path to take.


We’ll be launching this feature in the coming months. In the future, MUM will unlock deeper insights you might not have known to search for — like “how to make acrylic paintings with household items” — and connect you with content on the web that you wouldn’t have otherwise found.



Second, to help you further explore ideas, we’re making it easy to zoom in and out of a topic with new features to refine and broaden searches.


In this case, you can learn more about specific techniques, like puddle pouring, or art classes you can take. You can also broaden your search to see other related topics, like other painting methods and famous painters. These features will launch in the coming months.



Third, we’re making it easier to find visual inspiration with a newly designed, browsable results page. If puddle pouring caught your eye, just search for “pour painting ideas" to see a visually rich page full of ideas from across the web, with articles, images, videos and more that you can easily scroll through.


This new visual results page is designed for searches that are looking for inspiration, like “Halloween decorating ideas” or “indoor vertical garden ideas,” and you can try it today.


Get more from videos


We already use advanced AI systems to identify key moments in videos, like the winning shot in a basketball game, or steps in a recipe. Today, we’re taking this a step further, introducing a new experience that identifies related topics in a video, with links to easily dig deeper and learn more.



Using MUM, we can even show related topics that aren’t explicitly mentioned in the video, based on our advanced understanding of information in the video. In this example, while the video doesn’t say the words “macaroni penguin’s life story,” our systems understand that topics contained in the video relate to this topic, like how macaroni penguins find their family members and navigate predators. The first version of this feature will roll out in the coming weeks, and we’ll add more visual enhancements in the coming months.


Across all these MUM experiences, we look forward to helping people discover more web pages, videos, images and ideas that they may not have come across or otherwise searched for.


A more helpful Google


The updates we’re announcing today don’t end with MUM, though. We’re also making it easier to shop from the widest range of merchants, big and small, no matter what you’re looking for. And we’re helping people better evaluate the credibility of information they find online. Plus, for the moments that matter most, we’re finding new ways to help people get access to information and insights. 


All this work not only helps people around the world, but creators, publishers and businesses as well. Every day, we send visitors to well over 100 million different websites, and every month, Google connects people with more than 120 million businesses that don't have websites, by enabling phone calls, driving directions and local foot traffic.


As we continue to build more useful products and push the boundaries of what it means to search, we look forward to helping people find the answers they’re looking for, and inspiring more questions along the way.


Prabhakar Raghavan, Senior Vice President