วันพฤหัสบดีที่ 29 กันยายน พ.ศ. 2565

ค้นหานอกกรอบ: วิธีใหม่ๆ ที่จะช่วยให้การค้นหาข้อมูลบน Google Search เป็นธรรมชาติและราบรื่นยิ่งขึ้น


ในช่วงเวลากว่า 2 ทศวรรษที่ผ่านมา เราได้อุทิศตนให้กับพันธกิจของเรา นั่นก็คือ การจัดระเบียบข้อมูลของโลก และทำให้ข้อมูลดังกล่าวสามารถเข้าถึงได้ง่ายในทุกที่และมีประโยชน์ โดยเราเริ่มต้นจากการค้นหาด้วยข้อความ และได้พัฒนาวิธีใหม่ๆ ที่ทำให้การค้นหาข้อมูลเป็นธรรมชาติและราบรื่นยิ่งขึ้นมาอย่างต่อเนื่อง ตอนนี้คุณสามารถค้นหาสิ่งที่คุณเห็นได้ด้วยการใช้กล้อง หรือถามคำถามด้วยเสียงของคุณ

ในงาน Search On วันนี้ เราได้นำเสนอความก้าวหน้าของปัญญาประดิษฐ์ หรือ AI (Artifical Intetligence) ที่เป็นประโยชน์อย่างมากในการพลิกโฉมผลิตภัณฑ์ด้านข้อมูลของเรา เรายังคงเดินหน้าพัฒนา Google Search ให้เป็นมากกว่าช่องค้นหาเพื่อสร้างประสบการณ์การค้นหาที่สามารถตอบโจทย์การใช้งานจริงในหลากหลายมิติ

เราจินตนาการถึงโลกที่คุณสามารถค้นพบสิ่งที่คุณต้องการจริงๆ ด้วยการผสมผสานของรูปภาพ เสียง ข้อความ และคำพูด เพื่อให้การค้นหาเป็นธรรมชาติมากที่สุด คุณจะสามารถถามคำถามโดยใช้คำน้อยลง หรือไม่ต้องใช้คำใดๆ เลยก็ได้ แต่เราก็ยังเข้าใจได้ถูกต้องว่าคุณหมายถึงอะไร นอกจากนี้ คุณยังสามารถสำรวจข้อมูลที่มีการจัดระเบียบให้เชื่อมโยงกับสิ่งที่คุณต้องการได้

เรากำลังทำให้การค้นหาเป็นธรรมชาติและราบรื่นยิ่งขึ้น และนี่เป็นการพัฒนาในระยะยาวเพื่อทำให้สิ่งนี้เกิดขึ้นได้จริงสำหรับผู้คนทั่วโลก ภายในงาน Search On เราได้พูดถึง 3 เรื่องหลักๆ เกี่ยวกับการพลิกโฉมผลิตภัณฑ์ด้านข้อมูลของเรา โดยมีรายละเอียดดังนี้

ช่วยให้การค้นหาด้วยภาพทำได้อย่างเป็นธรรมชาติยิ่งขึ้น

กล้องมีมานานหลายร้อยปีแล้ว และมักถูกมองว่าเป็นเครื่องมือหนึ่งที่ใช้สำหรับเก็บความทรงจำต่างๆ หรือใช้สำหรับการสร้างคอนเทนต์ในยุคปัจจุบัน แต่จริงๆ แล้วกล้องยังป็นอีกวิธีหนึ่งในการเข้าถึงข้อมูลและทำความเข้าใจสิ่งต่างๆ รอบตัวเรา เปรียบเสมือนคีย์บอร์ดในอีกเวอร์ชันหนึ่งเลยก็ว่าได้ นั่นคือเหตุผลที่เราเปิดตัว Google Lens ในปี 2017 เพื่อช่วยให้คุณค้นหาสิ่งที่คุณเห็นได้โดยใช้กล้องหรือรูปภาพ ตอนนี้เราอยู่ในยุคแห่งการค้นหาด้วยรูปภาพกันแล้ว โดยมีผู้ใช้ Google Lens หาคำตอบสำหรับคำถามกว่า 8 พันล้านคำถามทุกเดือน

เรากำลังปรับปรุงการค้นหาด้วยรูปภาพให้เป็นธรรมชาติยิ่งขึ้นด้วยการเปิดตัวฟีเจอร์มัลติเสิร์ช ซึ่งเป็นวิธีใหม่ในการค้นหาข้อมูลโดยใช้รูปภาพและข้อความไปพร้อมๆ กัน เหมือนเวลาที่คุณชี้ไปที่อะไรสักอย่างแล้วถามเพื่อนของคุณเกี่ยวกับสิ่งนั้น เราได้เปิดตัวมัลติเสิร์ชเวอร์ชันเบต้าให้ผู้คนในสหรัฐอเมริกาได้ทดลองใช้ไปในช่วงต้นปีนี้ และภายในงาน Search On เราได้ประกาศว่าจะเปิดฟีเจอร์นี้ให้ใช้ในอีกกว่า 70 ภาษาในอีกไม่กี่เดือนข้างหน้า นอกจากนี้ เรายังจะเพิ่มศักยภาพฟีเจอร์นี้ให้ล้ำไปอีกขั้นกับ “มัลติเสิร์ชใกล้ฉัน” ซึ่งให้คุณถ่ายรูปสิ่งของ เช่น เมนูอาหารหรือต้นไม้ที่คุณไม่คุ้นเคย แล้วค้นหาร้านอาหารหรือร้านขายอุปกรณ์ทำสวนที่ขายสิ่งเหล่านั้นภายในบริเวณที่คุณอยู่ได้ ฟีเจอร์ “มัลติเสิร์ชใกล้ฉัน” จะเริ่มให้บริการเป็นภาษาอังกฤษในสหรัฐอเมริกาในฤดูใบไม้ร่วงนี้

มัลติเสิร์ชเป็นวิธีการค้นหาแบบใหม่โดยใช้รูปภาพและข้อความไปพร้อมๆ กัน

แปลสิ่งต่างๆ รอบตัวคุณ

หนึ่งในสิ่งที่ทรงพลังที่สุดของการทำความเข้าใจด้วยภาพคือการทำลายกำแพงภาษา ความก้าวหน้าของ AI ทำให้เราก้าวข้ามการแปลข้อความตัวอักษรไปสู่การแปลรูปภาพ ในแต่ละเดือนมีผู้ใช้ Google แปลข้อความในรูปภาพกว่า 1 พันล้านครั้งในกว่า 100 ภาษา ซึ่งทำให้พวกเขาสามารถอ่านชื่อร้าน เมนู ป้ายต่างๆ และอื่นๆ อีกมากมาย

แต่บ่อยครั้งการผสมผสานระหว่างคำและบริบทต่างๆ เช่น ภาพพื้นหลัง ก็ช่วยให้เราเข้าใจสิ่งต่างๆ ได้ดียิ่งขึ้น ด้วยเทคโนโลยีแมชชีนเลิร์นนิงที่เรียกว่า Generative Adversarial Networks (GANs) ตอนนี้เราสามารถผสานข้อความที่แปลเข้ากับภาพพื้นหลังได้แล้ว ดังน้ัน หากคุณหันกล้องไปที่แมกกาซีนที่เป็นภาษาอื่น คุณจะเห็นคำแปลวางซ้อนบนรูปภาพอย่างแนบเนียน

ด้วยฟีเจอร์การแปลด้วย Lens เวอร์ชันอัปเดต คุณจะเห็นคำแปลวางซ้อนบนรูปภาพอย่างแนบเนียน

สำรวจสิ่งต่างๆ รอบตัวด้วยมุมมองแบบสมจริง

ภารกิจของเราในการสร้างประสบการณ์การค้นหาที่เป็นธรรมชาติและราบรื่นมากขึ้นนั้นยังรวมไปถึงการช่วยให้คุณสำรวจโลกแห่งความเป็นจริง ความก้าวหน้าในด้านคอมพิวเตอร์วิทัศน์ (Computer Vision) และโมเดลการคาดการณ์ทำให้เราพลิกโฉมแผนที่ให้พัฒนาขึ้นไปอีกขัั้น โดยเราได้พัฒนาแผนที่แบบ 2 มิติให้เป็นแผนที่ที่มีมิติภาพและสมจริงมากยิ่งขึ้น คุณจะได้สัมผัสกับสถานที่นั้นๆ ในหลายแง่มุมและรู้สึกเหมือนไปอยู่ที่นั่นจริงๆ

เรากำลังสร้างความก้าวหน้าที่สำคัญอีกครั้งหนึ่งในการทำแผนที่ โดยการนำข้อมูลเชิงลึกที่มีประโยชน์ เช่น สภาพอากาศ และความหนาแน่นของผู้คนตามสถานที่ต่างๆ มานำเสนอด้วยมุมมองแบบสมจริงบน Google Maps แบบเดียวกับที่การแสดงข้อมูลการจราจรแบบเรียลไทม์ในโหมดการนำทางช่วยให้ Google Maps มีประโยชน์มากขึ้นนั่นเอง ประสบการณ์ใหม่นี้จะทำให้คุณได้สัมผัสถึงบรรยากาศของสถานที่ที่คุณสนใจก่อนที่คุณจะไปยังสถานที่จริง เพื่อให้คุณตัดสินใจได้อย่างมั่นใจว่าจะไปที่ไหนและไปเมื่อไหร่

สมมติว่าคุณอยากนัดเจอเพื่อนที่ร้านอาหารแห่งหนึ่ง คุณสามารถซูมดูร้านที่คุณสนใจและพื้นที่บริเวณรอบๆ นั้นได้ ซึ่งจะช่วยให้คุณเห็นภาพมากขึ้นว่าบรรยากาศตรงนั้นในวันและเวลาที่เลือกจะเป็นแบบไหน รวมถึงปัจจัยอื่นๆ เช่น สภาพอากาศและความพลุกพล่าน การผสานรวมภาพขั้นสูงของโลกเข้ากับโมเดลการคาดการณ์ของเราช่วยให้คุณพอจะนึกภาพได้ว่าสถานที่ที่คุณจะไปในวันรุ่งขึ้น สัปดาห์ต่อไป หรือเดือนหน้า จะเป็นแบบไหน โดยวันนี้เรากำลังจะเพิ่มภาพมุมสูงที่สมจริงของแลนด์มาร์กสำคัญทั่วโลกกว่า 250 แห่ง และเราจะเปิดตัวมุมมองแบบสมจริงใน 5 เมืองหลักในอีกไม่กี่เดือนข้างหน้า และจะเพิ่มเมืองอื่นๆ เข้ามาอีก

มุมมองแบบสมจริงบน Google Maps ช่วยให้คุณสำรวจสถานที่ก่อนที่คุณจะไปที่นั่นจริงๆ

สิ่งที่เรานำมาแชร์ให้ทราบในวันนี้ รวมทั้งอัปเดตอื่นๆ ที่ประกาศภายในงาน Search On เป็นเพียงจุดเริ่มต้นในการพลิกโฉมผลิตภัณฑ์ของเราเพื่อช่วยให้คุณค้นหาข้อมูลด้วยวิธีใหม่ๆ และเราจะยังคงเดินหน้าสร้างสรรค์เทคโนโลยีใหม่ๆ ที่ตอบโจทย์ความต้องการของคุณ เพื่อช่วยให้คุณเข้าใจข้อมูลอย่างเป็นธรรมชาติมากที่สุด

Prabhakar Raghavan
Senior Vice President


Search outside the box: How we're making Search more natural and intuitive


For over two decades, we've dedicated ourselves to our mission: to organize the world’s information and make it universally accessible and useful. We started with text search, but over time, we've continued to create more natural and intuitive ways to find information — you can now search what you see with your camera, or ask a question aloud with your voice.


At Search On today, we showed how advancements in artificial intelligence are enabling us to transform our information products yet again. We're going far beyond the search box to create search experiences that work more like our minds, and that are as multidimensional as we are as people.


We envision a world in which you’ll be able to find exactly what you’re looking for by combining images, sounds, text and speech, just like people do naturally. You’ll be able to ask questions, with fewer words — or even none at all — and we’ll still understand exactly what you mean. And you’ll be able to explore information organized in a way that makes sense to you.


We call this making search more natural and intuitive, and we’re on a long-term path to bring this vision to life for people everywhere. To give you an idea of how we’re evolving the future of our information products, here are three highlights from what we showed today at Search On. 


Making visual search work more naturally


Cameras have been around for hundreds of years, and they’re usually thought of as a way to preserve memories, or these days, create content. But a camera is also a powerful way to access information and understand the world around you — so much so that your camera is your next keyboard. That’s why in 2017 we introduced Lens, so you can search what you see using your camera or an image. Now, the age of visual search is here — in fact, people use Lens to answer 8 billion questions every month.


We’re making visual search even more natural with multisearch, a completely new way to search using images and text simultaneously, similar to how you might point at something and ask a friend a question about it. We introduced multisearch earlier this year as a beta in the U.S., and at Search On, we announced we’re expanding it to more than 70 languages in the coming months. We’re taking this capability even further with “multisearch near me,” enabling you to take a picture of an unfamiliar item, such as a dish or plant, then find it at a local place nearby, like a restaurant or gardening shop. We will start rolling “multisearch near me” out in English in the U.S. this fall.


Multisearch enables a completely new way to search using images and text simultaneously.

Translating the world around you

One of the most powerful aspects of visual understanding is its ability to break down language barriers. With advancements in AI, we’ve gone beyond translating text to translating pictures. People already use Google to translate text in images over 1 billion times a month, across more than 100 languages — so they can instantly read storefronts, menus, signs and more.

But often, it’s the combination of words plus context, like background images, that bring meaning. We’re now able to blend translated text into the background image thanks to a machine learning technology called Generative Adversarial Networks (GANs). So if you point your camera at a magazine in another language, for example, you’ll now see translated text realistically overlaid onto the pictures underneath. 

With the new Lens translation update, you’ll now see translated text realistically overlaid onto the pictures underneath.



Exploring the world with immersive view

Our quest to create more natural and intuitive experiences also extends to helping you explore the real world. Thanks to advancements in computer vision and predictive models, we're completely reimagining what a map can be. This means you’ll see our 2D map evolve into a multi-dimensional view of the real world, one that allows you to experience a place as if you are there.

Just as live traffic in navigation made Google Maps dramatically more helpful, we’re making another significant advancement in mapping by bringing helpful insights — like weather and how busy a place is — to life with immersive view in Google Maps. With this new experience, you can get a feel for a place before you even step foot inside, so you can confidently decide when and where to go.

Say you’re interested in meeting a friend at a restaurant. You can zoom into the neighborhood and restaurant to get a feel for what it might be like at the date and time you plan to meet up, visualizing things like the weather and learning how busy it might be. By fusing our advanced imagery of the world with our predictive models, we can give you a feel for what a place will be like tomorrow, next week, or even next month. We’re expanding the first iteration of this with aerial views of 250 landmarks today, and immersive view will come to five major cities in the coming months, with more on the way. 

Immersive view in Google Maps helps you get a feel for a place before you even visit.


These announcements, along with many others introduced at Search On, are just the start of how we’re transforming our products to help you go beyond the traditional search box. We’re steadfast in our pursuit to create technology that adapts to you and your life — to help you make sense of information in ways that are most natural to you.


Prabhakar Raghavan

Senior Vice President



3 ความคิดเห็น: