ศักยภาพของกล้องสมาร์ทโฟนในการปกป้องสุขภาพหัวใจและหลอดเลือดและการถนอมสายตา
หนึ่งในโครงการ AI ด้านสุขภาพโครงการแรกๆ ของเราคือ ARDA ที่พัฒนาขึ้นเพื่อช่วยในการตรวจคัดกรองภาวะเบาหวานขึ้นจอประสาทตา (Diabetic Retinopathy) ซึ่งเป็นภาวะแทรกซ้อนของโรคเบาหวานที่อาจทำให้ผู้ป่วยสูญเสียการมองเห็นได้หากไม่มีการตรวจพบและรักษาตั้งแต่เนิ่นๆ
ปัจจุบันมีผู้ป่วยที่ได้รับการตรวจคัดกรองภาวะเบาหวานขึ้นจอประสาทตาด้วย AI ของเราจำนวน 350 รายต่อวัน ทำให้มีผู้ป่วยที่ได้รับการตรวจคัดกรองไปแล้วรวมทั้งสิ้นเกือบ 100,000 รายนับตั้งแต่เริ่มโครงการ ในส่วนของโครงการตรวจคัดกรองผู้ป่วยเบาหวานระดับชาติของประเทศไทย เราเพิ่งทำการศึกษาความคืบหน้าของโครงการเสร็จสิ้น ซึ่งแสดงให้เห็นเพิ่มเติมว่า ARDA มีความแม่นยำและสามารถนำไปใช้ได้อย่างปลอดภัยในหลายพื้นที่เพื่อช่วยให้ผู้ป่วยเบาหวานเข้าถึงบริการตรวจคัดกรองภาวะเบาหวานขึ้นจอประสาทตาได้มากขึ้น
นอกจากภาวะเบาหวานขึ้นจอประสาทตาแล้ว ก่อนหน้านี้เรายังได้แสดงให้เห็นว่า ด้วยพลังของ AI ที่มีการเรียนรู้เชิงลึก (deep learning) ภาพถ่ายภายในของดวงตา (fundus หรือจอประสาทตาด้านหลัง) สามารถให้ข้อมูลเกี่ยวกับปัจจัยเสี่ยงต่อโรคหัวใจและหลอดเลือดได้อย่างไร เช่น ระดับน้ำตาลในเลือดและคอเลสเตอรอลที่สูง เป็นต้น งานวิจัยล่าสุดของเรากล่าวถึงการตรวจหาโรคที่เกี่ยวพันกับโรคเบาหวานจากภาพถ่ายภายนอกของดวงตาโดยใช้กล้องถ่ายภาพจอประสาทตาแบบตั้งโต๊ะที่มีอยู่ตามสถานพยาบาลต่างๆ ด้วยผลลัพธ์ที่มีแนวโน้มที่ดีในระยะแรก เราจะทำการวิจัยทางคลินิกร่วมกับพันธมิตร เช่น EyePACS และโรงพยาบาลฉังเกิง (Chang Gung Memorial Hospital: CGMH) เพื่อตรวจสอบว่าภาพถ่ายจากกล้องสมาร์ทโฟนสามารถช่วยตรวจหาโรคเบาหวานและโรคที่ไม่เกี่ยวกับโรคเบาหวานจากภาพถ่ายภายนอกของดวงตาได้หรือไม่ แม้ว่าจะยังอยู่ในช่วงเริ่มต้นของการวิจัยและพัฒนา วิศวกรและนักวิทยาศาสตร์ของเราก็ได้มองไปถึงอนาคตที่ผู้คนสามารถทำความเข้าใจและตัดสินใจเกี่ยวกับสภาวะสุขภาพด้วยตนเองจากที่บ้านได้ดียิ่งขึ้นด้วยความช่วยเหลือจากแพทย์
การบันทึกและวิเคราะห์เสียงหัวใจด้วยสมาร์ทโฟน
ก่อนหน้านี้เราได้นำเสนอข้อมูลที่ว่าเซ็นเซอร์บนโทรศัพท์มือถือ เมื่อทำงานร่วมกับแมชชีนเลิร์นนิง สามารถทำให้ทุกคนเข้าถึงการตรวจวัดสุขภาพและให้ข้อมูลเชิงลึกเกี่ยวกับสุขภาพและสุขภาวะที่ดีในแต่ละวันได้อย่างไร ฟีเจอร์ที่ช่วยให้คุณวัดอัตราการเต้นของหัวใจและอัตราการหายใจด้วยกล้องโทรศัพท์มือถือนี้พร้อมใช้งานแล้วในอุปกรณ์ Android มากกว่า 100 รุ่น รวมถึงอุปกรณ์ iOS นอกจากนี้ บทความวิจัยของเราที่อธิบายการศึกษาเกี่ยวกับการตรวจสอบความถูกต้องก่อนการผลิตเพื่อจําหน่าย (prospective validation) ก็ได้รับการตีพิมพ์ด้วย
วันนี้ เราจะนำเสนอรายละเอียดเกี่ยวกับงานวิจัยด้านใหม่ที่สำรวจว่าไมโครโฟนในตัวของสมาร์ทโฟนสามารถบันทึกเสียงหัวใจได้อย่างไรเมื่อวางโทรศัพท์ไว้บนหน้าอก การฟังเสียงหัวใจและปอดด้วยหูฟังทางการแพทย์ (stethoscope) หรือที่เรียกว่าการตรวจโดยใช้การฟังเสียง (Auscultation) เป็นส่วนสำคัญของการตรวจร่างกายที่ช่วยให้แพทย์ตรวจพบความผิดปกติของลิ้นหัวใจ เช่น ลิ้นหัวใจตีบ (aortic stenosis) ซึ่งเป็นสิ่งสำคัญที่จะต้องตรวจพบตั้งแต่เนิ่นๆ โดยการตรวจคัดกรองภาวะลิ้นหัวใจตีบมักต้องใช้อุปกรณ์พิเศษ เช่น หูฟังทางการแพทย์ หรือการอัลตราซาวด์ และการเข้ารับการประเมินจากแพทย์โดยตรง
งานวิจัยล่าสุดของเราตรวจสอบว่าสมาร์ทโฟนสามารถตรวจจับการเต้นของหัวใจและเสียงฟู่ของหัวใจ (murmur) ได้หรือไม่ ขณะนี้เราอยู่ในระยะเริ่มต้นของการทดสอบการศึกษาทางคลินิก แต่เราหวังว่างานวิจัยของเราจะทำให้สมาร์ทโฟนเป็นอีกหนึ่งช่องทางที่ช่วยให้ผู้คนเข้าถึงการประเมินสุขภาพได้
การจับมือกับ Northwestern Medicine เพื่อนำ AI มาใช้ในการพัฒนาสุขภาพมารดา
อัลตราซาวด์เป็นการสร้างภาพสำหรับการวินิจฉัยของแพทย์โดยไม่มีการสอดใส่อุปกรณ์ใดๆ เข้าไปในร่างกาย แต่จะใช้คลื่นเสียงความถี่สูงในการสร้างภาพหรือวิดีโอแบบเรียลไทม์ของอวัยวะภายในหรือเนื้อเยื่ออื่นๆ เช่น หลอดเลือดและทารกในครรภ์
การวิจัยแสดงให้เห็นว่าอัลตราซาวด์นั้นปลอดภัยสำหรับใช้ในการดูแลสตรีตั้งครรภ์ และมีประสิทธิภาพในการระบุปัญหาในช่วงแรกของการตั้งครรภ์ อย่างไรก็ตาม มากกว่าครึ่งหนึ่งของสตรีตั้งครรภ์ทั้งหมดในประเทศที่มีรายได้ต่ำถึงปานกลางไม่ได้รับการตรวจอัลตราซาวด์ โดยสาเหตุส่วนหนึ่งมาจากการขาดแคลนผู้เชี่ยวชาญในการอ่านผลอัลตราซาวด์ เราเชื่อว่าความเชี่ยวชาญของ Google ในด้านแมชชีนเลิร์นนิงสามารถช่วยแก้ปัญหานี้ ทำให้สตรีตั้งครรภ์มีสุขภาพที่ดีขึ้น และให้ผลลัพธ์ที่ดียิ่งขึ้นสำหรับผู้ปกครองและทารก
ขณะนี้เรากำลังทำการศึกษางานวิจัยพื้นฐานแบบเปิดที่ตรวจสอบการใช้ AI เพื่อสนับสนุนผู้ให้บริการทางการแพทย์ในการตรวจอัลตราซาวด์และทำการประเมินผล เรารู้สึกตื่นเต้นที่ได้เป็นพันธมิตรกับ Northwestern Medicine ในการเดินหน้าพัฒนาและทดสอบโมเดลเหล่านี้เพื่อให้มีความทั่วถึงมากขึ้นทั้งในส่วนของประสบการณ์และเทคโนโลยีในระดับต่างๆ เราหวังว่าการประเมินความเสี่ยงด้านสุขภาพของมารดาและทารกในครรภ์โดยอัตโนมัติที่มีความแม่นยำยิ่งขึ้นจะช่วยลดอุปสรรคต่างๆ และทำให้ผู้คนได้รับการดูแลอย่างทันท่วงทีในสภาพแวดล้อมที่เหมาะสม
หากต้องการทราบข้อมูลเพิ่มเติมเกี่ยวกับความพยายามในการพัฒนาโซลูชันด้านสุขภาพที่เรานำเสนอภายในงาน The Check Up with Google Health สามารถเข้าไปอ่านได้ที่บล็อกโพสต์นี้ โดย Dr. Karen DeSalvo หัวหน้าฝ่ายงานด้านสุขภาพของเรา และคอยติดตามความคืบหน้าการวิจัยเกี่ยวกับสุขภาพที่เราจะมาอัปเดตให้ทราบในโอกาสต่อไป
Greg Corrado
Head of Health AI
The Check Up: our latest health AI developments
Over the years, teams across Google have focused on how technology — specifically artificial intelligence and hardware innovations — can improve access to high-quality, equitable healthcare across the globe.
Accessing the right healthcare can be challenging depending on where people live and whether local caregivers have specialized equipment or training for tasks like disease screening. To help, Google Health has expanded its research and applications to focus on improving the care clinicians provide and allow care to happen outside hospitals and doctor’s offices.
Today, at our Google Health event The Check Up, we’re sharing new areas of AI-related research and development and how we’re providing clinicians with easy-to-use tools to help them better care for patients. Here’s a look at some of those updates.
Smartphone cameras’ potential to protect cardiovascular health and preserve eyesight
One of our earliest Health AI projects, ARDA, aims to help address screenings for diabetic retinopathy — a complication of diabetes that, if undiagnosed and untreated, can cause blindness.
Today we screen 350 patients daily, resulting in close to 100,000 patients screened to date. We recently completed a prospective study with the Thailand national screening program that further shows ARDA is accurate and capable of being deployed safely across multiple regions to support more accessible eye screenings.
In addition to diabetic eye disease, we’ve previously also shown how photos of eyes’ interiors (or fundus) can reveal cardiovascular risk factors, such as high blood sugar and cholesterol levels, with assistance from deep learning. Our recent research tackles detecting diabetes-related diseases from photos of the exterior of the eye, using existing tabletop cameras in clinics. Given the early promising results, we’re looking forward to clinical research with partners, including EyePACS and Chang Gung Memorial Hospital (CGMH), to investigate if photos from smartphone cameras can help detect diabetes and non-diabetes diseases from external eye photos as well. While this is in the early stages of research and development, our engineers and scientists envision a future where people, with the help of their doctors, can better understand and make decisions about health conditions from their own homes.
Recording and translating heart sounds with smartphones
We’ve previously shared how mobile sensors combined with machine learning can democratize health metrics and give people insights into daily health and wellness. Our feature that allows you to measure your heart rate and respiratory rate with your phone’s camera is now available on over 100 models of Android devices, as well as iOS devices. Our manuscript describing the prospective validation study has been accepted for publication.
Today, we’re sharing a new area of research that explores how a smartphone’s built-in microphones could record heart sounds when placed over the chest. Listening to someone’s heart and lungs with a stethoscope, known as auscultation, is a critical part of a physical exam. It can help clinicians detect heart valve disorders, such as aortic stenosis which is important to detect early. Screening for aortic stenosis typically requires specialized equipment, like a stethoscope or an ultrasound, and an in-person assessment.
Our latest research investigates whether a smartphone can detect heartbeats and murmurs. We're currently in the early stages of clinical study testing, but we hope that our work can empower people to use the smartphone as an additional tool for accessible health evaluation.
Partnering with Northwestern Medicine to apply AI to improve maternal health
Ultrasound is a noninvasive diagnostic imaging method that uses high-frequency sound waves to create real-time pictures or videos of internal organs or other tissues, such as blood vessels and fetuses.
Research shows that ultrasound is safe for use in prenatal care, and effective in identifying issues early in pregnancy. However, more than half of all birthing parents in low-to-middle-income countries don’t receive ultrasounds, in part due to a shortage of expertise in reading ultrasounds. We believe that Google’s expertise in machine learning can help solve this and allow for healthier pregnancies and better outcomes for parents and babies.
We are working on foundational, open-access research studies that validates the use of AI to help providers conduct ultrasounds and perform assessments. We’re excited to partner with Northwestern Medicine to further develop and test these models to be more generalizable across different levels of experience and technologies. With more automated and accurate evaluations of maternal and fetal health risks, we hope to lower barriers and help people get timely care in the right settings.
To learn more about the health efforts we shared at The Check Up with Google Health, check out this blog post from our Chief Health Officer Dr. Karen DeSalvo. And stay tuned for more health-related research milestones from us.
Greg Corrado
Head of Health AI