- 3
- มีนาคม
เดือนมีนาคม 2569 Apple เปิดตัวการอัปเกรด Siri ครั้งใหญ่ที่สุดในประวัติศาสตร์ โดยใช้ Google Gemini เป็นแกนหลักของระบบ AI ผ่านการอัปเดต iOS 26.4 นี่ไม่ใช่แค่การปรับปรุงเล็กน้อย แต่เป็นการ ปฏิวัติ Siri จากผู้ช่วยเสียงธรรมดาให้กลายเป็น AI Assistant ที่เข้าใจบริบท ทำงานหลายขั้นตอน และเชื่อมต่อข้ามแอปได้อย่างราบรื่น บทความนี้จะพาคุณวิเคราะห์ว่าดีลนี้เกิดขึ้นได้อย่างไร มีฟีเจอร์อะไรใหม่บ้าง และจะส่งผลกระทบต่อผู้ใช้ชาวไทยและธุรกิจอย่างไร
ข่าวใหญ่: Apple x Google ดีลพันล้านดอลลาร์
Apple ตกลงจ่ายเงินให้ Google ประมาณ 1 พันล้านดอลลาร์ต่อปี เพื่อใช้ Gemini เป็น AI engine หลักของ Siri นี่คือดีลที่น่าสนใจหลายมิติ:
- Apple ยอมรับว่า AI ของตัวเองไม่เพียงพอ — หลังจากพยายามพัฒนา AI ภายในมานานหลายปี Apple ตัดสินใจว่าการร่วมมือกับ Google จะเร็วกว่าและดีกว่า
- Google ได้ช่องทางเข้าถึงผู้ใช้ iPhone กว่าพันล้านคน — Gemini จะถูกฝังอยู่ในอุปกรณ์ Apple ทุกเครื่องที่อัปเดต iOS 26.4
- ดีลนี้คล้ายกับข้อตกลง Search Engine — ที่ Apple เคยรับเงินจาก Google ให้เป็น default search engine บน Safari ซึ่งมีมูลค่ามากกว่า 20 พันล้านดอลลาร์ต่อปี
ทำไมไม่ใช่ ChatGPT?
มีรายงานก่อนหน้านี้ว่า Apple เจรจากับ OpenAI เพื่อนำ ChatGPT มาใช้กับ Siri แต่สุดท้ายเลือก Gemini เนื่องจาก Google มีข้อได้เปรียบด้านการเชื่อมต่อกับบริการต่างๆ ที่ผู้ใช้ iPhone จำนวนมากใช้อยู่แล้ว เช่น Gmail, Google Maps และ YouTube รวมถึงความสามารถในการประมวลผลแบบ multimodal ที่แข็งแกร่ง
ฟีเจอร์ใหม่ที่น่าตื่นเต้น
Siri ที่ขับเคลื่อนด้วย Gemini มาพร้อมความสามารถใหม่หลายประการที่เปลี่ยนวิธีการใช้งานสมาร์ทโฟนอย่างสิ้นเชิง:
1. On-Screen Awareness — เข้าใจสิ่งที่อยู่บนหน้าจอ
ฟีเจอร์ที่น่าสนใจที่สุดคือ On-Screen Awareness — Siri สามารถ "เห็น" และ "เข้าใจ" สิ่งที่แสดงบนหน้าจอ iPhone ของคุณได้ทันที ตัวอย่างเช่น:
- กำลังดูเว็บไซต์ร้านอาหาร แล้วพูดว่า "จองโต๊ะที่นี่คืนนี้" — Siri จะดึงข้อมูลร้านจากหน้าจอและจองให้
- ได้รับ email เรื่องเที่ยวบิน แล้วพูดว่า "เพิ่มเที่ยวบินนี้ลงปฏิทิน" — Siri จะดึงข้อมูลเที่ยวบินจาก Mail และสร้าง event ใน Calendar
- กำลังดูรูปภาพ แล้วพูดว่า "ส่งรูปนี้ให้แม่" — Siri จะส่งรูปที่กำลังดูผ่าน Messages
2. Multi-Step Task Execution — ทำงานหลายขั้นตอน
Siri ใหม่ไม่ได้แค่ตอบคำถาม แต่สามารถ ทำงานหลายขั้นตอนต่อเนื่อง ได้ในคำสั่งเดียว:
- "หาร้านอาหารญี่ปุ่นใกล้ที่ทำงาน จองโต๊ะ 4 คนวันศุกร์ แล้วส่งรายละเอียดให้ทีม" — Siri จะค้นหา จอง และแชร์ข้อมูลในขั้นตอนเดียว
- "ดูตารางเที่ยวบินไปเชียงใหม่สัปดาห์หน้า เปรียบเทียบราคา แล้วส่งตัวเลือกให้ภรรยา" — Siri จะรวบรวมข้อมูลจากหลายแหล่งและส่งให้
3. Cross-App Integration — เชื่อมต่อข้ามแอป
สิ่งที่ทำให้ Siri ใหม่แตกต่างจากเดิมอย่างมากคือความสามารถในการ ทำงานข้ามแอปหลายตัว ได้อย่างราบรื่น:
- ดึงข้อมูลเที่ยวบินจาก Mail ส่งรายละเอียดผ่าน Messages และเพิ่มลงใน Calendar
- อ่านข้อมูลการจองจาก Notes สร้าง reminder ใน Reminders และแชร์ตำแหน่งผ่าน Maps
- ดึงภาพจาก Photos แก้ไขข้อความใน Pages และส่ง email ผ่าน Mail
4. Conversational AI — สนทนาต่อเนื่อง
Siri ใหม่สามารถ จำบริบทการสนทนา ได้ คุณสามารถพูดคุยต่อเนื่องโดยไม่ต้องเริ่มคำสั่งใหม่ทุกครั้ง เช่น:
- "อากาศวันนี้เป็นอย่างไร?" → "แล้ววันพรุ่งนี้ล่ะ?" → "ถ้าฝนตกควรพกร่มไหม?" — Siri จะเข้าใจบริบทตลอดการสนทนา
| ฟีเจอร์ | Siri เดิม | Siri + Gemini |
|---|---|---|
| เข้าใจหน้าจอ | ไม่ได้ | On-Screen Awareness |
| งานหลายขั้นตอน | ทำได้จำกัด | Multi-Step Tasks |
| ข้ามแอป | เฉพาะบางแอป | ข้ามแอปทุกตัว |
| จำบริบท | ไม่ได้ | สนทนาต่อเนื่อง |
| AI Engine | Apple ML | Google Gemini |
ความเป็นส่วนตัว: Apple Private Cloud Compute
หนึ่งในข้อกังวลหลักเมื่อ Apple ร่วมมือกับ Google คือเรื่อง ความเป็นส่วนตัว Apple ตอบข้อกังวลนี้ด้วยเทคโนโลยี Private Cloud Compute (PCC):
Apple Private Cloud Compute ทำงานอย่างไร?
- ประมวลผลบนอุปกรณ์ก่อน — คำสั่งง่ายๆ จะถูกประมวลผลบน iPhone/iPad โดยตรง ไม่ส่งข้อมูลออกไปข้างนอก
- เข้ารหัสแบบ End-to-End — เมื่อต้องใช้ cloud ข้อมูลจะถูกเข้ารหัสก่อนส่ง และถอดรหัสเฉพาะในเครื่องของคุณ
- ไม่เก็บข้อมูลบน cloud — ข้อมูลจะถูกลบออกจาก server ทันทีหลังประมวลผลเสร็จ
- Google ไม่เห็นข้อมูลดิบ — Gemini จะได้รับเฉพาะ "คำถาม" ที่ผ่านการกรองแล้ว ไม่ใช่ข้อมูลส่วนตัวทั้งหมด
แนวทางนี้แตกต่างจากการใช้ ChatGPT หรือ Gemini โดยตรง ที่ข้อมูลจะถูกส่งไปยัง server ของผู้ให้บริการ การที่ Apple วางระบบ PCC เป็นตัวกลางทำให้ผู้ใช้ได้ประโยชน์จาก AI ขั้นสูงโดยไม่ต้องเสียสละความเป็นส่วนตัว
เส้นทางที่ล่าช้า: จาก 2025 มาถึง 2026
Apple เคยประกาศฟีเจอร์ AI สำหรับ Siri ตั้งแต่ WWDC 2024 โดยคาดว่าจะเปิดตัวในปี 2025 (พ.ศ. 2568) แต่ล่าช้าออกมาหลายครั้ง:
- กลางปี 2025 — Apple ยอมรับว่า "Apple Intelligence" ยังไม่พร้อม ฟีเจอร์หลายตัวถูกเลื่อนออกไป
- ปลายปี 2025 — เริ่มมีข่าวว่า Apple เจรจากับ Google เรื่อง Gemini
- มกราคม 2026 — Apple และ Google ลงนามข้อตกลงอย่างเป็นทางการ
- มีนาคม 2026 — เปิดตัว Siri + Gemini ผ่าน iOS 26.4
การล่าช้านี้สะท้อนให้เห็นว่า การพัฒนา AI ระดับ production-ready ไม่ใช่เรื่องง่าย แม้แต่บริษัทระดับ Apple ที่มีทรัพยากรมหาศาลก็ต้องยอมรับว่าจำเป็นต้องใช้ AI จากภายนอก
การที่ Apple เลือกใช้ Gemini แทนการพัฒนาเอง ส่งสัญญาณชัดเจนว่า AI ระดับ foundational model ต้องใช้การลงทุนและความเชี่ยวชาญเฉพาะทางอย่างมาก — แม้แต่บริษัทที่มีมูลค่าสูงที่สุดในโลกก็เลือกที่จะร่วมมือแทนที่จะทำเอง
- บทเรียนจากดีล Apple x Google Gemini, มีนาคม 2569
ผลกระทบต่อผู้ใช้ระดับองค์กร
สำหรับธุรกิจและองค์กร Siri ที่ขับเคลื่อนด้วย Gemini จะเปลี่ยนวิธีการทำงานหลายอย่าง:
ข้อดีสำหรับธุรกิจ
- เพิ่มประสิทธิภาพการทำงาน — พนักงานสามารถสั่งงานด้วยเสียงที่ซับซ้อนขึ้น ลดเวลาในการสลับแอป
- จัดการข้อมูลข้ามแอป — ดึงข้อมูลจาก email จัดตารางนัด และแชร์เอกสารในคำสั่งเดียว
- รองรับหลายภาษา — Gemini มีความสามารถด้านภาษาไทยที่ดีขึ้นมาก เมื่อเทียบกับ Siri เดิม
ข้อควรระวังสำหรับธุรกิจ
- ความเป็นส่วนตัวของข้อมูลองค์กร — แม้ Apple จะมี PCC แต่องค์กรควรทบทวนนโยบาย ความปลอดภัยข้อมูล เมื่อพนักงานใช้ Siri กับข้อมูลที่มีความอ่อนไหว
- การพึ่งพา vendor — ตอนนี้ Siri ขึ้นอยู่กับทั้ง Apple และ Google ถ้า Gemini มีปัญหา Siri ก็จะได้รับผลกระทบด้วย
- ต้นทุนการอัปเกรด — อุปกรณ์รุ่นเก่าอาจไม่รองรับ iOS 26.4 ต้องพิจารณาแผนการอัปเกรดอุปกรณ์
ในยุคที่ AI เข้ามามีบทบาทมากขึ้น สิ่งสำคัญคือองค์กรต้องมี ระบบยืนยันตัวตนที่แข็งแกร่ง และ ลายเซ็นดิจิทัล ที่น่าเชื่อถือ เพื่อป้องกันการเข้าถึงข้อมูลโดยไม่ได้รับอนุญาตผ่านช่องทาง AI
ผลกระทบต่อผู้ใช้ชาวไทย
สำหรับผู้ใช้ iPhone ในประเทศไทย การเปลี่ยนแปลงนี้มีผลกระทบที่น่าสนใจ:
| ด้าน | ผลกระทบ |
|---|---|
| ภาษาไทย | Gemini มีความสามารถด้านภาษาไทยที่ดีกว่า Siri เดิมมาก สั่งงานภาษาไทยได้ราบรื่นขึ้น |
| บริการในไทย | Cross-app integration อาจยังจำกัดกับแอปไทย เช่น LINE, แอปธนาคาร ในช่วงแรก |
| ความพร้อมอุปกรณ์ | ต้องใช้ iPhone 15 Pro ขึ้นไป หรือ iPhone 16 ทุกรุ่น เพื่อรองรับฟีเจอร์ทั้งหมด |
| นักพัฒนาไทย | โอกาสใหม่ในการสร้างแอปที่รองรับ Siri Intents กับ Gemini API |
ไทม์ไลน์และความพร้อมใช้งาน
- มีนาคม 2569 — เปิดตัว iOS 26.4 พร้อม Siri + Gemini ในสหรัฐอเมริกา
- เมษายน 2569 — ขยายไปยังประเทศที่ใช้ภาษาอังกฤษ (UK, Australia, Canada)
- ไตรมาส 2-3/2569 — ขยายรองรับภาษาเพิ่มเติม รวมถึงภาษาไทย (คาดการณ์)
- WWDC 2026 (มิถุนายน 2569) — คาดว่า Apple จะเปิดตัวฟีเจอร์ Siri + Gemini เพิ่มเติม
สรุป: ยุคใหม่ของ AI Assistant
ดีล Apple x Google Gemini สำหรับ Siri ถือเป็น จุดเปลี่ยนสำคัญของอุตสาหกรรม AI เพราะ:
- แสดงให้เห็นว่าแม้แต่บริษัทยักษ์ใหญ่ก็ต้องร่วมมือกันในยุค AI
- ยกระดับมาตรฐานของ AI Assistant บนสมาร์ทโฟนอย่างก้าวกระโดด
- สร้างแรงกดดันให้ Samsung, Google (สำหรับ Pixel) และค่ายอื่นๆ ต้องเร่งพัฒนา AI ของตัวเอง
- เปิดโอกาสใหม่สำหรับนักพัฒนาและธุรกิจที่ต้องการใช้ AI ในการทำงาน
สำหรับองค์กรไทย สิ่งสำคัญคือการเตรียมตัวรับการเปลี่ยนแปลง — ทั้งในแง่ของการอัปเดตอุปกรณ์ การทบทวนนโยบายความปลอดภัย และการหาโอกาสในการใช้ AI เพิ่มประสิทธิภาพการทำงาน ขณะเดียวกันก็ต้องตระหนักว่า AI เป็นเครื่องมือที่ช่วยเสริมศักยภาพของมนุษย์ ไม่ใช่สิ่งทดแทน
อ่านเพิ่มเติมเกี่ยวกับ AI และเทคโนโลยี: เปรียบเทียบ AI: ChatGPT vs Claude vs Gemini และ ความปลอดภัยข้อมูลในยุคดิจิทัล
แหล่งอ้างอิง
- Bloomberg — Apple Pays Google $1B for Gemini to Power New Siri
- The Verge — Apple's Siri Gets a Brain Transplant with Google Gemini
- Apple Newsroom — Siri Reimagined: Smarter, More Personal, More Capable
- Google Blog — Gemini Powers the New Siri Experience
- Reuters — Apple-Google Gemini Deal Transforms Siri Into AI Powerhouse
