- 28
- มีนาคม
ปลายเดือนกุมภาพันธ์ 2569 โลกเทคโนโลยีสั่นสะเทือน เมื่อ OpenAI ลงนามสัญญากับกระทรวงกลาโหมสหรัฐฯ (Pentagon) เพื่อให้บริการ AI ระดับลับ (classified AI services) — แฮชแท็ก #QuitGPT กลายเป็นกระแสระดับโลกในชั่วข้ามคืน ผู้ใช้กว่า 2.5 ล้านคน ร่วมเคลื่อนไหว ยอดถอนการติดตั้ง ChatGPT พุ่งขึ้น 295% บทความนี้จะวิเคราะห์ว่าเกิดอะไรขึ้น ทำไมเรื่องนี้สำคัญกับองค์กรไทย และจะเลือก AI Vendor อย่างไรให้ปลอดภัยในยุคที่ "ความไว้วางใจ" กลายเป็นปัจจัยสำคัญที่สุด
เกิดอะไรขึ้นกับ #QuitGPT?
เหตุการณ์นี้ไม่ได้เกิดขึ้นในวันเดียว แต่เป็นผลสะสมของการตัดสินใจหลายครั้งที่ทำให้ผู้ใช้เริ่มตั้งคำถามกับ OpenAI มากขึ้นเรื่อยๆ
| วันที่ | เหตุการณ์ | ผลกระทบ |
|---|---|---|
| 28 ก.พ. 2569 | OpenAI ลงนามสัญญากับ Pentagon สำหรับบริการ AI ระดับลับ | #QuitGPT เริ่มติดเทรนด์บน X (Twitter) |
| 28 ก.พ. 2569 | Anthropic ปฏิเสธสัญญาเดียวกัน ด้วยเหตุผลด้านจริยธรรม | Claude ขึ้นอันดับ 1 บน US App Store เป็นครั้งแรก |
| 1 มี.ค. 2569 | ยอดถอนการติดตั้ง ChatGPT พุ่งขึ้น 295% ภายในคืนเดียว | ผู้สนับสนุน #QuitGPT ทะลุ 2.5 ล้านคน |
| 3 มี.ค. 2569 | Sam Altman ยอมรับว่าการเปิดตัวสัญญา "เป็นการฉวยโอกาสและไม่รอบคอบ" (opportunistic and sloppy) | สัญญาฉบับแก้ไขห้ามสอดแนมพลเมืองสหรัฐฯ ในประเทศ |
| มี.ค. 2569 | Caitlin Kalinowski ลาออกจาก OpenAI (Internal Resignations) | ตอกย้ำปัญหาวัฒนธรรมองค์กรภายใน |
สรุปภาพรวม
เหตุการณ์ #QuitGPT ไม่ใช่แค่เรื่องของ "แอปตัวไหนดีกว่า" แต่เป็น จุดเปลี่ยนของอุตสาหกรรม AI ทั้งหมด ที่ผู้ใช้เริ่มตระหนักว่า "ใครเป็นเจ้าของข้อมูลของฉัน?" และ "บริษัท AI ที่ฉันใช้ มีจุดยืนด้านจริยธรรมอย่างไร?"
ทำไมเรื่องนี้สำคัญกับองค์กรไทย?
หลายคนอาจคิดว่าเรื่อง #QuitGPT เป็นประเด็นของสหรัฐฯ ที่ไม่เกี่ยวกับประเทศไทย แต่ในความเป็นจริง องค์กรไทยหลายแห่งกำลังใช้ AI จากบริษัทเหล่านี้โดยตรง ไม่ว่าจะเป็น ChatGPT, Claude, Gemini หรือ Copilot เพื่อ:
- ร่าง TOR และเอกสารจัดซื้อจัดจ้าง — ข้อมูลงบประมาณเข้า AI
- วิเคราะห์ข้อมูลการเงินและรายงาน — ตัวเลขทางบัญชีเข้า AI
- เขียน Policy และข้อกำหนดภายใน — กลยุทธ์องค์กรเข้า AI
- แปลเอกสารและสัญญา — ข้อมูลทางกฎหมายเข้า AI
ถ้า AI Vendor ที่คุณใช้สามารถเปลี่ยนนโยบายข้อมูลได้ทุกเมื่อ หรือส่งข้อมูลให้หน่วยงานทหารโดยไม่แจ้ง คุณยังมั่นใจได้หรือไม่ว่าข้อมูลองค์กรของคุณปลอดภัย? นี่คือเหตุผลที่ AI Governance ไม่ใช่เรื่องไกลตัวอีกต่อไป
AI Vendor Trust Framework — 5 เกณฑ์ที่องค์กรควรประเมิน
จากเหตุการณ์ #QuitGPT เราสรุปเกณฑ์ 5 ข้อที่องค์กรควรใช้ประเมิน AI Vendor ก่อนตัดสินใจเลือกใช้งาน:
| เกณฑ์ | OpenAI (ChatGPT) | Anthropic (Claude) | Google (Gemini) |
|---|---|---|---|
| 1. จุดยืนด้านจริยธรรม | เซ็นสัญญาทหาร (เปลี่ยนจุดยืนจากเดิม) | ปฏิเสธสัญญาทหาร มี Responsible Scaling Policy | มี AI Principles แต่เคยทำงานกับกลาโหม (Project Maven) |
| 2. นโยบายข้อมูล | ใช้ข้อมูล Free tier ฝึกโมเดล, Enterprise ไม่ใช้ | ไม่ใช้ข้อมูลผู้ใช้ฝึกโมเดล (ทุก tier) | ใช้ข้อมูล Free tier ฝึกโมเดล |
| 3. ความโปร่งใส | เปลี่ยนจาก Non-profit เป็น For-profit (ถูกวิจารณ์หนัก) | Public Benefit Corporation ตั้งแต่เริ่มต้น | บริษัทมหาชน มีหน้าที่ต่อผู้ถือหุ้น |
| 4. ผลประกอบการ | รายได้ต่อปี >$25B (ผู้นำตลาด) | รายได้ต่อปี $19B (เติบโตจาก $9B ปลายปี 2025) | รายได้ AI รวมอยู่ใน Google Cloud (~$40B+) |
| 5. การลาออกภายใน | หลายคนลาออก (Caitlin Kalinowski, อดีต Safety Team) | ทีมคงที่ ไม่มีข่าวลาออกหมู่ | มีการปรับโครงสร้างแต่ไม่มีข่าวลาออกเพราะจริยธรรม |
ข้อสังเกตสำคัญ
ไม่มี AI Vendor ใดที่ "สมบูรณ์แบบ" ทุกด้าน แต่องค์กรควรเลือกจากเกณฑ์ที่ สอดคล้องกับค่านิยมและความเสี่ยงขององค์กร — ถ้าข้อมูลขององค์กรมีความอ่อนไหวสูง นโยบายข้อมูลและจุดยืนด้านจริยธรรมควรเป็นเกณฑ์แรกที่พิจารณา อ่านเพิ่มเติมเกี่ยวกับ การเปรียบเทียบ AI Model ต่างๆ ได้ในบทความของเรา
Data Sovereignty — ข้อมูลองค์กรอยู่ที่ไหน?
ประเด็นที่ #QuitGPT ทำให้เห็นชัดขึ้นคือเรื่อง Data Sovereignty หรือ อธิปไตยทางข้อมูล — เมื่อองค์กรส่งข้อมูลเข้า AI Cloud ข้อมูลนั้นอยู่ภายใต้กฎหมายของประเทศที่เซิร์ฟเวอร์ตั้งอยู่ ไม่ใช่กฎหมายของประเทศคุณ
| ประเด็น | AI Cloud (US-based) | AI On-Premise / ในประเทศ |
|---|---|---|
| กฎหมายที่ใช้บังคับ | US CLOUD Act — รัฐบาลสหรัฐฯ ขอข้อมูลได้ | PDPA / กฎหมายไทย |
| การเข้าถึงข้อมูล | Vendor มีสิทธิ์เข้าถึงตาม ToS | องค์กรควบคุม 100% |
| ความเสี่ยงจากนโยบาย Vendor | เปลี่ยนได้ทุกเมื่อ (ดังกรณี OpenAI) | ไม่ขึ้นกับ Vendor ภายนอก |
| เหมาะกับ | งานทั่วไป ข้อมูลที่ไม่อ่อนไหว | ข้อมูลทางการเงิน กฎหมาย ข้อมูลรัฐ |
สำหรับองค์กรที่ต้องการ AI แต่กังวลเรื่องข้อมูล ทางเลือกหนึ่งคือการใช้ AI แบบ Open Source ที่สามารถติดตั้งบนเซิร์ฟเวอร์ขององค์กรเองได้ เช่น LLaMA, Mistral หรือ OpenClaw ที่เราเคยแนะนำไว้
บทเรียนสำหรับองค์กรที่กำลังเลือก AI
จากเหตุการณ์ #QuitGPT เราสรุปบทเรียน 6 ข้อที่องค์กรไทยควรนำไปใช้:
| # | บทเรียน | สิ่งที่ควรทำ |
|---|---|---|
| 1 | อย่าผูกติดกับ AI Vendor เดียว | ใช้ Multi-vendor Strategy เพื่อลดความเสี่ยง |
| 2 | อ่าน Terms of Service ให้ละเอียด | ตรวจสอบว่า Vendor ใช้ข้อมูลของคุณทำอะไร |
| 3 | จำแนกข้อมูลก่อนส่งเข้า AI | ข้อมูลทั่วไป = Cloud AI ได้ / ข้อมูลอ่อนไหว = On-Premise เท่านั้น |
| 4 | กำหนด AI Policy ขององค์กร | ระบุว่าใครใช้ AI ได้ ใช้ทำอะไร ข้อมูลอะไรห้ามส่ง |
| 5 | ติดตามข่าว AI Vendor อย่างสม่ำเสมอ | นโยบายเปลี่ยนได้ทุกเมื่อ ต้องพร้อมปรับแผน |
| 6 | มี Exit Strategy เสมอ | เตรียมแผนย้ายข้อมูลและเปลี่ยน Vendor ได้ภายใน 30 วัน |
ตัวเลขที่น่าจับตา — AI Market หลัง #QuitGPT
| ตัวชี้วัด | OpenAI | Anthropic |
|---|---|---|
| รายได้ต่อปี (Annualized Revenue) | >$25B | $19B (เพิ่มจาก $9B ปลายปี 2025) |
| อัตราการเติบโต | ~60% YoY | ~111% YoY |
| App Store Ranking (หลัง #QuitGPT) | ลดลงจากอันดับ 1 | ขึ้นอันดับ 1 (US App Store) เป็นครั้งแรก |
| ยอดถอนการติดตั้ง (หลัง #QuitGPT) | เพิ่มขึ้น 295% | N/A (เพิ่มขึ้นฝั่งติดตั้ง) |
บทเรียนจากตัวเลข
แม้ OpenAI ยังเป็นผู้นำตลาดด้วยรายได้ที่สูงกว่า แต่ อัตราการเติบโตของ Anthropic สูงกว่า 2 เท่า — แสดงให้เห็นว่าตลาดกำลังให้ความสำคัญกับ "ความไว้วางใจ" มากขึ้น องค์กรที่เลือก AI Vendor ควรดูไม่ใช่แค่ขนาด แต่ต้องดู ทิศทางและค่านิยม ด้วย
Saeree ERP กับแนวทาง AI ที่โปร่งใสและปลอดภัย
Saeree ERP กำลังพัฒนา AI Assistant โดยยึดหลักการที่ตรงกันข้ามกับปัญหาที่เกิดขึ้นจาก #QuitGPT:
| หลักการ | แนวทางของ Saeree ERP |
|---|---|
| ข้อมูลอยู่ในประเทศ | ข้อมูลทั้งหมดจัดเก็บบนเซิร์ฟเวอร์ในประเทศไทย ไม่ส่งออกนอกประเทศ |
| ความโปร่งใส | องค์กรรู้ว่า AI ทำอะไรกับข้อมูล ไม่มี "black box" |
| ไม่ใช้ข้อมูลลูกค้าฝึกโมเดล | ข้อมูลขององค์กรเป็นของขององค์กร ไม่นำไปใช้อย่างอื่น |
| ไม่ผูกติดกับ AI Vendor ต่างประเทศ | ออกแบบให้รองรับหลาย AI Engine เปลี่ยนได้โดยไม่กระทบระบบหลัก |
| สอดคล้องกับ PDPA | ออกแบบตาม พ.ร.บ. คุ้มครองข้อมูลส่วนบุคคล ตั้งแต่แรก |
ในยุคที่ "ความไว้วางใจ" กลายเป็นสกุลเงินที่สำคัญที่สุดในโลก AI — องค์กรที่เลือก AI Vendor อย่างรอบคอบ ไม่ใช่แค่เลือก "ตัวที่เก่งที่สุด" แต่เลือก "ตัวที่ไว้ใจได้ที่สุด" จะเป็นผู้ชนะในระยะยาว
- ไพฑูรย์ บุตรี, แกรนด์ลีนุกซ์ โซลูชั่น
สรุป — องค์กรไทยต้องทำอะไรวันนี้
- ทบทวน AI Vendor ที่ใช้อยู่ — ตรวจสอบนโยบายข้อมูล จุดยืนด้านจริยธรรม และ ToS ล่าสุด
- จำแนกข้อมูลองค์กร — แยกว่าข้อมูลใดส่ง Cloud AI ได้ ข้อมูลใดต้องอยู่ในองค์กร
- กำหนด AI Governance Policy — ใครใช้ AI ได้ ใช้ทำอะไร ข้อมูลอะไรห้ามส่ง
- เตรียม Multi-vendor Strategy — อย่าผูกติดกับ Vendor เดียว ควรทดสอบอย่างน้อย 2-3 ราย
- พิจารณา AI ในระบบ ERP — ระบบที่ข้อมูลอยู่ในประเทศ ไม่ส่งออกนอก เช่น Saeree ERP ที่กำลังพัฒนา AI Assistant
แหล่งอ้างอิง
- Reuters Technology — OpenAI Pentagon Contract Coverage
- Anthropic News — Responsible Scaling Policy
- The Verge AI — #QuitGPT Movement Analysis
