Saeree ERP - ระบบ ERP ครบวงจรสำหรับธุรกิจไทย ติดต่อเรา

บทความ: Generative AI 101

Generative AI 101 — คู่มือเริ่มต้นสำหรับผู้บริหารไทย
  • 23
  • กุมภาพันธ์

ในช่วง 2-3 ปีที่ผ่านมา คำว่า AI, LLM, GPT, Prompt, RAG ปรากฏอยู่ทุกที่ ตั้งแต่ข่าวเศรษฐกิจ สัมมนาผู้บริหาร ไปจนถึงโฆษณาซอฟต์แวร์ หลายท่านอาจเคยลองใช้ ChatGPT หรือ Google Gemini แล้วรู้สึกว่า "น่าสนใจ แต่ยังไม่เข้าใจภาพรวม" บทความนี้จะอธิบายทุกอย่างตั้งแต่พื้นฐานจนถึงวิธีเริ่มใช้ในองค์กร แบบที่ผู้บริหารอ่านจบแล้วนำไปใช้งานได้จริง

AI vs Machine Learning vs Deep Learning vs Generative AI

หลายคนสับสนระหว่างคำเหล่านี้ จริงๆ แล้วมันคือ วงกลมซ้อนกัน จากใหญ่ไปเล็ก:

ระดับ คำศัพท์ ความหมาย ตัวอย่าง
วงนอกสุด AI (Artificial Intelligence) เทคโนโลยีที่ทำให้คอมพิวเตอร์ "คิด" หรือ "ตัดสินใจ" ได้เหมือนมนุษย์ ระบบแนะนำสินค้า, รถยนต์ไร้คนขับ, ผู้ช่วยเสียง
วงที่ 2 Machine Learning (ML) AI ที่ เรียนรู้จากข้อมูล โดยไม่ต้องเขียนกฎทุกอย่างเอง ตรวจจับสแปม, ทำนายยอดขาย, จัดกลุ่มลูกค้า
วงที่ 3 Deep Learning (DL) ML ที่ใช้ โครงข่ายประสาทเทียม (Neural Network) หลายชั้น เรียนรู้ Pattern ที่ซับซ้อนได้ จำแนกภาพ, แปลภาษา, รู้จำเสียงพูด
วงในสุด Generative AI DL ที่ "สร้างสิ่งใหม่" ได้ ไม่ว่าจะเป็นข้อความ รูปภาพ เสียง หรือโค้ด ChatGPT, Claude, Midjourney, GitHub Copilot

สรุปง่ายๆ: Generative AI เป็นส่วนหนึ่งของ Deep Learning ซึ่งเป็นส่วนหนึ่งของ Machine Learning ซึ่งอีกทีก็เป็นส่วนหนึ่งของ AI — ไม่ใช่คำเดียวกัน แต่เป็น "ลูกหลาน" ของกันและกัน

LLM คืออะไร? (Large Language Model)

LLM (Large Language Model) คือ AI ประเภทหนึ่งที่ถูกสร้างขึ้นมาเพื่อ "เข้าใจ" และ "สร้าง" ภาษามนุษย์ โดยเฉพาะ เป็นเทคโนโลยีเบื้องหลัง ChatGPT, Claude, Gemini และ AI สนทนาอื่นๆ ที่เราคุ้นเคย

LLM เทรนมาจากอะไร?

LLM เรียนรู้จาก ข้อมูลข้อความมหาศาล บนอินเทอร์เน็ต ได้แก่ เว็บไซต์ หนังสือ บทความวิจัย โค้ดโปรแกรม Wikipedia และอื่นๆ อีกมากมาย โดยปริมาณข้อมูลที่ใช้เทรนนั้นมีขนาดหลาย Terabyte (เทียบเท่าหนังสือหลายล้านเล่ม)

LLM ทำงานยังไง?

หลักการทำงานพื้นฐานของ LLM คือการ "ทำนายคำถัดไป" (Predict Next Token) ที่น่าจะเหมาะสมที่สุด เมื่อได้รับข้อความมา LLM จะคำนวณความน่าจะเป็นว่าคำถัดไปควรเป็นคำอะไร แล้วเลือกคำที่มีความน่าจะเป็นสูงสุด

ตัวอย่าง:

เมื่อป้อนข้อความว่า "เมืองหลวงของประเทศไทยคือ" LLM จะคำนวณว่าคำถัดไปที่มีความน่าจะเป็นสูงสุดคือ "กรุงเทพมหานคร" เพราะในข้อมูลที่เทรนมา ข้อความนี้ปรากฏร่วมกันบ่อยที่สุด

ข้อจำกัดสำคัญ: Hallucination

เพราะ LLM ทำงานด้วยการ "ทำนาย" ไม่ใช่ "ค้นหาความจริง" จึงเกิดปัญหาที่เรียกว่า Hallucination คือ AI "แต่งเรื่องขึ้นมาเอง" อย่างมั่นใจ เช่น อ้างอิงงานวิจัยที่ไม่มีอยู่จริง ให้ตัวเลขสถิติที่ผิด หรือสร้างข้อมูลที่ดูน่าเชื่อถือแต่ไม่ถูกต้อง นี่คือเหตุผลที่ ห้ามเชื่อ AI 100% โดยไม่ตรวจสอบ

คำศัพท์ที่ผู้บริหารควรรู้

เมื่อเข้าประชุมเรื่อง AI หรืออ่านบทความเทคโนโลยี คำศัพท์เหล่านี้จะปรากฏบ่อยมาก:

คำศัพท์ ความหมาย เปรียบเทียบง่ายๆ
Prompt Engineering ศาสตร์ของการ ตั้งคำถามหรือเขียนคำสั่ง ให้ AI ตอบได้ดีและตรงประเด็น ถามดี = ได้คำตอบดี เหมือนการบรีฟงานพนักงาน ยิ่งบรีฟชัด ยิ่งได้ผลลัพธ์ดี
RAG
(Retrieval-Augmented Generation)
เทคนิคที่ให้ AI อ่านเอกสารขององค์กรก่อนตอบ แทนที่จะตอบจากความรู้ทั่วไป ช่วยลด Hallucination และให้คำตอบที่ตรงกับบริบทขององค์กร เหมือนให้พนักงานเปิดคู่มือบริษัทอ่านก่อนตอบลูกค้า
Fine-tuning ปรับ AI ให้เชี่ยวชาญเฉพาะด้าน โดยการเทรนเพิ่มด้วยข้อมูลเฉพาะทาง เช่น ข้อมูลทางการแพทย์ กฎหมาย หรือบัญชี เหมือนส่งพนักงานไปเรียนคอร์สเฉพาะทาง
Token หน่วยนับของ AI ไม่ใช่คำ แต่เป็นชิ้นส่วนของคำ ภาษาอังกฤษ ~1 คำ = 1-2 Token ภาษาไทย ~1 คำ = 2-4 Token เพราะตัวอักษรซับซ้อนกว่า เหมือนหน่วยนับค่าโทรศัพท์ (ยิ่งคุยมาก ยิ่งเสียค่า Token มาก)
Temperature ระดับความสร้างสรรค์ ของ AI ค่าต่ำ (0.0-0.3) = ตอบตรงๆ สม่ำเสมอ ค่าสูง (0.7-1.0) = สร้างสรรค์ หลากหลาย แต่อาจไม่แม่นยำ เหมือนปุ่มปรับ "ความกล้าคิดนอกกรอบ" ของ AI
Hallucination ปรากฏการณ์ที่ AI แต่งเรื่องขึ้นมาเอง อย่างมั่นใจ ราวกับเป็นข้อเท็จจริง เกิดจากการที่ AI "ทำนาย" คำตอบ ไม่ใช่ "ค้นหา" ความจริง เหมือนพนักงานที่ไม่กล้าบอกว่าไม่รู้ เลยตอบแบบเดาๆ ไปก่อน
Context Window ปริมาณข้อมูลที่ AI จำได้ในครั้งเดียว วัดเป็น Token เช่น 128K Token หมายความว่า AI สามารถอ่านเอกสารขนาด ~200 หน้า A4 ได้ในครั้งเดียว เหมือนขนาดโต๊ะทำงาน ยิ่งใหญ่ ยิ่งวางเอกสารได้มาก
Agent AI ที่สามารถ ทำงานหลายขั้นตอนได้เอง วางแผน ตัดสินใจ เรียกใช้เครื่องมือ และแก้ไขข้อผิดพลาดได้ ไม่ใช่แค่ตอบคำถามทีละคำถาม เหมือนผู้ช่วยที่มอบหมายงานได้ทั้งโปรเจกต์ ไม่ใช่แค่ทีละเรื่อง

วิธีเริ่มใช้ AI ในองค์กร — 4 ขั้นตอนที่ทำได้จริง

หลายองค์กรอยากเริ่มใช้ AI แต่ไม่รู้จะเริ่มตรงไหน ต่อไปนี้คือแนวทาง 4 ขั้นตอนที่เหมาะกับองค์กรไทย:

ขั้นที่ 1: เริ่มจากทดลองใช้ส่วนตัว (ไม่ใส่ข้อมูลลับ)

ก่อนจะนำ AI มาใช้ในองค์กร ผู้บริหารและพนักงานควร ทดลองใช้ AI ด้วยตัวเองก่อน เพื่อเข้าใจว่ามันทำอะไรได้และทำอะไรไม่ได้ เริ่มจากงานส่วนตัวที่ไม่เกี่ยวกับข้อมูลลับขององค์กร เช่น:

  • ใช้ AI ช่วยร่างอีเมล สรุปบทความ แปลเอกสาร
  • ลองถามคำถามเชิงวิเคราะห์ เช่น "ข้อดีข้อเสียของ Cloud ERP vs On-premise ERP"
  • ทดลองสร้าง Presentation outline หรือ Brainstorm ไอเดีย

ข้อควรระวัง: ห้ามใส่ข้อมูลลับขององค์กร (เช่น งบการเงิน รายชื่อลูกค้า รหัสผ่าน สัญญา) เข้าไปใน AI สาธารณะเด็ดขาด เพราะข้อมูลเหล่านั้นอาจถูกนำไปใช้เทรน AI ต่อ

ขั้นที่ 2: ระบุ Use Case ที่ AI ช่วยได้จริง

ไม่ใช่ทุกงานที่ AI จะช่วยได้ดี ให้ระบุงานที่มีลักษณะเหล่านี้:

AI ช่วยได้ดี AI ยังไม่เหมาะ
งานที่ต้องสรุปข้อมูลจำนวนมาก งานที่ต้องการความถูกต้อง 100% (เช่น ตัวเลขทางบัญชี)
งานร่างเอกสาร/อีเมล/รายงานเบื้องต้น งานที่ต้องตัดสินใจทางกฎหมาย/จริยธรรม
งานแปลภาษาและปรับโทนเสียง งานที่ใช้ข้อมูลลับหรือข้อมูลส่วนบุคคล (ถ้าใช้ AI สาธารณะ)
งาน Brainstorm และวิเคราะห์ทางเลือก งานที่ต้องอ้างอิงข้อมูล Real-time (ราคาหุ้น, อัตราแลกเปลี่ยน)
งานตรวจสอบและแก้ไขเอกสาร งานที่ต้องการ "ความเห็นอกเห็นใจ" จากมนุษย์จริงๆ

ขั้นที่ 3: กำหนดนโยบาย AI ขององค์กร

ก่อนเปิดให้พนักงานใช้ AI อย่างเป็นทางการ องค์กรควรมีนโยบายที่ชัดเจน:

  • ข้อมูลอะไรห้ามใส่ใน AI? กำหนดให้ชัดว่าข้อมูลลับระดับไหนห้ามใช้กับ AI สาธารณะ
  • ใครรับผิดชอบตรวจสอบผลลัพธ์? AI ไม่ใช่ผู้ตัดสินใจสุดท้าย ต้องมีคนตรวจสอบเสมอ
  • AI ตัวไหนที่อนุญาตให้ใช้? เลือก AI ที่มีนโยบายความเป็นส่วนตัวที่ยอมรับได้
  • ต้องเปิดเผยหรือไม่ว่าใช้ AI ช่วย? กำหนดนโยบายความโปร่งใสในการใช้ AI

ขั้นที่ 4: เลือก AI ที่เหมาะกับงาน

AI แต่ละตัวมีจุดแข็งต่างกัน:

ประเภท AI เหมาะกับ ตัวอย่าง
AI สนทนา ถามตอบ, สรุป, ร่างเอกสาร, วิเคราะห์ ChatGPT, Claude, Gemini
AI สร้างภาพ ออกแบบกราฟิก, สร้างภาพประกอบ Midjourney, DALL-E, Stable Diffusion
AI เขียนโค้ด ช่วยเขียน/แก้ไขโปรแกรม GitHub Copilot, Claude Code, Cursor
AI เฉพาะองค์กร ใช้กับข้อมูลภายใน ปลอดภัยกว่า Azure OpenAI, AWS Bedrock, Self-hosted LLM

สำหรับองค์กรที่มีข้อมูลลับ:

พิจารณาใช้ AI เฉพาะองค์กร (Enterprise AI) ที่ข้อมูลไม่ถูกส่งออกไปภายนอก หรือใช้เทคนิค RAG ที่ให้ AI อ่านเอกสารองค์กรในสภาพแวดล้อมที่ปลอดภัย โดยไม่ต้องส่งข้อมูลไปเทรนโมเดล

ข้อควรระวังในการใช้ AI

แม้ AI จะมีประโยชน์มาก แต่ผู้บริหารต้องเข้าใจความเสี่ยงเหล่านี้:

1. Hallucination (AI แต่งเรื่อง)

ดังที่กล่าวมา AI สามารถ สร้างข้อมูลที่ดูน่าเชื่อถือแต่ไม่จริง ได้ทุกเมื่อ โดยเฉพาะตัวเลข สถิติ ชื่อบุคคล และการอ้างอิง ต้องตรวจสอบข้อเท็จจริงทุกครั้งก่อนนำไปใช้ โดยเฉพาะเรื่องที่มีผลกระทบทางธุรกิจหรือกฎหมาย

2. ข้อมูลลับ (Data Privacy)

ข้อมูลที่ป้อนเข้า AI สาธารณะ อาจถูกนำไปใช้เทรนโมเดลต่อ ซึ่งหมายความว่าข้อมูลลับขององค์กร อาจถูกเปิดเผยผ่านคำตอบที่ AI ให้กับผู้ใช้คนอื่น นโยบายข้อมูลของ AI แต่ละเจ้าแตกต่างกัน ต้องอ่านให้ละเอียด

3. Bias (อคติ)

AI เรียนรู้จากข้อมูลที่มนุษย์สร้าง จึง สืบทอดอคติ มาด้วย เช่น อคติทางเพศ เชื้อชาติ หรือวัฒนธรรม ถ้านำ AI มาใช้ในงานที่มีผลต่อคน เช่น คัดกรองผู้สมัครงาน ประเมินสินเชื่อ ต้องระวังเรื่อง Bias เป็นพิเศษ

4. ต้นทุนที่ซ่อนอยู่ (Hidden Costs)

การใช้ AI มีต้นทุนที่มองไม่เห็นหลายอย่าง:

  • ค่า API / Subscription: AI ระดับ Enterprise มีค่าใช้จ่ายรายเดือนที่สูง โดยเฉพาะถ้าใช้ปริมาณมาก
  • ค่าเวลาเรียนรู้: พนักงานต้องใช้เวลาเรียนรู้วิธีใช้ AI อย่างมีประสิทธิภาพ
  • ค่าตรวจสอบ: ผลลัพธ์จาก AI ต้องมีคนตรวจสอบ ไม่ได้ลดภาระงานลง 100%
  • ค่าโครงสร้างพื้นฐาน: ถ้าต้องการ Host AI เอง จะมีค่า Server และค่าดูแลระบบเพิ่ม

Saeree ERP กับ AI

ในปัจจุบัน Saeree ERP ยังไม่มีฟีเจอร์ AI อยู่ในระบบ แต่ทีมพัฒนากำลังศึกษาและวางแผนนำ AI มาใช้ในอนาคต โดยมุ่งเน้นที่การช่วยเหลือผู้ใช้งานในด้านที่ AI ทำได้ดี เช่น การวิเคราะห์ข้อมูล การสร้างรายงาน และการทำนายแนวโน้ม

แนวทางของ Saeree ERP:

  • ให้ความสำคัญกับ ความถูกต้องของข้อมูล มากกว่าความเร็วในการนำ AI มาใช้
  • จะนำ AI มาเสริมเฉพาะส่วนที่ ผ่านการทดสอบอย่างรอบคอบ แล้วเท่านั้น
  • ข้อมูลลับของลูกค้าจะไม่ถูกส่งออกไปภายนอก ไม่ว่ากรณีใดๆ
  • ติดตามข่าวสารได้ที่ บทความหมวด AI

สรุป

Generative AI เป็นเทคโนโลยีที่เปลี่ยนวิธีการทำงานอย่างมหาศาล แต่การจะนำมาใช้ในองค์กรได้อย่างมีประสิทธิภาพ ผู้บริหารต้องเข้าใจทั้ง ศักยภาพ และ ข้อจำกัด ของมัน ไม่ใช่แค่ตามกระแส แต่ต้องมีแผนที่ชัดเจน นโยบายที่รอบคอบ และทีมที่พร้อม

AI ไม่ได้มาแทนที่คน แต่คนที่ใช้ AI เป็น จะแทนที่คนที่ใช้ไม่เป็น สิ่งสำคัญไม่ใช่การรีบนำ AI มาใช้ แต่คือการ "เข้าใจ" ก่อนว่า AI ทำอะไรได้ ทำอะไรไม่ได้ และเหมาะกับงานอะไรขององค์กรเรา

- ทีมงาน Saeree ERP

หากองค์กรของคุณต้องการปรึกษาเรื่องการนำเทคโนโลยีมาใช้กับระบบ ERP สามารถนัดหมาย Demo หรือติดต่อทีมที่ปรึกษาเพื่อพูดคุยเพิ่มเติม

สนใจระบบ ERP สำหรับองค์กรของคุณ?

ปรึกษาผู้เชี่ยวชาญจาก Grand Linux Solution ฟรี ไม่มีค่าใช้จ่าย

ขอ Demo ฟรี

โทร 02-347-7730 | sale@grandlinux.com

image

เกี่ยวกับผู้เขียน

ทีมงานผู้เชี่ยวชาญด้านระบบ ERP จากบริษัท แกรนด์ลีนุกซ์ โซลูชั่น จำกัด พร้อมให้คำปรึกษาและบริการด้านระบบ ERP ครบวงจร