02-347-7730  |  Saeree ERP - ระบบ ERP ครบวงจรสำหรับธุรกิจไทย ติดต่อเรา

ใช้งาน Ollama จริงจัง

ใช้งาน Ollama จริงจัง เลือก Model เขียน Prompt สร้าง Modelfile
  • 3
  • เมษายน

Ollama Series EP.3 — หลังจาก EP.2 ที่เราติดตั้ง Ollama และรัน Model แรกสำเร็จแล้ว ตอนนี้ถึงเวลาใช้งานจริงจัง! บทความนี้จะพาคุณเรียนรู้วิธีเลือก Model ให้เหมาะกับงาน เขียน System Prompt ที่ดี สร้าง Modelfile เพื่อทำ Custom AI ของตัวเอง และใช้ GUI สวยๆ อย่าง Open WebUI แทนการพิมพ์ใน Terminal

สรุปสั้น — EP.3 ครอบคลุมอะไร?

  • เลือก Model ให้ถูกกับงาน — Chat, เขียนโค้ด, Reasoning, ภาษาไทย, อ่านรูป
  • System Prompt — กำหนดบทบาทให้ AI ตอบตรงจุด
  • Modelfile — สร้าง Custom Model ของตัวเอง (เหมือน Dockerfile)
  • ปรับ Parameters — Temperature, Top-K, Top-P, Context Window
  • Multi-modal — ใช้ Model ที่อ่านรูปภาพได้
  • GUI — Open WebUI, Chatbox, Enchanted สำหรับคนไม่ชอบ Terminal

เลือก Model ให้เหมาะกับงาน

Ollama รองรับ Model มากกว่า 100 ตัว แต่ไม่จำเป็นต้องลองทุกตัว — เลือกให้ถูกกับงานสำคัญกว่า นี่คือตารางแนะนำตามประเภทงาน:

ประเภทงาน Model แนะนำ ขนาด ทำไมถึงเหมาะ
Chat ทั่วไป / ภาษาไทย qwen2.5 7B / 72B ภาษาเอเชียดีที่สุดในกลุ่ม Open-source
รอบด้าน llama3.1 8B / 70B จาก Meta, เก่งรอบด้าน Benchmark สูง
เขียนโค้ด qwen2.5-coder 7B / 32B เก่งโค้ดมาก รองรับ 80+ ภาษา
Reasoning (คิดซับซ้อน) deepseek-r1 8B / 70B "คิดก่อนตอบ" แสดง Thinking Process
อ่านรูปภาพ llama3.2-vision 11B / 90B อ่านรูป วิเคราะห์กราฟ อ่านใบเสร็จ
เร็วมาก (ตอบทันที) gemma2:2b 2B เล็กสุด เร็วสุด เหมาะสำหรับงานง่ายๆ
สรุปเอกสาร mistral 7B จากฝรั่งเศส, สรุปตรงจุด กระชับ
วิเคราะห์ข้อมูล / คณิตศาสตร์ phi4 14B จาก Microsoft, Reasoning + Math ดีมาก

ยังไม่แน่ใจ? เริ่มจาก 2 ตัวนี้:

  • ollama run qwen2.5 — ภาษาไทยดี เก่งรอบด้าน (RAM 8 GB พอ)
  • ollama run qwen2.5-coder — เขียนโค้ดเก่งมาก (RAM 8 GB พอ)

System Prompt — กำหนดบทบาทให้ AI

System Prompt คือ "คำสั่งเบื้องหลัง" ที่บอก AI ว่าต้องทำตัวเป็นใคร ตอบแบบไหน ไม่ตอบอะไร — เหมือนการ Brief พนักงานใหม่ก่อนเริ่มงาน ถ้าไม่ตั้ง System Prompt AI จะตอบแบบกว้างๆ ไม่ตรงจุด

ใน Ollama คุณสามารถใส่ System Prompt ได้ทั้งตอนรันและใน Modelfile:

วิธีที่ 1: ใส่ตอนรัน (ชั่วคราว)

ollama run llama3.1 --system "คุณเป็นผู้เชี่ยวชาญด้านระบบ ERP สำหรับองค์กรไทย ตอบเป็นภาษาไทย กระชับ ใช้ตัวอย่างจริง"

วิธีที่ 2: ใส่ใน Modelfile (ถาวร)

วิธีนี้ดีกว่าเพราะ ไม่ต้องพิมพ์ซ้ำทุกครั้ง — จะอธิบายในหัวข้อถัดไป

ตัวอย่าง System Prompt ที่ดี

Use Case System Prompt
ผู้ช่วย ERP "คุณเป็นผู้เชี่ยวชาญระบบ ERP ตอบเป็นภาษาไทย อธิบายขั้นตอนเป็นข้อๆ ถ้าไม่แน่ใจให้บอกตรงๆ ว่าไม่ทราบ"
ช่วยเขียนโค้ด "You are a senior developer. Write clean, well-commented code. Always explain your approach before writing code. Use TypeScript by default."
สรุปเอกสาร "สรุปเนื้อหาที่ได้รับเป็นภาษาไทย ไม่เกิน 5 bullet points จับประเด็นหลักเท่านั้น ไม่ต้องเพิ่มความเห็น"
ตรวจ ผังบัญชี "คุณเป็นนักบัญชีอาวุโส ตรวจสอบผังบัญชีที่ได้รับ ชี้จุดที่ผิดปกติหรือไม่ตรงมาตรฐาน TFRS พร้อมเสนอแก้ไข"
แปลภาษา "Translate the given text to Thai. Keep technical terms in English. Maintain the original tone and formatting."

Modelfile — สร้าง Custom Model ของตัวเอง

Modelfile เป็นเหมือน Dockerfile สำหรับ AI — ไฟล์ข้อความที่กำหนดว่า Model จะทำงานอย่างไร ใช้ Base Model อะไร System Prompt คืออะไร Parameters เป็นเท่าไหร่ แล้ว build เป็น Custom Model ที่พร้อมใช้

ตัวอย่าง: สร้าง AI ผู้ช่วย ERP

# ไฟล์: erp-assistant.modelfile

FROM qwen2.5

PARAMETER temperature 0.3
PARAMETER top_p 0.9
PARAMETER num_ctx 8192

SYSTEM """
คุณชื่อ "เสรี" เป็น AI ผู้ช่วยด้านระบบ ERP ขององค์กร
- ตอบเป็นภาษาไทยเสมอ ยกเว้นคำศัพท์เทคนิค
- อธิบายขั้นตอนเป็นข้อๆ ชัดเจน
- ถ้าเกี่ยวกับงบการเงินหรือบัญชี ให้อ้างอิงมาตรฐาน TFRS
- ถ้าไม่แน่ใจ ให้บอกตรงๆ ว่า "ไม่ทราบ ควรสอบถามผู้เชี่ยวชาญ"
- ห้ามแต่งตัวเลขหรือข้อมูลที่ไม่มีอยู่จริง
"""

Build และรัน:

# Build Custom Model
ollama create erp-assistant -f erp-assistant.modelfile

# รัน
ollama run erp-assistant

# ทดสอบ
>>> ขั้นตอนการปิดงบประจำเดือนมีอะไรบ้าง?

ตัวอย่างอื่นๆ

# AI ช่วยเขียนโค้ด
FROM qwen2.5-coder
PARAMETER temperature 0.1
SYSTEM "You are a senior full-stack developer. Write clean code with comments. Prefer TypeScript, Python, and PostgreSQL."

# AI สรุปเอกสาร (เร็ว)
FROM gemma2:2b
PARAMETER temperature 0.2
PARAMETER num_ctx 4096
SYSTEM "สรุปเนื้อหาเป็นภาษาไทย ไม่เกิน 5 ข้อ กระชับ ตรงจุด"

# AI วิเคราะห์ความเสี่ยง
FROM phi4
PARAMETER temperature 0.4
SYSTEM "คุณเป็นผู้เชี่ยวชาญด้านการบริหารความเสี่ยงองค์กร วิเคราะห์ข้อมูลที่ได้รับ ระบุความเสี่ยง ระดับความรุนแรง และข้อเสนอแนะ"

Parameters ที่ต้องรู้

Parameters ควบคุมว่า AI จะ "ตอบแบบไหน" — ตอบแบบสร้างสรรค์หรือแม่นยำ ตอบยาวหรือสั้น:

Parameter ค่า ผล แนะนำ
temperature 0.0 - 2.0 ต่ำ = แม่นยำ ตอบซ้ำๆ / สูง = สร้างสรรค์ หลากหลาย โค้ด/บัญชี: 0.1-0.3, Chat: 0.7, เขียนบทความ: 0.8-1.0
top_p 0.0 - 1.0 จำกัดคำตอบให้เลือกจากคำที่น่าจะเป็นไปได้มากที่สุด 0.9 (ค่าเริ่มต้น ใช้ได้ดีทุกงาน)
top_k 1 - 100 จำกัดจำนวนคำที่ AI เลือกในแต่ละขั้น 40 (ค่าเริ่มต้น)
num_ctx 2048 - 131072 Context Window — จำนวนข้อความที่ AI จำได้ในบทสนทนา 4096 (ค่าเริ่มต้น), 8192-16384 สำหรับเอกสารยาว
repeat_penalty 1.0 - 2.0 ป้องกัน AI พูดซ้ำๆ 1.1 (เพิ่มเล็กน้อยถ้า AI พูดวนซ้ำ)

Multi-modal — ให้ AI อ่านรูปภาพ

บาง Model สามารถ "เห็น" รูปภาพได้ — เช่น อ่านข้อมูลจากใบเสร็จ วิเคราะห์กราฟ หรืออ่าน Screenshot ของระบบ ERP:

# รัน Model ที่อ่านรูปได้
ollama run llama3.2-vision

# ส่งรูปให้ AI (ลากไฟล์ใส่ Terminal หรือพิมพ์ path)
>>> อ่านข้อมูลจากใบเสร็จนี้ /Users/me/receipt.jpg
>>> วิเคราะห์กราฟยอดขายนี้ /Users/me/sales-chart.png

Model ที่อ่านรูปได้:

  • llama3.2-vision (11B/90B) — จาก Meta, ดีที่สุดในกลุ่ม Open-source
  • llava (7B/13B) — เบาและเร็ว เหมาะกับ ตรวจสอบเอกสารพัสดุ
  • moondream (1.8B) — เล็กมาก รันได้แม้เครื่องไม่แรง

GUI — ไม่ต้องใช้ Terminal ก็ใช้ได้

สำหรับคนที่ไม่ชอบ Command Line หรือต้องการให้ พนักงานทั้งองค์กรใช้ AI ผ่านเว็บ มีหลาย GUI ที่เชื่อมกับ Ollama ได้:

GUI ประเภท จุดเด่น เหมาะกับ
Open WebUI Web App (Docker) หน้าตาคล้าย ChatGPT, จัดการ User ได้, รองรับ RAG องค์กร, Server ส่วนกลาง
Chatbox Desktop App ติดตั้งง่าย สลับ Model ได้เร็ว บันทึกประวัติ ใช้คนเดียว, ใช้ส่วนตัว
Enchanted macOS / iOS App Native Apple UI สวยงาม รองรับ Siri Shortcuts ผู้ใช้ Apple ecosystem
Continue.dev VS Code Extension AI Coding Assistant ใน VS Code เชื่อม Ollama Developer ที่ใช้ VS Code

เคล็ดลับ — ใช้ Ollama ให้ได้ผลดีที่สุด

  1. เลือก Model ขนาดพอดี: 7-8B สำหรับงานทั่วไป, 14B ถ้าต้องการฉลาดขึ้น, 70B สำหรับงานยาก — อย่าใช้ Model ใหญ่เกินจำเป็น จะช้าโดยเปล่า
  2. ตั้ง temperature ให้ถูก: งานที่ต้องการความแม่นยำ (โค้ด, บัญชี, ข้อมูลตัวเลข) ใช้ 0.1-0.3 / งานสร้างสรรค์ใช้ 0.7-1.0
  3. ใช้ Modelfile: สร้าง Custom Model สำหรับงานที่ทำบ่อย — ประหยัดเวลาไม่ต้องพิมพ์ System Prompt ซ้ำ
  4. เพิ่ม num_ctx ถ้าต้องอ่านเอกสารยาว: ค่าเริ่มต้น 4096 อาจไม่พอสำหรับเอกสาร 10+ หน้า ตั้ง 8192 หรือ 16384
  5. ใช้ GUI สำหรับองค์กร: Open WebUI เหมาะมากสำหรับให้พนักงานทุกคนใช้ AI — ไม่ต้องสอนใช้ Terminal

Saeree ERP + Custom AI Model:

ด้วย Modelfile คุณสามารถสร้าง AI ที่เข้าใจธุรกิจของคุณ — ตั้ง System Prompt ให้รู้จักระเบียบองค์กร ผังบัญชี และขั้นตอนการทำงาน แล้วใช้ร่วมกับ Ollama เพื่อให้ AI ตอบคำถามพนักงานได้แม่นยำ สนใจ ปรึกษาทีมงานฟรี

Ollama Series — อ่านต่อ

"AI ที่ดีไม่ใช่ AI ที่ฉลาดที่สุด แต่เป็น AI ที่ถูกตั้งค่าให้ตรงกับงานที่ต้องทำ — Modelfile คือกุญแจสำคัญ"

- ทีมงาน Saeree ERP

แหล่งอ้างอิง

สนใจระบบ ERP สำหรับองค์กรของคุณ?

ปรึกษาผู้เชี่ยวชาญจาก Grand Linux Solution ฟรี ไม่มีค่าใช้จ่าย

ขอ Demo ฟรี

โทร 02-347-7730 | sale@grandlinux.com

Saeree ERP Author

เกี่ยวกับผู้เขียน

ไพฑูรย์ บุตรี

ผู้เชี่ยวชาญด้านระบบเน็ตเวิร์คและระบบความปลอดภัยเซิร์ฟเวอร์ บริษัท แกรนด์ลีนุกซ์ โซลูชั่น จำกัด