วัน: 26 เมษายน 2026

AI: Ollama วิธีรัน AI บนเครื่องตัวเองAI: Ollama วิธีรัน AI บนเครื่องตัวเอง

ถ้าอยากใช้ AI อยากลองรัน Model ภาษาขนาดใหญ่ ( LLM ) บนเครื่องคอมพิวเตอร์ของตัวเองโดยไม่ต้องง้อ Cloud หรือกังวลเรื่องความเป็นส่วนตัว Ollama คือเครื่องมือที่จะเปลี่ยนเรื่องยากให้เป็นเรื่องง่ายครับ


Ollama คืออะไร ?

Ollama เป็น Open-source Framework ที่ถูกออกแบบมาเพื่อให้เราสามารถติดตั้งและรัน LLM ( เช่น Llama 3, Mistral, หรือ Phi-3 ) ได้ภายในไม่กี่ขั้นตอน จุดเด่นคือการจัดการทรัพยากรที่ฉลาดและใช้งานง่ายผ่าน Command Line


ทำไมต้องใช้ Ollama ?

  • Privacy: ข้อมูลทุกอย่างประมวลผลในเครื่องเรา 100% ไม่หลุดออกไปข้างนอก
  • Cost: ฟรี! ( เสียแค่ค่าไฟและค่าอุปกรณ์ของคุณเอง )
  • Offline: ใช้งานได้แม้ไม่มีอินเทอร์เน็ต ( หลังจากดาวน์โหลด Model มาแล้ว )
  • Simplicity: ติดตั้งง่ายเหมือนลงโปรแกรมทั่วไป ไม่ต้องตั้งค่า Python environment ให้วุ่นวาย

ขั้นตอนการเริ่มใช้งาน

  1. การติดตั้ง
    ไปที่เว็บไซต์ ollama.com เพื่อดาวน์โหลดตัวติดตั้งตามระบบปฏิบัติการที่คุณใช้ ( Windows, macOS หรือ Linux )
  2. การเลือก Model
    Ollama มี “Library” ของ Model ให้เลือกมากมาย ตัวที่ยอดนิยมได้แก่
    • Llama 3: ตัวตึงจาก Meta ที่ฉลาดและครบเครื่อง
    • Mistral: เล็ก พริกขี้หนู ประสิทธิภาพสูง
    • Phi-3: โมเดลขนาดเล็กจาก Microsoft ที่รันบนสเปคต่ำได้ดี
  3. สั่งรันผ่าน Terminal / Command Prompt
    เมื่อติดตั้งเสร็จ ให้เปิด Terminal ขึ้นมาแล้วพิมพ์คำสั่ง
    ollama run llama3
    ระบบจะทำการดาวน์โหลด Model ( เฉพาะครั้งแรก ) จากนั้นคุณก็สามารถเริ่มแชทกับ AI ได้ทันที!

คำสั่งที่ควรรู้ ( Basic Commands )

คำสั่งคำอธิบาย
ollama listดูว่าเรามี Model ตัวไหนติดตั้งอยู่บ้าง
ollama pull [name]ดาวน์โหลด Model มาเก็บไว้โดยยังไม่รัน
ollama rm [name]ลบ Model ที่ไม่ใช้ออกเพื่อคืนพื้นที่ฮาร์ดดิสก์
ollama serveรันตัว Server เผื่อใช้เชื่อมต่อกับแอปอื่น ๆ

เทคนิคเพิ่มเติม: การใช้ผ่าน UI

หากคุณไม่ชอบพิมพ์ในหน้าจอสีดำ ๆ ( Terminal ) คุณสามารถใช้โปรแกรมเสริมเพื่อให้มีหน้าตาเหมือน ChatGPT ได้ เช่น

  • Open WebUI: หน้าตาคล้าย ChatGPT มากที่สุด และจัดการง่าย
  • Page Assist: เป็น Chrome Extension ที่เชื่อมกับ Ollama ได้เลย
  • Enchanted: สำหรับผู้ใช้ macOS/iOS ที่ต้องการหน้าตาสวยงาม

ข้อควรรู้ก่อนเริ่ม

การรัน AI ในเครื่องจำเป็นต้องมี RAM ( โดยเฉพาะ VRAM ของการ์ดจอ ) ที่เพียงพอ

  • 7B Model: ควรมี RAM อย่างน้อย 8GB
  • 13B Model: ควรมี RAM อย่างน้อย 16GB
  • การ์ดจอ NVIDIA: จะช่วยให้ AI ตอบโต้ได้เร็วขึ้นมาก ( Fast Inference )

สรุป: Ollama คือประตูสู่โลก AI ส่วนตัวที่เข้าถึงง่ายที่สุดในปัจจุบัน หากคุณมีคอมพิวเตอร์สเปคแรงพอ การลองติดตั้ง Ollama ไว้ติดเครื่องถือเป็นเรื่องที่คุ้มค่ามากครับ!


อ่านเพิ่มเติม