ถ้าอยากใช้ AI อยากลองรัน Model ภาษาขนาดใหญ่ ( LLM ) บนเครื่องคอมพิวเตอร์ของตัวเองโดยไม่ต้องง้อ Cloud หรือกังวลเรื่องความเป็นส่วนตัว Ollama คือเครื่องมือที่จะเปลี่ยนเรื่องยากให้เป็นเรื่องง่ายครับ
Ollama คืออะไร ?
Ollama เป็น Open-source Framework ที่ถูกออกแบบมาเพื่อให้เราสามารถติดตั้งและรัน LLM ( เช่น Llama 3, Mistral, หรือ Phi-3 ) ได้ภายในไม่กี่ขั้นตอน จุดเด่นคือการจัดการทรัพยากรที่ฉลาดและใช้งานง่ายผ่าน Command Line
ทำไมต้องใช้ Ollama ?
- Privacy: ข้อมูลทุกอย่างประมวลผลในเครื่องเรา 100% ไม่หลุดออกไปข้างนอก
- Cost: ฟรี! ( เสียแค่ค่าไฟและค่าอุปกรณ์ของคุณเอง )
- Offline: ใช้งานได้แม้ไม่มีอินเทอร์เน็ต ( หลังจากดาวน์โหลด Model มาแล้ว )
- Simplicity: ติดตั้งง่ายเหมือนลงโปรแกรมทั่วไป ไม่ต้องตั้งค่า Python environment ให้วุ่นวาย
ขั้นตอนการเริ่มใช้งาน
- การติดตั้ง
ไปที่เว็บไซต์ ollama.com เพื่อดาวน์โหลดตัวติดตั้งตามระบบปฏิบัติการที่คุณใช้ ( Windows, macOS หรือ Linux ) - การเลือก Model
Ollama มี “Library” ของ Model ให้เลือกมากมาย ตัวที่ยอดนิยมได้แก่- Llama 3: ตัวตึงจาก Meta ที่ฉลาดและครบเครื่อง
- Mistral: เล็ก พริกขี้หนู ประสิทธิภาพสูง
- Phi-3: โมเดลขนาดเล็กจาก Microsoft ที่รันบนสเปคต่ำได้ดี
- สั่งรันผ่าน Terminal / Command Prompt
เมื่อติดตั้งเสร็จ ให้เปิด Terminal ขึ้นมาแล้วพิมพ์คำสั่งollama run llama3
ระบบจะทำการดาวน์โหลด Model ( เฉพาะครั้งแรก ) จากนั้นคุณก็สามารถเริ่มแชทกับ AI ได้ทันที!
คำสั่งที่ควรรู้ ( Basic Commands )
| คำสั่ง | คำอธิบาย |
ollama list | ดูว่าเรามี Model ตัวไหนติดตั้งอยู่บ้าง |
ollama pull [name] | ดาวน์โหลด Model มาเก็บไว้โดยยังไม่รัน |
ollama rm [name] | ลบ Model ที่ไม่ใช้ออกเพื่อคืนพื้นที่ฮาร์ดดิสก์ |
ollama serve | รันตัว Server เผื่อใช้เชื่อมต่อกับแอปอื่น ๆ |
เทคนิคเพิ่มเติม: การใช้ผ่าน UI
หากคุณไม่ชอบพิมพ์ในหน้าจอสีดำ ๆ ( Terminal ) คุณสามารถใช้โปรแกรมเสริมเพื่อให้มีหน้าตาเหมือน ChatGPT ได้ เช่น
- Open WebUI: หน้าตาคล้าย ChatGPT มากที่สุด และจัดการง่าย
- Page Assist: เป็น Chrome Extension ที่เชื่อมกับ Ollama ได้เลย
- Enchanted: สำหรับผู้ใช้ macOS/iOS ที่ต้องการหน้าตาสวยงาม
ข้อควรรู้ก่อนเริ่ม
การรัน AI ในเครื่องจำเป็นต้องมี RAM ( โดยเฉพาะ VRAM ของการ์ดจอ ) ที่เพียงพอ
- 7B Model: ควรมี RAM อย่างน้อย 8GB
- 13B Model: ควรมี RAM อย่างน้อย 16GB
- การ์ดจอ NVIDIA: จะช่วยให้ AI ตอบโต้ได้เร็วขึ้นมาก ( Fast Inference )
สรุป: Ollama คือประตูสู่โลก AI ส่วนตัวที่เข้าถึงง่ายที่สุดในปัจจุบัน หากคุณมีคอมพิวเตอร์สเปคแรงพอ การลองติดตั้ง Ollama ไว้ติดเครื่องถือเป็นเรื่องที่คุ้มค่ามากครับ!
อ่านเพิ่มเติม
