Mac M5 ( ซึ่งเป็นสถาปัตยกรรม Apple Silicon รุ่นล่าสุด ) ถือเป็นข้อยกเว้นที่ได้เปรียบกว่าฝั่ง Windows PC มากเพราะ Mac ใช้สิ่งที่เรียกว่า Unified Memory ( RAM ที่แชร์กันทั้ง CPU และ GPU อยู่ใน CHIP ก้อนเดียวกันเลย ) ทำให้คุณสามารถนำ RAM ทั้งหมดของเครื่องมาใช้รัน AI ได้เกือบ 100% ( ต่างจาก PC ที่ต้องพึ่ง VRAM บนการ์ดจอแยกเป็นหลัก )
1. วิธีคำนวณจากขนาด RAM ( Unified Memory )
บน Mac M5 ระบบจะจอง RAM ส่วนหนึ่งไว้ให้ OS ดังนั้นกฎเหล็กคือ “ห้ามใช้ RAM เกิน 70-80% ของเครื่อง” เพื่อให้ AI รันได้ลื่นไหล
| ขนาด RAM ของเครื่อง | ขนาดโมเดล ( B ) ที่รันได้ลื่น ( 4-bit ) | ขีดจำกัดสูงสุดที่พอรันได้ ( บีบอัดสูง ) |
| 8 GB | 1b – 3b | 8b ( อาจจะหน่วงถ้าเปิด Chrome หลายแท็บ ) |
| 16 GB | 7b – 9b | 14b |
| 24 GB | 12b – 14b | 20b |
| 36 GB / 48 GB | 30b | 32b – 40b |
| 64 GB – 128 GB | 70b | MoE ( เช่น Mixtral 8x7b ) |
2. ทำไม M5 ถึงรันได้ดีกว่ารุ่นอื่น?
ถึงแม้ M1- M4 จะรันได้เหมือนกัน แต่ M5 มีจุดเด่นที่คุณควรรู้
- Memory Bandwidth: M5 มีช่องทางการส่งข้อมูลที่กว้างมาก ทำให้เวลา AI ตอบ ( Tokens per second ) จะเร็วมาก แม้จะเป็นโมเดลขนาดใหญ่
- Neural Engine รุ่นใหม่: ช่วยประมวลผลงานเฉพาะทางบางอย่าง ทำให้ CPU / GPU ไม่ต้องรับภาระหนักเกินไป
- Metal Acceleration: โปรแกรมอย่าง Ollama หรือ LM Studio บน Mac จะดึงพลัง GPU มาช่วยรัน AI ได้เต็มประสิทธิภาพตั้งแต่วันแรก
3. คำแนะนำสำหรับการใช้งานจริง
หากคุณมี Mac M5 ผมแนะนำให้เลือกโมเดลตามประเภทงานดังนี้ครับ
- เน้นความไว ( ใช้งานทั่วไป ): ใช้โมเดล 8b ( เช่น Llama 3 ) จะตอบโต้ทันทีเหมือนคุยกับคนจริง ๆ
- เน้นงานยาก / เขียนโค้ด: หากเครื่องคุณมี RAM 24GB ขึ้นไป ให้ลอง 14b หรือ 27b ( เช่น Gemma 2 27b ) จะเริ่มเห็นความฉลาดที่ต่างออกไปมาก
- เน้นความรู้รอบตัว: หากมี RAM 64GB+ คุณสามารถรัน 70b ซึ่งฉลาดใกล้เคียง ChatGPT-4 ได้ในเครื่องตัวเองเลย
| ชิปเซ็ต (Chipset) | RAM (Unified Memory) | ขนาดโมเดล AI ที่แนะนำ (4-bit) | ความเร็วการตอบโต้ (Estimate) | เหมาะสำหรับงาน |
| M5 (Base) | 16 GB | 8B ( เช่น Llama 3.1 ) | เร็วมาก | ใช้งานทั่วไป, แชทบอทส่วนตัว |
| M5 / M5 Pro | 24 GB | 12B – 14B ( เช่น Mistral ) | เร็วมาก | งานเอกสาร, ช่วยเขียนโค้ดเบื้องต้น |
| M5 / M5 Pro | 32 GB | 20B – 27B ( เช่น Gemma 2 ) | ดี | วิเคราะห์ข้อมูล, เขียนโค้ดซับซ้อน |
| M5 Pro / Max | 64 GB | 30B – 50B | ดีมาก ( Bandwidth สูง ) | งานวิจัย, สรุปบทความยาว ๆ |
| M5 Max | 128 GB | 70B – 90B ( เช่น Llama 3 Large ) | ดี ( รันโมเดลใหญ่ได้ลื่น ) | งาน AI ระดับโปร, สร้างเอเจนท์ |
จุดเด่นที่ต้องพิจารณา ( Bandwidth คือหัวใจ )
ในชิปตระกูล M5 ตัวเลข RAM ไม่ใช่แค่บอกว่า “รันได้ไหม” แต่ Bandwidth ( ความเร็วในการส่งข้อมูล ) จะเป็นตัวบอกว่า “ตอบเร็วแค่ไหน” ครับ
- M5 ( Base ): Bandwidth ประมาณ 153 GB/s เหมาะกับการรันโมเดลขนาดเล็กถึงกลาง ( 8B-14B ) ได้ลื่นไหลที่สุด
- M5 Pro: Bandwidth เพิ่มเป็น 307 GB/s ( 2 เท่าของรุ่นปกติ ) ทำให้เวลาใช้โมเดลขนาดกลาง ( 20B-30B ) จะแทบไม่ต้องรอ AI พิมพ์เลย
- M5 Max: Bandwidth สูงถึง 614 GB/s รุ่นนี้เกิดมาเพื่อรันโมเดลใหญ่ระดับ 70B ขึ้นไปโดยเฉพาะ เพราะสามารถดึงข้อมูลพารามิเตอร์จำนวนมหาศาลออกมาประมวลผลได้ทันที
สรุปวิธีเช็ค
เปิด Activity Monitor ( ตัวจัดการกิจกรรม ) > ไปที่แถบ Memory
- ดูว่าตอนนี้คุณใช้ RAM ไปเท่าไหร่ ( Memory Used )
- เอา RAM ที่เหลืออยู่ มาเทียบกับตารางด้านบนได้เลยครับ
ทริคพิเศษ: สำหรับ Mac แนะนำให้โหลดโมเดลที่เป็นไฟล์นามสกุล .gguf มาใช้ครับ เพราะมันถูกออกแบบมาให้รันบน Apple Silicon ได้สมบูรณ์แบบที่สุด
อ่านเพิ่มเติม
