ป้ายกำกับ: เหมาะ

AI: mac เหมาะกับ AI มากกว่าAI: mac เหมาะกับ AI มากกว่า

Mac M5 ( ซึ่งเป็นสถาปัตยกรรม Apple Silicon รุ่นล่าสุด ) ถือเป็นข้อยกเว้นที่ได้เปรียบกว่าฝั่ง Windows PC มากเพราะ Mac ใช้สิ่งที่เรียกว่า Unified Memory ( RAM ที่แชร์กันทั้ง CPU และ GPU อยู่ใน CHIP ก้อนเดียวกันเลย ) ทำให้คุณสามารถนำ RAM ทั้งหมดของเครื่องมาใช้รัน AI ได้เกือบ 100% ( ต่างจาก PC ที่ต้องพึ่ง VRAM บนการ์ดจอแยกเป็นหลัก )


1. วิธีคำนวณจากขนาด RAM ( Unified Memory )

บน Mac M5 ระบบจะจอง RAM ส่วนหนึ่งไว้ให้ OS ดังนั้นกฎเหล็กคือ “ห้ามใช้ RAM เกิน 70-80% ของเครื่อง” เพื่อให้ AI รันได้ลื่นไหล

ขนาด RAM ของเครื่องขนาดโมเดล ( B ) ที่รันได้ลื่น ( 4-bit )ขีดจำกัดสูงสุดที่พอรันได้ ( บีบอัดสูง )
8 GB1b – 3b8b ( อาจจะหน่วงถ้าเปิด Chrome หลายแท็บ )
16 GB7b – 9b14b
24 GB12b – 14b20b
36 GB / 48 GB30b32b – 40b
64 GB – 128 GB70bMoE ( เช่น Mixtral 8x7b )

2. ทำไม M5 ถึงรันได้ดีกว่ารุ่นอื่น?

ถึงแม้ M1- M4 จะรันได้เหมือนกัน แต่ M5 มีจุดเด่นที่คุณควรรู้

  • Memory Bandwidth: M5 มีช่องทางการส่งข้อมูลที่กว้างมาก ทำให้เวลา AI ตอบ ( Tokens per second ) จะเร็วมาก แม้จะเป็นโมเดลขนาดใหญ่
  • Neural Engine รุ่นใหม่: ช่วยประมวลผลงานเฉพาะทางบางอย่าง ทำให้ CPU / GPU ไม่ต้องรับภาระหนักเกินไป
  • Metal Acceleration: โปรแกรมอย่าง Ollama หรือ LM Studio บน Mac จะดึงพลัง GPU มาช่วยรัน AI ได้เต็มประสิทธิภาพตั้งแต่วันแรก

3. คำแนะนำสำหรับการใช้งานจริง

หากคุณมี Mac M5 ผมแนะนำให้เลือกโมเดลตามประเภทงานดังนี้ครับ

  1. เน้นความไว ( ใช้งานทั่วไป ): ใช้โมเดล 8b ( เช่น Llama 3 ) จะตอบโต้ทันทีเหมือนคุยกับคนจริง ๆ
  2. เน้นงานยาก / เขียนโค้ด: หากเครื่องคุณมี RAM 24GB ขึ้นไป ให้ลอง 14b หรือ 27b ( เช่น Gemma 2 27b ) จะเริ่มเห็นความฉลาดที่ต่างออกไปมาก
  3. เน้นความรู้รอบตัว: หากมี RAM 64GB+ คุณสามารถรัน 70b ซึ่งฉลาดใกล้เคียง ChatGPT-4 ได้ในเครื่องตัวเองเลย

ชิปเซ็ต (Chipset)RAM (Unified Memory)ขนาดโมเดล AI ที่แนะนำ (4-bit)ความเร็วการตอบโต้ (Estimate)เหมาะสำหรับงาน
M5 (Base)16 GB8B ( เช่น Llama 3.1 )เร็วมากใช้งานทั่วไป, แชทบอทส่วนตัว
M5 / M5 Pro24 GB12B – 14B ( เช่น Mistral )เร็วมากงานเอกสาร, ช่วยเขียนโค้ดเบื้องต้น
M5 / M5 Pro32 GB20B – 27B ( เช่น Gemma 2 )ดีวิเคราะห์ข้อมูล, เขียนโค้ดซับซ้อน
M5 Pro / Max64 GB30B – 50Bดีมาก ( Bandwidth สูง )งานวิจัย, สรุปบทความยาว ๆ
M5 Max128 GB70B – 90B ( เช่น Llama 3 Large )ดี ( รันโมเดลใหญ่ได้ลื่น )งาน AI ระดับโปร, สร้างเอเจนท์

จุดเด่นที่ต้องพิจารณา ( Bandwidth คือหัวใจ )

ในชิปตระกูล M5 ตัวเลข RAM ไม่ใช่แค่บอกว่า “รันได้ไหม” แต่ Bandwidth ( ความเร็วในการส่งข้อมูล ) จะเป็นตัวบอกว่า “ตอบเร็วแค่ไหน” ครับ

  1. M5 ( Base ): Bandwidth ประมาณ 153 GB/s เหมาะกับการรันโมเดลขนาดเล็กถึงกลาง ( 8B-14B ) ได้ลื่นไหลที่สุด
  2. M5 Pro: Bandwidth เพิ่มเป็น 307 GB/s ( 2 เท่าของรุ่นปกติ ) ทำให้เวลาใช้โมเดลขนาดกลาง ( 20B-30B ) จะแทบไม่ต้องรอ AI พิมพ์เลย
  3. M5 Max: Bandwidth สูงถึง 614 GB/s รุ่นนี้เกิดมาเพื่อรันโมเดลใหญ่ระดับ 70B ขึ้นไปโดยเฉพาะ เพราะสามารถดึงข้อมูลพารามิเตอร์จำนวนมหาศาลออกมาประมวลผลได้ทันที

สรุปวิธีเช็ค

เปิด Activity Monitor ( ตัวจัดการกิจกรรม ) > ไปที่แถบ Memory

  • ดูว่าตอนนี้คุณใช้ RAM ไปเท่าไหร่ ( Memory Used )
  • เอา RAM ที่เหลืออยู่ มาเทียบกับตารางด้านบนได้เลยครับ

ทริคพิเศษ: สำหรับ Mac แนะนำให้โหลดโมเดลที่เป็นไฟล์นามสกุล .gguf มาใช้ครับ เพราะมันถูกออกแบบมาให้รันบน Apple Silicon ได้สมบูรณ์แบบที่สุด


อ่านเพิ่มเติม