"สยามเอไอ” จับตาเทรนด์ VLA ขุมพลังสมองใหม่ของ AI คิดเร็วยิ่งขึ้น

"สยามเอไอ” จับตาเทรนด์ VLA ขุมพลังสมองใหม่ของ AI คิดเร็วยิ่งขึ้น

รัตนพล แห่ง SIAM AI อัปเดตเทรนด์ปัญญาประดิษฐ์-เอไอ แนะจับตา VLA (Vision-Language-Action) จะทำให้เอไอประมวลผลแม่นยำยิ่งขึ้น และการมาของ AGI ที่ฉลาดเทียบเท่ามนุษย์

KEY

POINTS

  • ความจำเป็นที่ต้องทำ ThaiLLM เพราะอยากให้เป็นไกด์ไลน์ให้ประเ

ประเทศไทยต้องมี “อธิปไตยเอไอ” ของตัวเอง

กรุงเทพธุรกิจ จัดงานสัมมนาแห่งปี AI Revolution 2025: A New Paradigm of New World Economy โดยนายรัตนพล วงศ์นภาจันทร์ ประธานเจ้าหน้าที่บริหาร บริษัท สยาม เอไอ คอร์เปอเรชั่น จำกัด (SIAM AI) ร่วมแชร์ประสบการณ์และอัปเดตเทคโนโลยีหัวข้อ Fireside Chat: The Possibility of ThaiLLM 

โดยย้ำความจำเป็นที่ต้องทำ ThaiLLM เพราะอยากให้เป็นไกด์ไลน์ให้ประเทศไทยมี “อธิปไตยเอไอ” ของตัวเอง ซึ่งมี 5 องค์ประกอบ ได้แก่ 

1.AI Imperative อาทิ การนำไปใช้งานด้านความมั่นคงของชาติ การอนุรักษ์วัฒนธรรมหรือเป็นความรู้ที่เป็นตัวตนของเรา 2.AI Ecosystem 3.AI Models & DATA 4.AI Factories และ 5.AI Ready Workforce

\"สยามเอไอ” จับตาเทรนด์ VLA ขุมพลังสมองใหม่ของ AI คิดเร็วยิ่งขึ้น

“LLM ที่ใช้ในบ้านเรามีประมาณ 5-6 ค่าย ที่เกือบทั้งหมดมาจากจีนและฝั่งตะวันตก เขาก็จะไม่สนใจว่า ไก่ย่างของบ้านเรานำไปอบ หรือไข่ลูกเขยไม่ได้ใช้มะขามเปียกปรุงรส มันเป็นข้อมูลรายละเอียดเล็กๆน้อยๆ ที่ทำให้เราเป็นตัวเรา เราจึงต้องเก็บรักษาไว้ด้วยตัวเอง นั่นเป็นมุมที่ดีแต่ก็มีมุมที่ไม่ดี"

ถ้าเกิดว่า ใน LLM ตัวอื่นที่ค่อยๆ บิดความจริง น่าห่วงเพราะเป็นสิ่งที่เด็กอ่านและจะเชื่อเอไอมากกว่าพ่อแม่ ฉะนั้น ถ้าเราไม่มีเครื่องมือที่พัฒนามาเพื่อตรวจสอบข้อมูลเหล่านั้น ตัวตนของเราจะค่อยๆ หายไป

ThaiLLM หรือ Thai Large Language Model

โมเดลทางภาษาขนาดใหญ่ ที่ได้ถูกพัฒนาต่อยอดด้วยข้อมูลภาษาไทยจำนวนมหาศาล เพื่อให้ตัวโมเดลมีความสามารถในการเข้าใจภาษาไทยได้ดี สามารถตอบสนองในบริบทของภาษาไทยได้อย่างมีประสิทธิภาพ

และสามารถนำไปใช้ประยุกต์ใช้กับงานตระกูลการประมวลผลภาษาธรรมชาติ เช่น การตอบคำถาม การแปลภาษา การสรุปบทความ หรือนำไปต่อยอดสร้างแชตบอทเพื่อสนทนากับเราได้ เป็นเครื่องมือช่วยประมวลผลซึ่งเข้าใจภาษาไทยได้อย่างดีที่เราสามารถนำไปใช้งานต่อได้

โมเดล LLM จีน & สหรัฐ เลือกฝั่งใด

โดยทั่วไปในการพัฒนาโมเดล LLM มี 3 วิธี  คือคุณทําเองซึ่งต้องมีความพร้อมด้านทรัพยากรและปัจจัยการผลิตพอสมควร (AI Factories) ในเมืองไทยมีผู้ให้บริการเพียง 3 ราย

วิธีถัดมาเป็นการใช้บริการของ DeepSeek ของจีน แต่จะต้องนำตัวเองไปผูกกับสถาปัตยกรรมของ DeepSeek ซึ่งฮาร์ดแวร์ในการสร้าง LLM ของ DeepSeek เป็นรุ่นที่ต่ำกว่ารุ่นที่สามารถขายได้ในบ้านเรา ซึ่งจะเป็นชิปปัญญาประดิษฐ์ H800 ที่ถูกแบนในปัจจุบัน กับ H20  ของ Nvidia

\"สยามเอไอ” จับตาเทรนด์ VLA ขุมพลังสมองใหม่ของ AI คิดเร็วยิ่งขึ้น

เป็นที่ทราบกันดีว่า จุดเด่นของ DeepSeek คือใช้เงินลงทุนน้อยกว่า ChatGPT มาก แต่ประสิทธิภาพสูสีกัน เป็นเพราะ DeepSeek มีวิศวกรหลักร้อยคน ซึ่งมีรายได้ปีละประมาณ 30 ล้านบาท และมีทักษะสูงโดยสามารถลงไปถึงทุกระดับของสถาปัตยกรรมของ GPU ในการสร้าง LLM ให้มีประสิทธิภาพสูงสุด

ขณะที่ในประเทศไทยมีไม่ถึง 1-2 คน แต่ไทยเราสามารถทําได้โดยมีเครื่องที่เหนือกว่า หากเราถอดสถาปัตยกรรมของ DeepSeek ออกแล้วให้โมเดลรันธรรมดาจะทำให้การทำงานของโมเดลเพิ่มขึ้น 20 เท่า นี่คือเป็นโอกาสดีกว่า 

ส่วนวิธีที่สามคือ การใช้โมเดล LLM ของสหรัฐ ซึ่งให้ความสําคัญกับภาษาไทยน้อยมาก  ผลที่นักพัฒนาพบในการพยายามโหมเทรนภาษาไทยให้กับเอไอโดยใช้ โมเดล LLM ของสหรัฐ หรือพยายามสเกลโมเดลให้ใหญ่ขึ้น จะเกิดภาษาจีนและภาษาเวียดนามแทรกขึ้นมาตลอดเวลา

ข้อมูลของโอเพ่นซอร์สจากฝั่งจีนและสหรัฐ มีข้อมูลภาษาไทยเพียง 0.5% ภาษาจีน 3% และส่วนที่เหลือเกือบทั้งหมดเป็นภาษาอังกฤษ แล้วคุณคิดว่าเขาจะสนใจข้อมูลภาษาไทยหรือ

กรณีเช่นนี้ทาง SIAM AI ร่วมกับ Nvidia คิดแก้ปัญหาด้วยการเพิ่มชุดข้อมูลหรือดาต้าเซ็ตอย่างน้อย 15,000 ชุดข้อมูลเพื่อนำไปฝึกสอนเอไอให้เป็นภาษาไทยโดยไม่มีภาษาอื่นแทรกขึ้นมา ทำให้เรามีความสามารถในการพัฒนาเอไอได้ดีขึ้น 

VLA โมเดลการพัฒนาเอไอในอนาคต

ผู้บริหาร SIAM AI กล่าวถึงโมเดลการพัฒนาเอไอในอนาคตว่า แม้ว่าปัจจุบัน ThaiLLM จะเป็นโมเดลพื้นฐานเพื่อการสร้าง Generative AI แต่เทรนด์ของโมเดลถัดไปในการพัฒนาเอไอจะเป็น VLA (Vision-Language-Action) หรือโมเดลเอไอฝังตัว (EmbeddedAI)

เกิดจากเทคโนโลยีการประมวลผลที่เร็วขึ้นและแรงขึ้น โดยเป็นเทรนด์ที่มาแน่นอนในเร็วๆ นี้ และทางสยามเอไอกำลังพัฒนาอยู่เช่นกันโดยใช้ชิป Nvidia Grace Blackwell 200 GPU เป็นตัวใหม่ล่าสุดที่เพิ่งได้มาเมื่อเดือน ก.พ.ที่ผ่านมา เท่ากับเครื่องคอมพิวเตอร์เปิดทํางานประมวลผลพร้อมกัน 400,000 เครื่อง

นอกจากนี้ ในช่วงสิ้นปี 2568 จะมีชิปรุ่นใหม่  Grace Blackwell 300 เร็วกว่า Grace Blackwell 200  ที่ระดับ 1.5 เท่า และในช่วงต้นปี 2569  Vera Rubin NVL 144 การทำงานประมวลผลจะเร็วกว่า Grace Blackwell 300  มากถึง 3 เท่า

\"สยามเอไอ” จับตาเทรนด์ VLA ขุมพลังสมองใหม่ของ AI คิดเร็วยิ่งขึ้น

และ Rubin Ultra NVL576 ที่ทำงานเร็วกว่า Vera Rubin NVL 144 ถึง 14 เท่า หรือเท่ากับเครื่องคอมพิวเตอร์ทั่วไปเปิดทำงานพร้อมกันในการประมวลผล 8.4 ล้านเครื่อง

“เหตุที่เราจำเป็นต้องพัฒนา VLA เพื่อให้โมเดลเรียนรู้การประมวลผลมากๆ และป้องกันไม่ให้เทคโนโลยีเอไอเกิดความผิดพลาด อีกทั้งดาต้าสำหรับเทรนเอไอไม่ว่าจะเป็น LLM หรือ VLA ควรจะเป็นดาต้าที่เราเทรนมาด้วยตัวเอง เราควรจะสนใจดาต้าของบ้านเรามากกว่าดาต้าที่อื่น”

\"สยามเอไอ” จับตาเทรนด์ VLA ขุมพลังสมองใหม่ของ AI คิดเร็วยิ่งขึ้น

GTC 2025 ส่งสัญญาณการเกิด AGI 

นอกจากนี้ นายรัตนพลได้แชร์ประสบการณ์ที่ได้เข้าร่วมงาน GTC 2025 งานประชุมนักพัฒนา (Developer) ประจำปี 2025 ของ NVIDIA ระหว่างวันที่ 17–21 มีนาคม ที่ San Jose McEnery Convention Center เมืองซานโฮเซ รัฐแคลิฟอร์เนีย สหรัฐอเมริกา

โดยระบุว่า จากการพูดคุยกับสตาร์ตอัปจะพบคำถามที่เป็นประเด็นความสนใจและสามารถบ่งบอกถึงเทรนด์ที่นักพัฒนาสนใจก็เป็นประเด็นเกี่ยวกับ AGI (Artificial General Intelligence : ระบบ AI แห่งอนาคตที่จะมีความสามารถเทียบเท่ากับมนุษย์ ทั้งการคิด และวิเคราะห์ โดยจะมีความเชี่ยวชาญในหลาย ๆ ด้านคล้ายมนุษย์) ฉะนั้น AGI  เกิดขึ้นอย่างแน่นอน และไม่เกินความเป็นจริง