การพัฒนา LLM ในไทย ก้าวอย่างไรยุค Gen AI ก้าวกระโดด
ช่วงที่ผ่านมา เราได้เห็นพัฒนาของเทคโนโลยี Gen AI โดยเฉพาะ Large Language Models (LLM) ที่ก้าวหน้ารวดเร็วต่อเนื่อง บริษัทเทคระดับโลกต่างแข่งขันกันพัฒนาโมเดลที่มีประสิทธิภาพสูงขึ้นเรื่อยๆ บริษัท OpenAI เปิดตัว GPT-4 Turbo ซึ่งมีประสิทธิภาพเหนือกว่า GPT-4 รุ่นเดิมมาก
ช่วงที่ผ่านมา เราได้เห็นการพัฒนาของเทคโนโลยี GenerativeAI โดยเฉพาะ Large Language Models (LLM) ที่ก้าวหน้าอย่างรวดเร็วและต่อเนื่อง บริษัทเทคโนโลยียักษ์ใหญ่ระดับโลกต่างแข่งขันกันพัฒนาโมเดลที่มีประสิทธิภาพสูงขึ้นเรื่อยๆ ต้นเดือนพฤษภาคม บริษัท OpenAI ได้เปิดตัว GPT-4 Turbo ซึ่งมีประสิทธิภาพที่เหนือกว่า GPT-4 รุ่นเดิมอย่างมาก
หลังจากนั้นอีกไม่กี่วันบริษัท Google ก็ไม่น้อยหน้า เปิดตัว Gemini 1.5 Pro ที่สร้างความตื่นตาตื่นใจด้วยความสามารถอันน่าทึ่ง โดยประกาศว่า Gemini 1.5 Pro มีขนาด context window ถึง 2 ล้าน token ซึ่งเป็นการก้าวกระโดดครั้งสำคัญในวงการ AI โมเดลนี้สามารถประมวลผลข้อมูลได้มหาศาล ทั้งวิดีโอความยาว 2 ชั่วโมง เสียงความยาว 22 ชั่วโมง โปรแกรมมากกว่า 60,000 บรรทัด และข้อความมากกว่า 1.4 ล้านคำ
ล่าสุดเมื่อปลายเดือนมิถุนายน บริษัท Anthropic ได้ประกาศเปิดตัว Claude 3.5 Sonnet ซึ่งถือเป็นการยกระดับการแข่งขันในวงการ AI อีกครั้ง Anthropic อ้างว่า Claude 3.5 Sonnet มีประสิทธิภาพที่เทียบเท่าหรือดีกว่าโมเดลตัวอื่นๆ ในหลายด้าน โดยมีความโดดเด่นทั้งในด้านความเร็ว ความแม่นยำ และความสามารถในการทำงานที่หลากหลาย เช่น การเขียนโค้ด การวิเคราะห์ข้อมูล และการประมวลผลภาษาธรรมชาติ
ทั้งนี้ จากการทดสอบเทียบกับเกณฑ์มาตรฐาน (benchmarks) พบว่า Claude 3.5 Sonnet มีคะแนนสูงกว่า GPT-4 Turbo, Gemini 1.5 Pro และ Llama 3 400B ของ Meta ใน 7 จาก 9 เกณฑ์โดยรวม และ 4 จาก 5 เกณฑ์ด้านการมองเห็น ซึ่งพอผมได้เริ่มทดลองใช้ก็พบว่าสามารถทำงานหลายอย่างได้ดีมากๆ และแปลกใจในความสามารถที่ก้าวกระโดดไปอย่างรวดเร็วเมื่อเทียบกับโมเดลรุ่นก่อนหน้านี้
เห็นแบบนี้แล้ว ผมก็อดคิดไม่ได้ว่า แล้วประเทศไทยเราล่ะ? เราควรจะพัฒนา LLM ของเราเองยังไงดี? รัฐบาลควรเข้ามาสนุบสนุนแค่ไหน?
จริงๆ แล้ว ตอนนี้บ้านเราก็มีคนพยายามพัฒนา LLM กันอยู่นะครับ ซึ่งผมว่าเป็นจุดเริ่มต้นที่ดีมาก มาดูกันหน่อยดีกว่าว่ามีอะไรบ้าง
1. OpenThaiGPT ของ NECTEC: ตัวนี้เป็นโมเดลแชตภาษาไทยที่พัฒนาต่อยอดจาก Facebook LLaMA v2 มีขนาดตั้งแต่ 7 ถึง 70 พันล้านพารามิเตอร์ เจ๋งตรงที่เป็นโมเดลแบบเปิด (open-source) ใครๆ ก็เอาไปพัฒนาต่อหรือใช้ในเชิงธุรกิจได้ จุดเด่นคือเข้าใจและเขียนภาษาไทยได้ดี
2. Typhoon ของ SCB10X : Typhoon-7B นี่เป็นโมเดลภาษาไทยขนาด 7 พันล้านพารามิเตอร์ ที่ถูกพัฒนามาให้เข้าใจและสื่อสารภาษาไทยโดยเฉพาะ ได้ยินมาว่าทำข้อสอบภาษาไทยระดับมัธยมปลายและข้อสอบวิชาชีพได้คะแนนดีเลยทีเดียว แถมยังประหยัด token ภาษาไทยได้มากกว่า GPT-4
3. THaLLE ของ KBTG: ตัวนี้น่าสนใจมาก เพราะไม่ได้เก่งแค่ภาษาไทย แต่ยังรู้เรื่องการเงินด้วย สามารถเข้าใจภาษาทางการเงินได้ลึกซึ้ง คุยโต้ตอบได้เป็นธรรมชาติ และยังใช้เป็นเครื่องมือวิเคราะห์การเงินได้อีกด้วย
แต่ที่เราต้องเข้าใจก็คือ การพัฒนาโมเดล LLM นี่มันไม่ใช่เรื่องง่ายๆ ครับ ต้องใช้เงินทุนมหาศาล ทั้งค่าฮาร์ดแวร์ ค่าไฟ ค่าจ้างนักวิจัย แถมยังต้องแข่งกับบริษัทยักษ์ใหญ่ระดับโลกที่มีทรัพยากรและความเชี่ยวชาญมากกว่า
ด้วยเหตุนี้ผมคิดว่าแนวทางที่น่าจะเหมาะกับประเทศไทย คือ 1. ต่อยอดจาก Open-Source Models: การพัฒนา LLM ไม่จำเป็นต้องเริ่มต้นจากศูนย์เสมอไป เราสามารถเลือกนำโมเดล open-source ที่มีอยู่แล้วมาปรับแต่ง (fine-tune) ให้เหมาะกับการใช้งานในบริบทของประเทศไทย วิธีนี้จะช่วยประหยัดทรัพยากร เวลา และงบประมาณในการพัฒนา อีกทั้งยังเป็นแนวทางที่มีความยืดหยุ่นและอาจคุ้มค่ากว่าการพัฒนาโมเดลใหม่ทั้งหมด
2. เน้นการพัฒนาโมเดลเฉพาะทาง: แทนที่จะพยายามสร้างโมเดลทั่วไปที่แข่งขันกับ GPT, Gemini หรือ Claude เราควรมุ่งเน้นการพัฒนาโมเดลที่เชี่ยวชาญเฉพาะด้านที่เกี่ยวข้องกับบริบทของประเทศไทย เช่น ด้านการแพทย์แผนไทย การเกษตร หรือการท่องเที่ยว
3. สนับสนุนการวิจัยและพัฒนา: ภาครัฐควรเน้นการสนับสนุนการวิจัยและพัฒนาในมหาวิทยาลัยและสถาบันวิจัย เพื่อสร้างองค์ความรู้และบุคลากรที่เชี่ยวชาญด้าน AI ในระยะยาว
4. สร้างความร่วมมือระหว่างภาครัฐและเอกชน: ส่งเสริมให้เกิดการทำงานร่วมกันระหว่างหน่วยงานภาครัฐ สถาบันการศึกษา และบริษัทเทคโนโลยี เพื่อแบ่งปันทรัพยากรและความเชี่ยวชาญ
5. พัฒนาโครงสร้างพื้นฐานด้านข้อมูล: เน้นการสร้างและจัดการฐานข้อมูลคุณภาพสูงที่เกี่ยวข้องกับประเทศไทย ซึ่งจะเป็นประโยชน์ในการพัฒนาโมเดล AI ที่เข้าใจบริบทของไทยได้ดียิ่งขึ้น
แม้ว่าการพัฒนา LLM ของตัวเองจะมีความท้าทาย แต่ก็มีประโยชน์ที่สำคัญ ไม่ว่าจะเป็นการสร้างความเชี่ยวชาญในประเทศ การเสริมสร้างความมั่นคงทางเทคโนโลยี และการลดการพึ่งพาเทคโนโลยีจากต่างประเทศ
ในท้ายที่สุด การพัฒนา AI ในประเทศไทยควรมุ่งเน้นการสร้างนวัตกรรมที่ตอบโจทย์ความต้องการเฉพาะของประเทศ โดยอาศัยความร่วมมือจากทุกภาคส่วน และการใช้ทรัพยากรอย่างชาญฉลาด เพื่อสร้างระบบนิเวศ AI ที่แข็งแกร่งและยั่งยืนสำหรับประเทศไทยในอนาคต
อย่างไรก็ตาม เราต้องตระหนักว่าการลงทุนพัฒนาโมเดล LLM นั้นมีค่าใช้จ่ายสูงมาก ด้วยเหตุนี้ รัฐบาลอาจไม่จำเป็นต้องเป็นผู้ลงทุนพัฒนาโดยตรง และไม่ควรสร้างโมเดลของรัฐบาล แต่ควรส่งเสริมให้เป็นกลไกขับเคลื่อนของภาคเอกชนในประเทศ โดยมีหน่วยงานวิจัยของรัฐบาลและมหาวิทยาลัยเข้ามาร่วมมือและสนับสนุน
ยุทธศาสตร์นี้จะช่วยกระจายความเสี่ยงทางการลงทุน ในขณะเดียวกันก็เสริมสร้างความแข็งแกร่งของระบบนิเวศ AI ในประเทศไทย โดยอาศัยจุดแข็งของแต่ละภาคส่วน ทั้งความคล่องตัวและการมุ่งเน้นตลาดของภาคเอกชน ความเชี่ยวชาญด้านการวิจัยของสถาบันการศึกษา และการสนับสนุนเชิงนโยบายจากภาครัฐ
การผสมผสานความร่วมมือเช่นนี้จะไม่เพียงแต่ช่วยลดภาระทางการเงินของรัฐบาล แต่ยังเป็นการสร้างโอกาสในการพัฒนานวัตกรรม AI ที่ตอบโจทย์ความต้องการของประเทศไทยอย่างแท้จริง พร้อมทั้งสร้างบุคลากรที่มีความเชี่ยวชาญด้าน AI ในระยะยาว ซึ่งจะเป็นรากฐานสำคัญในการพัฒนาเศรษฐกิจและสังคมไทยในยุคดิจิทัลต่อไป