Meta ส่ง Llama 3.2 ลงสนาม อ้าง ‘ฉลาด’ เทียบเท่า GPT-4o mini ของ OpenAI
ถอดรหัสประเด็นสำคัญจากงาน Meta Connect 2024 ด้านเมตาชี้ Llama 3.2 ฉลาดเทียบเท่า GPT-4o mini และ Claude 3 Haiku, เครื่องมือ VR ราคาถูกลง, แว่น AR ล้ำสมัยขึ้น มาพร้อม Meta AI ผู้ช่วยดิจิทัลที่มีผู้ใช้งานจำนวน 500 ล้านคน
เมตา (Meta) จัดงาน “Meta Connect 2024” เพื่อเฉลิมฉลองครบรอบ 10 ปีนับจากยุค Oculus Connect โดยมาร์ก ซักเคอร์เบิร์ก ซีอีโอเมตา ผู้ก่อตั้ง Facebook ได้อัปเดตจุดเด่นของผลิตภัณฑ์เมตาไว้ 4 ประเด็นสำคัญ
กล่าวคือ เอไอจะฉลาดขึ้น เครื่องมือ VR มีราคาที่ถูกลง แว่นอัจฉริยะสามารถผสานโลกจริงกับโลกเสมือน (Metaverse) ได้อย่างกลมกลืน และการต่อยอดผู้ช่วยดิจิทัลอย่าง Meta AI
ความสามารถของ Llama 3.2
Llama หรือ Large Language Model Meta AI เป็นโมเดลภาษาขนาดใหญ่ที่พัฒนาโดยทีม Fundamental AI Research (FAIR) ของเมตา เพื่อแข่งขันกับ ChatGPT ของ OpenAI และ Claude ของ Anthropic โมเดลนี้สามารถเข้าใจและสร้างภาษามนุษย์ได้อย่างซับซ้อน รวมถึงการแปลภาษา ตอบคำถาม และเขียนบทความ
การทำงานของโมเดลนี้สามารถเข้าใจและสร้างภาษามนุษย์ได้อย่างซับซ้อน ไม่ว่าจะเป็นการแปลภาษา ตอบคำถาม หรือแม้แต่การเขียนบทความ ซึ่งความสามารถใกล้เคียงกับ “การเป็นแชตบอตเอไอรอรับคำสั่ง” นอกจากนี้ Llama ยังถูกออกแบบมาเพื่อช่วยการทำงานของนักวิจัย นักวิทยาศาสตร์ และวิศวกรโดยเฉพาะ
เอไอดังกล่าวมาพร้อมกับการพัฒนาที่สำคัญหลายประการ โดยเฉพาะอย่างยิ่งความสามารถในการมองเห็นและเข้าใจภาพซึ่งเป็นก้าวสำคัญในการพัฒนาเอไอที่สามารถเข้าใจโลกได้ใกล้เคียงกับมนุษย์มากขึ้น
“Llama 3.2 ที่เราเพิ่งพัฒนามีความสามารถหลากหลาย (Multimodal) โดยอยู่ระดับเดียวกับ Claude 3 Haiku และ GPT4o-mini ในด้านการรู้จำภาพและความเข้าใจภาพ สามารถแปลความหมายแผนภูมิ กราฟ สร้างแคปชันรูปภาพ และระบุตำแหน่งวัตถุในรูปได้” ซีอีโอเมตา กล่าว
ในด้านการรองรับข้อความของคำสั่ง Llama 3.2 สามารถรับข้อความนำเข้า (input) ได้ยาวถึง 128,000 โทเคน ซึ่งเทียบเท่ากับหนังสือหลายร้อยหน้า เมตาสาธิตความสามารถของ Llama 3.2 ไม่ว่าจะเป็นการวิเคราะห์แผนภูมิทางธุรกิจ การอธิบายภาพถ่าย หรือแม้แต่การระบุตำแหน่งของวัตถุในภาพ ความสามารถเหล่านี้เปิดโอกาสให้เกิดการประยุกต์ใช้ในวงกว้าง ตั้งแต่การช่วยเหลือผู้พิการทางสายตา ไปจนถึงการวิเคราะห์ภาพถ่ายทางการแพทย์
จุดเด่นของ Llama ในสังเวียนเอไอ
“สิ่งที่ทำให้ Llama แตกต่างจากคู่แข่งคือ การเป็นโมเดลแบบเปิด (open-source) ซึ่งหมายความว่านักพัฒนาทั่วโลกสามารถนำไปปรับแต่งและใช้งานได้อย่างอิสระ”
ข้อมูลจากเมตายังระบุว่า Llama มีความแตกต่างจากคู่แข่งในตลาด เช่น การมีหลายขนาดตั้งแต่ 7 พันล้านพารามิเตอร์ไปจนถึง 6.5 หมื่นล้านพารามิเตอร์ ซึ่งต่างจาก ChatGPT ที่มีขนาด 1.75 แสนล้านพารามิเตอร์ ดังนั้น อาจมีค่าใช้จ่ายในการดำเนินการที่ต่ำกว่าโมเดลขนาดใหญ่อื่นๆ
ที่สำคัญ Llama 3.2 ยังถูกพัฒนาให้มีโมเดลขนาดเล็กที่สามารถทำงานบนสมาร์ตโฟนและอุปกรณ์พกพาได้ ใช้งานได้บนแอปพลิเคชัน ซึ่งเป็นก้าวสำคัญในการทำให้เอไอเข้าถึงได้ง่ายขึ้นสำหรับผู้ใช้ทั่วไป
อนาคตของเมตาและผลิตภัณฑ์อื่นๆ ในงาน
ภายในงาน Meta Connect 2024 ไม่ได้เปิดตัวแค่ Llama 3.2 แต่ยังมีผลิตภัณฑ์อื่นๆ ที่เมตาได้นำเสนอ ได้แก่
1) แว่นตาอัจฉริยะ (Orion Glasses) โดยตัวเลนส์เป็นหน้าจอแสดงข้อมูล ช่วยเชื่อมโยงโลกจริงกับโลกเสมือนได้อย่างกลมกลืน
2) ชุดเฮดเซต (Quest 3S) รองรับเกมและแอปของ Quest ทั้งหมด เน้นความสามารถด้าน Mixed Reality มาพร้อมแบตเตอรี 4,324 mAH ใช้งานได้นาน 2 ชั่วโมงครึ่ง
3) แว่นกันแดดอัจฉริยะ (Ray-Ban) เพิ่มฟีเจอร์ AI Video Processing สามารถถามคำถามเกี่ยวกับสิ่งที่แว่นตามองเห็นได้ทันที พร้อมฟีเจอร์แปลภาษาแบบเรียลไทม์
4) ผู้ช่วยดิจิทัล (Meta AI) หรือระบบเอไอที่สามารถสื่อสารด้วยเสียงผ่าน Messenger, Facebook, WhatsApp และ Instagram ได้ โดยดึงความสามารถมาจาก Llama 3.2 ด้วย
“ขณะนี้ Meta AI มีผู้ใช้งานรายเดือนเกือบ 500 ล้านคน และคาดว่าจะกลายเป็นเอไอที่ได้รับความนิยมสูงสุดในสิ้นปีนี้” ซักเคอร์เบิร์ก กล่าวทิ้งท้าย
วิสัยทัศน์ของเมตามุ่งเน้นการเชื่อมต่อเทคโนโลยี XR (Extended Reality) และเอไอ ให้กลายเป็นส่วนหนึ่งของชีวิตประจำวันของผู้คนทั่วโลก สะท้อนให้เห็นถึงความพยายามในการสร้างระบบนิเวศทางเทคโนโลยีที่ครอบคลุมและเข้าถึงได้
ท้ายที่สุด การเปิดตัว Llama 3.2 และผลิตภัณฑ์อื่นๆ ของเมตาไม่เพียงแต่แสดงให้เห็นถึงความก้าวหน้าทางเทคโนโลยี แต่ยังสะท้อนถึงการแข่งขันที่เข้มข้นในตลาดเอไอและเทคโนโลยีที่เกี่ยวข้อง โดยหุ้นของเมตาปิดตลาดด้วยการเพิ่มขึ้น 0.9% ที่ราคา 568.31 ดอลลาร์ และมีการเติบโตกว่า 60% นับตั้งแต่ต้นปี 2024 แสดงให้เห็นถึงความเชื่อมั่นของนักลงทุนต่อทิศทางและกลยุทธ์ของบริษัท
อ้างอิง: investopedia bloomberg และ Meta