อินวิเดีย เปิดตัว ‘Cosmos’ แพลตฟอร์มจำลองโลกเสมือนจริง ใช้พัฒนาหุ่นยนต์อัจฉริยะ

อินวิเดีย เปิดตัว ‘Cosmos’ แพลตฟอร์มจำลองโลกเสมือนจริง ใช้พัฒนาหุ่นยนต์อัจฉริยะ

จาก Agentic AI สู่ Physical AI อินวิเดีย เปิดตัว ‘Cosmos’ ในงาน CES 2025 แพลตฟอร์มจำลองโลกเสมือนจริง ใช้พัฒนาหุ่นยนต์อัจฉริยะ ปฏิวัติการทำงานในโรงงานและคลังสินค้า

ขณะที่ประเทศไทยกำลังตื่นเต้นกับการมาถึงของ Agentic AI หรือปัญญาประดิษฐ์ที่สามารถคิดและตัดสินใจได้ด้วยตัวเอง เจนเซน หวง ซีอีโอของอินวิเดีย (NVIDIA) ได้ประกาศทิศทางใหม่ของเทคโนโลยีในงาน CES 2025 ว่า ก้าวต่อไปของเอไอคือ “Physical AI” และได้เปิดตัว “Cosmos” ซึ่งเป็นโมเดลจำลองโลกเสมือน (World Foundation Model) ที่จะมาปฏิวัติการทำงานในโรงงานและคลังสินค้า

หากย้อนกลับไปมองพัฒนาการของเอไอในช่วงที่ผ่านมา เราเริ่มจาก Generative AI ที่สร้างเนื้อหา ข้อความ และรูปภาพ อย่าง ChatGPT และ Midjourney ต่อมาพัฒนาเป็น Agentic AI ที่มีความสามารถในการคิดวิเคราะห์และตัดสินใจ อย่างเช่น GPTAuto หรือ Operator จนมาถึง Physical AI ที่นำปัญญาประดิษฐ์มาผสานกับอุปกรณ์และเครื่องจักรในโลกกายภาพ

อินวิเดียแบ่งหุ่นยนต์เป็นสามประเภท ได้แก่ 1. หุ่นยนต์ความรู้ (Agentic AI) 2. หุ่นยนต์ทั่วไป-หุ่นยนต์มนุษย์ และ 3. หุ่นยนต์ขนส่ง (ยานยนต์ไร้คนขับ) โดยสองประเภทหลังต้องเข้าใจและโต้ตอบกับโลกจริงได้ 

เรฟ เลบาเรเดียน รองประธานฝ่าย Omniverse และเทคโนโลยีการจำลองของอินวิเดีย เชื่อว่า Physical AI จะปฏิวัติตลาดอุตสาหกรรมโลก โดยนำเอไอเข้าสู่โรงงาน 10 ล้านแห่ง และคลังสินค้า 200,000 แห่ง

Physical AI คืออะไร ?

Physical AI คือ แนวคิดที่ผสมผสานการใช้การจำลองสถานการณ์เข้ากับการพัฒนาหุ่นยนต์และปัญญาประดิษฐ์ โดยหัวใจสำคัญของแนวคิดนี้อยู่ที่การสร้างโลกจำลอง (Simulator) ที่เลียนแบบโลกจริงอย่างละเอียด ทั้งในแง่ของกฎฟิสิกส์ แรงโน้มถ่วง การชน และปฏิสัมพันธ์ต่างๆ

ในโลกจำลองสามารถทดลองและฝึกฝนเอไอให้เรียนรู้การทำงานต่างๆ ได้อย่างปลอดภัย ไม่ว่าจะเป็นการเคลื่อนไหว การจับวัตถุ หรืองานที่ซับซ้อนอื่นๆ การทดลองในสภาพแวดล้อมเสมือนนี้สามารถทำซ้ำได้ไม่จำกัด โดยไม่ต้องกังวลเรื่องความเสียหายที่อาจเกิดขึ้น ทำให้สามารถเก็บข้อมูลและพัฒนาการทำงานจนได้ผลลัพธ์ที่ต้องการ

เมื่อเอไอได้เรียนรู้และพัฒนาทักษะต่างๆ จนเป็นที่น่าพอใจในโลกจำลองแล้ว จึงค่อยถ่ายโอนความรู้และความสามารถเหล่านั้นไปสู่หุ่นยนต์ในโลกจริง ทำให้หุ่นยนต์สามารถปรับตัวและทำงานได้อย่างมีประสิทธิภาพ 

วิธีการนี้ช่วยลดความเสี่ยงและค่าใช้จ่ายในการพัฒนา เพราะข้อผิดพลาดต่างๆ สามารถค้นพบและแก้ไขได้ในโลกเสมือนก่อนที่จะนำไปใช้งานจริง นับเป็นแนวทางที่ช่วยให้การพัฒนาเอไอและหุ่นยนต์มีความปลอดภัยและมีประสิทธิภาพมากยิ่งขึ้น

Cosmos ในงาน CES 2025 เกี่ยวข้องกับ Physical AI อย่างไร ?

สำหรับงาน CES 2025 หรือมหกรรมจัดแสดงเทคโนโลยีที่ทรงอิทธิพลที่สุดงานหนึ่งของโลก เจนเซน หวง เปิดเผยว่า ปัจจุบันการพัฒนาหุ่นยนต์มนุษย์ต้องใช้ผู้ควบคุมหลายร้อยคนทำการสาธิตซ้ำๆ นับพันครั้ง เพื่อสอนทักษะไม่กี่อย่าง ส่วนการพัฒนารถยนต์ไร้คนขับต้องขับทดสอบหลายล้านไมล์และประมวลผลข้อมูลมหาศาล 

อินวิเดียจึงได้สร้างโซลูชัน “คอมพิวเตอร์สามระบบ” ประกอบด้วย Nvidia DGX สำหรับเทรนเอไอในศูนย์ข้อมูล, Nvidia Omniverse สำหรับจำลองและสร้างข้อมูลสังเคราะห์ และ Nvidia AGX สำหรับประมวลผลข้อมูลเซนเซอร์แบบเรียลไทม์

โดยในบทความนี้ กรุงเทพธุรกิจจะมาขยายความ “Cosmos” ซึ่งเป็น “โมเดลจำลองโลกเสมือน” (World Foundation Model) ของอินวิเดีย

เท้าความก่อนว่า ในการพัฒนาเทคโนโลยีโลกเสมือน อินวิเดียมีซอฟต์แวร์ชื่อ Omniverse  ซึ่งเป็น “ซอฟต์แวร์จำลองฟิสิกส์” ที่สามารถสร้างการเคลื่อนไหว แรงกระทำ และปฏิกิริยาต่างๆ ในโลกเสมือนให้เป็นไปตามกฎฟิสิกส์จริง เช่น แรงโน้มถ่วง แรงเสียดทาน การชน 

หากแต่ Omniverse มีข้อจำกัดคือ แม้จะจำลองฟิสิกส์ได้ดี แต่ภาพที่แสดงผลกลับมีลักษณะเป็นโพลีกอนอย่างง่าย คล้ายภาพยนตร์แอนิเมชัน Pixar ในยุคแรกๆ ซึ่งทำให้สภาพแวดล้อมดูไม่สมจริง ส่งผลให้การนำซอฟต์แวร์ที่ทดสอบในสภาพแวดล้อมนี้ไปใช้ในโลกจริง เช่น ระบบรถยนต์ไร้คนขับ อาจทำงานได้ไม่แม่นยำเท่าที่ควร

ดังนั้น Cosmos ที่เพิ่งเปิดตัวไปนี้ จะเข้ามาชดเชยข้อจำกัดเหล่านั้น แพลตฟอร์มดังกล่าวผ่านการเทรนด้วยภาพและวิดีโอจำนวนมหาศาล ทำให้มีความเข้าใจลักษณะทางกายภาพของโลกจริง ไม่ว่าจะเป็นรูปลักษณ์ของตึก ต้นไม้ หรือสิ่งก่อสร้างต่างๆ คล้ายกับโมเดลสร้างภาพอย่าง Midjourney หรือโมเดลสร้างวิดีโออย่าง Sora และ Veo 

โมเดลนี้มีข้อดีคือ ใช้งานง่าย ประหยัดทรัพยากร เพียงแค่พิมพ์คำสั่งก็สามารถสร้างองค์ประกอบต่างๆ ได้ โดยไม่ต้องสร้างโมเดล 3D ที่ซับซ้อน แต่ก็มีข้อจำกัดคือ เป็นเพียงการสร้างภาพที่ไม่มีตรรกะหรือกฎฟิสิกส์รองรับ เป็นเพียงการลอกเลียนแบบจากข้อมูลที่ใช้ในการเทรนเท่านั้น 

อินวิเดียจึงแก้ปัญหานี้ด้วยการผสานจุดแข็งของทั้งสองเทคโนโลยี โดยนำ Omniverse มารวมกับ Cosmos ทำให้ได้โลกจำลองที่มีทั้งความสมจริงทางกายภาพและการจำลองฟิสิกส์ที่แม่นยำ นับเป็นก้าวสำคัญสู่การพัฒนา “Physical AI” ตามวิสัยทัศน์ของเจนเซน หวง ซีอีโออินวิเดีย

Cosmos ที่ผสานกับ Omniverse จะช่วยโลกของเราได้อย่างไร

เมื่อรวม 2 ระบบนี้เข้าด้วยกัน จะได้โลกจำลองที่สมจริงและมีฟิสิกส์ที่ถูกต้อง เทคโนโลยีนี้จะปฏิวัติวงการอุตสาหกรรมในหลายด้าน เช่น

การพัฒนารถยนต์ไร้คนขับ สามารถจำลองสถานการณ์ต่างๆ ตั้งแต่ สภาพอากาศที่หลากหลาย มีฝนตก หิมะตก หมอกลง จำลองสถานการณ์ฉุกเฉิน เช่น สัตว์วิ่งตัดหน้า คนข้ามถนนกะทันหัน รถเบรกกะทันหัน หรือการจำลองสภาพถนนที่แตกต่าง เช่น ถนนลื่น ทางโค้ง ทางขรุขระ

การพัฒนาหุ่นยนต์ในโรงงาน สามารถจำลองการทำงานร่วมกับมนุษย์ ทดสอบการจัดการวัตถุที่มีน้ำหนักและรูปทรงต่างๆ ตลอดจนฝึกการตอบสนองต่อเหตุการณ์ไม่คาดคิด สำหรับด้านด้านการแพทย์ สามารถจำลองการผ่าตัดในสถานการณ์ต่างๆ ฝึกการควบคุมหุ่นยนต์ผ่าตัด หรือทดสอบการตอบสนองต่อภาวะแทรกซ้อน

อย่างไรก็ดี เจนเซน หวง มักพูดถึงการนำหุ่นยนต์ที่สามารถทำงานร่วมกับมนุษย์ในหลายเวที โดยเขาได้พูดเรื่อง Digital Twins มา 2-3 ปีแล้ว และในงาน AI Vision for Thailand จัดโดย สยามเอไอ คลาวด์ เขาได้เปิดเผยว่า บริษัทของตนเองนั้นเป็นบริษัทเล็ก เพราะมีจำนวนพนักงานที่น้อย แต่ใหญ่ในด้านของการลงทุน เนื่องจากเขาได้นำเอไอมาช่วยทำงานภายในบริษัท

“ในอนาคต เราจะยังมีพนักงานที่เป็นมนุษย์ แต่เราก็จะมีหุ่นยนต์ด้วย และหุ่นยนต์เหล่านี้ เช่น ซูเปอร์คอมพิวเตอร์เอไอของอินวิเดียก็เปรียบเสมือนหุ่นยนต์ข้อมูล ซึ่งหมายความว่าพนักงานของเราบางคนจะเป็นมนุษย์ และบางคนจะเป็นหุ่นยนต์หรือเครื่องจักร และร่วมกันสร้างสรรค์สิ่งที่น่าทึ่งให้กับโลกใบนี้” หวง กล่าวภายในงาน AI Vision for Thailand ปลายปี 2024 ที่ผ่านมา

สำหรับ CES 2025 หวง กล่าวว่า “เราต้องการการสร้างระบบคอมพิวเตอร์แบบใหม่ทั้งหมดเพื่อสร้างโรงงานเอไอที่มีการประมวลผลแบบเร่งความเร็วในระดับศูนย์ข้อมูล”

คาดการณ์ว่าในอีก 1-2 ปีข้างหน้า Physical AI จะพร้อมใช้งานอย่างเต็มรูปแบบ และจะส่งผลต่อการเปลี่ยนแปลงในหลายอุตสาหกรรม ทั้งการผลิต การขนส่ง การแพทย์ และการเกษตร การพัฒนานี้จะเปิดโอกาสให้องค์กรต่างๆ สามารถทดสอบและพัฒนาระบบเอไอในสภาพแวดล้อมจำลองก่อนนำไปใช้งานจริง

อ้างอิง: NVIDIA Blogs และ CIO