AI อาจฉุดกำไรบริษัทเทคฯร่วง? ต้นทุน AI ยุคใหม่อาจพุ่งแตะ 'หลายพันล้านดอลล์'
เปิดความเสี่ยงบริษัทเทคโนโลยีที่มากับกระแส AI เมื่อ “ต้นทุนการพัฒนาปัญญาประดิษฐ์”จากปัจจุบัน 100 ล้านดอลลาร์ มีแนวโน้มสูงขึ้นเรื่อย ๆ จนแตะระดับหลายพันล้านดอลลาร์ ต้นทุนที่สูงลิ่วนี้อาจกลืนกินเม็ดเงินกำไรบริษัทหรือไม่
KEY
POINTS
- ต้นทุนฝึกโมเดล AI รุ่นปัจจุบัน อยู่ที่ราว 3,600 ล้านบาท และมีแนวโน้มว่าในปลายปีนี้หรือต้นปีหน้า อาจพุ่งเกือบ 36,000 ล้านบาท และในปี 2568-2569 อาจเพิ่มเป็น 180,000-360,000 ล้านบาท
- เจ้าของ Meta กล่าวว่า บริษัทต้องการชิป H100 จาก Nvidia มากถึง 350,000 ชิ้นภายในปีนี้ ในการประมวลผล AI เพื่อจะได้สู้กับ Google และ Microsoft ได้
- การใช้แชตบอต AI ChatGPT 1 ครั้งกินพลังงานไฟฟ้า “มากกว่า” Google ถึง 10 เท่า จนกลายเป็นกระแสวิตกว่า AI จะเป็นตัวเร่งให้เกิด “วิกฤติขาดแคลนพลังงานไฟฟ้า” หรือไม่
ในภาพอนาคต AI ที่ดูสดใส น่าตื่นตาตื่นใจ หลายคนมองว่า “ปัญญาประดิษฐ์” เป็นเครื่องยนต์ใหม่ที่จะหนุนบริษัทให้เติบโตอย่างก้าวกระโดด เพราะช่วยทุ่นแรงมนุษย์ โดยเฉพาะยักษ์ใหญ่เทคโนโลยีอย่าง Microsoft, Alphabet (Google), Meta, Amazon ฯลฯ อาจได้รับอานิสงส์มากที่สุด จนราคาหุ้นบริษัทเหล่านี้ปรับตัวสูงขึ้นอย่างต่อเนื่อง
แต่หาก “มองในระยะยาว” AI ที่ถูกคาดหวังว่าจะสร้างกำไรให้บริษัทเทคฯอย่างมหาศาล จะเกิดขึ้นได้จริงหรือไม่ เมื่อต้นทุนการพัฒนา AI กำลังสูงขึ้นเรื่อย ๆ อย่างน่าตกใจ
จากต้นทุนโมเดล AI รุ่นปัจจุบันที่ 100 ล้านดอลลาร์ มีแนวโน้มพุ่งขึ้นเป็นหลัก “พันล้านดอลลาร์” หรือกระทั่งถึงขั้น “หลายพันล้านดอลลาร์” จนอาจกลายเป็น “ตัวฉุดกำไร” บริษัทเทคฯ ให้พลิกมาร่วงหรือไม่
เพื่อหาคำตอบของเรื่องนี้ เรามาดู “ต้นทุนการพัฒนา AI” ก็จะพบว่ามีอยู่ 3 ส่วน ดังนี้
1. ต้นทุนโมเดลภาษาฝึก AI
ทุกวันนี้ โลกท่วมท้นไปด้วยข้อมูลข่าวสาร และความเคลื่อนไหวก็เกิดขึ้นทุกวินาที ดังนั้น เพื่อฝึก AI ให้เก่งขึ้นเรื่อย ๆ และให้ทันต่อข้อมูล สิ่งที่ขยายใหญ่ตามมา คือ “โมเดลภาษาขนาดใหญ่” (Large Language Model) ที่ต้องใช้ข้อมูลมหาศาลขึ้นเป็นทวีคูณ ไม่ว่าจากหนังสือ บทความ หรือแม้แต่ข้อมูลออนไลน์ในปริมาณสูงขึ้นเรื่อย ๆ ซึ่งต้องตามมาด้วยการขยายพลังประมวลผลของเครือข่ายดาต้าเซ็นเตอร์ และชิป GPU
- Large Language Model (เครดิต: Shutterstock) -
ดาริโอ อโมเด (Dario Amodei) ประธานเจ้าหน้าที่บริหารของ Anthropic สตาร์ทอัพ AI ซึ่งเป็นคู่แข่งของ OpenAI กล่าวว่า ต้นทุนในการฝึกฝนโมเดลปัญญาประดิษฐ์รุ่นปัจจุบัน อยู่ที่ประมาณ 100 ล้านดอลลาร์ (ราว 3,600 ล้านบาท) และมีแนวโน้มว่า ค่าใช้จ่ายฝึก AI ที่จะออกมาในปลายปีนี้หรือต้นปีหน้า อาจพุ่งเกือบ 1 พันล้านดอลลาร์ (ราว 36,000 ล้านบาท) และในปี 2568 ถึง 2569 ต้นทุนดังกล่าวมีแนวโน้มเพิ่มขึ้นเป็น 5,000-10,000 ล้านดอลลาร์ (180,000-360,000 ล้านบาท)
ยังไม่นับรวมต้นทุนทางลิขสิทธิ์เนื้อหาที่บริษัท AI ต้องซื้อมาใช้ฝึก AI เช่น OpenAI ได้ทำข้อตกลงกับสำนักพิมพ์ยุโรปหลายแห่ง เพื่อนำเนื้อหาของพวกเขามาผสานกับ ChatGPT และใช้ฝึกโมเดล AI ของตนเอง โดย OpenAI ตกลงที่จะจ่ายเงินหลายสิบล้านยูโรให้กับ Axel Springer SE บริษัทสัญชาติเยอรมันที่เป็นเจ้าของสื่อ Politico และ Business Insider เพื่อขอสิทธิ์ในการใช้บทความข่าวสาร
อีกทั้งสตาร์ทอัพรายนี้ยังได้เจรจากับสื่อ Time, CNN และ Fox News เพื่อขออนุญาตใช้เนื้อหาด้วย
นอกจากนี้ Google ได้ทำข้อตกลงมูลค่า 60 ล้านดอลลาร์ เพื่อซื้อข้อมูลลิขสิทธิ์จากเว็บบอร์ด Reddit และพนักงานของ Meta มีรายงานว่า ได้หารือกันถึงการซื้อกิจการ Simon & Schuster ซึ่งเป็นบริษัทสิ่งพิมพ์สัญชาติอเมริกัน
2. ต้นทุนชิปประมวลผล AI
อย่างที่หลายคนรู้กัน AI จะทำงานไม่ได้ถ้าปราศจากชิปประมวลผลกราฟิก (GPU) ซึ่งเปรียบได้กับ “สมอง” ที่ช่วยให้ AI ประมวลข้อมูลมหาศาลได้อย่างรวดเร็ว และด้วยเทคโนโลยีที่ซับซ้อนสูง ผู้ที่สามารถผลิตชิปนี้ได้ ก็อาจเรียกได้ว่ามีเพียงบริษัทเดียว คือ “Nvidia”
สำหรับชิป “Nvidia H100” ที่เหล่าบริษัทเทคฯมักใช้ฝึก AI กัน มีราคาค่อนข้างสูง โดยอยู่ที่ 30,000 ดอลลาร์ หรือราว 1 ล้านบาทต่อ 1 ชิ้น โดย มาร์ค ซัคเคอร์เบิร์ก (Mark Zuckerberg) เจ้าของ Meta กล่าวว่า บริษัทต้องการชิป H100 จาก Nvidia มากถึง 350,000 ชิ้นภายในปีนี้ในการประมวลผล AI เพื่อจะได้สู้กับ Google และ Microsoft ได้
ไม่เพียงเท่านั้น แม้แต่อีลอน มัสก์ (Elon Musk) เจ้าของสตาร์ทอัพ xAI ที่พึ่งเปิดตัวใหม่ ก็ต้องการชิปนี้เหมือนกัน ซึ่งตอนนี้ คิวจองชิป AI ยาวเป็นหางว่าว จึงไม่น่าแปลกใจว่าทำไมบริษัท Nvidia ถึงใหญ่ขึ้นเรื่อย ๆ จนแซงชนะ Apple ได้
ถ้าดูสมรภูมิบริษัทเทคฯที่ฟาดฟันใส่กัน เพื่อเร่งพัฒนาบริการ AI เราไม่แน่ใจว่าท้ายที่สุดแล้ว ใครจะชนะ แต่ที่แน่ ๆ Nvidia เป็นผู้ชนะในสงครามนี้ เนื่องจากเกือบทุกบริษัทต่างก็ต้องซื้อชิป AI จาก Nvidia
เมื่อเดือนที่แล้ว Nvidia ได้เปิดตัว GPU รุ่นใหม่ที่ชื่อว่า “Blackwell” ซึ่งประมวลภาษาขนาดใหญ่ได้เร็วกว่าเดิมหลายเท่า และคาดว่าจะมีราคาราว 30,000-40,000 ดอลลาร์ (1-1.5 ล้านบาท) ต่อชิ้น โดยประสิทธิภาพที่ดีขึ้นนี้ จะทำให้จากเดิมที่ต้องใช้ GPU H100 ราว 8,000 ตัวในการฝึกโมเดล AI ขนาด 1.8 ล้านล้านพารามิเตอร์ ซึ่งประมาณขนาดของ ChatGPT-4 ก็สามารถใช้ชิปใหม่ Blackwell ที่จำนวน 2,000 ตัวแทนได้
- ชิป AI NVIDIA Blackwell (เครดิต: Nvidia) -
3. ต้นทุนดาต้าเซ็นเตอร์กับพลังงานไฟฟ้า
สำหรับตัว AI ยิ่งมีความซับซ้อนและถูกใช้เป็นวงกว้างมากขึ้นเท่าไร การใช้พลังงานไฟฟ้าก็สูงขึ้นตามไปด้วย และที่น่าตกใจ คือ การใช้แชตบอต AI ChatGPT 1 ครั้งกินพลังงานไฟฟ้า “มากกว่า” Google ถึง 10 เท่า จนกลายเป็นกระแสวิตกว่า AI จะเป็นตัวเร่งให้เกิด “วิกฤติขาดแคลนพลังงานไฟฟ้า” หรือไม่
ในการผลิตไฟฟ้าให้เพียงพอสำหรับดาต้าเซ็นเตอร์ AI และขณะเดียวกันก็ต้องควบคุมอุณหภูมิโลกไม่ให้ทะลุ 1.5 องศาเซลเซียส เพื่อหลีกเลี่ยงหายนะด้านโลกร้อน แหล่งพลังงานสะอาดจึงเหลือเพียงไม่กี่อย่าง นั่นคือ โซลาร์เซลล์ กังหันลม และโรงไฟฟ้านิวเคลียร์ โดยพลังงานจากแดดและลม ถือว่าไม่แน่นอนและผลิตไฟฟ้าได้น้อยเกินไป ส่วนโรงไฟฟ้านิวเคลียร์ก็เกิดข้อถกเถียงด้านความปลอดภัย
มาร์ค ซัคเคอร์เบิร์ก แสดงความเห็นว่า การต้องใช้พลังงานไฟฟ้าจำนวนมากในการฝึก AI อาจทำให้บริษัทต้องสร้างโรงไฟฟ้านิวเคลียร์เพิ่ม ซึ่งก็ไม่ง่ายนัก เนื่องจากอาจเกิดข้อพิพาทกับชุมชนที่ไม่ต้องการมีโรงไฟฟ้าในพื้นที่
นอกจากประเด็นไฟฟ้าแล้ว การต้องขยายดาต้าเซ็นเตอร์ เพื่อรองรับปริมาณประมวลผล AI ก็เพิ่มต้นทุนพัฒนาปัญญาประดิษฐ์ให้สูงขึ้นตามไปด้วย โดย Dell'Oro Group บริษัทวิจัยด้านโทรคมนาคมประเมินว่า บริษัทเทคฯต่าง ๆ มีแนวโน้มใช้เงินสูงถึงราว 294,000 ล้านดอลลาร์ในการสร้างดาต้าเซ็นเตอร์ในปีนี้ โดยเพิ่มขึ้นจาก 193,000 ล้านดอลลาร์ในปี 2563
- Data Center (เครดิต: Shutterstock) -
จะเห็นได้ว่า ด้วยความซับซ้อนของ AI ที่มากขึ้นเรื่อย ๆ มีแนวโน้มว่าจะทำให้ต้นทุนหลัก 3 อย่าง ได้แก่ โมเดลภาษาขนาดใหญ่ ชิปประมวลผล AI และดาต้าเซนเตอร์ สูงขึ้นเรื่อย ๆ
ตัวอย่างบริษัทที่กระโจนลง AI อย่าง Meta แม้ว่าผลประกอบการไตรมาส 1 ปี 2567 ออกมาเติบโต โดยรายได้เพิ่มขึ้น 27% ส่วนกำไรเพิ่มขึ้น 117% จากช่วงเดียวกันของปีก่อนหน้า แต่ราคาหุ้นหลังประกาศผลประกอบการกลับร่วงราว 16% นั่นเพราะงบลงทุนโครงสร้างพื้นฐานในการรองรับ AI บานขึ้น
จากเดิมคาดว่าอยู่ที่ราว 30,000-37,000 ล้านดอลลาร์ หรือประมาณ 1.1-1.3 ล้านล้านบาท แต่ปรากฏว่าในปีนี้ Meta ประเมินว่า งบลงทุนดังกล่าวอาจเพิ่มขึ้นเป็น 35,000-40,000 ล้านดอลลาร์ หรือประมาณ 1.2-1.4 ล้านล้านบาทแทน และมีแนวโน้มสูงขึ้นเรื่อย ๆ จนกลายเป็นคำถามว่า ท้ายที่สุดแล้ว AI อาจกลายเป็น “ตัวฉุดกำไร” บริษัทเทคฯให้พลิกมาร่วงหรือไม่ และนี่เป็นความเสี่ยงที่นักลงทุนควรเตรียมรับมือ
อ้างอิง: data, barrons, bloomberg, cnbc, bang