ส่องนโยบายใช้ 'ChatGPT' ช่วยทำงานในองค์กร
ผมมีโอกาสได้เห็นเอกสารนโยบายการใช้ Generative AI อย่าง ChatGPT ของบริษัทเทคโนโลยีขนาดใหญ่ในต่างประเทศรายหนึ่งระบุว่า ห้ามพนักงานใช้โดยเด็ดขาด
โดยเฉพาะในการทำเอกสารหรือจดหมายเพื่อติดต่อกับลูกค้า หรือแม้แต่จะช่วยเขียนโค้ดในการพัฒนาโปรแกรม ทั้งนี้บริษัทอนุญาตให้ใช้เฉพาะเพื่อการทดลองหรือการศึกษา และการใช้งานส่วนตัวเท่านั้น
จริงๆ ก็ไม่ใช่เรื่องแปลกใหม่อะไร เพราะในปัจจุบันหลายๆ บริษัทในต่างประเทศเริ่มที่จะออกนโยบายการใช้ Generative AI ในการช่วยทำงานของพนักงานหรือที่เรียกว่านโยบาย Generative AI Assistance (GAIA) และก็มีหลายบริษัทที่ประกาศห้ามการใช้งาน
ดังเช่น สถาบันการเงินต่างๆ อย่าง JPMorgan Chase,Bank of America, Goldman Sachs, Citigroup, Deutsche Bank และ Wells Fargo โดยเหตุผลหลักเป็นเรื่องความปลอดภัยของข้อมูลอ่อนไหวของลูกค้า
ซึ่งนอกจากนี้ก็ยังมีอีกหลายบริษัทในอุตสาหกรรมอื่นๆ เช่น Amazon, Verizon, และ Accenture ที่ออกนโยบายจำกัดการใช้งาน Generative AI ของพนักงานและให้ระมัดระวังการนำข้อมูลอ่อนไหวของบริษัทเข้าไปสู่ระบบ
แม้ Generative AI จะมีข้อดีในการที่จะช่วยทำงานให้รวดเร็วขึ้น สามารถสร้างเนื้อหาต่างๆ ให้ผู้ใช้ได้ แต่ก็มีความเสี่ยงอยู่หลายประการที่ผู้ใช้จะต้องให้ความระมัดระวัง
เช่น ความปลอดภัยข้อมูลและความเป็นส่วนตัว เนื่องจากโมเดลเอไอนี้อาจเปิดเผยข้อมูลอ่อนไหวหรือละเมิดกฎระเบียบความเป็นส่วนตัว, การสร้างเนื้อหาที่ลอกเลียนแบบจากแหล่งข้อมูลอื่นๆ ที่อาจเป็นการละเมิดลิขสิทธิ์โดยที่ผู้ใช้อาจไม่ทราบก็เป็นได้
รวมไปถึง ความลำเอียงและการเลือกปฏิบัติ ซึ่งโมเดลเอไออาจมีข้อมูลที่ถูกเทรนมาอย่างโน้มเอียง ทำให้เนื้อหาที่สร้างขึ้นมามีความไม่ถูกต้องและเป็นการเลือกปฏิบัติจากข้อมูลที่มีอยู่
ดังนั้นจึงไม่แปลกใจที่บริษัทใหญ่ๆ ในต่างประเทศหลายแห่งเริ่มมีความกังวล ต่อความเสี่ยงเหล่านี้ จึงต้องกำหนดแนวทางชัดเจนในการใช้ Generative AI อย่าง ChatGPT แม้บริษัทเหล่านั้นจะเป็นผู้นำในด้านการใช้เทคโนโลยีก็ตาม แต่ก็กลับไม่อนุญาตให้พนักงานใช้งาน
แต่ขณะเดียวกันก็มีผลสำรวจจากแพลตฟอร์ม Fishbowl ซึ่งเป็นโซเชียลเน็ตเวิร์กของคนทำงานที่ออกมาเมื่อเร็วๆ นี้ ว่า มีการสำรวจพนักงานจำนวน 11,793 คน จากบริษัทต่างๆ เช่น Amazon, Bank of America, Google, IBM, JP Morgan, McKinsey, Meta, Nike และ Twitter ในช่วงปลายเดือนม.ค.ที่ผ่านมา
โดยพบว่า 43% (5,067 คน) ของผู้ตอบยอมรับว่าใช้เครื่องมือเอไออย่าง ChatGPT ช่วยในการทำงาน และมากกว่า 68% ของคนเหล่านั้นใช้โดยไม่ได้แจ้งหัวหน้างาน ซึ่ง Fishbowl ได้เปรียบเทียบผลสำรวจแบบเดียวที่ทำเมื่อต้นเดือนมกราคมกับพนักงานจำนวน 4,500 คน พบว่าตอนนั้นมีเพียง 27% ที่ตอบว่าใช้เครื่องมือเอไอช่วยในการทำงาน
จากผลสำรวจและความก้าวหน้าของเทคโนโลยีเราคงปฏิเสธไม่ได้ว่า องค์กรควรต้องเริ่มวางนโยบายกับการนำเครื่องมือ Generative AI มาช่วยในการทำงานให้ชัดเจน หากไม่มีการวางนโยบายที่ดีก็อาจมีปัญหาตามมาในอนาคต ทั้งนี้ปัจจัยที่บริษัทควรพิจารณาเพื่อตัดสินใจว่าควรอนุญาตหรือจำกัดการใช้งาน ซึ่งควรจะต้องพิจารณาจากประเด็นต่างๆ ดังนี้
1. ความปลอดภัยข้อมูลและความเป็นส่วนตัว องค์กรควรต้องกำหนดแนวทางในการใช้ที่ชัดเจน โดยต้องเน้นเรื่องการรักษาความปลอดภัยข้อมูลที่อ่อนไหวของบริษัทและความเป็นส่วนตัวของข้อมูล โดยเฉพาะต้องปฏิบัติให้เป็นไปตาม พ.ร.บ.ข้อมูลส่วนบุคคล (PDPA)
2. สอดคล้องกับกฎระเบียบต่างๆ โดยเฉพาะองค์กรที่อาจมีกฎระเบียบที่เข้มงวด เช่น สถาบันการเงิน หรือบริษัทในตลาดหลักทรัพย์ จำเป็นต้องมีการประเมินการใช้ Generative AI ว่าสอดคล้องกับกฎระเบียบต่างๆ ที่ถูกควบคุมโดยองค์กรที่กำกับหรือไม่
3. การใช้งานในทางที่ไม่เหมาะสม เนื่องจากมีความเป็นไปได้ที่ Generative AI จะสร้างเนื้อหาที่ไม่เหมาะสมหรือลอกเลียนแบบมา จึงต้องมีมาตรการที่รอบคอบหากจะอนุญาตให้พนักงานใช้เป็นเครื่องมือช่วยในการทำงาน
4. ความน่าเชื่อถือของเอไอ บ่อยครั้งที่ Generative AI อาจสร้างเนื้อหาที่ผิด ทำให้ขาดความน่าเชื่อถือ และอาจเสียภาพลักษณ์องค์กร ดังนั้นการใช้งานก็ควรจะต้องมีวิธีการที่ต้องประเมินความถูกต้องอย่างรอบคอบเพื่อหลีกเลี่ยงปัญหาที่อาจตามมาจากเนื้อหาที่สร้างขึ้น
5. การเปลี่ยนแปลงอย่างรวดเร็วของเทคโนโลยี Generative AI เช่น การเปลี่ยนจาก GPT-3 ไปสู่ GPT-4 ซึ่งมีการระบุว่า นี่คือจุดเริ่มต้นของการเปลี่ยนแปลงครั้งสำคัญของโลก จึงทำให้บางครั้งองค์กรอาจไม่สามารถปฏิเสธการใช้เครื่องมือนี้ในองค์กรได้อย่างสิ้นเชิง ดังนั้นองค์กรควรเตรียมตัวให้สามารถปรับตัวตามการเปลี่ยนแปลงของเทคโนโลยีและมีนโยบายที่เหมาะสมสำหรับการใช้งานเครื่องมือเอไอในองค์กร
สิ่งหนึ่งที่ผมพบคือ มีกระแสการใช้ Generative AI ในการทำงานในบ้านเรามากขึ้น ผมเองมีโอกาสได้ไปบรรยายและสอนการใช้งานเรื่องนี้หลายครั้งในรอบเดือนที่ผ่านมา แต่ขณะเดียวกันก็อดห่วงไม่ได้ว่าการใช้เครื่องมือเหล่านี้มากเกินไปโดยเฉพาะกับคนที่ไม่มีความรู้พื้นฐานในบางด้าน เช่น เด็กนักเรียนประถม หรือพนักงานที่เข้ามาทำงานใหม่ๆ ก็อาจทำให้พวกเขาขาดความรู้พื้นฐานที่ดี
ที่สำคัญยิ่งอาจทำให้พวกเขาขาดทักษะความคิดเชิงวิพากษ์ (Critical Thinking) และจะต้องพึ่งพาเครื่องมือแบบนี้ตลอดไป ซึ่งก็เป็นความเสี่ยงต่อทักษะการทำงานต่างๆ ในองค์กร และอาจเป็นความเสี่ยงต่อองค์กรที่จะได้พนักงานที่มีคุณภาพและความคิดสร้างสรรค์ในการทำงาน ดังนั้นนโยบาย GAIA จึงจำเป็นอย่างยิ่งสำหรับองค์กร