Diary of AI CEO [EP.1] : รู้จักกับ Artificial AGI
จากความตื่นเต้นของความสามารถอันชาญฉลาดของ Generative AI อย่างโมเดลภาษาขนาดใหญ่ (LLM) ซึ่งสามารถแก้ปัญหาและตอบคำถามได้อย่างเป็นธรรมชาติเหมือนมนุษย์ จึงทำให้เริ่มมีข่าวลือว่าพวกเราใกล้จะเข้าสู่ยุคของ AGI หรือปัญญาประดิษฐ์ทั่วไป (Artificial General Intelligence) แล้วหรือไม่?
เราสามารถนิยาม AGI หรือ Artificial General Intelligence ได้ว่าเป็นปัญญาประดิษฐ์ที่มีความสามารถทั่วไป ซึ่งสามารถอนุมานความรู้ใหม่จากความรู้เดิมโดยผ่านกระบวนการทางตรรกะและการใช้เหตุผล (reasoning) ถึงแม้ว่าจะเป็นเรื่องที่ไม่เคยพบเห็น หรือเจอมาก่อนก็ตาม
อย่างไรก็ตาม แม้ว่าในช่วงไม่กี่ปีที่ผ่านมาพวกเราได้เห็นความสามารถอันน่าทึ่งของโมเดลภาษาขนาดใหญ่ (LLMs) แต่ดูเหมือนว่าโมเดล LLM ที่มีอยู่ในปัจจุบันนั้นดูเหมือนจะฉลาดด้วยการตอบคำถาม และให้ข้อมูลในหลากหลายหัวข้อได้ เป็นเพราะว่า LLM สามารถจดจำรูปแบบจากข้อมูลจำนวนมหาศาลที่ได้รับการฝึกมาเท่านั้น และไม่ได้มีการใช้กระบวนการให้เหตุผลจริงๆ ในการสร้างคำตอบ ถึงแม้ว่ามีการโต้แย้งว่าถึงแม้เราจะพัฒนาไปสู่สิ่งที่ดูเหมือน AGI ด้วยเทคโนโลยี LLM ในปัจจุบัน แต่ในที่สุดแล้วก็เป็นแค่เพียง AGI เทียมเท่านั้น ดังนั้นจึงเป็นที่มาของคำว่า “ปัญญาประดิษฐ์ทั่วไปเทียม” หรือ artificial Artificial General Intelligence ในหัวข้อบทความนี้นั่นเอง (ไม่ใช่การเขียนผิดแต่อย่างใด!)

Artificial AGI คืออะไร?
ตามที่เห็นกันอย่างผิวเผิน โมเดลภาษาขนาดใหญ่ (LLMs) เหล่านี้ดูเหมือนจะใกล้เคียงกับ AGI มาก แต่ในความเป็นจริงแล้ว โมเดล LLM ที่มีอยู่ตอนนี้อย่างดีที่สุดเรียกได้กว่าเป็นเพียง AGI เทียม หรือที่เรียกว่า Artificial Artificial General Intelligence เท่านั้น กล่าวคือ AGI ที่แท้จริงนั้นควรมีความสามารถในการให้เหตุผล และสรุปความรู้ใหม่ในหัวข้อต่างๆ จากความรู้เดิมที่ได้เรียนรู้มาเหมือนกับที่มนุษย์ทำได้ตั้งแต่ยังเป็นเด็ก กระบวนการเรียนรู้ของมนุษย์ที่สามารถเรียนรู้ และเข้าใจข้อมูลใหม่ได้อย่างรวดเร็วจากตัวอย่างเพียงไม่กี่ครั้ง ยังคงเป็นสิ่งที่ AGI ยังไม่สามารถทำได้ด้วยทรัพยากรการประมวลผล และหน่วยความจำที่เทียบเคียงกัน
จริงอยู่ที่ว่า GenAI LLM ดูเหมือนจะสามารถสรุปคำตอบที่ถูกต้องสำหรับสิ่งใหม่ๆ ที่ไม่เคยเห็นมาก่อน (หรือที่เรียกกันว่าการอนุมานแบบ zero-shot) แต่กลไกที่ทำให้โมเดล LLM สามารถทำเช่นนั้นได้เกิดจากการที่เคยเห็นสิ่งที่คล้ายกันเป็นจำนวนมากมาก่อนหน้านี้ ซึ่งไม่ได้มาจาก “การให้เหตุผล” ตามที่นักวิจัยจาก Apple ได้เผยแพร่ในงานวิจัยเมื่อเร็วๆ นี้ พบว่าเมื่อมีการเปลี่ยนพารามิเตอร์ เช่น ชื่อ หรือหมายเลขในคำถามประเภทแก้ไขปัญหา ประสิทธิภาพการทำงานของ LLM ที่เคยทำแบบทดสอบได้ดีนั้นสูงกว่ามนุษย์ แต่เมื่อใส่ข้อมูลที่ไม่เกี่ยวข้องเข้าไปกลับทำให้ LLM สับสน และทำให้ประสิทธิภาพในการตอบคำถามลดลงถึง 17% ในขณะที่บางโมเดลประสิทธิภาพการตอบคำถามอาจลดลงได้ถึง 65% ซึ่งแสดงให้เห็นว่าโมเดล LLM นั้นไม่ได้มีการใช้การให้เหตุผลในการหาคำตอบจริงๆ ในทางกลับกันมนุษย์มีสามารถจัดการกับความเปลี่ยนแปลงดังกล่าวได้ดีกว่า AI เป็นอย่างมาก
Yan LeCunn หนึ่งในบิดาแห่งปัญญาประดิษฐ์ เคยกล่าวไว้ว่า LLM ก็เหมือนกับนกแก้วนกขุนทองที่มีความฉลาดมากเท่านั้น ซึ่งทำได้เพียงแค่ท่องจำคำต่างๆ เพื่อตอบคำถามตามรูปแบบ และข้อมูลที่เคยเห็นมาก่อนได้เท่านั้น
แม้แต่ OpenAI GPT เองนั้นที่เคลมว่าสามารถทำการให้เหตุผลก่อนที่จะให้คำตอบก็ยังถูกตั้งข้อสงสัยว่าเป็นแค่เพียงกระบวนการอัตโนมัติในการใช้เทคนิค Chain-of-Thought ในการตอบคำถามเท่านั้น โดยเทคนิค Chain-of-Thought หรือ CoT เป็นวิธีที่รู้จักกันดีในการแบ่งปัญหาที่ซับซ้อนออกเป็นงานย่อยๆ และคอยบอกให้ LLM ทำตามในแต่ละขั้นตอนเพื่อให้ได้ผลลัพธ์ที่ดียิ่งขึ้น โดย GPT-o1 นั้นดูเหมือนจะเป็นแค่เพียงโมเดลที่ทำให้ขั้นตอนเหล่านี้ทำได้แบบอัตโนมัติ (หมายเหตุ: มีความเป็นไปได้สูงว่า GPT-o1 น่าจะมีความซับซ้อนมากกว่านั้น และสิ่งนี้เป็นเพียงการคาดการณ์ หรืออย่างน้อยก็เป็นสิ่งที่ดูเหมือนว่ามีการทำงานในลักษณะนี้)
ถ้าเรายังไม่สามารถมี AGI ได้ แล้วมันจะมีประโยชน์อย่างไร?

สิ่งที่เราควรนึกถึงไว้เสมอคือ เมื่อคุณมีเครื่องมือมากมายให้เลือกใช้งาน คุณควรเลือกเครื่องมือที่เหมาะสมกับงานที่คุณต้องทำ ตัวอย่างเช่น หากคุณมีกรรไกร คุณคงไม่ใช้กรรไกรในการตอกตะปู เช่นเดียวกันกับเครื่องมือ LLM (Large Language Model) ซึ่งเป็นเครื่องมือที่มีประโยชน์ และทรงพลังเป็นอย่างมาก หากคุณนำ LLM ไปใช้เพื่อสรุปรายงาน เขียนข้อความ หรือสื่อทางการตลาด รวมไปถึงการเขียนอีเมลที่มีคุณภาพ คุณจะได้ประโยชน์จากประสิทธิภาพการทำงานที่เพิ่มขึ้นอย่างมหาศาล หรือหากคุณใช้เครื่องมือ LLM เพื่อแก้สมการคณิตศาสตร์บางอย่าง ก็อาจทำได้ดีพอสมควร แต่หากคุณนำเครื่องมือ LLM ไปใช้แก้ปัญหาที่มีความซับซ้อนมากๆ แล้วเราก็ยังไม่ช่วย แต่กลับใส่ข้อมูลที่สับสนเพื่อทดสอบมันซะอีก คุณอาจไม่ได้ผลลัพธ์ที่ดีนัก
การใช้เครื่องมือให้เหมาะสมกับสิ่งที่เครื่องมือได้รับการออกแบบไว้จะช่วยตอบโจทย์การทำงานของคุณให้ก้าวหน้าไปได้ไกล ลองนึกถึงการคุณมีคู่มือใช้งานอยู่ หรือถ้าคุณไม่ชอบอ่านคู่มือ การเรียนรู้จากการลงมือทำก็เป็นวิธีที่ดีในการทำความเข้าใจเครื่องมือที่คุณกำลังใช้อยู่ การมอง AI ในปัจจุบันว่าเป็นเหมือนกับ AGI ที่รู้ทุกอย่าง และทำได้ทุกอย่างอาจทำให้คุณมองโลกในแง่ลบ และรู้สึกผิดหวังได้ แต่หากคุณมอง AI เป็นเพียงเครื่องมือชนิดหนึ่ง คุณจะสามารถค้นหาวิธีในการใช้เครื่องมือ AI นี้ได้อย่างเหมาะสม และเมื่อเราเข้าใจธรรมชาติ และวิธีการทำงานของ AI ในที่สุดคุณจะสามารถใช้ประโยชน์จากเครื่องมือ AI เหล่านี้ได้อย่างเต็มที่
แต่ๆๆ อย่าเพิ่งด่วนตัดความเป็นไปได้ของ AGI ที่แท้จริง…
ในปัจจุบันนั้นเป็นเรื่องง่ายที่เราจะปฏิเสธแนวคิดเกี่ยวกับ AGI ว่ายังดูห่างไกล และเป็นเพียงปัญญาประดิษฐ์ทั่วไปเทียมเท่านั้น แต่ด้วยความก้าวหน้าอย่างรวดเร็วของการพัฒนาด้าน AI ที่ผ่านมา ทำให้เราไม่ควรที่จะมองข้ามอัตราการเปลี่ยนแปลงอย่างก้าวกระโดดที่เราสามารถทำได้ในขณะนี้ อย่างในตอนนี้เราสามารถใช้เครื่องมือ LLM อัจฉริยะในการสร้างข้อมูลใหม่จากข้อมูลที่มีอยู่ สอน หรือทำงานร่วมกับ AI ตัวอื่น ๆ ได้ ซึ่งส่งผลให้เราสามารถเพิ่มความเร็วในการพัฒนาสิ่งต่าง ๆ ได้อย่างเป็นทวีคูณ
โมเดล OpenAI-o1 อาจเป็นจุดเริ่มต้นของการเปลี่ยนแปลงเชิงกระบวนทัศน์จาก AI ที่เน้นการประมวลผลข้อมูล ไปสู่ AI ที่เน้นการให้เหตุผล ซึ่งได้มีหลักฐานเชิงประจักษ์บางส่วนที่แสดงให้เห็นว่า AI ที่เน้นการให้เหตุผลนั้นใช้เวลา “คิด” เพิ่มขึ้นเพียง 20 วินาที และสามารถทำงานได้เทียบเท่ากับ AI รูปแบบเก่าที่ต้องใช้ข้อมูลในการฝึก 100,000 เท่า และมีโมเดลขนาดที่ใหญ่กว่าถึง 100,000 เท่า (การเรียก LLM เหล่านี้เป็น AI “รูปแบบเก่า” ฟังดูย้อนแย้ง เป็น oxy-moron ซะเหลือเกิน แต่ไม่ทราบจะเรียกว่าอย่างไรดี) ด้วยสิ่งนี้ทำให้โมเดลในกระบวนทัศน์ใหม่นี้เหมาะกับการแก้ปัญหาที่ซับซ้อนมากขึ้น เพราะโมเดล AI สามารถทำงานเข้าใกล้กระบวนการคิดและการให้เหตุผลของมนุษย์ได้มากยิ่งขึ้น
เราอาจกำลังอยู่บนจุดเปลี่ยนของ AGI หากมีหลักฐานที่น่าสนใจเกี่ยวกับวิธีที่โมเดล o1 สามารถเอาชนะโมเดล GPT-4 รูปแบบเก่า และความเร็วในการพัฒนานั้นมีความก้าวหน้าไปตามที่คาดการณ์ไว้ แต่เรื่องนี้เรายังคงต้องรอดูกันต่อไป อย่างที่มีคนกล่าวไว้ว่า การตั้งเป้าหมายไปที่ AGI อย่างน้อยที่สุดสิ่งที่คุณจะได้ก็ยังเป็นเพียง AGI เทียมเท่านั้น

รายละเอียดส่งท้าย
รวมรายละเอียดที่สำคัญบางอย่างที่มักจะปรากฏอยู่ในคู่มือการใช้งาน AI ที่มีอยู่ในปัจจุบัน :
- LLM สามารถทำผิดพลาดได้เหมือนกันกับมนุษย์ ความผิดพลาดเหล่านี้มาในหลากหลายรูปแบบ เช่น การให้คำตอบที่ไม่ถูกต้อง (ลองนึกถึงมนุษย์ที่ไม่มีความสามารถ แต่บางครั้งมั่นใจในคำตอบของตัวเองมากเกินไป) การแต่งเรื่องขึ้นมาเองหรือที่เรียกว่า hallucinations (บางคนก็ทำแบบนั้นเช่นกัน โดยการเพิ่มข้อมูลที่ไม่มีอยู่จริงเข้าไปในเนื้อหา หรือคำตอบ หากเป็นคนที่ดูน่าเชื่อถือและพูดด้วยน้ำเสียงมั่นใจ คนก็อาจจะเชื่อว่าเขารู้จริง!) หรือบางครั้งอาจแสดงพฤติกรรมที่หยาบคายหรือไม่เหมาะสมกับบริบทของสังคม
- การชี้แนะให้ AI ค่อยๆคิดทีละขั้นตอน ผ่านกระบวนการที่เรียกว่า Chain-of-Thought หรือ CoT อาจช่วยให้คุณได้ผลลัพธ์สุดท้ายที่ดีมากยิ่งขึ้น
- การเปลี่ยนหัวข้อการสนทนาอย่างกะทันหันสามารถทำให้ AI สับสนได้พอ ๆ กับการทำให้คู่สนทนาที่เป็นมนุษย์สับสน พยายามอย่าสร้างการสนทนาที่มีหลายประเด็นมากเกินไป และนี่คือเหตุผลว่าทำไมทุกๆ เครื่องมือ Generative AI ที่ให้บริการเชิงพาณิชย์ปัจจุบันจึงมีฟีเจอร์ “เริ่มแชทใหม่” อยู่เสมอ
โดยลิสต์รายละเอียดเหล่านี้ยังสามารถมีไปได้อีกเรื่อย ๆ แต่ทั้งหมดนี้ตั้งอยู่บนสมมติฐานที่ว่าคนส่วนใหญ่มีความรู้เกี่ยวกับพื้นฐานของการ “เขียน prompt” อยู่แล้ว หรือแม้กระทั่งบทเรียนการเขียน prompt ขั้นสูงที่มีอยู่มากมายบนอินเทอร์เน็ต

CEO บริษัท ไอเจ็น จำกัด-ผู้เชี่ยวชาญด้าน AI และ Machine learning ทั้งในไทยและต่างประเทศมามากกว่า 10 ปี