KoolAI : คอร์ส Generative AI for Everyone จาก Andrew Ng
KoolAI : เทคนิก สำหรับการเขียน Prompt จาก Andrew Ng และ คอร์สอื่นๆ
Generative AI คืออะไร
มันเป็น คำที่กำลังฮิตในหมู่ Data Scientist คำว่า Generative AI บางคนแปลว่า AI เชิงสร้างสรรค์ เป็นคำอธิบายเกี่ยวกับ Model AI เชิงสร้างสรรค์ (เอ มันอธิบายมั้ยเนี่ย)
คำอธิบายก็คือ มันเป็นเทคโนโลยี AI ชนิดหนึ่งที่สามารถผลิตอะไรบางอย่าง ไม่ว่าจะเนื้อหา เสียง ภาพและข้อมูลสังเคราะห์ต่างๆ
ย้อนกลับมา เราต้องอธิบาย คำว่า AI คืออะไรก่อน มันเป็นสาขาวิชาหนึ่ง ของ วิทยาการคอมพิวเตอร์ ที่เกี่ยวข้องกับการสร้าง ตัวแทนอัจฉริยะ และระบบที่สามารถ ใช้เหตุผล เรียนรู้ และกระทำได้อย่างอิสระซึ่งเป็นอิสระจากคุณ (ไม่ต้องสั่งงาน) หรือง่ายๆ มันวิชาที่ทำให้เครื่องจักรสามารถคิดได้เหมือนมนุษย์
โดยที่ Machine Learning เป็นสาขาย่อยของ AI โดยเครื่องจักร จะเรียนรู้จาก Input ข้อมูล เข้าไปใน Model ที่ผ่านการ Train ทำให้ Machine สามารถ Predict Output ได้จาก Input ที่เป็นค่าใหม่ ที่ไม่เคยเห็นมาก่อน
บาง Model ที่ต้องมีการสอน เราจะใช้การติด Label (คำตอบ) เพื่อให้ Model ได้เรียนรู้
บาง Model นั้น มันไม่ต้องมีการสอน แต่มันต้องมี Agent (เป้าหมาย และ ข้อจำกัด) เช่น เส้นทางในการเดินทาง(ที่สั้นที่สุด หรือ เร็วที่สุด)
Responsibility AI
ทุกวันนี้ Generative AI เข้ามามีบทบาทอย่างมากในชีวิต แต่บาง Model มันก่อให้เกิด AI ที่มี Bias ได้ โดยไม่ตั้งใจ โดยเฉพาะ การ Train ที่ผิดพลาด โดยตัวอย่างคือ AI Chatbot ที่มักถูกอบรมจาก Internet สุดท้ายจบด้วย AI ที่เหยียดเชื้อชาติ และพูดหยาบคาย (มันคือ กรณีความรับผิดชอบต่อผลลัพธ์ที่ออกมา)
และนี่คือ วัตถุประสงค์ของ AI ที่รับผิดชอบต่อสังคม ไม่ก่อให้เกิดอันตราย และเลือกปฎิบัติ ยกตัวอย่าง Deep Fakes ที่ตัดต่อภาพคนดัง ถือเป็นภัยคุกคามร้ายแรงต่อปัจเจกบุคคล ความเป็นส่วนตัว หรือความมั่นคงของชาติ โดยเฉพาะการตัดต่อวิดีโอที่เอาคนดังมาพูดให้เกิดความเกลียดชังกัน
นอกจากนี้ยังมีประเด็นเรื่อง ทรัพย์สินทางปัญญาอีก ที่มันสามารถสร้างสรรค์เนื้อหา แม้จะเริ่มต้นความคิดสร้างสรรค์ แต่มันถูกตั้งคำถามเรื่องลิขสิทธิ์ และความเป็นเจ้าของ โดยเฉพาะ การ Copy ผลงานของศิลปินนับพัน
แต่ ข้อมูลระบุว่า เกือบทุกธุรกิจ คาดหวังว่า AI จะสามารถช่วยพวกเขาให้แข่งขันได้ แต่มันต้องตั้งอยู่บนฐษนคุณธรรม ที่ไม่ก่อให้เกิดอันตรายด้วย ความรับผิดชอบ รวมถึง ศีลธรรม จริยธรรม
ดังนั้นการระบุแหล่งที่มา ถือเป็นส่วนหนึ่งของความรับผิดชอบ นั่นคือความโปร่งใส ที่คลายข้อกังวลด้านจริยธรรม รวมถึงความเป็นส่วนตัว และการเข้าถึงข้อมูลที่ได้รับอนุญาต
ขณะเดียวกัน ความเสี่ยงที่เกิดจากความแม่นยำ ก็ถือเป็นอีกหนึ่งเหตุผล แพทย์ หันมาใช้ AI วิเคราะห์โรคกันมากขึ้น แต่ความแม่นยำนั้น AI อาจทำไม่ถึงเป้าที่กำหนดได้
ก่อนอื่นแม้เราจะแนะนำแนวทางการเขียน Prompt ให้ได้ แต่เราก็ยืนยันว่า มันไม่มีวิธีที่ดีที่สุดในการเขียน Prompt ได้ ดังนั้นมันจึงแนวทางกว้างๆ เท่านั้น
มันเชื่อมโยงมาจาก LLM (Large Language Model) โดยมันมีเทคนิค 3 ประการ
1. รายละเอียด และความเฉพาะเจาะจง
2. การชี้แนะ Model ให้บอกคำตอบ
3. การทดลองซ้ำๆ
1. รายละเอียด และความเฉพาะเจาะจง
สิ่งแรกคือ คุณต้องมั่นใจว่า คุณเขียน บริบท เพียพอ หรือ ข้อมูลพื้นฐานเพียงพอ เพื่อให้ Model มันสามารถตอบกลับมาได้อย่างถูกต้อง
ยกตัวอย่าง ถ้าคุณเริ่มต้นให้เขียน จดหมายเพื่อส่งมอบงาน ........ หากคุณระบุเพียงแค่นี้ โมเดลก็ไม่สามารถ ตอบกลับมาได้ คุณควรเพิ่มเติมรายละเอียดให้เพียงพอ เพื่อให้มันทำงานได้อย่างถูกต้อง ยิ่งหากคุณระบุ ถึงรายละเอียดจดหมายที่คุณต้องการ กี่ย่อหน้า ย่อหน้าแรกระบุอะไร มันจะยิ่งง่ายขึ้นไปอีก
2. การแนะนำ หรือ ชี้นำ แนวทางให้ โมเดล ทำงาน
ลองยกตัวอย่าง คุณต้องการให้ LLM คิดชื่อแมวให้คุณ 5 ชื่อ มันคงคิดมาเรื่อยเปื่อย แต่หากคุณกำหนดข้อจำกัด เช่น ชื่อต้องคล้องจองกับ หรือ เกี่ยวข้องกับ นั่นคือ ถ้ามันผสมผสานกับแนวคิดที่ 1 มันค่อนข้างจะทำงานได้ผลได้
อย่าลืมว่า ขั้นที่ 2 นี้เป็นเพียงการตีกรอบกว้างๆ ซึ่งยังเปิดโอกาสให้ LLM ได้ใช้ความคิดสร้างสรรค์ ไม่เหมือน ขั้นที่ 1 ที่ตีกรอบมันแบบแคบๆ ให้ LLM ทำงานตามคำสั่ง
3. คือ การสั่งให้ทำงานแบบซ้ำๆ หรือปรับเปลี่ยนไปเล็กน้อย
คือบางทีผลลัพทธ์ที่ได้อาจกใกล้เคียง แต่ยังไม่ได้ผลเป็นที่น่าพอใจ เราจึงต้องสั่งซ้ำๆ อีกครั้ง
Application
Generative AI หรือ AI เชิงสร้างสรรค์ นั้นออกมาใช้ร่วมกับ Application มากขึ้น เช่น การอ่านรีวิวร้านอาหาร ในอินเตอร์เน็ต เพื่อช่วยเหลือติดตามด้านการสร้างแบรนด์ หรือเพื่อรับคำสั่งอาหาร อย่างไรก็ดีถ้าเป็นในอดีต คุณต้องอาศัยการเขียนโค๊ดจำนวนมาก โดยต้องมีวิศวกรซอฟท์แวร์มาคอยเขียนโปรแกรม เพื่อหน้าแต่ละหน้าเพื่อติดตามชื่อเสียงของร้านอาหาร
นั่นคือ การ Mapping Input จาก A กับ B เข้าด้วยกัน แต่ปัจจุบันเพียงแค่ คุณติด label บนคำวิจารณ์ต่างๆ หรือแค่ Label + บนข้อความที่มีความหมายเชิงบวก และ - ในบทความที่มีเครื่องหมายเชิงลบ ต่อมาเพียงแค่หาทีม AI มาช่วยฝึก Model AI บนข้อมูลเพื่อเรียนรู้ข้อมูลเชิงบวก และ ลบ สุดท้ายคุณเพียงใช้บริการของ AWS หรือ Google Cloud หรือ Azure เพื่อปรับใช้ แล้วเรียก Model มาใช้เท่านั้น
ถึงตอนนี้หากจะสามารถรู้ดีกว่า ความรู้สึกต่างๆ ของลูกค้าเป็นเช่นไร คุณเพียงติด Label เข้าไป 1000 ชิ้น กับ บทวิจารณ์ 1000 บทความ ภายในระยะเวลา 3 เดือน แต่ถ้าให้ดี ควรใช้ระยะเวลา 6-12 เดือน ที่จะได้ค่าที่ค่อนข้างสมจริง สิ่งเหล่านี้มันค่อนข้างมีคุณค่าอย่างมาก แต่มันก็กินระยะเวลาที่ค่อนข้างนาน แต่มันใช้ระยะเวลาในการทำเพียงไม่กี่วัน หรือ 1 สัปดาห์เท่านั้น ซึ่งเหตุผลนี้มันทำให้ การเติบโตของ Generative AI นั้นเป็นไปอย่างก้าวกระโดด
เริ่มต้นเราคงต้องกำหนดทิศทางว่า แอปพลิเคชั่นนี้ควรทำอะไรได้บ้าง ถัดมาเราจะเริ่มต้นสร้าง แอปพลิเคชั่นต้นแบบ ภายใน 1-2 วัน แต่พูดตรงๆ มันไม่ดีหรอก แต่มันช่วยให้ทีมของเราสามารถรีวิวและทดสอบเบื้องต้นได้เพื่อรับรู้ว่า มันตอบสนองได้ดีขนาดไหน ถือเป็นการประเมินภายใน
เมื่อคุณทำซ้ำๆ กันหลายๆ ครั้ง คุณจะรู้ว่า ต้องปรับปรุงอะไรเพิ่มเติม ลองดูว่า มันได้ผลหรือไม่ แล้วค่อยๆ ปรับปรุงมันไป เมื่อภายในทีมประเมินกันว่า มันดีเพียงพอที่จะเปิดตัวแล้ว ก็จะเริ่มต้นทำงาน แต่หากผลลัพธ์ที่ได้ออกมายังต่ำกว่ามาตรฐาน คุณอาจต้องตัดสินใจว่า จะกลับไปสู่การประเมินภายในแล้วปรับปรุง โดยเฉพาะการ Train Model
ในกระบวนการทดลอง นั้น เราต้องทดลองทำซ้ำแล้วซ้ำอีก รวมถึงพยายามอัพเดทไอเดีย
ต้นทุนการใช้งาน
บางคนอาจอยากรู้ว่า ต้นทุนในการพัฒนานั้นมีค่าใช้จ่ายจริงประมาณเท่าไหร่
Code GPT3.5 นั้นเรียกเก็บเงิน 0.2 cent ต่อ 1000 Token ส่วน GPT4 นั้นคิด 6 cent ต่อ 1000 Token ถึงตอนนี้คุณอาจสงสัยว่า Token คืออะไร
Token อาจเป็น คำ หรือ ส่วนย่อยของคำ ก็เป็นได้ แต่มันเป็นวิธีที่โมเดล LLM ใช้ในการประมวลผลข้อความ เช่น v ตัวเดียวอาจนับเป็น 1 Token หรือ ชื่อ andrew ที่แม้จะดูธรรมดา แต่ก็นับเป็น 1 Token เช่นกัน แต่คำบางคำอาจถูกแยกเป็นคำย่อย แต่ก็คิดเพียง 1 Token แต่บางคำเช่น ทงคัตสึ อาจแยกเป็น 4 Token แต่เฉลี่ยแล้ว จะคิดเป็น 3/4 ของคำ นั่นคือ ถ้าคุณสร้าง คำ 300 คำ คุณจะเสีย 400 Token แต่อย่าไปกังวลมากเรื่องนี้
จำไว้แบบหลวมๆ แต่ใหญ่ขึ้นนิดหน่อย ว่า 1 คำ เกือบเท่ากับ 1 Token เท่านั้นก็พอ ดังนั้นถ้าเราใช้ 40000 Token ต้นทุนจะอยู่ที่ 0.2 cent ต่อ 1000 token มันจะเท่ากับ ประมาณ 8 cent ซึ่งหากมันช่วยให้ใครคนหนึ่งประหยัดเวลาไป 1 ชั่วโมงในการค้นหา อะไรสักอย่าง ในราคา 8 Cent คิดว่า มันคุ้มค่าเพียงพอ
การเพิ่มการค้นหา (Retrieval Augmented Generation or RAG)
สำหรับ การใช้ LLM เราจะมีเทคนิก RAG เพื่อเพิ่มส่วนที่คุณสามารถทำได้ เช่นหากคุณถามคำถามทั่วไป มันจะอาจถามกลับว่า ต้องการข้อมูลเพิ่มเติมที่เฉพาะเจาะจง เพราะมันอาจไม่มีข้อมูลบางอย่าง นั่นเราเรียกว่า เทคนิก RAG แล้วมันทำงานอย่างไร
มันมี 3 ขั้นตอน
1. หากถามคำถามทั่วไปภายในบริษัท ตัว LLM มันอาจเข้าไปค้นหาข้อมูลตามเอกสารต่างๆ ที่เกี่ยวข้องมากที่สุด
2. ถัดมา เมื่อมันรวบรวมข้อมูลเสร็จแล้ว มันส่งข้อความเตือนกลับมา แต่จำได้ไหมว่า มันมีข้อจำกัด ด้าน จำนวน Prompt หรือ Input นั่นทำให้มัน ดึงข้อมูลจากเอกสารขนาดใหญ่ ทำให้เราต้องกำจัด เราเรียกเทคนิกนี้ว่า Retrieval Augmented Generation หรือ RAG นั่นคือมันจะดึงข้อมูลบริบทบางส่วนที่เกี่ยวข้อง
3. สุดท้าย LLM จะตอบกลับมาให้ แต่มันจะเพิ่มลิงค์ของเอกสารที่ใช้อ้างอิงให้ด้วย เพื่อให้กลับไปตรวจสอบอีกที
Fining Tune
การปรับแต่งอย่างละเอียดหรือ Fining Tune นั้นเป็นอีกเทคนิก ที่จะให้ข้อมูลเพิ่มเติม คุณสามารถเพิ่มข้อมูลเข้าไปให้ LLM อีกเล็กน้อยอย่างละเอียดเพื่อให้ LLM มี OutPut ที่ดีขึ้นได้
โมเดล LLM
ความจริงแล้ว LLM ยังมีอีกหลายโมเดล ให้เลือกใช้ บางอันฟรี บางอันไม่ฟรี แต่บทความส่วนนี้จะแนะนำเป็นแนวทางในการเลือกใช้ โมเดล
เรามักจะประเมินความสามารถของ LLM โดยดูจากขนาดของ Parameter ของ Model นั่นคือ เราพิจารณา จำนวนพารามิเตอร์ช่วง 1-1,000 พันล้าน เราจะพบว่า มันจะเก่งในเรื่องการจับคู่ กับ ความรู้พื้นฐานบางอย่าง
หากสิ่งที่คุณต้องการ คือ การจัดหมวดหมู่ในเรื่องของการวิจารณ์ร้านอาหาร นั่นคือ โมเดลควรเป็นการจับคู่ระหว่าง 1000 ล้านพารามิเตอร์กับ คำศัพท์ประเภทอาหาร ซึ่งหากคุณต้องการส้างแชทบอท สำหรับสั่งอาหาร แบบจำลองที่มีพารามิเตอร์ 10 พันล้านอาจโอเค แต่มันก็สามารถปรับแต่งให้ดีขึ้น ในคำแนะนำตามที่คุณต้องการ
นั่นหมายความว่า หากคุณต้องการแชทบอท ที่สั่งอาหาร มันไม่จำเป็นต้องมีความรู้ด้านประวัติศาสตร์ โลกหรือ ปรัชญา หรือวิทยาศาสตร์ ต่างๆ มาเกี่ยวข้องเลย ซึ่งมันก็สามารถใช้งานได้
การพัฒนา LLM ปล่อยให้เป็นเรื่องของผู้พัฒนา แต่คุณจะเลือกใช้งานผ่าน API ดีกว่า เพราะมันมีต้นทุนที่ค่อนข้างต่ำ แต่เราแนะนำให้ใช้ Open Source เพื่อให้เราสามารถนำไปปรับจูนได้
Tuning และ RLHF
อีกเทคนิกหนึ่ง ของการปรับแต่ง คือ RLHF คือ การเสริมแรงการเรียนรู้ จากการเสนอแนะของมนุษย์ เรามา
ดูกันว่า RLHF คืออะไร
เริ่มต้นถ้าเราตั้งคำถามง่ายๆ อย่าง เมืองหลวงของฝรั่งเศส คือ ที่ไหน มันเป็นเรื่องง่ายๆ ที่ LLM จะตอบกลับมา แต่ถ้าเราปรับแต่ง ด้วยการระบุว่า สถานที่เที่ยวของเมืองหลวงของฝรั่งเศส คือที่ไหน อันนี้ ทำให้ LLM นั้นทำงานที่ซับซ้อนขึ้น นั่นคือ เราระบุ Input A และหวังคำตอบ Output B
แน่นอนว่า ความจริงแล้ว LLM ต้องพยายามทำนายคำตอบ แรกให้ได้ก่อน นั่นคือ ปารีสให้ได้ ก่อน ค่อยตอบคำถามถัดไป นั่นคือ เรียนรู้วิธีเสริมแรงจาก ข้อเสนอแนะของมนุษย์ หรือ RLHF ที่จะสามารถปรับปรุงคุณภพาของผลลัพธ์ให้ดียิ่งขึ้น แน่นอนว่า มันทำให้คำตอบได้รับคะแนนที่ดีขึ้นด้วย
นั่นคือ หากเราใช้อัลกอริทึมการเรียนรู้แบบมีผู้ดูแล แล้วเราสามารถ Train Model AI ได้โดยเรียนรู้แบบมีผู้ดูแล หรือ อาจให้คะแนนคำตอบทุกคำตอบ นั่นคือเราจะให้ LLM เรียนรู้จาการสร้างคำตอบ โดยอัตโนมัติ จากการฝึกฝนของมนุษย์
ความคิดเห็น
แสดงความคิดเห็น