ผู้เขียน: Zhang Feng
ในยุคที่เทคโนโลยีปัญญาประดิษฐ์กำลังถาโถมเข้าสู่อุตสาหกรรมการเงิน ธนาคารกลางสิงคโปร์ (MAS) ได้ออก “เอกสารปรึกษาหารือเกี่ยวกับแนวทางการบริหารความเสี่ยง AI” เมื่อวันที่ 17 พฤศจิกายน 2025 เปรียบเสมือนแผนที่นำทางที่มาถึงทันเวลา ชี้ทิศทางความปลอดภัยให้กับสถาบันการเงินที่กำลังแล่นคลื่นแห่งนวัตกรรม เอกสารฉบับนี้ไม่เพียงเป็นกรอบบริหารความเสี่ยงตลอดวงจรชีวิต AI สำหรับภาคการเงินฉบับแรกของโลก แต่ยังสะท้อนถึงการเปลี่ยนผ่านสำคัญของแนวคิดกำกับดูแลจาก “การส่งเสริมหลักการ” สู่ “การปฏิบัติจริง” สำหรับทุกองค์กรที่เกี่ยวข้องกับตลาดสิงคโปร์ การทำความเข้าใจอย่างลึกซึ้งและดำเนินการตามแนวทางนี้อย่างเป็นระบบ ได้กลายเป็น “ประเด็นบังคับ” แทนที่จะเป็น “ทางเลือก”

การถือกำเนิดของ “แนวทาง” นี้ มาจากความตระหนักด้านกำกับดูแลที่ลึกซึ้ง: AI คือดาบสองคม แม้เทคโนโลยี Generative AI, AI Agent ฯลฯ จะเปล่งประกายในงานสินเชื่อ การให้คำปรึกษาการลงทุน การบริหารความเสี่ยง แต่ก็พาเอาความเสี่ยงใหม่อย่าง “ภาพลวงตาของโมเดล”, ข้อมูลถูกบิดเบือน, การพึ่งพาห่วงโซ่อุปทาน และการตัดสินใจอัตโนมัติที่ไร้การควบคุมมาด้วย หากปล่อยไว้โดยไม่กำกับ ความเสี่ยงเหล่านี้อาจจุดชนวนให้เกิดผลกระทบลุกลามยิ่งกว่าวิกฤติการเงินแบบดั้งเดิม
ดังนั้น ตรรกะการกำกับของ MAS จึงไม่ใช่การ “ตัดหัวทีเดียวจบ” แต่เน้น “ยึดหลักความเสี่ยง” และ “สัดส่วนเหมาะสม” กล่าวคือ น้ำหนักของการกำกับและทรัพยากรที่องค์กรทุ่มเท ต้องสอดคล้องกับระดับความเสี่ยงของการประยุกต์ใช้ AI โดยตรง เช่น โมเดล AI ที่ใช้อนุมัติสินเชื่อ (ความเสี่ยงสูง) ย่อมต้องถูกควบคุมเข้มกว่าทูล AI ที่ใช้วิเคราะห์เอกสารภายใน (ความเสี่ยงต่ำ) แนวคิดนี้ยอมรับความเฉพาะตัวขององค์กรและแต่ละสถานการณ์ เป้าหมายคือสร้างระบบนิเวศ “นวัตกรรมที่ไม่ล้ำเส้น” เพื่อเสริมความแข็งแกร่งให้สิงคโปร์ในฐานะศูนย์กลางฟินเทคโลก
“แนวทาง” ได้สร้างสถาปัตยกรรมบริหารความเสี่ยงสามชั้นที่เข้มแข็งและสมบูรณ์
ชั้นแรก คือธรรมาภิบาลและการกำกับดูแล เพื่อระบุ “ใครรับผิดชอบ” เอกสารนี้กำหนดให้คณะกรรมการและผู้บริหารระดับสูงถือความรับผิดชอบสูงสุด ต้องอนุมัติยุทธศาสตร์ AI และเพิ่มพูนความรู้ AI ของตนเองเพื่อดูแลได้อย่างมีประสิทธิภาพ สำหรับองค์กรที่ใช้ AI อย่างกว้างขวางและมีช่องเปิดความเสี่ยงสูง ควรตั้ง “คณะกรรมการ AI” ที่ประกอบด้วยฝ่ายความเสี่ยง, กำกับดูแล, เทคโนโลยี และธุรกิจ เพื่อรายงานต่อบอร์ดโดยตรง และรับประกันการขับเคลื่อนธรรมาภิบาลจริงจัง
ชั้นที่สอง คือระบบบริหารความเสี่ยง เพื่อตอบโจทย์ “ควบคุมอะไร” และ “ควบคุมอะไรก่อน” องค์กรต้องมีระบบตรวจนับทุกแอปพลิเคชัน AI ไม่ว่าจะพัฒนาเอง ซื้อ หรือใช้งานแบบโอเพ่นซอร์ส ให้จัดทำ “บัญชี AI” ที่อัปเดตต่อเนื่อง จากนั้นแต่ละแอปฯ ต้องประเมิน “ระดับผลกระทบ”, “ความซับซ้อนทางเทคนิค”, “การพึ่งพาภายนอก” เพื่อจัดอันดับความเสี่ยงเป็น สูง-กลาง-ต่ำ แผนที่ความร้อนของความเสี่ยงนี้ ใช้เป็นเกณฑ์จัดสรรทรัพยากรควบคุมอย่างมีหลักการ
ชั้นที่สาม คือการควบคุมตลอดวงจรชีวิต ระบุ “ควบคุมอย่างไร” ส่วนนี้ถือเป็นหัวใจเชิงปฏิบัติที่สุดของเอกสาร กล่าวคือ แทรกข้อกำหนดกำกับลงในทุกขั้นตอนของ AI ตั้งแต่ต้นจนจบ ตั้งแต่รับรองความถูกต้องและความเป็นธรรมของข้อมูลฝึกสอน, ทดสอบความอธิบายได้ของโมเดล, ทดสอบความปลอดภัยก่อนใช้งานจริงเพื่อป้องกัน “ภาพลวงตา” กับการโจมตีด้วย prompt injection, บังคับให้มีช่องทางมนุษย์กำกับระหว่างทำงาน, การบริหารซัพพลายเออร์ภายนอกอย่างเข้มงวด ไปจนถึงการเลิกใช้งานโมเดล กลายเป็นห่วงโซ่ควบคุมที่ไร้ช่องโหว่
ตลอดทั้งเอกสาร “แนวทาง” แสดงจุดเด่นชัดเจนเหนือข้อกำหนดอื่นๆ ในโลก ก้าวล้ำด้วยการกำหนดให้ Generative AI และ AI Agent อยู่ในขอบเขตกำกับเป็นครั้งแรก มุ่งตรงสู่ความเสี่ยงเทคโนโลยีล้ำยุค ด้านปฏิบัติการก็ไปไกลกว่าการตั้งหลักการ เหมือน “คู่มือใช้งาน” ที่แยกหลัก FEAT (Fairness, Ethics, Accountability, Transparency) ที่เป็นนามธรรม ออกมาเป็นรายการบัญชี AI, ดัชนีประเมินเชิงปริมาณ ฯลฯ นอกจากนี้ ยังกำหนดระดับการกำกับที่แตกต่างกันระหว่างองค์กรขนาดเล็ก กลาง ใหญ่/เสี่ยงสูง ให้เส้นทางการปฏิบัติตามที่เหมาะสมกับแต่ละขนาดองค์กร สะท้อนความเป็นจริง
“แนวทาง” ยังไม่ได้อยู่โดดเดี่ยว แต่เชื่อมโยงกับกฎหมายอื่นในสิงคโปร์เช่น “โมเดลธรรมาภิบาล AI”, “PDPA” (กฎหมายคุ้มครองข้อมูลส่วนบุคคล) ฯลฯ รวมถึงผลักดันโครงการ Project MindForge เพื่อจัดทำคู่มือแนวปฏิบัติที่ดีที่สุดในอุตสาหกรรม สร้างระบบนิเวศ “กำกับเข้ม + แนะแนวซอฟต์” ที่ครบวงจร
เมื่อเผชิญ “แนวทาง” องค์กรแต่ละแบบต้องรับมือแตกต่างกัน
สำหรับสถาบันการเงินในสิงคโปร์ แนะนำให้ดำเนินการเป็นสามขั้นตอนหลัก:
ก่อนวันที่ 31 มกราคม 2026 ซึ่งเป็นเส้นตายรับฟังความคิดเห็น องค์กรควรสรุป “ฐานข้อมูล” ให้ครบถ้วน ได้แก่ ตรวจนับสินทรัพย์ AI และจัดอันดับความเสี่ยงเบื้องต้น พร้อมเข้าร่วมเสนอความเห็น จากนั้นในช่วงเปลี่ยนผ่าน 12 เดือนตั้งแต่ครึ่งหลังปี 2026 คือช่วงสร้างระบบทั้งระบบ: ปรับปรุงโครงสร้างธรรมาภิบาล วางกระบวนการบริหารวงจรชีวิต AI คุมเข้มผู้ขายภายนอก ฝึกอบรมพนักงานทุกคนเรื่องการปฏิบัติตามข้อกำหนด พอถึงครึ่งหลังปี 2027 และหลังจากนั้น คือช่วงบริหารงานปกติที่เน้นปรับปรุงต่อเนื่อง การตรวจสอบภายใน และการแลกเปลี่ยนกับอุตสาหกรรม เพื่อทำให้ระบบมีชีวิตชีวา
สำหรับองค์กรที่ไม่มีสำนักงานในสิงคโปร์แต่มีธุรกิจเกี่ยวข้องกับตลาดสิงคโปร์ (เช่น ให้บริการการเงินข้ามแดน หรือให้เทคโนโลยี AI กับสถาบันการเงินท้องถิ่น) ควรเน้น “ปฏิบัติตามข้อกำหนดอย่างแม่นยำ” และ “แยกความเสี่ยง” โดยต้องระบุให้ชัดเจนว่า ธุรกิจหรือแอปพลิเคชัน AI ใดบ้างที่อยู่ในขอบเขตกำกับของ “แนวทาง” และจัดทำกระบวนการและเอกสารปฏิบัติตามข้อกำหนดโดยเฉพาะสำหรับธุรกิจเหล่านั้น เพื่อเตรียมตอบสนองการตรวจสอบจากคู่ค้า/ทางการได้ทันที ในเชิงเทคนิค ควรแยกระบบ AI ที่ให้บริการตลาดสิงคโปร์ออกจากระบบอื่นให้เหมาะสม และสื่อสารเรื่องสถานะการปฏิบัติตามกับคู่ค้าในสิงคโปร์อย่างโปร่งใส เปลี่ยนความสามารถด้าน compliance ให้กลายเป็นแต้มต่อด้านความเชื่อมั่นและความร่วมมือทางธุรกิจ
หัวใจของการนำ “แนวทาง” ไปปฏิบัติจริง คือการฝังข้อกำหนดลงในแต่ละขั้นตอนงานประจำวัน ให้การบริหารความเสี่ยงกลายเป็น “ส่วนหนึ่ง” ของธุรกิจ
ยกตัวอย่างการอนุมัติสินเชื่อ ที่ถือเป็นความเสี่ยงสูง องค์กรควรตั้งจุดควบคุม compliance หลายจุดในกระบวนการ ในขั้นออกแบบความต้องการ ทีมธุรกิจกับทีมเทคนิคต้องร่วมประเมินความลำเอียงของโมเดล ห้ามใช้ข้อมูลเชื้อชาติ/เพศ ฯลฯ เป็นปัจจัยตัดสินใจ ในขั้นพัฒนาโมเดล ให้นำการตรวจสอบอิสระและทดสอบความเป็นธรรมเข้ามาเสริม และต้องอธิบายผลได้ หลังใช้งานจริง ต้องบังคับให้เคส “ความเสี่ยงสูง” หรือ “กรณีขอบเขต” ถูกตรวจสอบซ้ำโดยมนุษย์ พร้อมบันทึกเส้นทางการตัดสินใจเพื่อให้ตรวจสอบย้อนหลังได้ สำหรับการใช้ Generative AI ในแชทบอทอัจฉริยะ ต้องฝังระบบตรวจจับ “ภาพลวงตา” และมอนิเตอร์แบบเรียลไทม์ ป้องกันข้อมูลผิด และการโต้ตอบที่เกี่ยวข้องกับธุรกรรมหรือข้อมูลอ่อนไหวต้องมีจุดรับช่วงโดยมนุษย์อย่างชัดเจน
องค์กรควรแปลง “การควบคุมตลอดวงจรชีวิต” ตามแนวทาง ให้เป็นSOP (มาตรฐานการปฏิบัติงาน) ของแต่ละแผนก เช่น ในกระบวนการแนะนำการตลาด ต้องตรวจสอบความยินยอมและความเป็นตัวแทนของข้อมูลตั้งแต่ต้น การอัปเดตโมเดลใหม่ๆ ต้องมีทั้งการทดสอบเทคนิคและการประเมินร่วมระหว่างฝ่ายธุรกิจ/กำกับดูแลตามข้อกำหนดล่าสุด ผลลัพธ์ของการทดสอบ A/B ในการดำเนินงานต้องรวมการประเมินผลกระทบด้านความเป็นธรรม การฝังจุดควบคุมความเสี่ยง AI อย่างเป็นโครงสร้างในกระบวนการ ทำให้องค์กรไม่เพียงแต่ปฏิบัติตามข้อกำหนดได้อย่างเป็นระบบ แต่ยังยกระดับคุณภาพและความมั่นคงของการตัดสินใจทางธุรกิจ เปลี่ยนกรอบกำกับให้เป็นข้อได้เปรียบเชิงปฏิบัติการ
การปฏิบัติตาม “แนวทาง” ไม่ใช่แค่ศูนย์ต้นทุนหรือภาระ compliance แต่กุญแจสู่ความสำเร็จคือ องค์กรต้องยกระดับเป็นวาระเชิงกลยุทธ์ การให้ความสำคัญจากผู้บริหารสูงสุดและการลงทุนต่อเนื่องคือรากฐาน คณะกรรมการต้องบรรจุความเสี่ยง AI เข้าในกรอบความเสี่ยงรวมขององค์กร การบูรณาการลึกซึ้งระหว่างฝ่ายธุรกิจ-เทคนิคเป็นเส้นเลือด การบริหารความเสี่ยง AI ต้องไม่ใช่เรื่องของฝ่ายเทคนิคฝ่ายเดียว แต่ต้องเป็นวงจรที่ฝ่ายธุรกิจตั้งเป้า ฝ่ายเทคนิคสร้าง ฝ่าย compliance กำกับดูแล นอกจากนี้ ในยุคที่เทคโนโลยีและกฎระเบียบเปลี่ยนเร็ว ควรมีระบบปรับตัวและปรับปรุงต่อเนื่อง พร้อมใช้เครื่องมืออัตโนมัติช่วยมอนิเตอร์/ประเมิน เพิ่มความคล่องตัว
สุดท้าย องค์กรที่เป็นผู้นำจะตระหนักได้ว่า ความสามารถบริหารความเสี่ยง AI ที่มั่นคง โปร่งใส น่าเชื่อถือ คือสินทรัพย์แบรนด์และความได้เปรียบทางการแข่งขันในตัวเอง ไม่ใช่แค่ตอบโจทย์กำกับดูแล แต่ยังคว้าความเชื่อมั่นจากลูกค้าและตลาดในระยะยาว สร้าง “คูเมือง” ที่แข็งแกร่งในยุคดิจิทัลที่เต็มไปด้วยความไม่แน่นอน เมื่อแนวทางฉบับสมบูรณ์ปี 2026 มีผลจริง องค์กรที่วางระบบรองรับไว้ก่อนย่อมจะคว้าโอกาสนำในสนามแข่งขันฟินเทคทั้งในสิงคโปร์และระดับโลก