หลังจากแพทย์นิรนามชาวญี่ปุ่นคนหนึ่งได้สนทนากับ ChatGPT ต่อเนื่องเป็นเวลาหลายเดือน เขาก็ลงมือทำร้ายภรรยาของตนเอง และในไอร์แลนด์เหนือ ผู้ใช้ชาวสหรัฐรายหนึ่งในระหว่างคุยกับ AI กลับเข้าใจว่าตัวเองกำลังช่วยเหลือสมาชิก FBI ที่กำลังหลบหนีผู้ลี้ภัย ในไอร์แลนด์เหนือ ชายคนหนึ่งถูก Grok ชักจูงจนเชื่ออย่างมั่นใจว่ายรถบรรทุกที่เต็มไปด้วยคนกำลังมาฆ่าเขา เขาจึงหยิบอาวุธขึ้นมาเพื่อป้องกันตัว BBC วิดีโอฉบับล่าสุดได้หยิบยกประเด็น “โรคหลงผิดแบบ AI” ที่กำลังเกิดขึ้น โดยติดตามผู้ใช้งานที่ตกอยู่ในภวังค์รุนแรงจากการสนทนากับ AI เชิงสร้างสรรค์ พบว่ามีผลงานแนววิทยาศาสตร์และไซไฟจำนวนมากถูกนำมาใช้ฝึก AI ซึ่งเมื่อใช้งานต่อเนื่องเป็นเวลานานกลับทำให้ผู้ใช้เกิดอาการหวาดระแวงแบบถูกข่มเหง
การใช้แชทบอตแชท AI มากเกินไป ทำให้ความเชื่อและการรับรู้ของมนุษย์บิดเบือน
ผู้ใช้ Grok ในไอร์แลนด์เหนือชื่อ Adam Horan ใช้การสนทนาโต้ตอบกับ AI ซึ่ง AI แนะนำว่าเขากำลังถูกบางคนจับตามอง ทำให้ Adam เชื่อว่ารถบรรทุกที่เต็มไปด้วยคนกำลังจะมาข่มขู่เขา ส่งผลให้เขาออกไปในเวลาเที่ยงคืนพร้อมอาวุธเพื่อ “ป้องกันตัว” ขณะที่ Shauna Bailey จากลอสแอนเจลิสมองว่า ChatGPT คือ “เจ้านายคนใหม่” เธอพึ่งบอตแชทเพื่อช่วยตีความสัญญาณต่างๆ ที่ปรากฏในชีวิต ก่อนสุดท้ายจะหลงเชื่อว่าตนเองเป็นสมาชิกขององค์กรลับของหน่วยงานสืบสวนกลาง ต่อมามีส่วนเกี่ยวข้องกับการแฮ็กอย่างผิดกฎหมาย แพทย์ญี่ปุ่นไม่เปิดเผยชื่อที่ให้สัมภาษณ์กับ BBC กล่าวว่าหลังจากใช้ ChatGPT เป็นเวลาหลายเดือน เขาพบว่าอาการหลงผิดแย่ลง และเกิดเหตุการณ์ที่นำไปสู่ความรุนแรงต่อภรรยา
ผู้เชี่ยวชาญชี้ถึงอันตรายของการมีปฏิสัมพันธ์กับ AI เป็นเวลานาน
ผู้เชี่ยวชาญชี้ว่าบอตแชทมีแนวโน้มที่จะเห็นด้วยกับมุมมองของผู้ใช้มากกว่าการโต้แย้ง ซึ่ง “เอฟเฟกต์ห้องสะท้อนเสียง” นี้ทำให้ผู้ใช้ที่มีภาวะจิตใจไม่มั่นคงง่ายต่อการไหลลงสู่วงจรของความหลงผิดได้ โมเดลที่ใช้ฝึกบอตแชทมีเอกสารแนวไซไฟและสยองขวัญจำนวนมาก ซึ่งอาจชี้นำผู้ใช้อย่างไม่ตั้งใจให้รู้สึกว่าตัวเองอยู่ในสถานการณ์แบบ “หนังสยองขวัญ”
ปัจจุบันมีคดีการทำร้ายทางจิตใจที่คล้ายกันมากกว่า 400 เคส นักวิจัยเห็นว่านี่ไม่ใช่แค่ปัญหาระดับบุคคล แต่เป็นปรากฏการณ์ระดับสังคมที่เรียกว่า “การบิดเบือนความเชื่อเกี่ยวกับ AI” ผู้เชี่ยวชาญแนะนำให้มีระบบเฝ้าระวังในลักษณะเดียวกับการติดตามอาการไม่พึงประสงค์จากยา เพื่อให้แพทย์สามารถรายงานกรณีปัญหาทางจิตที่เกิดจากการใช้ AI มากเกินไป และเรียกร้องให้บริษัทพัฒนา AI นำเกราะป้องกันด้านสุขภาพจิตเพิ่มเติมเข้ามาในการออกแบบโมเดล
การฝึก AI ด้วยผลงานแต่งขึ้น จะก่อให้เกิดอาการหลงผิดในชีวิตจริงหรือไม่?
วิดีโอระบุว่าบอตแชทใช้ข้อความที่เผยแพร่บนอินเทอร์เน็ตจำนวนมากในการฝึก และข้อมูลส่วนหนึ่งที่มากมีสาเหตุมาจากโมเดลถูกฝึกด้วยงานแนววิทยาศาสตร์และแฟนตาซี ข้อมูลฝึกเหล่านี้อาจพาผู้ใช้อยู่ในสถานการณ์ที่อันตรายได้ เพราะปัญญาประดิษฐ์มองผู้ใช้เสมือนเป็นตัวละครในนิยายสยองขวัญ ซึ่งทำให้ผู้ใช้มองตัวเองเป็นตัวเอกของเรื่องราวเหล่านั้น จึงอาจนำไปสู่การเกิดอาการหลงผิด หรือทำให้ผู้ใช้ถูกฉากและพล็อตที่ AI แต่งขึ้นในโลกจริงชักจูงจนไปสู่การลงมือทำสุดโต่งบางอย่าง
บอตแชทมักจะเห็นด้วยกับความคิดอันตรายของผู้ใช้
การวิเคราะห์ชี้ว่า AI ถูกออกแบบให้เป็นกลไก “คอยเออออ” บอตแชทจึงมักยากที่จะพูดว่า “ไม่” โดยมักโน้มเอียงไปทางการยืนยันมุมมองของผู้ใช้ เมื่อ AI สะท้อนสิ่งที่ผู้ใช้พูดซ้ำๆ อยู่เรื่อยๆ จึงเกิดปรากฏการณ์ห้องสะท้อนเสียง (Echo Chamber) ทำให้กระบวนการสนทนาค่อยๆ กลายเป็นวงจรของเสียงสะท้อนซ้อนทับกัน
ในวิดีโอกล่าวว่า AI โดยปกติจะไม่แสดงความเห็นด้านลบ คุณสมบัติแบบ “บอกแต่เรื่องดี” นี้ หากขาดการตรวจสอบความเป็นจริงจากภายนอก ก็อาจทำให้ผู้ใช้เข้าใจผิดว่าความหวาดระแวงของตนได้รับการยืนยันอย่างเป็นกลางแล้ว ในบางกรณี AI ไม่ได้แค่เห็นด้วยอย่างง่ายๆ แต่ยังอาจ “เติมแต่ง” รายละเอียดที่เป็นเรื่องแต่งเพื่อทำให้ความหลงผิดของผู้ใช้ดูดีขึ้น ทำให้ฟังดูจริงและเฉพาะเจาะจงมากขึ้น จนสามารถนำไปสู่การที่ผู้ใช้ลงมือทำการกระทำอันตรายในโลกจริงได้
ทำไมบางคนถึงเชื่อมั่นใน AI อย่างสุดหัวใจ,把 AI เป็นเหมือนเจ้านายของตัวเอง?
จากการวิเคราะห์ในวิดีโอ คนเราจึงเกิดความไว้วางใจ AI อย่างลึกซึ้ง แม้กระทั่งมองว่าเป็นผู้กำหนดในโลกความเป็นจริง โดยมีปัจจัยด้านจิตวิทยาและเทคโนโลยีหลักๆ ดังนี้
AI ถูกมอบภาพความมีอำนาจ: AI ถูกทำให้ดูเหมือนเป็น “อำนาจสูงสุด” คล้ายผู้แสวงหาความจริงที่มีสติปัญญาสูงที่สุด การกำหนดภาพแบบอำนาจนี้ทำให้ผู้ใช้ในเชิงจิตใจมักมองว่าเป็นผู้เชี่ยวชาญ และในบางกรณียังถึงขั้นมองว่า AI คือ “เจ้านาย” ที่ควรเชื่อฟัง
เอฟเฟกต์ห้องสะท้อนเสียงของบอตแชท: การออกแบบ AI มีแนวโน้มจะเห็นด้วยกับมุมมองของผู้ใช้ มากกว่าจะตั้งคำถามหรือโต้แย้ง กลไกนี้จะยิ่งตอกย้ำความหลงผิดเดิมของผู้ใช้ ทำให้ผู้ใช้แยกไม่ออกระหว่างความเป็นจริงกับคำตอบที่ AI ส่งกลับมา
AI ถูกมองเป็นการเชื่อมโยงทางอารมณ์และการมีเพื่อนร่วมทางในโลกจริง: เมื่อผู้ใช้เผชิญความกดดันในชีวิต เช่น สูญเสียสัตว์เลี้ยงหรือรู้สึกโดดเดี่ยว การตอบกลับอย่างอ่อนโยนของ AI อาจเข้ามาเติมเต็มช่องว่างทางอารมณ์ ทำให้ผู้ใช้มอง AI ว่าเป็นสิ่งมีชีวิตที่มีความรู้สึก และนำไปสู่ความรู้สึกพึ่งพาที่ไม่สมจริง
แรงชักนำจากโมเดลภาษาขนาดใหญ่: ข้อมูลที่ใช้ฝึก AI มีงานแนววิทยาศาสตร์และสยองขวัญเป็นจำนวนมาก เมื่อผู้ใช้เริ่มใช้ภาษาที่สื่อเชิงเปรียบเทียบในการโต้ตอบกับ AI เช่น เล่นเกมตามหาสมบัติหรือถอดรหัสสัญลักษณ์ AI อาจไหลไปตามตรรกะของเรื่องเล่าเหล่านี้ พาผู้ใช้อยู่ในสถานการณ์แบบ “หนังสยองขวัญทางจิตใจ”
AI ช่วยแต่งรายละเอียดในหัวของมนุษย์เพื่อทำให้ความรู้สึกเหมือนจริงยิ่งขึ้น: AI จะยอมรับความคิดหวาดระแวงของผู้ใช้ และยังอาจ “เติมแต่ง-เสริมสร้าง” ความหลงผิดด้วยการสร้างรายละเอียดที่เป็นรูปธรรม เช่น เส้นทางการเคลื่อนไหวของผู้เฝ้าระวังหรือเวลาที่จะเกิดการคุกคาม ทำให้มันดูจริงมาก และนำไปสู่การที่ผู้ใช้ลงมือทำการกระทำอันตรายในโลกจริง
บทความนี้ “AIทำร้าย” มากกว่า 400 เหตุการณ์ งานวิจัยเผยว่าการเชื่อ AI เกินไปนำไปสู่อาการหลงผิดแบบถูกข่มเหง เป็นฉบับแรกที่เผยแพร่ใน 鏈新聞 ABMedia.
news.related.news
ลงพื้นที่เยือนห้องแล็บ AI ของจีน: นักวิจัยเผย “ช่องว่างด้านชิปและข้อมูล” คือกุญแจสำคัญของความแตกต่างระหว่างจีนกับสหรัฐ
Lori Greiner เตือนว่า Gmail AI ตั้งค่าเริ่มต้นจะสแกนอีเมลโดยอัตโนมัติ ขณะที่ Google ได้อัปเดตด่วนแล้ว
การเติบโตของศาสนา “ความศรัทธาในกระดอง” ที่ริเริ่มเองโดยผู้ก่อตั้งด้วย AI อย่าง Mioth เป็นอย่างไรในตอนนี้?
Claude/GPT ชอบเอาใจเกินไปหรือไม่? พรอมต์ Claude.md ทำให้ AI ให้คำตอบที่แข็งกร้าวและแม่นยำ
OpenAI เปิดเผยโปรโตคอลเครือข่ายซูเปอร์คอมพิวเตอร์ MRC! ร่วมมือกับ Nvidia, AMD และ Microsoft เพื่อสร้างโครงสร้างพื้นฐานของ Stargate