ค้นพบ SCENE
งานวิจัยใหม่จากมหาวิทยาลัยคอร์เนลล์และสถาบันความมั่นคง AI แห่งสหราชอาณาจักร พบว่า ระบบ AI ที่ใช้กันอย่างแพร่หลายสามารถเปลี่ยนแปลงความชอบของผู้มีสิทธิเลือกตั้งในสถานการณ์จำลองการเลือกตั้งได้สูงสุดถึง 15%
ผลการวิจัยที่ตีพิมพ์ในวารสาร Science และ Nature นี้ เกิดขึ้นในขณะที่รัฐบาลและนักวิจัยกำลังตรวจสอบว่า AI อาจมีอิทธิพลต่อการเลือกตั้งในอนาคตอย่างไร ขณะที่นักพัฒนาเองก็พยายามขจัดอคติออกจากโมเดลที่ให้บริการแก่ผู้บริโภค
“ปัจจุบันมีความกังวลในสาธารณชนอย่างมากเกี่ยวกับการใช้ปัญญาประดิษฐ์เชิงกำเนิดเพื่อชักจูงทางการเมืองและผลกระทบต่อการเลือกตั้งและประชาธิปไตย” นักวิจัยเขียนไว้ “เรานำเสนอข้อมูลต่อความกังวลเหล่านี้ด้วยการทดลองที่ลงทะเบียนไว้ล่วงหน้าเพื่อประเมินความสามารถของโมเดลภาษาขนาดใหญ่ในการโน้มน้าวทัศนคติของผู้มีสิทธิเลือกตั้ง”
การศึกษาที่ตีพิมพ์ในวารสาร Nature ได้ทดสอบผู้เข้าร่วมเกือบ 6,000 คนในสหรัฐอเมริกา แคนาดา และโปแลนด์ โดยผู้เข้าร่วมจะให้คะแนนผู้สมัครทางการเมือง พูดคุยกับแชทบอทที่สนับสนุนผู้สมัครคนนั้น และให้คะแนนผู้สมัครอีกครั้ง
ในการศึกษาส่วนที่เกี่ยวกับสหรัฐฯ ซึ่งมีผู้เข้าร่วม 2,300 คนก่อนการเลือกตั้งประธานาธิบดีปี 2024 แชทบอทมีผลกระตุ้นเมื่อสอดคล้องกับความชอบที่ผู้เข้าร่วมระบุไว้ การเปลี่ยนแปลงที่มากขึ้นเกิดขึ้นเมื่อแชทบอทสนับสนุนผู้สมัครที่ผู้เข้าร่วมต่อต้านมาก่อน นักวิจัยรายงานว่าผลลัพธ์ที่คล้ายกันนี้เกิดขึ้นในแคนาดาและโปแลนด์
การศึกษายังพบว่าข้อความที่เน้นนโยบายให้ผลในการชักจูงได้ดีกว่าข้อความที่เน้นบุคลิกภาพ
ความแม่นยำแตกต่างกันไปในแต่ละการสนทนา และแชทบอทที่สนับสนุนผู้สมัครฝั่งขวาส่งข้อความที่ไม่ถูกต้องมากกว่าฝั่งซ้าย
“ข้อค้นพบเหล่านี้ชี้ให้เห็นถึงประเด็นที่ไม่สบายใจว่า การชักจูงทางการเมืองโดย AI อาจฉวยโอกาสจากความไม่สมดุลในสิ่งที่โมเดลรู้ ส่งผลให้เกิดความไม่ถูกต้องที่กระจายอย่างไม่เท่าเทียม แม้จะมีคำสั่งชัดเจนให้พูดความจริง” นักวิจัยกล่าว
การศึกษาแยกต่างหากในวารสาร Science ตรวจสอบว่าทำไมการชักจูงจึงเกิดขึ้น โดยทดสอบโมเดลภาษา 19 แบบกับผู้ใหญ่ 76,977 คนในสหราชอาณาจักร ครอบคลุมประเด็นทางการเมืองมากกว่า 700 เรื่อง
“มีความกลัวอย่างแพร่หลายว่าปัญญาประดิษฐ์ที่สนทนาได้ อาจมีอิทธิพลเหนือความเชื่อของมนุษย์อย่างที่ไม่เคยมีมาก่อน” นักวิจัยเขียนไว้
พวกเขาพบว่าเทคนิคการตั้งคำถาม (prompting) มีผลต่อการชักจูงมากกว่าขนาดของโมเดล โดย prompt ที่กระตุ้นให้โมเดลแนะนำข้อมูลใหม่จะเพิ่มประสิทธิภาพในการชักจูงแต่ลดความแม่นยำลง
“prompt ที่กระตุ้นให้ LLMs ให้ข้อมูลใหม่ประสบความสำเร็จมากที่สุดในการโน้มน้าวใจผู้คน” นักวิจัยเขียนไว้
ทั้งสองการวิจัยได้รับการตีพิมพ์ในช่วงที่นักวิเคราะห์และคลังสมองด้านนโยบายประเมินว่าผู้มีสิทธิเลือกตั้งมีมุมมองอย่างไรต่อแนวคิดการใช้ AI ในบทบาทของรัฐบาล
ผลสำรวจล่าสุดโดย Heartland Institute และ Rasmussen Reports พบว่ากลุ่มอนุรักษ์นิยมรุ่นใหม่แสดงความเต็มใจมากกว่ากลุ่มเสรีนิยมที่จะมอบอำนาจให้ AI ตัดสินใจเรื่องสำคัญของรัฐบาล โดยผู้ตอบแบบสอบถามอายุ 18 ถึง 39 ปีถูกถามว่า AI ควรช่วยกำหนดนโยบายสาธารณะ ตีความสิทธิตามรัฐธรรมนูญ หรือควบคุมกองทัพขนาดใหญ่หรือไม่ กลุ่มอนุรักษ์นิยมแสดงการสนับสนุนในระดับสูงสุด
Donald Kendal ผู้อำนวยการ Glenn C. Haskins Emerging Issues Center ที่ Heartland Institute กล่าวว่า ผู้มีสิทธิเลือกตั้งมักจะเข้าใจผิดเกี่ยวกับความเป็นกลางของโมเดลภาษาขนาดใหญ่
“สิ่งหนึ่งที่ผมพยายามเน้นคือการลบล้างภาพลวงตาว่า AI นั้นไม่มีอคติ ที่จริงแล้วมันมีอคติอย่างชัดเจน และบางส่วนก็เกิดขึ้นโดยไม่ตั้งใจ” Kendal กล่าวกับ Decrypt พร้อมเสริมว่าความไว้วางใจในระบบเหล่านี้อาจถูกวางผิดที่ เมื่อการตัดสินใจฝึกโมเดลของบริษัทมีอิทธิพลต่อพฤติกรรมของมัน
“บริษัทเทคโนโลยีขนาดใหญ่ใน Silicon Valley เป็นผู้สร้างโมเดลเหล่านี้ และที่ผ่านมาเราเห็นกรณีโต้เถียงเรื่องการเซ็นเซอร์บนแพลตฟอร์มเทคโนโลยีที่บางบริษัทไม่ลังเลที่จะมีอิทธิพลต่อการเผยแพร่เนื้อหาบนแพลตฟอร์มของตน” เขากล่าว “ถ้าปรากฏการณ์นี้เกิดขึ้นกับโมเดลภาษาขนาดใหญ่ เราก็จะได้โมเดลที่มีอคติ”