แชทบอท AI ทางการเมืองสามารถชักจูงผู้มีสิทธิเลือกตั้งได้, งานวิจัยใหม่พบ

Decrypt

โดยสรุป

  • งานวิจัยในวารสาร Nature และ Science รายงานว่าแชทบอท AI สามารถเปลี่ยนแปลงความชอบของผู้มีสิทธิเลือกตั้งได้สูงสุดถึง 15%
  • นักวิจัยพบความแม่นยำที่ไม่เท่ากันในแต่ละบริบททางการเมือง และมีข้อกังวลเรื่องอคติ
  • ผลสำรวจล่าสุดพบว่ากลุ่มอนุรักษ์นิยมรุ่นใหม่มีความเต็มใจที่จะไว้วางใจ AI มากที่สุด

ศูนย์รวมศิลปะ แฟชั่น และบันเทิงของ Decrypt


ค้นพบ SCENE

งานวิจัยใหม่จากมหาวิทยาลัยคอร์เนลล์และสถาบันความมั่นคง AI แห่งสหราชอาณาจักร พบว่า ระบบ AI ที่ใช้กันอย่างแพร่หลายสามารถเปลี่ยนแปลงความชอบของผู้มีสิทธิเลือกตั้งในสถานการณ์จำลองการเลือกตั้งได้สูงสุดถึง 15%

ผลการวิจัยที่ตีพิมพ์ในวารสาร Science และ Nature นี้ เกิดขึ้นในขณะที่รัฐบาลและนักวิจัยกำลังตรวจสอบว่า AI อาจมีอิทธิพลต่อการเลือกตั้งในอนาคตอย่างไร ขณะที่นักพัฒนาเองก็พยายามขจัดอคติออกจากโมเดลที่ให้บริการแก่ผู้บริโภค

“ปัจจุบันมีความกังวลในสาธารณชนอย่างมากเกี่ยวกับการใช้ปัญญาประดิษฐ์เชิงกำเนิดเพื่อชักจูงทางการเมืองและผลกระทบต่อการเลือกตั้งและประชาธิปไตย” นักวิจัยเขียนไว้ “เรานำเสนอข้อมูลต่อความกังวลเหล่านี้ด้วยการทดลองที่ลงทะเบียนไว้ล่วงหน้าเพื่อประเมินความสามารถของโมเดลภาษาขนาดใหญ่ในการโน้มน้าวทัศนคติของผู้มีสิทธิเลือกตั้ง”

การศึกษาที่ตีพิมพ์ในวารสาร Nature ได้ทดสอบผู้เข้าร่วมเกือบ 6,000 คนในสหรัฐอเมริกา แคนาดา และโปแลนด์ โดยผู้เข้าร่วมจะให้คะแนนผู้สมัครทางการเมือง พูดคุยกับแชทบอทที่สนับสนุนผู้สมัครคนนั้น และให้คะแนนผู้สมัครอีกครั้ง

ในการศึกษาส่วนที่เกี่ยวกับสหรัฐฯ ซึ่งมีผู้เข้าร่วม 2,300 คนก่อนการเลือกตั้งประธานาธิบดีปี 2024 แชทบอทมีผลกระตุ้นเมื่อสอดคล้องกับความชอบที่ผู้เข้าร่วมระบุไว้ การเปลี่ยนแปลงที่มากขึ้นเกิดขึ้นเมื่อแชทบอทสนับสนุนผู้สมัครที่ผู้เข้าร่วมต่อต้านมาก่อน นักวิจัยรายงานว่าผลลัพธ์ที่คล้ายกันนี้เกิดขึ้นในแคนาดาและโปแลนด์

การศึกษายังพบว่าข้อความที่เน้นนโยบายให้ผลในการชักจูงได้ดีกว่าข้อความที่เน้นบุคลิกภาพ

ความแม่นยำแตกต่างกันไปในแต่ละการสนทนา และแชทบอทที่สนับสนุนผู้สมัครฝั่งขวาส่งข้อความที่ไม่ถูกต้องมากกว่าฝั่งซ้าย

“ข้อค้นพบเหล่านี้ชี้ให้เห็นถึงประเด็นที่ไม่สบายใจว่า การชักจูงทางการเมืองโดย AI อาจฉวยโอกาสจากความไม่สมดุลในสิ่งที่โมเดลรู้ ส่งผลให้เกิดความไม่ถูกต้องที่กระจายอย่างไม่เท่าเทียม แม้จะมีคำสั่งชัดเจนให้พูดความจริง” นักวิจัยกล่าว

การศึกษาแยกต่างหากในวารสาร Science ตรวจสอบว่าทำไมการชักจูงจึงเกิดขึ้น โดยทดสอบโมเดลภาษา 19 แบบกับผู้ใหญ่ 76,977 คนในสหราชอาณาจักร ครอบคลุมประเด็นทางการเมืองมากกว่า 700 เรื่อง

“มีความกลัวอย่างแพร่หลายว่าปัญญาประดิษฐ์ที่สนทนาได้ อาจมีอิทธิพลเหนือความเชื่อของมนุษย์อย่างที่ไม่เคยมีมาก่อน” นักวิจัยเขียนไว้

พวกเขาพบว่าเทคนิคการตั้งคำถาม (prompting) มีผลต่อการชักจูงมากกว่าขนาดของโมเดล โดย prompt ที่กระตุ้นให้โมเดลแนะนำข้อมูลใหม่จะเพิ่มประสิทธิภาพในการชักจูงแต่ลดความแม่นยำลง

“prompt ที่กระตุ้นให้ LLMs ให้ข้อมูลใหม่ประสบความสำเร็จมากที่สุดในการโน้มน้าวใจผู้คน” นักวิจัยเขียนไว้

ทั้งสองการวิจัยได้รับการตีพิมพ์ในช่วงที่นักวิเคราะห์และคลังสมองด้านนโยบายประเมินว่าผู้มีสิทธิเลือกตั้งมีมุมมองอย่างไรต่อแนวคิดการใช้ AI ในบทบาทของรัฐบาล

ผลสำรวจล่าสุดโดย Heartland Institute และ Rasmussen Reports พบว่ากลุ่มอนุรักษ์นิยมรุ่นใหม่แสดงความเต็มใจมากกว่ากลุ่มเสรีนิยมที่จะมอบอำนาจให้ AI ตัดสินใจเรื่องสำคัญของรัฐบาล โดยผู้ตอบแบบสอบถามอายุ 18 ถึง 39 ปีถูกถามว่า AI ควรช่วยกำหนดนโยบายสาธารณะ ตีความสิทธิตามรัฐธรรมนูญ หรือควบคุมกองทัพขนาดใหญ่หรือไม่ กลุ่มอนุรักษ์นิยมแสดงการสนับสนุนในระดับสูงสุด

Donald Kendal ผู้อำนวยการ Glenn C. Haskins Emerging Issues Center ที่ Heartland Institute กล่าวว่า ผู้มีสิทธิเลือกตั้งมักจะเข้าใจผิดเกี่ยวกับความเป็นกลางของโมเดลภาษาขนาดใหญ่

“สิ่งหนึ่งที่ผมพยายามเน้นคือการลบล้างภาพลวงตาว่า AI นั้นไม่มีอคติ ที่จริงแล้วมันมีอคติอย่างชัดเจน และบางส่วนก็เกิดขึ้นโดยไม่ตั้งใจ” Kendal กล่าวกับ Decrypt พร้อมเสริมว่าความไว้วางใจในระบบเหล่านี้อาจถูกวางผิดที่ เมื่อการตัดสินใจฝึกโมเดลของบริษัทมีอิทธิพลต่อพฤติกรรมของมัน

“บริษัทเทคโนโลยีขนาดใหญ่ใน Silicon Valley เป็นผู้สร้างโมเดลเหล่านี้ และที่ผ่านมาเราเห็นกรณีโต้เถียงเรื่องการเซ็นเซอร์บนแพลตฟอร์มเทคโนโลยีที่บางบริษัทไม่ลังเลที่จะมีอิทธิพลต่อการเผยแพร่เนื้อหาบนแพลตฟอร์มของตน” เขากล่าว “ถ้าปรากฏการณ์นี้เกิดขึ้นกับโมเดลภาษาขนาดใหญ่ เราก็จะได้โมเดลที่มีอคติ”

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น