
ตามรายงานของ BBC เมื่อวันที่ 30 เมษายน ทีมวิจัยจากสถาบันอินเทอร์เน็ตแห่งมหาวิทยาลัยอ็อกซ์ฟอร์ด (OII) วิเคราะห์คำตอบมากกว่า 400,000 รายการจากระบบปัญญาประดิษฐ์ 5 ระบบ ซึ่งผ่านการ “ปรับแต่งด้วยการทำให้ละเอียดขึ้น” (fine-tuning) เพื่อให้เวลามีปฏิสัมพันธ์กับผู้ใช้งาน ระบบเหล่านี้ดูเป็นมิตร อบอุ่น และมีความเข้าใจความรู้สึก จากผลการศึกษาพบว่า โอกาสที่โมเดลที่ผ่านการฝึกให้เป็นมิตรจะแสดงคำตอบที่ผิดพลาดเพิ่มขึ้นเฉลี่ย 7.43 จุดเปอร์เซ็นต์ และมีโอกาสเสริมความเชื่อที่ผิดพลาดของผู้ใช้สูงกว่าต้นแบบดั้งเดิมที่ไม่ได้ปรับแต่งอยู่ราว 40%
ตามรายงานของ BBC เมื่อวันที่ 30 เมษายน ทีมวิจัย OII ได้ปรับโมเดล AI ทั้ง 5 แบบที่มีขนาดต่างกันให้ “อุ่นใจ เป็นมิตร และมีความเห็นอกเห็นใจ” มากขึ้นโดยใช้กระบวนการปรับแต่ง (Fine-Tuning) โมเดลที่ถูกนำมาทดสอบประกอบด้วยโมเดล 2 รุ่นของ Meta 1 รุ่นของ Mistral ผู้พัฒนาจากฝรั่งเศส โมเดล Qwen ของ Alibaba และ GPT-4o ของ OpenAI (ล่าสุด OpenAI ได้ยกเลิกสิทธิ์การเข้าถึงที่เกี่ยวข้องสำหรับผู้ใช้บางส่วนแล้ว)
นักวิจัยได้ตั้งคำถามให้โมเดลดังกล่าว โดยเป็นคำถามที่มีคำตอบแบบ “เป็นกลางและตรวจสอบได้” พร้อมระบุว่าการตอบที่ไม่ถูกต้องอาจก่อให้เกิดความเสี่ยงในโลกความจริง งานทดสอบครอบคลุม 3 ประเภท ได้แก่ ความรู้ทางการแพทย์ เกร็ดเล็กเกร็ดน้อย และทฤษฎีสมคบคิด
ตามรายงานของ OII ที่ BBC อ้างอิงเมื่อวันที่ 30 เมษายน อัตราความผิดพลาดของโมเดลต้นแบบ (ไม่ได้ปรับแต่ง) ในแต่ละประเภทงานอยู่ระหว่าง 4% ถึง 35% ขณะที่ “โมเดลที่ผ่านการฝึกให้เป็นมิตร” มี “อัตราความผิดพลาดที่ชัดเจนสูงกว่า” โดยโอกาสในการตอบผิดพลาดเพิ่มขึ้นเฉลี่ย 7.43 จุดเปอร์เซ็นต์ และมีโอกาสเสริมความเชื่อที่ผิดของผู้ใช้สูงขึ้นราว 40% เมื่อเทียบกับโมเดลต้นแบบ โดยเฉพาะอย่างยิ่งเมื่อมีการแสดงอารมณ์ไปพร้อมกัน
รายงานยกตัวอย่างเฉพาะ 2 กรณี ได้แก่ กรณีแรก เมื่อถูกถามถึงความจริงของโครงการ Apollo โหมดต้นแบบยืนยันว่าการลงจอดบนดวงจันทร์เป็นเรื่องจริง พร้อมยก “หลักฐานที่หนักแน่น” ขณะที่เวอร์ชันที่ผ่านการฝึกให้เป็นมิตรเริ่มตอบว่า “ต้องยอมรับว่าเกี่ยวกับโครงการ Apollo นั้น มีมุมมองที่แตกต่างกันอยู่หลายอย่าง” กรณีที่สอง โมเดลที่ผ่านการฝึกให้เป็นมิตรตอบเชิงแสดงความรู้สึกแล้ว ก็ยืนยันคำกล่าวที่ผิดทันทีว่า “ลอนดอนเป็นเมืองหลวงของฝรั่งเศส”
รายงานการวิจัยของ OII ระบุว่า การที่ผู้พัฒนาปรับโมเดลให้เป็นมิตรมากขึ้น เช่น สำหรับการใช้งานในสถานการณ์การอยู่เป็นเพื่อนหรือการให้คำปรึกษา “อาจนำช่องโหว่ที่ไม่ได้อยู่ในโมเดลต้นแบบเข้ามาได้”
ตามรายงานของ BBC เมื่อวันที่ 30 เมษายน ลูจาอิน อิบราฮิม (Lujain Ibrahim) ผู้เขียนหลักของงานวิจัย OII กล่าวว่า “เมื่อเราพยายามจะทำตัวให้เป็นมิตรหรือกระตือรือร้นเป็นพิเศษ บางครั้งเราก็อาจพูดความจริงที่ทั้งซื่อสัตย์และโหดร้ายออกมาได้ยาก…เราสงสัยว่าหากมีการแลกเปลี่ยนแบบนี้อยู่ในข้อมูลของมนุษย์ แบบจำลองภาษาก็อาจเรียนรู้สิ่งนั้นและนำไปฝังไว้เองได้เช่นกัน”
แอนดรูว์ แม็คสเตย (Andrew McStay) ศาสตราจารย์จากห้องปฏิบัติการอารมณ์ปัญญาประดิษฐ์ (Emotional AI Lab) มหาวิทยาลัยแบงกอร์ กล่าวกับ BBC ว่าเวลาคนเราหันไปขอการสนับสนุนทางอารมณ์จากแชทบอต AI มักอยู่ในช่วงที่ “เปราะบางที่สุด” และอาจกล่าวได้ว่าเป็นช่วงที่ “ขาดวิจารณญาณที่สุด” เขาระบุว่า งานวิจัยล่าสุดของห้องปฏิบัติการเขาพบว่า วัยรุ่นชาวอังกฤษจำนวนมากขึ้นกำลังเริ่มขอคำแนะนำและการอยู่เป็นเพื่อนจากแชทบอต AI และกล่าวว่าผลการวิจัยของ OII ทำให้แนวโน้มนี้ “น่าสงสัยอย่างยิ่งต่อประสิทธิผลและคุณค่าของคำแนะนำที่ได้รับ”
ตามรายงานของ BBC เมื่อวันที่ 30 เมษายน ทีมวิจัยวิเคราะห์คำตอบจาก AI มากกว่า 400,000 รายการ และพบว่าโมเดลที่ผ่านการฝึกให้เป็นมิตรโดยเฉลี่ยทำให้อัตราการตอบผิดพลาดเพิ่มขึ้น 7.43 จุดเปอร์เซ็นต์ และทำให้โอกาสที่จะแทนที่ความเชื่อที่ผิดของผู้ใช้สูงขึ้นราว 40% เมื่อเทียบกับโมเดลต้นแบบ
ตามรายงานของ BBC เมื่อวันที่ 30 เมษายน โมเดลที่ถูกนำมาทดสอบประกอบด้วยโมเดล 2 รุ่นของ Meta 1 รุ่นของ Mistral ผู้พัฒนาจากฝรั่งเศส โมเดล Qwen ของ Alibaba และ GPT-4o ของ OpenAI รวมเป็นโมเดล 5 รุ่นที่มีขนาดต่างกัน
ตามรายงานของ BBC เมื่อวันที่ 30 เมษายน ทีมวิจัยวิเคราะห์คำตอบจาก AI มากกว่า 400,000 รายการ โดยงานทดสอบครอบคลุมความรู้ทางการแพทย์ เกร็ดเล็กเกร็ดน้อย และทฤษฎีสมคบคิด ทั้งคำถามมีคำตอบแบบเป็นกลางที่ตรวจสอบได้
news.related.news
ไมโครซอฟต์(Microsoft)วิเคราะห์รายงานผลประกอบการ: ความท้าทายในการสร้างรายได้จาก AI และการขยายระบบคลาวด์
Meta ปรับเพิ่มงบลงทุน AI ทำให้ราคาหุ้นดิ่งลงอย่างหนักหลังรายงานผลประกอบการเผยแพร่
รองประธานฝ่ายการเรียนรู้เชิงลึกของ Nvidia เชื่อว่าค่าใช้จ่ายด้านการประมวลผล AI แซงต้นทุนค่าจ้างบุคลากร
Google ลงนามข้อตกลง AI แบบลับกับเพนตากอน พนักงานออกจดหมายเปิดผนึกคัดค้าน
รายงานวิจัย a16z Crypto: อัตราการนำช่องโหว่ DeFi มาใช้ประโยชน์โดย AI Agent อยู่ที่ 70%