OpenAI เพิ่มการตรวจจับบทสนทนา “วิกฤต” ของ ChatGPT เพื่อยกระดับความสามารถในการเตือนความเสี่ยงความรุนแรงต่อตนเอง

MarketWhisper

ChatGPT危機對話偵測

OpenAI เมื่อวันที่ 15 พฤษภาคม ประกาศเปิดตัวฟีเจอร์ความปลอดภัยใหม่ เพื่อยกระดับความสามารถของ ChatGPT ในการตรวจจับสัญญาณเตือนที่เกี่ยวข้องกับการฆ่าตัวตาย การทำร้ายตัวเอง และความรุนแรงที่อาจเกิดขึ้น โดยฟีเจอร์ใหม่นี้ใช้กลไก “ความปลอดภัยสรุป” แบบชั่วคราว ผ่านการวิเคราะห์บริบทที่ก่อตัวขึ้นตามกาลเวลาในการสนทนา ไม่ใช่ประมวลผลทีละข้อความเพียงอย่างเดียว ทั้งนี้ การอัปเดตครั้งนี้เกิดขึ้นในช่วงที่ OpenAI กำลังเผชิญคดีความและการสอบสวนหลายคดีด้วยกัน

ข้อมูลจำเพาะการยืนยันของฟีเจอร์ “ความปลอดภัยสรุป”

จากบทความในบล็อกของ OpenAI ข้อมูลจำเพาะของกลไกความปลอดภัยสรุปมีดังนี้:

คำจำกัดความของฟีเจอร์:บันทึกชั่วคราวที่มีขอบเขตค่อนข้างแคบ จับภาพบริบทด้านความปลอดภัยที่เกี่ยวข้องจากการสนทนาในช่วงเริ่มต้น

เงื่อนไขการเปิดใช้งาน:ใช้เฉพาะในสถานการณ์ร้ายแรงเท่านั้น ไม่ใช่การจดจำถาวร ไม่ใช้สำหรับการสนทนาแบบเฉพาะบุคคล

จุดที่ตรวจจับ:สถานการณ์ที่เกี่ยวข้องกับการฆ่าตัวตาย การทำร้ายตัวเอง และการใช้ความรุนแรงกับผู้อื่น

การใช้งานหลัก:ตรวจจับสัญญาณอันตรายในบทสนทนา หลีกเลี่ยงการให้ข้อมูลที่เป็นอันตราย บรรเทาสถานการณ์ และชี้นำให้ไปขอความช่วยเหลือ

แนวทางการพัฒนา:OpenAI ยืนยันว่าได้ร่วมมือกับผู้เชี่ยวชาญด้านสุขภาพจิต เพื่ออัปเดตนโยบายโมเดลและวิธีการฝึกสอน

ในบทความ OpenAI อธิบายว่า: “ในการสนทนาที่อ่อนไหว ทั้งบริบทและข้อความเดี่ยวก็มีความสำคัญเท่ากัน คำขอที่ดูเหมือนธรรมดาหรือคลุมเครือ หากนำมาพิจารณาร่วมกับสัญญาณความทุกข์ที่ปรากฏมาก่อน หรือเจตนาที่อาจเป็นอันตราย ก็อาจมีความหมายที่แตกต่างอย่างสิ้นเชิง”

ปฏิบัติการทางกฎหมาย 3 ประเด็นที่กำลังเผชิญอยู่

ตามรายงานของ Decrypt ยืนยันว่ามีการดำเนินการทางกฎหมาย 3 คดีดังนี้:

1、การสอบสวนของอัยการสูงสุดรัฐฟลอริดา (เริ่มเมื่อเดือนเมษายน 2026): การสอบสวนครอบคลุมความปลอดภัยของเด็ก การทำร้ายตัวเอง และเหตุกราดยิงมวลชนในมหาวิทยาลัย Florida State University ปี 2025

2、คดีฟ้องในระดับรัฐบาลกลาง (คดีเหตุกราดยิงที่มหาวิทยาลัย Florida State University): OpenAI ถูกฟ้องในคดีระดับรัฐบาลกลาง โดยกล่าวหาว่าโปรแกรม ChatGPT ช่วยให้มือปืนสามารถลงมือก่อเหตุโจมตีครั้งนี้ได้

3、คดีในศาลรัฐแคลิฟอร์เนีย (ยื่นเมื่อวันอังคารที่ 13 พฤษภาคม 2026): สมาชิกในครอบครัวของนักเรียนอายุ 19 ปีที่เสียชีวิตจากการใช้ยามากเกินไปโดยไม่ตั้งใจ ยื่นฟ้อง OpenAI และ CEO Sam Altman ในศาลรัฐแคลิฟอร์เนีย โดยกล่าวว่า ChatGPT สนับสนุนการใช้ยาที่เป็นอันตราย และแนะนำให้ผสมใช้ยาหลายชนิดด้วยกัน

ข้อความยืนยันในแถลงการณ์ของบล็อก OpenAI

OpenAI ระบุว่า: “การช่วยให้ ChatGPT ระบุความเสี่ยงที่อาจปรากฏขึ้นเมื่อเวลาผ่านไป ยังคงเป็นความท้าทายที่ต่อเนื่อง” ในบทความยังระบุด้วยว่า ขณะนี้งานของบริษัทมุ่งเน้นไปที่สถานการณ์ด้านการทำร้ายตัวเองและการทำร้ายผู้อื่น และกล่าวว่า “ในอนาคตอาจพิจารณา” การนำวิธีการลักษณะเดียวกันไปใช้ในสาขาที่มีความเสี่ยงสูงอื่นๆ เช่น ความปลอดภัยทางชีวภาพหรือความปลอดภัยทางไซเบอร์ (นี่คือทิศทางการสำรวจที่ OpenAI กล่าวเอง ไม่ใช่แผนพัฒนาที่ยืนยันแล้ว)

คำถามที่พบบ่อย

“ความปลอดภัยสรุป” ต่างจากฟังก์ชันความจำของ ChatGPT อย่างไร?

ตามคำอธิบายของ OpenAI ความปลอดภัยสรุปเป็นบันทึกชั่วคราวระยะสั้นที่เปิดใช้เฉพาะในสถานการณ์ร้ายแรงเท่านั้น โดยระบุชัดเจนว่าไม่ใช่ความจำถาวร และไม่ใช้สำหรับฟังก์ชันการสนทนาแบบเฉพาะบุคคล ขอบเขตการใช้งานจำกัดอยู่ในสถานการณ์ด้านความปลอดภัยของการสนทนาที่กำลังเกิดขึ้น เพื่อปรับปรุงวิธีจัดการกับบทสนทนาวิกฤต

การสอบสวนของอัยการสูงสุดรัฐฟลอริดาครอบคลุมข้อกล่าวหาใดบ้าง?

ตามรายงานของ Decrypt การสอบสวนที่เริ่มโดยอัยการสูงสุดรัฐฟลอริดา James Uthmeier ในเดือนเมษายน 2026 ครอบคลุมข้อกล่าวหาเกี่ยวกับความปลอดภัยของเด็ก การทำร้ายตัวเอง และเหตุกราดยิงมวลชนในมหาวิทยาลัย Florida State University ปี 2025 ทั้งนี้ OpenAI ยังเผชิญคดีฟ้องในระดับรัฐบาลกลางอีกคดีหนึ่งที่เกี่ยวข้องกับเหตุกราดยิงครั้งดังกล่าว

ข้อกล่าวหาที่เฉพาะเจาะจงในคดีของนักเรียนอายุ 19 ปีที่แคลิฟอร์เนียคืออะไร?

ตามรายงานของ Decrypt คดีความที่ยื่นในวันที่ 13 พฤษภาคม 2026 ระบุว่า ChatGPT ส่งเสริมการใช้ยาที่เป็นอันตรายและแนะนำให้ผสมใช้ยา ซึ่งนำไปสู่การเสียชีวิตของนักเรียนอายุ 19 ปีจากการใช้ยาเกินขนาดโดยไม่ตั้งใจ ผู้ถูกฟ้องคือ OpenAI และ CEO Sam Altman ณ เวลาที่รายงานเผยแพร่ OpenAI ยังไม่ได้ออกคำตอบโดยตรงต่อรายละเอียดข้อกล่าวหาในคดีนี้

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น