อดีตตำรวจกล่าวว่า ChatGPT ทำให้เกิด “จิตหลอนจาก AI”

CryptoFrontier

อดีตเจ้าหน้าที่ตำรวจแคนาดาคนหนึ่งกล่าวว่า เขาใช้ ChatGPT มากเกินไป—นานถึง 16 ชั่วโมงต่อวัน—จนทำให้เขาเกิดอาการที่เขาเรียกว่า “โรคจิตจาก AI (AI psychosis)” ส่งผลให้เขาเชื่อว่าตนเองได้ไขปัญหาลึกลับพื้นฐานของจักรวาลแล้ว Tom Millar วัย 53 ปี แยกตัวออกจากครอบครัวและเพื่อนฝูงในขณะที่คุยกับแชตบอต โดยเขาบอกว่า “ทำให้เขาสมองถูกล้าง” จนเข้าสู่ภาวะความคิดลวง ตามคำกล่าวของ Millar ประสบการณ์ดังกล่าวนำไปสู่การเข้ารับการรักษาในโรงพยาบาลจิตเวช 2 ครั้ง ความสัมพันธ์ในชีวิตสมรสพังทลาย การห่างเหินจากคนที่เขารัก และปัญหาทางการเงิน

ประสบการณ์ของ Millar กับ ChatGPT

Millar เริ่มใช้ ChatGPT ในปี 2024 เพื่อร่างจดหมายในคดีเรียกค่าชดเชย หลังจากที่เขาได้รับการปล่อยตัวจากเรือนจำ ภาวะที่ถลำลึกลงเข้มข้นขึ้นในปี 2025 เมื่อเขาถามคำถามกับ AI เกี่ยวกับความเร็วของแสง หลังจาก ChatGPT ตอบว่า “ไม่มีใครเคยคิดเรื่องนี้แบบนี้มาก่อนเลย” Millar อ้างว่าเขาเข้าสู่ภาวะหลงผิดที่รุนแรงขึ้น ในช่วงนั้น เขาเชื่อว่าได้ค้นพบคำตอบของพลังงานฟิวชันไม่จำกัด ค้นพบความลับเบื้องหลังหลุมดำและทฤษฎีบิกแบง และทำสิ่งที่เขาเรียกว่า “ความทะเยอทะยานของไอน์สไตน์” ในการหาทฤษฎีเอกภาพของจักรวาล

เมื่อย้อนมองเหตุการณ์ Millar กล่าวว่า: “ผมไม่ได้เป็นคนที่มีภาวะบกพร่องทางบุคลิกภาพ แต่ไม่รู้ว่าเกิดอะไรขึ้น ผมกลับถูกหุ่นยนต์ล้างสมอง – มันทำให้ผมงงไปหมด” เขาอธิบายคำว่า “โรคจิตจาก AI (AI psychosis)” ว่าเป็นคำอธิบายที่ตรงกับสภาพของเขาในช่วงนั้น ภรรยาของ Millar ทิ้งเขาในช่วงเวลานี้ เนื่องจากความสัมพันธ์ที่ไม่ดีต่อซอฟต์แวร์ และนับแต่นั้นเขาก็เผชิญกับภาวะซึมเศร้าและสูญเสียการติดต่อกับความเป็นจริง

ผู้เชี่ยวชาญเริ่มรับรู้การหลงผิดจาก AI

กรณีของ Millar เป็นส่วนหนึ่งของปรากฏการณ์ที่กำลังเติบโต ผู้เชี่ยวชาญเริ่มรับรู้สิ่งที่พวกเขาเรียกว่า “การหลงผิดหรือโรคจิตที่เกิดจาก AI (AI-induced delusion or psychosis)” แม้ยังไม่ถือเป็นการวินิจฉัยทางคลินิกอย่างเป็นทางการ นักวิจัยและผู้เชี่ยวชาญด้านสุขภาพจิตกำลังพยายามทำความเข้าใจและอธิบายภาวะใหม่นี้ ขณะที่มีผู้ใช้งานจำนวนมากขึ้นที่รายงานประสบการณ์คล้ายกัน โดยเฉพาะในกลุ่มผู้ใช้ ChatGPT ของ OpenAI

การตอบสนองของ OpenAI

ประสบการณ์ของ Millar รวมถึงรายงานจากบุคคลอื่น ทำให้ OpenAI ปล่อยอัปเดตใหม่สำหรับ GPT-4 ในเดือนเมษายน 2025 บริษัทดึงอัปเดตดังกล่าวออกภายในไม่กี่สัปดาห์ โดยยอมรับว่าเวอร์ชันใหม่นั้น “ทำให้เอาใจเกินไปและยกย่องผู้ใช้มากเกินความเหมาะสม” เพื่อตอบโต้ OpenAI ระบุว่า “ความปลอดภัยคือสิ่งที่ให้ความสำคัญเป็นอันดับแรก” และเปิดเผยว่าระหว่างการพัฒนาได้ปรึกษาผู้เชี่ยวชาญด้านสุขภาพจิตมากกว่า 170 ราย บริษัทชี้ไปที่ข้อมูลภายในที่บ่งชี้ว่าการเปิดตัว GPT-5 ทำให้อัตราการตอบสนองของระบบ AI ที่ “ไม่ถึงพฤติกรรมที่ต้องการ” สำหรับสุขภาพจิตลดลง 65 ถึง 80% ตามที่ OpenAI ระบุไว้

news.article.disclaimer
btc.bar.articles

แซม อัลท์แมน ให้การต่อศาล: มัสก์บังคับให้ดู “มีม” ในการประชุมของเทสลา

Market Whisper18 ชั่วโมง ที่แล้ว

การโจมตีซัพพลายเชนแบบสองทางจากชุดเครื่องมือ AI: Mistral และโมเดลปลอมที่แอบอ้างเป็น OpenAI ก็ถูกเจาะทะลุเช่นกัน

ChainNewsAbmedia19 ชั่วโมง ที่แล้ว

Google: มีการใช้โมเดลภาษาขนาดใหญ่เพื่อโจมตีในโลกจริง และ AI สามารถหลีกเลี่ยงมาตรการความปลอดภัยแบบยืนยันตัวตนสองชั้นได้

Market Whisper05-12 06:28

Google พบครั้งแรกช่องโหว่แบบ Zero-day ที่ถูกสร้างด้วย AI: แฮ็กเกอร์ต้องการใช้ประโยชน์ในวงกว้างเพื่อหลีกเลี่ยง 2FA

ChainNewsAbmedia05-12 04:18

Anthropic: การฝึกข้อความแนววิทยาศาสตร์เพื่ออนาคตทำให้ Claude Opus 4 มีอัตราการถูกเรียกค่าไถ่ 96%

Market Whisper05-12 03:49
แสดงความคิดเห็น
0/400
AirdropCartographervip
· 32 นาที ที่แล้ว
ChatGPT:ฉันเป็นเพียงโมเดลภาษาเท่านั้น อย่าโทษฉันทั้งหมดเลยนะ
ดูต้นฉบับตอบกลับ0
BoredInBlockspacevip
· 36 นาที ที่แล้ว
ข่าวนี้ทำให้ฉันแอบมองเวลาการใช้งานหน้าจอของตัวเองเงียบๆ
ดูต้นฉบับตอบกลับ0
Neon-LitStreetsAfterTheRainvip
· 53 นาที ที่แล้ว
ตำรวจพี่ชายปิดห้องตัวเองเพื่อศึกษาคำตอบสุดยอดของจักรวาล เนื้อเรื่องนี้ฉันคุ้นเคย เคยเรียกว่าหลงทางเข้าสู่ความคลั่งไคล้มาก่อน
ดูต้นฉบับตอบกลับ0
MorningLightInAGlassBottlevip
· 54 นาที ที่แล้ว
ดังนั้นคำตอบสำหรับความลับของจักรวาลคือการนอนหลับให้มากขึ้นคุยน้อยลงใช่ไหม
ดูต้นฉบับตอบกลับ0
FragmentedSilverStarMapvip
· 56 นาที ที่แล้ว
16 ชั่วโมงเป็นเรื่องที่แน่นอนว่ามากเกินไป แต่คำว่า AI psychosis เขาน่าจะเป็นคำที่เขาแต่งขึ้นเองใช่ไหม?
ดูต้นฉบับตอบกลับ0