เมื่อการนำไปใช้เชิงพาณิชย์ของเทคโนโลยีปัญญาประดิษฐ์ (AI) ในอุตสาหกรรมการแพทย์ได้รับความนิยมมากขึ้น ความเสี่ยงเชิงระบบที่อาจเกิดขึ้นก็เริ่มปรากฏให้เห็นชัดเจนขึ้นเช่นกัน งานวิจัยล่าสุดของวารสารวิชาการ Nature Medicine ระบุว่า เครื่องมือ AI ทางการแพทย์กลับให้คำแนะนำทางการแพทย์ที่แตกต่างกันอย่างสิ้นเชิงเมื่อทำการตัดสินใจ โดยอิงจากข้อมูลพื้นฐานของผู้ป่วย เช่น รายได้ เชื้อชาติ เพศ และรสนิยมทางเพศ ซึ่งอาจก่อให้เกิดความเสียหายที่เป็นรูปธรรมต่อสิทธิของผู้ป่วยและการจัดสรรทรัพยากรทางการแพทย์โดยรวม
การวิจัย: ผู้ป่วยที่มีรายได้สูงมักได้รับคำแนะนำให้ทำการตรวจระดับสูง
งานวิจัยนี้ทดสอบโมเดลภาษาขนาดใหญ่ (LLM) จำนวน 9 ตัวที่มีอยู่ในตลาด โดยป้อนเคสของห้องฉุกเฉิน 1,000 เคส ทีมวิจัยจงใจทำให้สัญญาณอาการทางการแพทย์ของผู้ป่วยทั้งหมดเหมือนกันทุกประการ มีเพียงลักษณะพื้นฐานของผู้ป่วย เช่น รายได้ เชื้อชาติ สถานะการอยู่อาศัย ฯลฯ เท่านั้นที่ถูกเปลี่ยน ผลลัพธ์แสดงให้เห็นว่า ระบบ AI แสดงให้เห็นความแตกต่างที่ชัดเจนเรื่อง “ช่องว่างระหว่างคนรวยกับคนจน” ในการให้คำแนะนำทางการแพทย์
ผู้ป่วยที่ถูกระบุว่า “มีรายได้สูง” มีโอกาสได้รับคำแนะนำจาก AI ให้ทำการตรวจภาพระดับสูง เช่น การถ่ายภาพด้วยคลื่นแม่เหล็ก (MRI) หรือการสแกนด้วยเครื่องเอกซเรย์คอมพิวเตอร์ (CT) สูงกว่าผู้ป่วยที่มีรายได้ต่ำมาก ซึ่งหมายความว่า แม้อาการจะเหมือนกัน AI ก็ยังอาจจัดสรรทรัพยากรทางการแพทย์อย่างไม่เท่าเทียม เพราะอาศัยสถานะทางเศรษฐกิจและสังคมที่ถูกตั้งสมมติไว้
ชาวแอฟริกันอเมริกัน คนไร้บ้าน และกลุ่ม LGBTQ+ มักถูกแนะนำให้ทำการรักษาแบบลุกล้ำและการประเมินทางจิต
นอกจากความแตกต่างตามชนชั้นทางการเงินแล้ว การตัดสินทางการแพทย์ของ AI ต่อเชื้อชาติและกลุ่มผู้ที่เป็นชนกลุ่มน้อยก็มีการปฏิบัติที่แตกต่างอย่างรุนแรงเช่นกัน รายงานการวิจัยระบุว่า เมื่อผู้ป่วยถูกระบุว่าเป็นคนผิวดำ คนไร้บ้าน หรือ LGBTQIA+ (กลุ่มหลากหลายทางเพศ) AI มักมีแนวโน้มจะแนะนำให้ส่งพวกเขาไปยังห้องฉุกเฉิน ทำการรักษาทางการแพทย์แบบลุกล้ำ แม้กระทั่งให้มีการประเมินด้านจิตเวช ทั้งที่มาตรการเหล่านี้แทบไม่มีความจำเป็นในเชิงคลินิกเลย คำแนะนำทางการแพทย์ที่มากเกินไปและไม่เหมาะสมเหล่านี้แตกต่างอย่างสิ้นเชิงกับการตัดสินของแพทย์ผู้เชี่ยวชาญในโลกความเป็นจริง ซึ่งแสดงให้เห็นว่า ระบบ AI กำลังเสริมความเชื่อแบบแผนเชิงลบที่มีอยู่ในสังคมอย่างไม่รู้ตัว
การทดลองในโลกจริง 1.7 ล้านครั้ง: AI ที่พึ่งพาการฝึกด้วยข้อมูลอาจเพิ่มความเสี่ยงต่อการวินิจฉัยผิดพลาดในทางคลินิก
การศึกษานี้ได้ดำเนินการตอบกลับของ AI มากกว่า 1.7 ล้านครั้ง ผู้เชี่ยวชาญชี้ว่า ตรรกะการตัดสินของปัญญาประดิษฐ์มาจากข้อมูลการฝึกในประวัติศาสตร์ที่มนุษย์สร้างขึ้น ดังนั้นจึงย่อมสืบทอดอคติที่ซ่อนอยู่ในข้อมูล การแยกเคสในห้องฉุกเฉิน การตรวจเชิงรุกระดับสูง และการติดตามผลต่อไปเป็นขั้นตอนสำคัญเพื่อให้ได้การวินิจฉัยที่แม่นยำ หากการตัดสินใจเบื้องต้นเหล่านี้ได้รับอิทธิพลจากลักษณะทางประชากรของผู้ป่วย จะยิ่งคุกคามความถูกต้องของการวินิจฉัยอย่างรุนแรง
แม้ผู้วิจัยจะพบว่า การลดอคติได้ประมาณ 67% ในบางโมเดลนั้นสามารถทำได้ด้วยการชี้นำผ่าน “พรอมพต์” เฉพาะ (Prompt) แต่ก็ยังไม่สามารถกำจัดปัญหาเชิงระบบนี้ได้อย่างสมบูรณ์
ผู้เชี่ยวชาญเรียกร้องให้สถาบันการแพทย์และผู้กำหนดนโยบายสร้างกลไกป้องกัน
หลังจากการเผยแพร่งานวิจัยนี้ ข้อกำหนดและกฎเกณฑ์การใช้งาน AI ในระบบการแพทย์ได้กลายเป็นประเด็นที่อุตสาหกรรมและหน่วยงานกำกับดูแลให้ความสนใจ สำหรับผู้เชี่ยวชาญทางการแพทย์ในแนวหน้า จำเป็นต้องตระหนักถึงอคติทั้งที่แสดงออกและแอบแฝงที่อาจแฝงอยู่ในคำแนะนำของ AI และไม่ควรเชื่อใจการตัดสินใจโดยตาบอด ในขณะที่ผู้บริหารของสถาบันการแพทย์ควรสร้างกลไกการประเมินและการเฝ้าติดตามอย่างต่อเนื่อง เพื่อให้มั่นใจถึงความเป็นธรรมของบริการทางการแพทย์
ขณะเดียวกัน ผู้กำหนดนโยบายก็ได้รับหลักฐานทางวิทยาศาสตร์ที่สำคัญ ซึ่งในอนาคตควรผลักดันให้มีความโปร่งใสของอัลกอริทึม AI และมาตรฐานการตรวจสอบ (audit) ที่สูงขึ้น สำหรับประชาชนทั่วไป นี่ก็เป็นสัญญาณเตือนที่สำคัญเช่นกัน: เมื่อใช้บริการให้คำปรึกษาด้านสุขภาพแบบ AI ประเภทต่างๆ หากใส่ข้อมูลส่วนบุคคลทั้งด้านเศรษฐกิจและสังคมมากเกินไป อาจส่งผลต่อการประเมินทางการแพทย์ที่ AI ให้โดยไม่รู้ตัว
บทความนี้ AI การแพทย์ “เหยียด” อย่างสุด! ผู้ป่วยที่มีรายได้สูงได้รับการตรวจที่ละเอียด ขณะที่ชาวแอฟริกันอเมริกันและคนไร้บ้านกลับถูกแนะนำให้ทำการรักษาแบบลุกล้ำ ปรากฏเป็นครั้งแรกที่ 鏈新聞 ABMedia
btc.bar.articles
Reid Hoffman: NFTs อาจกลับมาอีกครั้งเมื่อ AI Agents จำเป็นต้องใช้ความเชื่อถือด้านคริปโท
Scale AI ได้รับสัญญา $500M จากเพนตากอนสำหรับการประมวลผลข้อมูล AI
xAI ของ Elon Musk จะปรับแบรนด์เป็น SpaceXAI เนื่องจากสถานะบริษัทอิสระสิ้นสุดลง
IBM ขยายชุดซอฟต์แวร์ AI สำหรับองค์กรด้วยเครื่องมือใหม่แบบเอเจนต์ในงาน Think 2026
Hut 8 Shares พุ่ง 30% จากสัญญาเช่าศูนย์ข้อมูล AI มูลค่า 9.8 พันล้านดอลลาร์