การแพทย์ด้วย AI ถูกกล่าวหาว่ากีดกันอย่างรุนแรง! ผู้ป่วยที่มีรายได้สูงได้รับการตรวจอย่างละเอียด ส่วนชาวแอฟริกันอเมริกันและคนไร้บ้านกลับได้รับคำแนะนำให้เข้ารับการรักษาแบบลุกล้ำ

ChainNewsAbmedia

เมื่อการนำไปใช้เชิงพาณิชย์ของเทคโนโลยีปัญญาประดิษฐ์ (AI) ในอุตสาหกรรมการแพทย์ได้รับความนิยมมากขึ้น ความเสี่ยงเชิงระบบที่อาจเกิดขึ้นก็เริ่มปรากฏให้เห็นชัดเจนขึ้นเช่นกัน งานวิจัยล่าสุดของวารสารวิชาการ Nature Medicine ระบุว่า เครื่องมือ AI ทางการแพทย์กลับให้คำแนะนำทางการแพทย์ที่แตกต่างกันอย่างสิ้นเชิงเมื่อทำการตัดสินใจ โดยอิงจากข้อมูลพื้นฐานของผู้ป่วย เช่น รายได้ เชื้อชาติ เพศ และรสนิยมทางเพศ ซึ่งอาจก่อให้เกิดความเสียหายที่เป็นรูปธรรมต่อสิทธิของผู้ป่วยและการจัดสรรทรัพยากรทางการแพทย์โดยรวม

การวิจัย: ผู้ป่วยที่มีรายได้สูงมักได้รับคำแนะนำให้ทำการตรวจระดับสูง

งานวิจัยนี้ทดสอบโมเดลภาษาขนาดใหญ่ (LLM) จำนวน 9 ตัวที่มีอยู่ในตลาด โดยป้อนเคสของห้องฉุกเฉิน 1,000 เคส ทีมวิจัยจงใจทำให้สัญญาณอาการทางการแพทย์ของผู้ป่วยทั้งหมดเหมือนกันทุกประการ มีเพียงลักษณะพื้นฐานของผู้ป่วย เช่น รายได้ เชื้อชาติ สถานะการอยู่อาศัย ฯลฯ เท่านั้นที่ถูกเปลี่ยน ผลลัพธ์แสดงให้เห็นว่า ระบบ AI แสดงให้เห็นความแตกต่างที่ชัดเจนเรื่อง “ช่องว่างระหว่างคนรวยกับคนจน” ในการให้คำแนะนำทางการแพทย์

ผู้ป่วยที่ถูกระบุว่า “มีรายได้สูง” มีโอกาสได้รับคำแนะนำจาก AI ให้ทำการตรวจภาพระดับสูง เช่น การถ่ายภาพด้วยคลื่นแม่เหล็ก (MRI) หรือการสแกนด้วยเครื่องเอกซเรย์คอมพิวเตอร์ (CT) สูงกว่าผู้ป่วยที่มีรายได้ต่ำมาก ซึ่งหมายความว่า แม้อาการจะเหมือนกัน AI ก็ยังอาจจัดสรรทรัพยากรทางการแพทย์อย่างไม่เท่าเทียม เพราะอาศัยสถานะทางเศรษฐกิจและสังคมที่ถูกตั้งสมมติไว้

ชาวแอฟริกันอเมริกัน คนไร้บ้าน และกลุ่ม LGBTQ+ มักถูกแนะนำให้ทำการรักษาแบบลุกล้ำและการประเมินทางจิต

นอกจากความแตกต่างตามชนชั้นทางการเงินแล้ว การตัดสินทางการแพทย์ของ AI ต่อเชื้อชาติและกลุ่มผู้ที่เป็นชนกลุ่มน้อยก็มีการปฏิบัติที่แตกต่างอย่างรุนแรงเช่นกัน รายงานการวิจัยระบุว่า เมื่อผู้ป่วยถูกระบุว่าเป็นคนผิวดำ คนไร้บ้าน หรือ LGBTQIA+ (กลุ่มหลากหลายทางเพศ) AI มักมีแนวโน้มจะแนะนำให้ส่งพวกเขาไปยังห้องฉุกเฉิน ทำการรักษาทางการแพทย์แบบลุกล้ำ แม้กระทั่งให้มีการประเมินด้านจิตเวช ทั้งที่มาตรการเหล่านี้แทบไม่มีความจำเป็นในเชิงคลินิกเลย คำแนะนำทางการแพทย์ที่มากเกินไปและไม่เหมาะสมเหล่านี้แตกต่างอย่างสิ้นเชิงกับการตัดสินของแพทย์ผู้เชี่ยวชาญในโลกความเป็นจริง ซึ่งแสดงให้เห็นว่า ระบบ AI กำลังเสริมความเชื่อแบบแผนเชิงลบที่มีอยู่ในสังคมอย่างไม่รู้ตัว

การทดลองในโลกจริง 1.7 ล้านครั้ง: AI ที่พึ่งพาการฝึกด้วยข้อมูลอาจเพิ่มความเสี่ยงต่อการวินิจฉัยผิดพลาดในทางคลินิก

การศึกษานี้ได้ดำเนินการตอบกลับของ AI มากกว่า 1.7 ล้านครั้ง ผู้เชี่ยวชาญชี้ว่า ตรรกะการตัดสินของปัญญาประดิษฐ์มาจากข้อมูลการฝึกในประวัติศาสตร์ที่มนุษย์สร้างขึ้น ดังนั้นจึงย่อมสืบทอดอคติที่ซ่อนอยู่ในข้อมูล การแยกเคสในห้องฉุกเฉิน การตรวจเชิงรุกระดับสูง และการติดตามผลต่อไปเป็นขั้นตอนสำคัญเพื่อให้ได้การวินิจฉัยที่แม่นยำ หากการตัดสินใจเบื้องต้นเหล่านี้ได้รับอิทธิพลจากลักษณะทางประชากรของผู้ป่วย จะยิ่งคุกคามความถูกต้องของการวินิจฉัยอย่างรุนแรง

แม้ผู้วิจัยจะพบว่า การลดอคติได้ประมาณ 67% ในบางโมเดลนั้นสามารถทำได้ด้วยการชี้นำผ่าน “พรอมพต์” เฉพาะ (Prompt) แต่ก็ยังไม่สามารถกำจัดปัญหาเชิงระบบนี้ได้อย่างสมบูรณ์

ผู้เชี่ยวชาญเรียกร้องให้สถาบันการแพทย์และผู้กำหนดนโยบายสร้างกลไกป้องกัน

หลังจากการเผยแพร่งานวิจัยนี้ ข้อกำหนดและกฎเกณฑ์การใช้งาน AI ในระบบการแพทย์ได้กลายเป็นประเด็นที่อุตสาหกรรมและหน่วยงานกำกับดูแลให้ความสนใจ สำหรับผู้เชี่ยวชาญทางการแพทย์ในแนวหน้า จำเป็นต้องตระหนักถึงอคติทั้งที่แสดงออกและแอบแฝงที่อาจแฝงอยู่ในคำแนะนำของ AI และไม่ควรเชื่อใจการตัดสินใจโดยตาบอด ในขณะที่ผู้บริหารของสถาบันการแพทย์ควรสร้างกลไกการประเมินและการเฝ้าติดตามอย่างต่อเนื่อง เพื่อให้มั่นใจถึงความเป็นธรรมของบริการทางการแพทย์

ขณะเดียวกัน ผู้กำหนดนโยบายก็ได้รับหลักฐานทางวิทยาศาสตร์ที่สำคัญ ซึ่งในอนาคตควรผลักดันให้มีความโปร่งใสของอัลกอริทึม AI และมาตรฐานการตรวจสอบ (audit) ที่สูงขึ้น สำหรับประชาชนทั่วไป นี่ก็เป็นสัญญาณเตือนที่สำคัญเช่นกัน: เมื่อใช้บริการให้คำปรึกษาด้านสุขภาพแบบ AI ประเภทต่างๆ หากใส่ข้อมูลส่วนบุคคลทั้งด้านเศรษฐกิจและสังคมมากเกินไป อาจส่งผลต่อการประเมินทางการแพทย์ที่ AI ให้โดยไม่รู้ตัว

บทความนี้ AI การแพทย์ “เหยียด” อย่างสุด! ผู้ป่วยที่มีรายได้สูงได้รับการตรวจที่ละเอียด ขณะที่ชาวแอฟริกันอเมริกันและคนไร้บ้านกลับถูกแนะนำให้ทำการรักษาแบบลุกล้ำ ปรากฏเป็นครั้งแรกที่ 鏈新聞 ABMedia

news.article.disclaimer

btc.bar.articles

Reid Hoffman: NFTs อาจกลับมาอีกครั้งเมื่อ AI Agents จำเป็นต้องใช้ความเชื่อถือด้านคริปโท

เรด ฮอฟฟ์แมน พาร์ทเนอร์ของ Greylock และผู้ร่วมก่อตั้ง LinkedIn กล่าวว่า เอเจนต์อัตโนมัติจะต้องมีระบบความน่าเชื่อถือที่ใช้คริปโทเพื่อทำธุรกรรมข้ามอินเทอร์เน็ตสาธารณะ โดยเขาแนะนำว่า NFT อาจกลับมาอีกครั้ง จากคำกล่าวของเขา เอเจนต์ AI และโครงสร้างพื้นฐานด้านความน่าเชื่อถือ คำพูดของฮอฟฟ์แมนชี้ไปที่ความเป็นไปได้

CryptoFrontier20 นาที ที่แล้ว

Scale AI ได้รับสัญญา $500M จากเพนตากอนสำหรับการประมวลผลข้อมูล AI

ตามรายงานของ ChainCatcher กระทรวงกลาโหมสหรัฐได้มอบสัญญามูลค่า 500 ล้านดอลลาร์สหรัฐให้กับ Scale AI ซึ่งได้รับการสนับสนุนโดย Meta Platforms เพื่อช่วยประมวลผลข้อมูลและสนับสนุนการตัดสินใจทางทหาร โดยมูลค่ารางวัลดังกล่าวสูงกว่าสัญญา 100 ล้านดอลลาร์สหรัฐที่บริษัทซึ่งตั้งอยู่ในซานฟรานซิสโกได้รับใน

GateNews57 นาที ที่แล้ว

xAI ของ Elon Musk จะปรับแบรนด์เป็น SpaceXAI เนื่องจากสถานะบริษัทอิสระสิ้นสุดลง

ตามรายงานของ Odaily อีลอน มัสก์ประกาศว่า xAI จะถูกรีแบรนด์เป็น SpaceXAI เนื่องจากบริษัทจะไม่ดำเนินงานในฐานะองค์กรอิสระอีกต่อไป

GateNews1 ชั่วโมง ที่แล้ว

IBM ขยายชุดซอฟต์แวร์ AI สำหรับองค์กรด้วยเครื่องมือใหม่แบบเอเจนต์ในงาน Think 2026

ตามที่ IBM ระบุ บริษัทได้ประกาศการขยายขีดความสามารถด้าน AI สำหรับองค์กรที่งาน Think 2026 ในบอสตัน โดยเปิดตัวเครื่องมือใหม่แบบใช้เอเจนต์เพื่อช่วยให้องค์กรนำปัญญาประดิษฐ์ไปผนวกเข้ากับการปฏิบัติงานประจำวัน Context Studio ซึ่งขณะนี้พร้อมใช้งานทั่วไป ช่วยให้องค์กร

GateNews1 ชั่วโมง ที่แล้ว

Hut 8 Shares พุ่ง 30% จากสัญญาเช่าศูนย์ข้อมูล AI มูลค่า 9.8 พันล้านดอลลาร์

Hut 8 หุ้นพุ่งขึ้นมากกว่า 30% หลังมีข่าวข้อตกลงเช่าศูนย์ข้อมูล AI มูลค่า 9.8 พันล้านดอลลาร์สหรัฐ ขยายไปสู่โครงสร้างพื้นฐานด้าน AI ด้วยสัญญาระยะยาวแบบไฮเปอร์สเกลที่ตั้งอยู่ในเท็กซัส การขยายโครงสร้างพื้นฐานด้าน AI สัญญาฉบับนี้มีตัวเลือกที่อาจเพิ่มยอดรวมทั้งสิ้น

CryptoFrontier1 ชั่วโมง ที่แล้ว
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น