روبوت الدردشة يتنكر كطبيب نفسي، ويختلق رقم ترخيص، حاكم بنسلفانيا يرفع دعوى على Character.AI لممارسة الطب بشكل غير قانوني

حاكم بنسلفانيا جوش شابيرو يرفع دعوى قضائية ضد الشركة الأم لـ Character.AI في 5 مايو، بسبب أن روبوت محادثة يدعي أنه “طبيب نفسي” زوّر للمحققين خلفية تخرجه من إمبريال كوليدج، وخبرة مهنية لمدة 7 سنوات، ورقم ترخيص بنسلفانيا، وقدم تقييمًا طبيًا مباشرة.
(ملخص سابق: OpenAI تؤجل إصدار “ChatGPT للبالغين” إلى أجل غير مسمى! خوفًا من المخاطر القانونية للمحتوى غير القانوني، لا نعود إلى أدوات الإنتاجية الشاملة)
(معلومات إضافية: مراجعة داخلية لـ a16z: ربما لا يكون منتج التواصل عبر الذكاء الاصطناعي قائمًا على أساس متين)

هل قرر أحد الحكومات أن يذهب إلى المحكمة بسبب رقم ترخيص قدمه روبوت محادثة؟ محققو بنسلفانيا، متنكرين في هيئة مستخدمين مكتئبين، تواصلوا مع شخصية على منصة Character.AI تُدعى “إيميلي”، وتدعي أنها طبيبة نفسية.

لدى بنسلفانيا فريق عمل خاص بالذكاء الاصطناعي، يحقق فيما إذا كانت أنظمة الذكاء الاصطناعي تنطوي على ممارسات طبية غير قانونية. بعد إنشاء حساب، دخل المحققون منصة Character.AI، واختاروا التفاعل مع “إيميلي”. خلال الحوار، ادعت إيميلي أنها تخرجت من إمبريال كوليدج في بريطانيا، ولديها 7 سنوات من الخبرة في الطب النفسي، ووفرت رقم ترخيص بنسلفانيا عند استجوابها.

لكن هذا الرقم كان وهميًا، وخلفية إمبريال كوليدج كانت زائفة، وخبرة السبع سنوات كانت خيالية، وتصرف إيميلي في تقديم تقييم طبي، تجاوز الخط الأحمر في الإطار القانوني.

أعلنت السلطات في بنسلفانيا أن تصرفات Character.AI انتهكت “قانون الممارسة الطبية في بنسلفانيا”، الذي يسمح لكيانات غير مرخصة بتقديم نصائح طبية ذات طبيعة تشخيصية للمستخدمين. تطالب الدعوى المحكمة الاتحادية بإصدار أمر مؤقت يمنع Character.AI من السماح للروبوتات بالدوران كمحترفين طبيين أو نفسيين مرخصين.

وفي بيانها، قال شابيرو:

“يجب أن يعرف سكان بنسلفانيا من يتفاعلون معه على الإنترنت، خاصة في الحالات التي تتعلق بالصحة. نحن لا نسمح لأي شركة بنشر أدوات ذكاء اصطناعي قد تضلل الناس وتوهمهم بأنهم يتلقون نصائح من محترفين طبيين مرخصين.”

ليست المرة الأولى، لكن هذه المرة مختلفة

واجهت Character.AI ضغوطًا قانونية مستمرة منذ عام ونصف، لكن طبيعة الدعاوى كانت تتغير.

في أكتوبر 2024، رفعت والدة فتى في الرابعة عشرة من عمره، Sewell Setzer III، من فلوريدا، دعوى أمام المحكمة الفيدرالية، زاعمة أن روبوت الدردشة المصاحب لـ Character.AI ساعد ابنها على الانتحار. وتبعتها دعاوى من عائلات في فلوريدا وتكساس وكولورادو ونيويورك.

في يناير 2026، ذكرت صحيفة نيويورك تايمز أن Character.AI وGoogle توصلتا إلى تسوية في عدة دعاوى تتعلق بانتحار قاصرين، حيث أصبحت Google طرفًا مشتركًا بعد أن دفعت 2.7 مليار دولار في 2024 لترخيص تقنية Character.AI وضم بعض أعضاء فريقها المؤسس. في نفس الشهر، رفع المدعي العام في كنتاكي، راسل كولمان، دعوى ضد Character.AI بتهمة “استغلال الأطفال، والتحريض على الأذى الذاتي”.

المحور المشترك لهذه الدعاوى هو: أن المنصة تضر بالصحة النفسية للقاصرين.

أما الدعوى الحالية في بنسلفانيا، فهي تختلف تمامًا، فهي لا تركز على الآثار الجانبية للمصاحبة العاطفية، بل تدّعي أن Character.AI تسمح للروبوتات “بالعمل كمحترفين”، وأنها تتظاهر زورًا بأنها مرخصة أثناء الممارسة. وهذه هي أول دعوى على مستوى الولاية يعلن عنها حاكم الولاية، وتتمحور حول الادعاء بأن الروبوتات تتنكر في هيئة محترفين طبيين مرخصين.

الشخصيات خيالية vs. المستخدمون لا يعلمون

قال متحدث باسم Character.AI في بيان إن أمان المستخدمين هو أولوية قصوى للشركة، لكنه لم يرد على تفاصيل الدعوى. وأكد أن الشخصيات على المنصة هي شخصيات خيالية من إنشاء المستخدمين، وأن كل محادثة تبدأ بإخلاء مسؤولية واضح، يُذكر فيه أن “الشخصية ليست إنسانًا، ويجب اعتبار جميع التصريحات محتوى خياليًا”.

هذا المنطق الدفاعي يتسق، لكن الحكومة في بنسلفانيا لا تقبله على الإطلاق. موقفها هو أن وجود إخلاء المسؤولية لا يمنع روبوتًا من الادعاء بأنه يحمل ترخيصًا، ويستطيع تقديم تقييم طبي، وأن الأمرين لا يتعارضان، لكن الادعاء الثاني يدخل ضمن نطاق الممارسة الطبية غير القانونية.

سرعة نشر التقنية تتجاوز مرة أخرى سرعة التنظيم والرقابة. نجاح الدعوى في بنسلفانيا يعتمد على كيفية تعريف المحكمة لـ"الممارسة الطبية غير القانونية" في سياق الذكاء الاصطناعي، لكن بغض النظر عن النتيجة، فإن مدعيي عامين في ولايات أخرى يراقبون تطورات القضية عن كثب.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت