إذا كانت نتائج الذكاء الاصطناعي غير قابلة للتحقق، فهي في جوهرها خدمة صندوق أسود.


العديد من الأشخاص يتحدثون الآن عن بنية تحتية للذكاء الاصطناعي، لكنهم يفترضون بشكل افتراضي أن النتائج موثوقة. الواقع هو أن المستخدمين غير قادرين على التحقق مما إذا كانت الاستنتاجات قد تم التلاعب بها، ولا يمكنهم تأكيد مسار التنفيذ.
الحل الذي قدمه @dgrid_ai هو إدخال طبقة تحقق، من خلال إثبات الجودة، بحيث تتبادل العقد التحقق من نتائج الاستنتاج، وإذا حدث خطأ، يتم معاقبة الأصول المرهونة، هذا التصميم يربط مباشرة تكلفة الخطأ بالنموذج الاقتصادي.
هذا يميز بشكل كبير بينه وبين خدمات SaaS التقليدية، حيث لم تعد الثقة تأتي من العلامة التجارية، بل من هيكلية التفاعل.
من وجهة نظر المطور، هذا الشبكة تشبه طبقة استدعاء واجهات برمجة التطبيقات للذكاء الاصطناعي، حيث لا يلزم ربط النموذج بمنصة معينة، بل يتم توجيهه عبر الشبكة إلى العقد الأمثل للتنفيذ.
بالطبع، ما إذا كانت هذه الآلية ستعمل بشكل مستقر على نطاق واسع لا يزال بحاجة إلى وقت للاختبار.
لكنها على الأقل تعالج مشكلة حقيقية، هل يمكن للذكاء الاصطناعي أن يصبح حوسبة موثوقة، وليس مجرد مخرجات صندوق أسود.
@Galxe @GalxeQuest @easydotfunX @wallchain #Ad #Affiliate @TermMaxFi
شاهد النسخة الأصلية
post-image
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.22Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:3
    0.09%
  • القيمة السوقية:$2.24Kعدد الحائزين:2
    0.30%
  • تثبيت