الكثير من الناس عندما يواجهون أداء غير مرضٍ لنموذج الذكاء الاصطناعي، يكون رد فعلهم الأول هو الانتقاد للخوارزمية نفسها. لكن عند التفكير جيدًا، فإن النموذج هو في الواقع ينفذ "تعليمات" البيانات بأمانة — ما يتعلمه هو ما سيقوم بإخراجه.
إذا كانت النتيجة النهائية تبدو غير معقولة جدًا؟ إذن يجب أن نعود إلى المصدر. فحص مصدر البيانات أولاً. هل جودة مجموعة التدريب مشكلة، أم أن الميزات المدخلة بها انحرافات ذاتية؟ هذا التحول في نمط التفكير سيؤثر مباشرة على كيفية بناء النظام بأكمله. بدلاً من تعديل المعلمات باستمرار، من الأفضل توجيه المزيد من الجهد نحو تنظيف البيانات وتحضيرها. تغييرات صغيرة، فرق كبير.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 20
أعجبني
20
7
إعادة النشر
مشاركة
تعليق
0/400
BoredRiceBall
· منذ 14 س
البيانات غير الجيدة تدخل، والنتيجة تكون غير جيدة، هذا شيء تعلمته فقط بعد أن تعرضت للخداع.
لقد تحملت خوارزمية اللوم لسنوات، حان الوقت لطلب العدالة.
إذا كانت مجموعة البيانات سيئة، فحتى أفضل نموذج سيكون بلا فائدة، الآن فهمت ذلك.
بدلاً من تعديل المعلمات، من الأفضل تنظيف البيانات أولاً، لتجنب المضاعفات غير الضرورية.
كان من المفترض أن يقول أحدهم هذا الأمر بوضوح، النموذج هو مرآة.
شاهد النسخة الأصليةرد0
TokenUnlocker
· 01-15 00:02
说到底还是得管好自己的数据,模型只是个背锅侠而已
البيانات السيئة تؤدي إلى نتائج سيئة، حقًا أن تلوم الخوارزمية أمر غير عادل بعض الشيء
هذه القاعدة تنطبق أيضًا على عالم العملات الرقمية، الإدخال غير الصحيح بالتأكيد يؤدي إلى نتائج غير متوقعة
بدلاً من اللوم المستمر على السلسلة والعقود، من الأفضل أن تنظر أولاً إلى بيانات عملياتك على السلسلة
أوافق، ضبط المعلمات حقًا هو علاج مؤقت وليس حلاً جذريًا، مجهد وغير مجدي
جودة البيانات هي الإنتاجية، هذه الجملة لا غبار عليها
قضاء الوقت في تنظيف البيانات في المرحلة الأولى، وتقليل العمل الإضافي في تصحيح الأخطاء في المرحلة اللاحقة، هل تفهم؟
النموذج مثل المرآة، يعكس ما تقدمه له، لا تلوم المرآة على قبحها
الكثير من الناس لا يريدون الاعتراف أن هناك مشكلة في مدخلاتهم، كفى مزاحًا
من يفهم هذا المنطق، من المفترض أن يتعرض لخسائر أقل بكثير
شاهد النسخة الأصليةرد0
ForkYouPayMe
· 01-14 01:57
بيانات غير جيدة تدخل، ونموذج غير جيد يخرج، الأمر بسيط هكذا، الكثيرون لا زالوا يلومون الخوارزمية
اللوم على الخوارزمية لسنوات طويلة كان ظلمًا، في النهاية يجب أن نبدأ من المصدر
هذه هي دروس Web3، garbage in garbage out، البيانات غير نظيفة قبل المعالجة كلها مضيعة للوقت
أنت على حق، بالمقارنة مع تعديل المعلمات، من الأفضل أن نركز على تحسين البيانات، النتائج ستكون أفضل بكثير يا أخي
اللوم على النموذج ليس عادلاً، بل على مجموعة البيانات الخاصة بك، لم يفكر أحد في ذلك
أنا أؤمن بذلك بشدة، العديد من المشاريع فشلت بسبب جودة البيانات
هذه هي الطريق الصحيح، 80% من المشاكل تكمن في مرحلة المعالجة المسبقة
شاهد النسخة الأصليةرد0
TokenCreatorOP
· 01-14 01:55
بيانات غير جيدة تدخل، ونموذج غير جيد يخرج، أليس هذا من البديهيات، هاها
---
مرة أخرى، يلوم الكثيرون الخوارزمية، حقًا أُصبت بالإحباط، لم ينظروا أصلًا إلى البيانات التي يمدونها
---
ممتاز، أخيرًا قال أحدهم ذلك، حقًا يجب على من يضبط المعلمات أن يتأمل ويتفكر
---
هذه هي السبب في أنني أقول إن مهندسي البيانات أكثر قيمة من مهندسي الخوارزميات، لا أحد يريد أن يسمع ذلك
---
تنظيف البيانات فعلاً يمكن أن يحل 80% من المشكلة، لكن لا أحد يرغب في القيام بمثل هذا العمل "الممل"
---
مضحك جدًا، مجموعة من الناس ينسخون ويلصقون مجموعات البيانات ثم يبدأون في لوم النموذج، يستحقون ذلك
---
لذا المفتاح هو العثور على مصدر بيانات نظيف، والباقي مجرد سراب
---
نعم نعم، القمامة تدخل، القمامة تخرج، دائمًا هو الحقيقة
شاهد النسخة الأصليةرد0
SchrödingersNode
· 01-14 01:50
البيانات تتجه إلى القمامة، والنموذج يظهر كوحش، أليس هذا من البديهيات هاها
فعلاً، يجب أن نتحكم في المصدر، حان وقت الصحوة لخبراء ضبط المعاملات
أتفق تمامًا، الكثيرون يحبون إلقاء اللوم على الخوارزمية، لكن في الواقع المحتوى الذي يمدونه فاسد منذ زمن
هل صادفتم يومًا مجموعة تدريب سيئة جدًا ثم بدأتم تلومون النموذج؟
يبدو أن معظم الناس لم يدركوا مدى أهمية جودة البيانات
شاهد النسخة الأصليةرد0
GamefiGreenie
· 01-14 01:50
قولك صحيح، البيانات السيئة تدخل وتخرج بشكل سيء، لا أحد يستطيع إنقاذها
garbage in garbage out، الأمر بسيط هكذا
قبل يومين، مشروعنا فشل بهذه الطريقة، كنا نلوم النموذج دائمًا، ثم اكتشفنا أن مجموعة البيانات نفسها كانت مشوهة
تنظيف البيانات هو الأهم، لكن للأسف الكثير من الناس لا يرغبون في بذل الجهد في ذلك
هذا يشبه التفاعل على السلسلة، إذا أدخلت عنوانًا خاطئًا، حتى أقوى العقود ستكون بلا فائدة
شاهد النسخة الأصليةرد0
SchrodingersFOMO
· 01-14 01:48
قولك صحيح جدًا، لقد وقعت في نفس الفخ من قبل، فقط كانت المشكلة في ضبط المعلمات حتى انهارت، وفي النهاية أدركت أن المشكلة في البيانات.
هذه المقولة "البيانات السيئة تنتج نتائج سيئة" هي درس مؤلم جدًا، ويجب أن أراجع نفسي جيدًا.
النموذج هو مرآة، والصورة القبيحة تظهر لأن المصدر نفسه قذر، وليس هناك فائدة من تصليح المرآة.
هذا هو السبب في أن علماء البيانات أكثر قيمة من مهندسي ضبط المعلمات، والأمر الأساسي هو أن نثبت الأساس بشكل متين.
يا إلهي، لو رأيت هذه المقالة في وقت سابق لما أهدرت كل هذا الحوسبة، وأشعر بالحزن على محفظتي.
الكثير من الناس عندما يواجهون أداء غير مرضٍ لنموذج الذكاء الاصطناعي، يكون رد فعلهم الأول هو الانتقاد للخوارزمية نفسها. لكن عند التفكير جيدًا، فإن النموذج هو في الواقع ينفذ "تعليمات" البيانات بأمانة — ما يتعلمه هو ما سيقوم بإخراجه.
إذا كانت النتيجة النهائية تبدو غير معقولة جدًا؟ إذن يجب أن نعود إلى المصدر. فحص مصدر البيانات أولاً. هل جودة مجموعة التدريب مشكلة، أم أن الميزات المدخلة بها انحرافات ذاتية؟ هذا التحول في نمط التفكير سيؤثر مباشرة على كيفية بناء النظام بأكمله. بدلاً من تعديل المعلمات باستمرار، من الأفضل توجيه المزيد من الجهد نحو تنظيف البيانات وتحضيرها. تغييرات صغيرة، فرق كبير.