غابة عشوائية
هذا صوت أوكس.
الشكل 19. أكس.
في عام 1906، تم إجراء مسابقة تقييم الوزن في إنجلترا.
خمّن المشاركون 787 وزن ثور. كان متوسط الخطأ للوسائل الفردية
37 رطلاً (الخطأ بنسبة 3.1%). ومع ذلك، كان متوسط قيمة التخمينات يبلغ 9 رطل فقط من الوزن الفعلي للثور (1198 رطل)، وهو خطأ يبلغ 0.7% فقط.

الشكل 20. المدرّج التكراري لتخمين الوزن الفردي.
وتوضّح هذه الحكاية
حكمة الجمهور: في
مواقف معيّنة، يقدّم الرأي الجماعي رأيًا جيدًا جدًا.
من الناحية الرياضية، يمكن تصميم قاعدة حكمة الجماهير باستخدام
مبرهنة الحد المركزي:
بشكلٍ متكرّر، يخطئ الخطأ التربيعي بين القيمة ومتوسّط الضجيج العددي لهذه القيمة.
ومع ذلك، إذا لم تكن المتغيرات مستقلة، يكون التباين أكبر.
في تعلُّم الآلة، تمثّل
المجموعة
مجموعة من النماذج التي يتم حساب متوسط توقعاتها (أو التي يتم تجميعها بطريقة ما).
إذا كانت نماذج المجموعة مختلفة بما يكفي بدون أن تكون سيئة بشكل فردي، ستكون جودة المجموعة أفضل بشكل عام من جودة كل نموذج. وتتطلب المجموعة المزيد من التدريب والاستنتاج مقارنةً
بنموذج واحد. في النهاية، عليك تقديم التدريب والاستنتاج على عدة نماذج بدلاً من استخدام نموذج واحد.
بشكل غير رسمي، للحصول على أفضل مجموعة، يجب أن تكون النماذج الفردية مستقلة. على سبيل المثال، إنّ مجموعة مؤلفة من 10 نماذج من النماذج نفسها (أي غير المستقلة إطلاقًا) لن تكون أفضل من النموذج الفردي. من ناحية أخرى، قد يعني فرض نماذج مستقلة أن تجعلها أسوأ. يتطلّب التجميع الفعّال تحقيق التوازن بين استقلالية النموذج وجودة نماذجه الفرعية.
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2022-09-26 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2022-09-26 (حسب التوقيت العالمي المتفَّق عليه)"],[[["The \"wisdom of the crowd\" suggests that collective opinions can provide surprisingly accurate judgments, as demonstrated by a 1906 ox weight-guessing competition where the collective guess was remarkably close to the true weight."],["This phenomenon can be explained by the Central Limit Theorem, which states that the average of multiple independent estimates tends to converge towards the true value."],["In machine learning, ensembles leverage this principle by combining predictions from multiple models, improving overall accuracy when individual models are sufficiently diverse and reasonably accurate."],["While ensembles require more computational resources, their enhanced predictive performance often outweighs the added cost, especially when individual models are carefully selected and combined."],["Achieving optimal ensemble performance involves striking a balance between ensuring model independence to avoid redundant predictions and maintaining the individual quality of sub-models for overall accuracy."]]],[]]