جنگل تصادفی، جنگل تصادفی
این یک گاو است.

شکل 19. یک گاو نر.
در سال 1906 مسابقه داوری وزن در انگلستان برگزار شد . 787 شرکت کننده وزن یک گاو را حدس زدند. میانگین خطای حدس های فردی 37 پوند (خطای 3.1٪) بود. با این حال، میانگین کلی حدسها تنها 9 پوند با وزن واقعی گاو (1198 پوند) فاصله داشت که خطای آن تنها 0.7٪ بود.

شکل 20. هیستوگرام حدس وزن فردی.
این حکایت حکمت جمعیت را نشان می دهد: در موقعیت های خاص، نظر جمعی قضاوت بسیار خوبی را ارائه می دهد.
از نظر ریاضی، خرد جمعیت را میتوان با قضیه حد مرکزی مدلسازی کرد: بهطور غیررسمی، مجذور خطای بین یک مقدار و میانگین N تخمینهای پر سر و صدای این مقدار با ضریب 1/N به صفر میرود. اما اگر متغیرها مستقل نباشند، واریانس بیشتر است.
در یادگیری ماشینی، یک مجموعه مجموعهای از مدلهایی است که پیشبینیهای آنها میانگین (یا به نوعی جمعآوری شده) است. اگر مدل های مجموعه به اندازه کافی متفاوت باشند بدون اینکه به صورت جداگانه بد باشند، کیفیت مجموعه به طور کلی بهتر از کیفیت هر یک از مدل های جداگانه است. یک گروه نسبت به یک مدل واحد نیاز به آموزش و زمان استنباط بیشتری دارد. به هر حال، شما باید به جای یک مدل واحد، آموزش و استنباط را روی چندین مدل انجام دهید.
به طور غیررسمی، برای اینکه یک گروه بهترین عملکرد را داشته باشد، هر مدل باید مستقل باشد. به عنوان مثال، یک گروه متشکل از 10 مدل دقیقاً یکسان (یعنی اصلاً مستقل نیستند) بهتر از مدل فردی نخواهد بود. از سوی دیگر، مجبور کردن مدل ها به مستقل بودن می تواند به معنای بدتر شدن آنها باشد. یکپارچه سازی موثر مستلزم یافتن تعادل بین استقلال مدل و کیفیت مدل های فرعی آن است.
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2024-10-26 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2024-10-26 بهوقت ساعت هماهنگ جهانی."],[[["The \"wisdom of the crowd\" suggests that collective opinions can provide surprisingly accurate judgments, as demonstrated by a 1906 ox weight-guessing competition where the collective guess was remarkably close to the true weight."],["This phenomenon can be explained by the Central Limit Theorem, which states that the average of multiple independent estimates tends to converge towards the true value."],["In machine learning, ensembles leverage this principle by combining predictions from multiple models, improving overall accuracy when individual models are sufficiently diverse and reasonably accurate."],["While ensembles require more computational resources, their enhanced predictive performance often outweighs the added cost, especially when individual models are carefully selected and combined."],["Achieving optimal ensemble performance involves striking a balance between ensuring model independence to avoid redundant predictions and maintaining the individual quality of sub-models for overall accuracy."]]],[]]