यह एक बैल है.
इमेज 19. ऑक्स इस्तेमाल करें.
1906 में, इंग्लैंड में जज की प्रतियोगिता हुई. मीटिंग में शामिल 787 लोगों ने बैलों के वज़न का अनुमान लगाया. हर अनुमान का मीडियन गड़बड़ी 37 पाउंड (3.1%) की गड़बड़ी थी. हालांकि, अनुमान लगाने के लिए लगाए गए मीडिएशन का कुल मीडियन, सिर्फ़ 9 पाउंड (1198 पाउंड) से था, जो सिर्फ़ 0.7% की गड़बड़ी थी.
इमेज 20. अलग-अलग वज़न के अनुमान का हिस्टोग्राम.
यह उपदेश भीड़ में रहने वाले लोगों की जानकारी के बारे में बताता है: कुछ मामलों में, सामूहिक राय के आधार पर फ़ैसला सही होता है.
गणित के ज्ञान को इस तरह से तय किया जा सकता है केंद्रीय सीमा सिद्धांत: बेहतर होगा कि इस मान की वैल्यू गड़बड़ी के तौर पर और एन N के शोर के अनुमान के बीच में 1/N फ़ैक्टर होती है. हालांकि, अगर वैरिएबल स्वतंत्र नहीं हैं, तो वैरिएबल ज़्यादा होता है.
मशीन लर्निंग में, एनसेंबल ऐसे मॉडल का संग्रह होता है जिनके अनुमानों का औसत (या किसी तरह से इकट्ठा) किया जाता है. अगर नतीजों में दिखने वाले मॉडल अलग-अलग होने से बहुत अलग हैं, तो आम तौर पर, इससे जुड़े हर मॉडल की क्वालिटी काफ़ी बेहतर होती है. किसी पहनावे के लिए एक मॉडल की तुलना में ज़्यादा ट्रेनिंग और अनुमान का समय लगता है. आखिरकार, आपको एक मॉडल के बजाय कई मॉडल पर ट्रेनिंग और अनुमान लगाना होगा.
अनौपचारिक रूप से, सबसे अच्छी तरह काम करने के कार्यक्रम के लिए, हर मॉडल को स्वतंत्र होना चाहिए. एक उदाहरण के तौर पर, बिल्कुल एक जैसे 10 मॉडल (जो कि स्वतंत्र नहीं हैं) से बना एक ग्रुप, हर मॉडल से बेहतर हो सकता है. वहीं दूसरी ओर, मॉडल को आत्मनिर्भर बनाने से उनका काम खराब हो सकता है. प्रभावी विश्लेषण के लिए, मॉडल की स्वतंत्रता और उसके उप-मॉडल की क्वालिटी के बीच संतुलन बनाने की ज़रूरत होती है.