شما می توانید مشکلات اصلی داده های ورودی پراکنده را با نگاشت داده های با ابعاد بالا در فضایی با ابعاد پایین تر حل کنید.
همانطور که قبلاً در تمرینات فیلم مشاهده کردید، حتی یک فضای چند بعدی کوچک نیز آزادی گروه بندی موارد مشابه معنایی را فراهم می کند و موارد غیر مشابه را از هم دور نگه می دارد. موقعیت (فاصله و جهت) در فضای برداری می تواند معناشناسی را در یک جاسازی خوب رمزگذاری کند. برای مثال، تجسمهای زیر از تعبیههای واقعی، روابط هندسی را نشان میدهد که روابط معنایی مانند رابطه بین یک کشور و پایتخت آن را نشان میدهد:
شکل 4. جاسازی ها می توانند تشابه های قابل توجهی ایجاد کنند.
این نوع فضای معنادار به سیستم یادگیری ماشین شما فرصت هایی می دهد تا الگوهایی را شناسایی کند که ممکن است به کار یادگیری کمک کند.
کوچک شدن شبکه
در حالی که ما ابعاد کافی برای رمزگذاری روابط معنایی غنی میخواهیم، همچنین فضایی را میخواهیم که به اندازه کافی کوچک باشد تا بتوانیم سیستم خود را سریعتر آموزش دهیم. یک جاسازی مفید ممکن است در حدود صدها بعد باشد. این احتمالاً چندین مرتبه کوچکتر از اندازه واژگان شما برای یک کار زبان طبیعی است.