추천 시스템의 마지막 단계에서 시스템은
추가 기준이나 제약 조건을 고려할 수 있습니다. 1개
순위 재지정 접근 방식은 일부 후보를 삭제하는 필터를 사용하는 것입니다.
또 다른 순위 재지정 방식은 반환된 점수를 수동으로 변환하는 것입니다.
가중치가 적용됩니다.
이 섹션에서는 최신성, 다양성, 공정성을 간략하게 설명합니다.
이러한 요인은 맞춤 동영상을 개선하는 데 도움이 될 수 있는 여러 요소 중 하나입니다.
있습니다. 이러한 요인 중 일부는 종종 여러 단계를 수정해야 하는 경우가 있습니다.
살펴봤습니다 각 섹션마다 적용할 수 있는 솔루션이 제공됩니다.
개인적으로 또는 그룹으로
제공할 수 있습니다
최신 상태
대부분의 추천 시스템은 최신 사용 정보를 통합하는 것을 목표로 합니다.
현재 사용자 기록, 최신 항목 등입니다. 모델을 최신 상태로 유지
모델이 적절한 추천을 제공하는 데
도움이 됩니다
솔루션
가능한 한 자주 학습을 다시 실행하여 최신 학습 데이터를 학습합니다.
모델이 예기치 않은 활동으로 인해
방법을 배우게 됩니다. 웜 스타트로 인해 교육 및 훈련이
있습니다. 예를 들어 행렬 분해에서는
할 수 있습니다.
'평균' 행렬 분해에서 신규 사용자를 나타내는 사용자
모델을 학습시키는 작업도
반복해야 합니다 사용자마다 동일한 삽입을 사용하지 않아도 됩니다.
사용자 특성을 기반으로 사용자 클러스터를 만들 수 있습니다.
소프트맥스 모델 또는 2타워 모델과 같은 DNN을 사용합니다. 모델은
특성 벡터를 입력으로 사용하면
모델의 예측에 도움이 되지 않는 쿼리나
학습 중에 볼 수 있습니다.
문서 연령을 기능으로 추가합니다. 예를 들어 YouTube에서 동영상의 연령을
또는 지형지물로 마지막으로 본 시간을 나타냅니다.
다양성
시스템에서 항상 '가장 가까운' 상품을 추천하는 경우 쿼리에
후보들이 서로 매우 비슷한 경향이 있습니다. 이
다양성이 부족하면 사용자 환경이 나쁘거나 지루해질 수 있습니다. 예를 들어
YouTube에서 사용자가
시청한 동영상과 매우 유사한 동영상을 추천하는 경우
현재 보고 있는 사용자(예: 올빼미 동영상)
(그림에서 보듯이) 사용자는 금방 관심을 잃을 가능성이 큽니다.
솔루션
다양한 소스를 사용하여 여러 후보 생성기 학습
다양한 목적 함수를 사용하여 여러 순위자 학습
다양성을 보장하기 위해 장르 또는 기타 메타데이터를 기준으로 항목의 순위를 다시 지정합니다.
공정성
모델은 모든 사용자를 공정하게 대우해야 합니다. 따라서
모델이 학습 데이터에서 무의식적인 편향을 학습하지 않는 것입니다.
솔루션
설계 및 개발에 다양한 관점을 포함시킵니다.
포괄적인 데이터 세트로 ML 모델을 학습시킵니다. 다음 경우에 보조 데이터 추가
데이터가 너무 희소합니다 (예: 특정 카테고리가
과소 대표됨).
각 항목에서 측정항목 (예: 정확성 및 절대 오차)을 추적합니다.
편견을 살피기 위한 것입니다.
[null,null,["최종 업데이트: 2024-07-26(UTC)"],[[["\u003cp\u003eRecommendation systems can be improved by re-ranking candidates using filters or score transformations based on criteria like video age or click-bait detection.\u003c/p\u003e\n"],["\u003cp\u003eMaintaining freshness in recommendations involves regularly retraining models, incorporating new user and item data, and potentially using DNNs or age-based features.\u003c/p\u003e\n"],["\u003cp\u003eEnhancing diversity can be achieved by employing multiple candidate generators and rankers, along with re-ranking based on metadata like genre.\u003c/p\u003e\n"],["\u003cp\u003eEnsuring fairness requires diverse development teams, comprehensive training data, and monitoring metrics across demographics to mitigate biases.\u003c/p\u003e\n"]]],[],null,["# Re-ranking\n\n\u003cbr /\u003e\n\nIn the final stage of a recommendation system, the system can re-rank the\ncandidates to consider additional criteria or constraints. One\nre-ranking approach is to use filters that remove some candidates.\n| **Example:** You can implement re-ranking on a video recommender by doing the following:\n|\n| 1. Training a separate model that detects whether a video is click-bait.\n| 2. Running this model on the candidate list.\n| 3. Removing the videos that the model classifies as click-bait.\n\nAnother re-ranking approach is to manually transform the score returned\nby the ranker.\n| **Example:** The system re-ranks videos by modifying the score as a function of:\n|\n| - video age (perhaps to promote fresher content)\n| - video length\n\nThis section briefly discusses freshness, diversity, and fairness.\nThese factors are among many that can help improve your recommendation\nsystem. Some of these factors often require modifying different stages\nof the process. Each section offers solutions that you might apply\nindividually or collectively.\n\nFreshness\n---------\n\nMost recommendation systems aim to incorporate the latest usage information,\nsuch as current user history and the newest items. Keeping the model fresh\nhelps the model make good recommendations.\n\n### Solutions\n\n- Re-run training as often as possible to learn on the latest training data. We recommend warm-starting the training so that the model does not have to re-learn from scratch. Warm-starting can significantly reduce training time. For example, in matrix factorization, warm-start the embeddings for items that were present in the previous instance of the model.\n- Create an \"average\" user to represent new users in matrix factorization models. You don't need the same embedding for each user---you can create clusters of users based on user features.\n- Use a DNN such as a softmax model or two-tower model. Since the model takes feature vectors as input, it can be run on a query or item that was not seen during training.\n- Add document age as a feature. For example, YouTube can add a video's age or the time of its last viewing as a feature.\n\nDiversity\n---------\n\nIf the system always recommend items that are \"closest\" to the query\nembedding, the candidates tend to be very similar to each other. This\nlack of diversity can cause a bad or boring user experience. For example,\nif YouTube just recommends videos very similar to the video the user is\ncurrently watching, such as nothing but owl videos\n(as shown in the illustration), the user will likely lose interest quickly.\n\n### Solutions\n\n- Train multiple candidate generators using different sources.\n- Train multiple rankers using different objective functions.\n- Re-rank items based on genre or other metadata to ensure diversity.\n\nFairness\n--------\n\nYour model should treat all users fairly. Therefore, make sure\nyour model isn't learning unconscious biases from the training data.\n\n### Solutions\n\n- Include diverse perspectives in design and development.\n- Train ML models on comprehensive data sets. Add auxiliary data when your data is too sparse (for example, when certain categories are under-represented).\n- Track metrics (for example, accuracy and absolute error) on each demographic to watch for biases.\n- Make separate models for underserved groups."]]