Pada tahap akhir dari sistem rekomendasi, sistem dapat mengurutkan ulang kandidat untuk mempertimbangkan kriteria atau batasan tambahan. paket Premium AI penentuan peringkat ulang adalah menggunakan filter yang menghapus beberapa kandidat.
Pendekatan pemeringkatan ulang lainnya adalah secara manual mengubah skor yang ditampilkan oleh pemberi peringkat.
Bagian ini secara singkat membahas keaktualan, keberagaman, dan keadilan. Faktor tersebut adalah salah satu dari banyak faktor yang dapat membantu meningkatkan kualitas rekomendasi Anda sistem file. Beberapa faktor ini sering kali memerlukan modifikasi pada berbagai tahap dari proses. Setiap bagian menawarkan solusi yang dapat Anda terapkan secara individu atau kolektif.
Keaktualan
Sebagian besar sistem rekomendasi bertujuan untuk menggabungkan informasi penggunaan terbaru, seperti histori pengguna saat ini dan item terbaru. Menjaga model tetap segar membantu model membuat rekomendasi yang baik.
Solusi
- Jalankan kembali pelatihan sesering mungkin untuk mempelajari data pelatihan terbaru. Sebaiknya mulai pemanasan pelatihan sehingga model tidak memiliki untuk belajar kembali dari awal. Pemanasan dapat mengurangi pelatihan secara signifikan baik. Misalnya, dalam faktorisasi matriks, lakukan warm start pada embeddings item yang ada di instance model sebelumnya.
- Membuat "rata-rata" mewakili pengguna baru dalam faktorisasi matriks jaringan. Anda tidak memerlukan penyematan yang sama untuk setiap pengguna—Anda dapat membuat kelompok pengguna berdasarkan fitur pengguna.
- Gunakan DNN seperti model softmax atau model dua menara. Karena model ini mengambil vektor fitur sebagai input, maka bisa dijalankan pada kueri atau item yang belum yang Anda lihat selama pelatihan.
- Tambahkan usia dokumen sebagai fitur. Misalnya, YouTube dapat menambahkan usia video atau waktu tampilan terakhirnya sebagai fitur.
Keberagaman
Jika sistem selalu merekomendasikan item yang "paling dekat" pada kueri embedding, kandidat cenderung sangat mirip satu sama lain. Ini kurangnya keragaman dapat menyebabkan pengalaman pengguna yang buruk atau membosankan. Misalnya, jika YouTube hanya merekomendasikan video yang sangat mirip dengan video pengguna sedang ditonton, seperti tidak ada apa-apa selain video burung hantu (seperti yang ditunjukkan dalam ilustrasi), pengguna kemungkinan akan cepat kehilangan minat.
Solusi
- Latih beberapa generator kandidat menggunakan sumber yang berbeda.
- Latih beberapa peringkat menggunakan fungsi objektif yang berbeda.
- Urutkan ulang item berdasarkan genre atau metadata lainnya untuk memastikan keberagaman.
Keadilan
Model Anda harus memperlakukan semua pengguna secara adil. Oleh karena itu, pastikan model Anda tidak mempelajari bias yang tidak disadari dari data pelatihan.
Solusi
- Menyertakan beragam perspektif dalam desain dan pengembangan.
- Latih model ML pada set data yang komprehensif. Tambahkan data tambahan saat data Anda terlalu jarang (misalnya, saat kategori tertentu kurang terwakili).
- Melacak metrik (misalnya, akurasi dan error absolut) pada setiap metrik demografis untuk memperhatikan bias yang terjadi.
- Buat model terpisah untuk kelompok yang kurang terlayani.