Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Tận dụng các mô hình đã qua đào tạo trước
Việc đào tạo một mạng nơron tích chập để thực hiện các tác vụ phân loại hình ảnh thường yêu cầu một lượng lớn dữ liệu đào tạo và có thể tốn rất nhiều thời gian để hoàn thành. Nhưng nếu bạn có thể tận dụng các mô hình hình ảnh hiện có được đào tạo về các tập dữ liệu khổng lồ, chẳng hạn như qua TensorFlow-Slim và điều chỉnh các mô hình đó để sử dụng trong các tác vụ phân loại của riêng mình thì sao?
Một kỹ thuật phổ biến để tận dụng các mô hình đã huấn luyện trước là lấy tính năng: truy xuất các bản trình bày trung gian do mô hình đã huấn luyện trước tạo và sau đó đưa các đại diện này vào một mô hình mới làm dữ liệu đầu vào. Khi liên kết một nguồn dữ liệu như Để tăng hiệu suất khi sử dụng tính năng trích xuất tính năng với một mô hình
đã đào tạo trước, các kỹ sư thường điều chỉnh các thông số về trọng số áp dụng cho
các tính năng được trích xuất.
Để tìm hiểu sâu hơn về tính năng trích xuất tính năng và tinh chỉnh dữ liệu khi sử dụng các mô hình được huấn luyện trước, hãy xem Bài tập sau đây.
[null,null,["Cập nhật lần gần đây nhất: 2022-09-27 UTC."],[[["\u003cp\u003ePretrained image models can be leveraged to perform image classification tasks, saving time and resources compared to training a new model from scratch.\u003c/p\u003e\n"],["\u003cp\u003eFeature extraction involves using the intermediate representations from a pretrained model as input for a new model, enabling the utilization of learned features like color, texture, and shape.\u003c/p\u003e\n"],["\u003cp\u003eFine-tuning the weight parameters of extracted features can further enhance the performance of the new classification model built on top of the pretrained model.\u003c/p\u003e\n"]]],[],null,["# ML Practicum: Image Classification\n\n\u003cbr /\u003e\n\nLeveraging Pretrained Models\n----------------------------\n\nTraining a convolutional neural network to perform image classification tasks\ntypically requires an extremely large amount of training data, and can be very\ntime-consuming, taking days or even weeks to complete. But what if you could\nleverage existing image models trained on enormous datasets, such as via\n[TensorFlow-Slim](https://github.com/tensorflow/models/tree/master/research/slim),\nand adapt them for use in your own classification tasks?\n\nOne common technique for leveraging pretrained models is *feature extraction* :\nretrieving intermediate representations produced by the pretrained model, and\nthen feeding these representations into a new model as input. For example, if\nyou're training an image-classification model to distinguish different types of\nvegetables, you could feed training images of carrots, celery, and so on, into a\npretrained model, and then extract the features from its final convolution\nlayer, which capture all the information the model has learned about the images'\nhigher-level attributes: color, texture, shape, etc. Then, when building your\nnew classification model, instead of starting with raw pixels, you can use these\nextracted features as input, and add your fully connected classification layers\non top. To increase performance when using feature extraction with a pretrained\nmodel, engineers often *fine-tune* the weight parameters applied to the\nextracted features.\n\nFor a more in-depth exploration of feature extraction and fine tuning when using\npretrained models, see the following Exercise.\n| **Key Terms**\n|\n| |----------------------|---------------|\n| | - feature extraction | - fine tuning |\n|"]]