Nesne algılama ve izleme
Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.

ML Kit'in cihaz üzerindeki nesne algılama ve izleme API'si ile bir görüntü veya canlı kamera feed'indeki nesneleri algılayıp izleyebilirsiniz.
İsteğe bağlı olarak, API'de yerleşik olarak bulunan kaba sınıflandırıcıyı veya kendi özel görüntü sınıflandırma modelinizi kullanarak algılanan nesneleri sınıflandırabilirsiniz. Daha fazla bilgi için Özel bir TensorFlow Lite modeli kullanma bölümüne bakın.
Nesne algılama ve izleme işlemleri cihazda gerçekleştiği için görsel arama ardışık düzeninin ön ucu olarak iyi bir şekilde çalışır. Nesneleri algılayıp filtreledikten sonra bunları Cloud Vision Product Search gibi bir bulut arka ucuna aktarabilirsiniz.
iOS
Android
Temel özellikler
- Hızlı nesne algılama ve izleme
Nesneleri algılayın ve görüntüde konumlarını öğrenin. Art arda gelen resim çerçevelerinde
nesneleri takip edin.
- Optimize edilmiş cihaz üzerinde model
Nesne algılama ve izleme modeli, mobil cihazlar için optimize edilmiş olup düşük teknolojili cihazlarda bile gerçek zamanlı uygulamalarda kullanılmak üzere tasarlanmıştır.
- Belirgin nesne algılama
Bir görüntüdeki en belirgin nesneyi otomatik olarak tespit edin.
- Yaklaşık sınıflandırma
Nesneleri geniş kategorilere ayırın. Bunları, ilgilenmediğiniz nesneleri filtrelemek için kullanabilirsiniz. Şu kategoriler desteklenir:
ev eşyaları, moda ürünleri, yiyecek, bitkiler ve yerler.
- Özel modelle sınıflandırma
Belirli nesne kategorilerini tanımlamak veya filtrelemek için kendi özel görüntü sınıflandırma modelinizi kullanın. Resmin arka planını atlayarak özel modelinizin
daha iyi performans göstermesini sağlayın.
Örnek sonuçlar
Resimlerde en belirgin nesneyi izleme
Aşağıdaki örnekte ML Kit tarafından sağlanan varsayılan kaba sınıflandırıcının kullanıldığı art arda üç kareden elde edilen izleme verileri gösterilmektedir.
 |
İzleme Kimliği |
0 |
Sınırlar |
(95, 45), (496, 45), (496, 240), (95, 240) |
Kategori |
YER |
Sınıflandırma güveni |
0,9296875 |
|
 |
İzleme Kimliği |
0 |
Sınırlar |
(84, 46), (478, 46), (478, 247), (84, 247) |
Kategori |
YER |
Sınıflandırma güveni |
0,8710938 |
|
 |
İzleme Kimliği |
0 |
Sınırlar |
(53, 45), (519, 45), (519, 240), (53, 240) |
Kategori |
YER |
Sınıflandırma güveni |
0,8828125 |
|
Fotoğraf: Christian Ferrer [CC BY-SA 4.0]
Statik bir resimdeki birden çok nesne
Aşağıdaki örnekte, ML Kiti tarafından sağlanan varsayılan kaba sınıflandırıcıyla görüntüde algılanan dört nesnenin verileri gösterilmektedir.

Nesne 0 |
Sınırlar |
(1, 97), (332, 97), (332, 332), (1, 332) |
Kategori |
FASHION_GOOD |
Sınıflandırma güveni |
0,95703125 |
Nesne 1 |
Sınırlar |
(186, 80), (337, 80), (337, 226), (186, 226) |
Kategori |
FASHION_GOOD |
Sınıflandırma güveni |
0,84375 |
Nesne 2 |
Sınırlar |
(296, 80), (472, 80), (472, 388), (296, 388) |
Kategori |
FASHION_GOOD |
Sınıflandırma güveni |
0,94921875 |
Nesne 3 |
Sınırlar |
(439, 83), (615, 83), (615, 306), (439, 306) |
Kategori |
FASHION_GOOD |
Sınıflandırma güveni |
0,9375 |
Özel bir TensorFlow Lite modeli kullanma
Varsayılan genel sınıflandırıcı, beş kategori için oluşturulmuştur ve algılanan nesneler hakkında sınırlı bilgi sağlar. Kavramların daha dar bir alanını daha ayrıntılı olarak kapsayan daha özel bir sınıflandırma modeline (örneğin, çiçek veya yemek türlerini birbirinden ayırt etmeye yarayan bir model) ihtiyacınız olabilir.
Bu API, çok çeşitli kaynaklardan özel görüntü sınıflandırma modellerini destekleyerek belirli bir kullanım alanına göre özelleştirme yapmanıza olanak tanır. Daha fazla bilgi edinmek için lütfen Makine Öğrenimi Kiti ile özel modeller bölümüne bakın. Özel modeller uygulamanızla birlikte paket haline getirilebilir veya Firebase Makine Öğrenimi'nin Model dağıtım hizmeti kullanılarak buluttan dinamik olarak indirilebilir.
iOS
Android
Gerekirse nesne algılama ve izleme, giriş görüntü boyutunu ve en boy oranını temel modelin gereksinimlerini karşılayacak şekilde ayarlamak için iki doğrusal görüntü ölçeklendirme ve genişletme kullanır.
Aksi belirtilmediği sürece bu sayfanın içeriği Creative Commons Atıf 4.0 Lisansı altında ve kod örnekleri Apache 2.0 Lisansı altında lisanslanmıştır. Ayrıntılı bilgi için Google Developers Site Politikaları'na göz atın. Java, Oracle ve/veya satış ortaklarının tescilli ticari markasıdır.
Son güncelleme tarihi: 2025-08-29 UTC.
[null,null,["Son güncelleme tarihi: 2025-08-29 UTC."],[[["\u003cp\u003eML Kit's on-device API enables detection and tracking of objects within images or live camera feeds, working efficiently even on lower-end mobile devices.\u003c/p\u003e\n"],["\u003cp\u003eIt offers optional object classification using a built-in coarse classifier or your own custom TensorFlow Lite model for more specialized categorization.\u003c/p\u003e\n"],["\u003cp\u003eThe API can identify the most prominent object in an image and track it across frames, making it suitable for visual search applications.\u003c/p\u003e\n"],["\u003cp\u003eCustom models can be integrated to classify objects into specific categories, enhancing the functionality for tailored use cases.\u003c/p\u003e\n"],["\u003cp\u003eInput images are automatically preprocessed to fit model requirements, using bilinear scaling and stretching if necessary.\u003c/p\u003e\n"]]],["ML Kit's API enables on-device object detection and tracking in images or live feeds, optionally classifying them. It features fast detection, an optimized model for mobile, and prominent object identification. Objects can be classified into broad categories or with custom models. The API supports custom image classification models, including ones dynamically downloaded. Detected objects are tracked across frames, and the system adjusts input image size and aspect ratio as needed.\n"],null,["With ML Kit's on-device object detection and tracking API, you can detect\nand track objects in an image or live camera feed.\n\nOptionally, you can classify detected objects, either by using the coarse\nclassifier built into the API, or using your own custom image classification\nmodel. See [Using a custom TensorFlow Lite model](#custom-tflite) for more\ninformation.\n\nBecause object detection and tracking happens on the device, it works well as\nthe front end of the visual search pipeline. After you detect and filter\nobjects, you can pass them to a cloud backend, such as\n[Cloud Vision Product Search](https://cloud.google.com/vision/product-search/docs/).\n\n[iOS](/ml-kit/vision/object-detection/ios)\n[Android](/ml-kit/vision/object-detection/android)\n\nKey capabilities\n\n- **Fast object detection and tracking** Detect objects and get their locations in the image. Track objects across successive image frames.\n- **Optimized on-device model** The object detection and tracking model is optimized for mobile devices and intended for use in real-time applications, even on lower-end devices.\n- **Prominent object detection** Automatically determine the most prominent object in an image.\n- **Coarse classification** Classify objects into broad categories, which you can use to filter out objects you're not interested in. The following categories are supported: home goods, fashion goods, food, plants, and places.\n- **Classification with a custom model** Use your own custom image classification model to identify or filter specific object categories. Make your custom model perform better by leaving out background of the image.\n\nExample results\n\nTracking the most prominent object across images\n\nThe example below shows the tracking data from three successive frames with the\ndefault coarse classifier provided by ML Kit.\n\n|---|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | |---------------------------|--------------------------------------------| | Tracking ID | 0 | | Bounds | (95, 45), (496, 45), (496, 240), (95, 240) | | Category | PLACE | | Classification confidence | 0.9296875 | |\n| | |---------------------------|--------------------------------------------| | Tracking ID | 0 | | Bounds | (84, 46), (478, 46), (478, 247), (84, 247) | | Category | PLACE | | Classification confidence | 0.8710938 | |\n| | |---------------------------|--------------------------------------------| | Tracking ID | 0 | | Bounds | (53, 45), (519, 45), (519, 240), (53, 240) | | Category | PLACE | | Classification confidence | 0.8828125 | |\n\nPhoto: Christian Ferrer \\[CC BY-SA 4.0\\]\n\nMultiple objects in a static image\n\nThe example below shows the data for the four objects detected in the image with\nthe default coarse classifier provided by ML Kit.\n\n| Object 0 ||\n|---------------------------|----------------------------------------------|\n| Bounds | (1, 97), (332, 97), (332, 332), (1, 332) |\n| Category | FASHION_GOOD |\n| Classification confidence | 0.95703125 |\n| Bounds | (186, 80), (337, 80), (337, 226), (186, 226) |\n| Category | FASHION_GOOD |\n| Classification confidence | 0.84375 |\n| Bounds | (296, 80), (472, 80), (472, 388), (296, 388) |\n| Category | FASHION_GOOD |\n| Classification confidence | 0.94921875 |\n| Bounds | (439, 83), (615, 83), (615, 306), (439, 306) |\n| Category | FASHION_GOOD |\n| Classification confidence | 0.9375 |\n\nUsing a custom TensorFlow Lite model\n\nThe default coarse classifier is built for five categories, providing limited\ninformation about the detected objects. You might need a more specialized\nclassifier model that covers a narrower domain of concepts in more detail;\nfor example, a model to distinguish between species of flowers or types of\nfood.\n\nThis API lets you tailor to a particular use case by by supporting custom image\nclassification models from a wide range of sources. Please refer to\n[Custom models with ML Kit](/ml-kit/custom-models) to learn more. Custom models\ncan be bundled with your app or dynamically downloaded from the cloud using\nFirebase Machine Learning's Model deployment service.\n\n[iOS](/ml-kit/vision/object-detection/custom-models/ios)\n[Android](/ml-kit/vision/object-detection/custom-models/android)\n\nInput image preprocessing\n\nIf needed, object detection and tracking uses bilinear image scaling and\nstretching to adjust the input image size and aspect ratio so that they fit the\nrequirements of the underlying model."]]