Możesz używać ML Kit do rozpoznawania i dekodowania kodów kreskowych.
Funkcja | Nieopakowane | Łączenie w pakiety |
---|---|---|
Implementacja | Model jest dynamicznie pobierany za pomocą Usług Google Play. | Model jest statycznie powiązany z aplikacją w momencie kompilacji. |
Rozmiar aplikacji | Rozmiar zwiększy się o około 200 KB. | Około 2,4 MB. |
Czas inicjowania | Przed pierwszym użyciem może być konieczne poczekanie na pobranie modelu. | Model jest dostępny od razu. |
Wypróbuj
- Aby zobaczyć przykład użycia tego interfejsu API, wypróbuj przykładową aplikację.
- Aby zobaczyć implementację tego interfejsu API od początku do końca, otwórz aplikację pokazującą Material Design.
Zanim zaczniesz
W pliku
build.gradle
na poziomie projektu dodaj repozytorium Maven firmy Google w sekcjachbuildscript
iallprojects
.Dodaj zależności bibliotek ML Kit na Androida do pliku Gradle modułu na poziomie aplikacji (zwykle
app/build.gradle
). Wybierz jedną z tych zależności:Aby połączyć model z aplikacją:
dependencies { // ... // Use this dependency to bundle the model with your app implementation 'com.google.mlkit:barcode-scanning:17.3.0' }
Aby korzystać z modelu w Usługach Google Play:
dependencies { // ... // Use this dependency to use the dynamically downloaded model in Google Play Services implementation 'com.google.android.gms:play-services-mlkit-barcode-scanning:18.3.1' }
Jeśli zdecydujesz się użyć modelu w Usługach Google Play, możesz skonfigurować aplikację tak, aby po jej zainstalowaniu ze Sklepu Play automatycznie pobierała model na urządzenie. Aby to zrobić, dodaj do pliku
AndroidManifest.xml
aplikacji następującą deklarację:<application ...> ... <meta-data android:name="com.google.mlkit.vision.DEPENDENCIES" android:value="barcode" > <!-- To use multiple models: android:value="barcode,model2,model3" --> </application>
Możesz też sprawdzić dostępność modelu i poprosić o pobieranie za pomocą interfejsu ModuleInstallClient API usług Google Play.
Jeśli nie włączysz pobierania modelu w czasie instalacji ani nie poprosisz o pobieranie modelu, model zostanie pobrany przy pierwszym uruchomieniu skanera. Żądania wysłane przed zakończeniem pobierania nie przynoszą żadnych wyników.
Wskazówki dotyczące obrazów wejściowych
-
Aby ML Kit mógł prawidłowo odczytywać kody kreskowe, obrazy wejściowe muszą zawierać kody kreskowe reprezentowane przez wystarczającą ilość danych pikseli.
Wymagania dotyczące danych piksela zależą od typu kodu kreskowego i ilości danych, które są w nim zakodowane, ponieważ wiele kodów kreskowych obsługuje ładunek o zmiennym rozmiarze. Zasadniczo najmniejsza znacząca jednostka kodu kreskowego powinna mieć co najmniej 2 piksele szerokości, a w przypadku kodów 2-wymiarowych – 2 piksele wysokości.
Na przykład kody kreskowe EAN-13 składają się z pasków i odstępów o szerokości 1, 2, 3 lub 4 jednostkach, dlatego obraz kodu kreskowego EAN-13 powinien mieć paski i odstępy o szerokości co najmniej 2, 4, 6 lub 8 pikseli. Kod EAN-13 ma łącznie 95 jednostek szerokości, dlatego kod powinien mieć co najmniej 190 pikseli szerokości.
Formaty gęstsze, takie jak PDF417, wymagają większych wymiarów pikseli, aby ML Kit mógł je niezawodnie odczytać. Na przykład kod PDF417 może zawierać maksymalnie 34 „słów” o szerokości 17 jednostek w pojedynczym wierszu, które w idealnym przypadku powinny mieć co najmniej 1156 pikseli szerokości.
-
Niedostateczne wyostrzone zdjęcie może wpływać na dokładność skanowania. Jeśli aplikacja nie uzyskuje zadowalających wyników, poproś użytkownika o ponowne zrobienie zdjęcia.
-
W przypadku typowych zastosowań zalecamy przesyłanie obrazów o wyższej rozdzielczości, np. 1280 x 720 lub 1920 x 1080, co pozwala na skanowanie kodów kreskowych z większej odległości od kamery.
Jednak w przypadku aplikacji, w których opóźnienie jest kluczowe, możesz zwiększyć wydajność, rejestrując obrazy w niższej rozdzielczości, ale wymagając, aby kod kreskowy stanowił większość obrazu wejściowego. Zobacz też wskazówki dotyczące zwiększania skuteczności w czasie rzeczywistym.
1. Konfigurowanie skanera kodów kreskowych
Jeśli wiesz, jakie formaty kodów kreskowych chcesz odczytać, możesz zwiększyć szybkość działania wykrywacza kodów kreskowych, konfigurując go tak, aby wykrywał tylko te formaty.Aby na przykład wykrywać tylko kody Aztec i kody QR, utwórz obiekt BarcodeScannerOptions
w taki sposób:
Kotlin
val options = BarcodeScannerOptions.Builder() .setBarcodeFormats( Barcode.FORMAT_QR_CODE, Barcode.FORMAT_AZTEC) .build()
Java
BarcodeScannerOptions options = new BarcodeScannerOptions.Builder() .setBarcodeFormats( Barcode.FORMAT_QR_CODE, Barcode.FORMAT_AZTEC) .build();
Obsługiwane są te formaty:
- Kod 128 (
FORMAT_CODE_128
) - Kod 39 (
FORMAT_CODE_39
) - Kod 93 (
FORMAT_CODE_93
) - Codabar (
FORMAT_CODABAR
) - EAN-13 (
FORMAT_EAN_13
) - EAN-8 (
FORMAT_EAN_8
) - ITF (
FORMAT_ITF
) - UPC-A (
FORMAT_UPC_A
) - UPC-E (
FORMAT_UPC_E
) - Kod QR (
FORMAT_QR_CODE
) - PDF417 (
FORMAT_PDF417
) - Aztec (
FORMAT_AZTEC
) - Data Matrix (
FORMAT_DATA_MATRIX
)
Począwszy od wersji w pakiecie 17.1.0 i wersji bez pakietu 18.2.0 możesz też wywołać funkcję enableAllPotentialBarcodes()
, aby zwrócić wszystkie potencjalne kody kreskowe, nawet jeśli nie można ich zdekodować. Możesz go użyć, aby ułatwić dalsze wykrywanie, na przykład przez powiększenie obrazu w aparacie, aby uzyskać wyraźniejszy obraz dowolnego kodu kreskowego w zwróconym ograniczeniu.
Kotlin
val options = BarcodeScannerOptions.Builder() .setBarcodeFormats(...) .enableAllPotentialBarcodes() // Optional .build()
Java
BarcodeScannerOptions options = new BarcodeScannerOptions.Builder() .setBarcodeFormats(...) .enableAllPotentialBarcodes() // Optional .build();
Further on, starting from bundled library 17.2.0 and unbundled library 18.3.0, a new feature called auto-zoom has been introduced to further enhance the barcode scanning experience. With this feature enabled, the app is notified when all barcodes within the view are too distant for decoding. As a result, the app can effortlessly adjust the camera's zoom ratio to the recommended setting provided by the library, ensuring optimal focus and readability. This feature will significantly enhance the accuracy and success rate of barcode scanning, making it easier for apps to capture information precisely.
To enable auto-zooming and customize the experience, you can utilize the
setZoomSuggestionOptions()
method along with your
own ZoomCallback
handler and desired maximum zoom
ratio, as demonstrated in the code below.
Kotlin
val options = BarcodeScannerOptions.Builder() .setBarcodeFormats(...) .setZoomSuggestionOptions( new ZoomSuggestionOptions.Builder(zoomCallback) .setMaxSupportedZoomRatio(maxSupportedZoomRatio) .build()) // Optional .build()
Java
BarcodeScannerOptions options = new BarcodeScannerOptions.Builder() .setBarcodeFormats(...) .setZoomSuggestionOptions( new ZoomSuggestionOptions.Builder(zoomCallback) .setMaxSupportedZoomRatio(maxSupportedZoomRatio) .build()) // Optional .build();
zoomCallback
is required to be provided to handle whenever the library
suggests a zoom should be performed and this callback will always be called on
the main thread.
The following code snippet shows an example of defining a simple callback.
Kotlin
fun setZoom(ZoomRatio: Float): Boolean { if (camera.isClosed()) return false camera.getCameraControl().setZoomRatio(zoomRatio) return true }
Java
boolean setZoom(float zoomRatio) { if (camera.isClosed()) { return false; } camera.getCameraControl().setZoomRatio(zoomRatio); return true; }
maxSupportedZoomRatio
is related to the camera hardware, and different camera
libraries have different ways to fetch it (see the javadoc of the setter
method). In case this is not provided, an
unbounded zoom ratio might be produced by the library which might not be
supported. Refer to the
setMaxSupportedZoomRatio()
method
introduction to see how to get the max supported zoom ratio with different
Camera libraries.
When auto-zooming is enabled and no barcodes are successfully decoded within
the view, BarcodeScanner
triggers your zoomCallback
with the requested
zoomRatio
. If the callback correctly adjusts the camera to this zoomRatio
,
it is highly probable that the most centered potential barcode will be decoded
and returned.
A barcode may remain undecodable even after a successful zoom-in. In such cases,
BarcodeScanner
may either invoke the callback for another round of zoom-in
until the maxSupportedZoomRatio
is reached, or provide an empty list (or a
list containing potential barcodes that were not decoded, if
enableAllPotentialBarcodes()
was called) to the OnSuccessListener
(which
will be defined in step 4. Process the image).
2. Prepare the input image
To recognize barcodes in an image, create anInputImage
object
from either a Bitmap
, media.Image
, ByteBuffer
, byte array, or a file on
the device. Then, pass the InputImage
object to the
BarcodeScanner
's process
method.
You can create an InputImage
object from different sources, each is explained below.
Using a media.Image
To create an InputImage
object from a media.Image
object, such as when you capture an image from a
device's camera, pass the media.Image
object and the image's
rotation to InputImage.fromMediaImage()
.
If you use the
CameraX library, the OnImageCapturedListener
and
ImageAnalysis.Analyzer
classes calculate the rotation value
for you.
Kotlin
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy) { val mediaImage = imageProxy.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
Java
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { Image mediaImage = imageProxy.getImage(); if (mediaImage != null) { InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees()); // Pass image to an ML Kit Vision API // ... } } }
Jeśli nie używasz biblioteki aparatu, która podaje stopień obrotu obrazu, możesz go obliczyć na podstawie stopnia obrotu urządzenia i orientacji czujnika aparatu na urządzeniu:
Kotlin
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 0) ORIENTATIONS.append(Surface.ROTATION_90, 90) ORIENTATIONS.append(Surface.ROTATION_180, 180) ORIENTATIONS.append(Surface.ROTATION_270, 270) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // Get the device's sensor orientation. val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360 } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360 } return rotationCompensation }
Java
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 0); ORIENTATIONS.append(Surface.ROTATION_90, 90); ORIENTATIONS.append(Surface.ROTATION_180, 180); ORIENTATIONS.append(Surface.ROTATION_270, 270); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // Get the device's sensor orientation. CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360; } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360; } return rotationCompensation; }
Następnie prześlij obiekt media.Image
i wartość stopnia obrotu do InputImage.fromMediaImage()
:
Kotlin
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
Korzystanie z identyfikatora URI pliku
Aby utworzyć obiekt InputImage
na podstawie identyfikatora URI pliku, prześlij kontekst aplikacji i identyfikator URI pliku do funkcji InputImage.fromFilePath()
. Jest to przydatne, gdy używasz intencji ACTION_GET_CONTENT
, aby poprosić użytkownika o wybranie obrazu z aplikacji Galeria.
Kotlin
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
Używanie ByteBuffer
lub ByteArray
Aby utworzyć obiekt InputImage
na podstawie obiektu ByteBuffer
lub ByteArray
, najpierw oblicz stopień obrotu obrazu w sposób opisany wcześniej w przypadku danych wejściowych media.Image
.
Następnie utwórz obiekt InputImage
z buforem lub tablicą, a także wysokość, szerokość, format kodowania kolorów i stopień obrotu obrazu:
Kotlin
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ) // Or: val image = InputImage.fromByteArray( byteArray, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
Java
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ); // Or: InputImage image = InputImage.fromByteArray( byteArray, /* image width */480, /* image height */360, rotation, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
Korzystanie z Bitmap
Aby utworzyć obiekt InputImage
z obiektu Bitmap
, wykonaj tę deklarację:
Kotlin
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
Obraz jest reprezentowany przez obiekt Bitmap
z stopniami obrotu.
3. Pobieranie wystąpienia klasy BarcodeScanner
Kotlin
val scanner = BarcodeScanning.getClient() // Or, to specify the formats to recognize: // val scanner = BarcodeScanning.getClient(options)
Java
BarcodeScanner scanner = BarcodeScanning.getClient(); // Or, to specify the formats to recognize: // BarcodeScanner scanner = BarcodeScanning.getClient(options);
4. Przetwarzanie obrazu
Przekaż obraz do metodyprocess
:
Kotlin
val result = scanner.process(image) .addOnSuccessListener { barcodes -> // Task completed successfully // ... } .addOnFailureListener { // Task failed with an exception // ... }
Java
Task<List<Barcode>> result = scanner.process(image) .addOnSuccessListener(new OnSuccessListener<List<Barcode>>() { @Override public void onSuccess(List<Barcode> barcodes) { // Task completed successfully // ... } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } });
5. Pobieranie informacji z kodów kreskowych
Jeśli operacja rozpoznawania kodu kreskowego się powiedzie, do odbiorcy sukcesu zostanie przekazana lista obiektówBarcode
. Każdy obiekt Barcode
reprezentuje kod kreskowy wykryty na obrazie. W przypadku każdego kodu kreskowego możesz uzyskać jego współrzędne ograniczające na obrazie wejściowym, a także dane nieprzetworzone zakodowane w kodzie kreskowym. Jeśli skaner kodów kreskowych był w stanie określić typ danych zakodowanych w kodzie kreskowym, możesz uzyskać obiekt zawierający przeanalizowane dane.
Na przykład:
Kotlin
for (barcode in barcodes) { val bounds = barcode.boundingBox val corners = barcode.cornerPoints val rawValue = barcode.rawValue val valueType = barcode.valueType // See API reference for complete list of supported types when (valueType) { Barcode.TYPE_WIFI -> { val ssid = barcode.wifi!!.ssid val password = barcode.wifi!!.password val type = barcode.wifi!!.encryptionType } Barcode.TYPE_URL -> { val title = barcode.url!!.title val url = barcode.url!!.url } } }
Java
for (Barcode barcode: barcodes) { Rect bounds = barcode.getBoundingBox(); Point[] corners = barcode.getCornerPoints(); String rawValue = barcode.getRawValue(); int valueType = barcode.getValueType(); // See API reference for complete list of supported types switch (valueType) { case Barcode.TYPE_WIFI: String ssid = barcode.getWifi().getSsid(); String password = barcode.getWifi().getPassword(); int type = barcode.getWifi().getEncryptionType(); break; case Barcode.TYPE_URL: String title = barcode.getUrl().getTitle(); String url = barcode.getUrl().getUrl(); break; } }
Wskazówki dotyczące zwiększania skuteczności w czasie rzeczywistym
Jeśli chcesz skanować kody kreskowe w czasie rzeczywistym, postępuj zgodnie z tymi wskazówkami, aby uzyskać najlepszą liczbę klatek na sekundę:
-
Nie rejestruj danych wejściowych w domyślnej rozdzielczości kamery. Na niektórych urządzeniach rejestrowanie danych wejściowych w rodzimej rozdzielczości powoduje, że obrazy są bardzo duże (ponad 10 megapikseli), co powoduje bardzo długi czas oczekiwania bez żadnej korzyści dla dokładności. Zamiast tego poproś o rozmiar z kamery, który jest wymagany do wykrywania kodów kreskowych, który zwykle nie przekracza 2 megapikseli.
Jeśli szybkość skanowania jest ważna, możesz jeszcze bardziej obniżyć rozdzielczość obrazu. Pamiętaj jednak o minimalnym rozmiarze kodu kreskowego, o którym mowa powyżej.
Jeśli próbujesz rozpoznać kody kreskowe na podstawie sekwencji strumieniowych ramek wideo, rozpoznawacz może zwracać różne wyniki w zależności od każdej ramki. Aby mieć pewność, że zwracasz dobry wynik, zaczekaj, aż uzyskasz ciągłą serię tej samej wartości.
Cyfrę kontrolną nie obsługuje się w przypadku kodów ITF i CODE-39.
- Jeśli używasz interfejsu API
Camera
lubcamera2
, ograniczaj wywołania do detektora. Jeśli podczas działania detektora pojawi się nowa klatka wideo, odrzuć ją. Przykładem jest klasaVisionProcessorBase
w przykładowej aplikacji krótkiego wprowadzenia. - Jeśli używasz interfejsu API
CameraX
, upewnij się, że strategia kontroli ciśnienia ma ustawioną wartość domyślnąImageAnalysis.STRATEGY_KEEP_ONLY_LATEST
. Dzięki temu do analizy będzie dostarczany tylko jeden obraz naraz. Jeśli podczas przetwarzania więcej obrazów zostanie wygenerowanych, zostaną one automatycznie odrzucone i nie zostaną umieszczone w kolejce do przesłania. Gdy wywołana zostanie metoda ImageProxy.close(), aby zamknąć analizowany obraz, zostanie przesłany następny najnowszy obraz. - Jeśli używasz danych wyjściowych z detektora do nakładania grafiki na obraz wejściowy, najpierw uzyskaj wynik z ML Kit, a potem wyrenderuj obraz i nałóż go w jednym kroku. Jest on renderowany na powierzchni wyświetlania tylko raz w przypadku każdej ramki wejściowej. Przykłady znajdziesz w klasach
CameraSourcePreview
iGraphicOverlay
w przykładowej aplikacji krótkiego wprowadzenia. - Jeśli używasz interfejsu Camera2 API, rób zdjęcia w formacie
ImageFormat.YUV_420_888
. Jeśli używasz starszej wersji interfejsu Camera API, rób zdjęcia w formacieImageFormat.NV21
.
O ile nie stwierdzono inaczej, treść tej strony jest objęta licencją Creative Commons – uznanie autorstwa 4.0, a fragmenty kodu są dostępne na licencji Apache 2.0. Szczegółowe informacje na ten temat zawierają zasady dotyczące witryny Google Developers. Java jest zastrzeżonym znakiem towarowym firmy Oracle i jej podmiotów stowarzyszonych.
Ostatnia aktualizacja: 2024-12-18 UTC.