Puoi utilizzare ML Kit per riconoscere e decodificare i codici a barre.
Funzionalità | Non raggruppati | In bundle |
---|---|---|
Implementazione | Il modello viene scaricato in modo dinamico tramite Google Play Services. | Il modello è collegato in modo statico alla tua app al momento della creazione. |
Dimensioni app | Aumento di circa 200 kB. | Aumento di circa 2,4 MB. |
Tempo di inizializzazione | Potrebbe essere necessario attendere il download del modello prima del primo utilizzo. | Il modello è disponibile immediatamente. |
Prova subito
- Prova l'app di esempio per vedere un esempio di utilizzo di questa API.
- Consulta l'app Material Design Showcase per un'implementazione end-to-end di questa API.
Prima di iniziare
Nel file
build.gradle
a livello di progetto, assicurati di includere il repository Maven di Google nelle sezionibuildscript
eallprojects
.Aggiungi le dipendenze per le librerie Android di ML Kit al file gradle a livello di app del tuo modulo, che in genere è
app/build.gradle
. Scegli una delle seguenti dipendenze in base alle tue esigenze:Per raggruppare il modello con la tua app:
dependencies { // ... // Use this dependency to bundle the model with your app implementation 'com.google.mlkit:barcode-scanning:17.0.3' }
Per usare il modello in Google Play Services:
dependencies { // ... // Use this dependency to use the dynamically downloaded model in Google Play Services implementation 'com.google.android.gms:play-services-mlkit-barcode-scanning:18.1.0' }
Se scegli di utilizzare il modello in Google Play Services, puoi configurare l'app in modo da scaricarlo automaticamente sul dispositivo dopo l'installazione da Play Store. Per farlo, aggiungi la seguente dichiarazione al file
AndroidManifest.xml
della tua app:<application ...> ... <meta-data android:name="com.google.mlkit.vision.DEPENDENCIES" android:value="barcode" > <!-- To use multiple models: android:value="barcode,model2,model3" --> </application>
Puoi anche controllare esplicitamente la disponibilità del modello e richiedere il download tramite l'API ModuleInstallClient di Google Play Services.
Se non attivi i download del modello al momento dell'installazione o non richiedi il download esplicito, il modello verrà scaricato la prima volta che esegui lo scanner. Le richieste effettuate prima del completamento del download non generano alcun risultato.
Linee guida sull'immagine di input
-
Affinché ML Kit possa leggere con precisione i codici a barre, le immagini di input devono contenere codici a barre rappresentati da dati pixel sufficienti.
I requisiti specifici per i dati dei pixel dipendono sia dal tipo di codice a barre sia dalla quantità di dati codificati al suo interno, dato che molti codici a barre supportano un payload di dimensioni variabili. In generale, l'unità più piccola significativa del codice a barre deve essere larga almeno 2 pixel, mentre per i codici bidimensionali è alta 2 pixel.
Ad esempio, i codici a barre EAN-13 sono composti da barre e spazi larghi 1, 2, 3 o 4 unità, quindi un'immagine codice a barre EAN-13 ha idealmente barre e spazi con una larghezza di almeno 2, 4, 6 e 8 pixel. Poiché un codice a barre EAN-13 ha una larghezza totale di 95 unità, il codice a barre deve avere una larghezza di almeno 190 pixel.
I formati più densi, come PDF417, richiedono dimensioni maggiori in pixel affinché ML Kit possa leggerli in modo affidabile. Ad esempio, un codice PDF417 può avere fino a 34 "parole" larghe 17 unità in una singola riga, che sarebbe idealmente larga almeno 1156 pixel.
-
Una messa a fuoco dell'immagine scadente può influire sulla precisione della scansione. Se la tua app non ottiene risultati accettabili, chiedi all'utente di riprendere l'immagine.
-
Per le applicazioni tipiche, consigliamo di fornire un'immagine con risoluzione più elevata, ad esempio 1280 x 720 o 1920 x 1080, in modo da poter scansionare i codici a barre da una distanza maggiore dalla fotocamera.
Tuttavia, nelle applicazioni in cui la latenza è fondamentale, puoi migliorare le prestazioni acquisendo immagini a una risoluzione inferiore, ma richiedendo che il codice a barre rappresenti la maggior parte dell'immagine di input. Consulta anche i suggerimenti per migliorare le prestazioni in tempo reale.
1. Configurare il lettore di codici a barre
Se sai quali formati di codici a barre prevedi di leggere, puoi migliorare la velocità del rilevatore di codici a barre configurandolo in modo che rilevi solo questi formati.Ad esempio, per rilevare solo il codice azteco e i codici QR, crea un oggetto BarcodeScannerOptions
come nell'esempio seguente:
Kotlin
val options = BarcodeScannerOptions.Builder() .setBarcodeFormats( Barcode.FORMAT_QR_CODE, Barcode.FORMAT_AZTEC) .build()
Java
BarcodeScannerOptions options = new BarcodeScannerOptions.Builder() .setBarcodeFormats( Barcode.FORMAT_QR_CODE, Barcode.FORMAT_AZTEC) .build();
Sono supportati i seguenti formati:
- Codice 128 (
FORMAT_CODE_128
) - Codice 39 (
FORMAT_CODE_39
) - Codice 93 (
FORMAT_CODE_93
) - Codabar (
FORMAT_CODABAR
) - EAN-13 (
FORMAT_EAN_13
) - EAN-8 (
FORMAT_EAN_8
) - ITF (
FORMAT_ITF
) - UPC-A (
FORMAT_UPC_A
) - UPC-E (
FORMAT_UPC_E
) - Codice QR (
FORMAT_QR_CODE
) - PDF417 (
FORMAT_PDF417
) - Azteco (
FORMAT_AZTEC
) - Matrice di dati (
FORMAT_DATA_MATRIX
)
2. Prepara l'immagine di input
Per riconoscere i codici a barre in un'immagine, crea un oggettoInputImage
da un Bitmap
, media.Image
, ByteBuffer
, un array di byte o un file sul dispositivo. Quindi, passa l'oggetto InputImage
al metodo process
di BarcodeScanner
.
Puoi creare un oggetto InputImage
da diverse origini, ognuno dei quali è spiegato di seguito.
media.Image
Per creare un oggetto InputImage
da un oggetto media.Image
, ad esempio quando acquisisci un'immagine dalla fotocamera di un dispositivo, passa l'oggetto media.Image
e la rotazione dell'immagine a InputImage.fromMediaImage()
.
Se utilizzi la libreria
CameraX, le classi OnImageCapturedListener
e
ImageAnalysis.Analyzer
calcolano il valore di rotazione
automaticamente.
Kotlin
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy) { val mediaImage = imageProxy.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
Java
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { Image mediaImage = imageProxy.getImage(); if (mediaImage != null) { InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees()); // Pass image to an ML Kit Vision API // ... } } }
Se non utilizzi una libreria delle videocamere che ti dà il grado di rotazione dell'immagine, puoi calcolarla in base al grado di rotazione e all'orientamento del sensore della videocamera del dispositivo:
Kotlin
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 0) ORIENTATIONS.append(Surface.ROTATION_90, 90) ORIENTATIONS.append(Surface.ROTATION_180, 180) ORIENTATIONS.append(Surface.ROTATION_270, 270) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // Get the device's sensor orientation. val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360 } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360 } return rotationCompensation }
Java
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 0); ORIENTATIONS.append(Surface.ROTATION_90, 90); ORIENTATIONS.append(Surface.ROTATION_180, 180); ORIENTATIONS.append(Surface.ROTATION_270, 270); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // Get the device's sensor orientation. CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360; } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360; } return rotationCompensation; }
Quindi, passa l'oggetto media.Image
e il valore del grado di rotazione a InputImage.fromMediaImage()
:
Kotlin
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
usando l'URI di un file.
Per creare un oggetto InputImage
da un URI del file, passa il contesto dell'app e l'URI del file a InputImage.fromFilePath()
. Questa operazione è utile quando
utilizzi un intento ACTION_GET_CONTENT
per richiedere all'utente di selezionare
un'immagine dalla sua app Galleria.
Kotlin
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
ByteBuffer
o ByteArray
Per creare un oggetto InputImage
da un elemento ByteBuffer
o ByteArray
, innanzitutto calcola il grado di rotazione delle immagini come descritto in precedenza per l'input media.Image
.
Quindi, crea l'oggetto InputImage
con il buffer o l'array, insieme ad altezza, larghezza, formato di codifica dei colori e grado di rotazione dell'immagine:
Kotlin
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ) // Or: val image = InputImage.fromByteArray( byteArray, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
Java
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ); // Or: InputImage image = InputImage.fromByteArray( byteArray, /* image width */480, /* image height */360, rotation, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
Bitmap
Per creare un oggetto InputImage
da un oggetto Bitmap
, effettua la seguente dichiarazione:
Kotlin
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
L'immagine è rappresentata da un oggetto Bitmap
insieme ai gradi di rotazione.
3. Ottieni un'istanza di BarcodeScanner
Kotlin
val scanner = BarcodeScanning.getClient() // Or, to specify the formats to recognize: // val scanner = BarcodeScanning.getClient(options)
Java
BarcodeScanner scanner = BarcodeScanning.getClient(); // Or, to specify the formats to recognize: // BarcodeScanner scanner = BarcodeScanning.getClient(options);
4. Elabora immagine
Passa l'immagine al metodoprocess
:
Kotlin
val result = scanner.process(image) .addOnSuccessListener { barcodes -> // Task completed successfully // ... } .addOnFailureListener { // Task failed with an exception // ... }
Java
Task<List<Barcode>> result = scanner.process(image) .addOnSuccessListener(new OnSuccessListener<List<Barcode>>() { @Override public void onSuccess(List<Barcode> barcodes) { // Task completed successfully // ... } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } });
5. Ricevi informazioni dai codici a barre
Se l'operazione di riconoscimento dei codici a barre ha esito positivo, un elenco di oggettiBarcode
verrà passato al listener riuscito. Ogni oggetto Barcode
rappresenta un codice a barre rilevato nell'immagine. Per ogni codice a barre, puoi ottenere le coordinate di delimitazione nell'immagine di input, nonché i dati non elaborati codificati dal codice a barre. Inoltre, se il lettore di codici a barre è in grado di determinare il tipo di dati codificati dal codice a barre, puoi ottenere un oggetto contenente dati analizzati.
Ad esempio:
Kotlin
for (barcode in barcodes) { val bounds = barcode.boundingBox val corners = barcode.cornerPoints val rawValue = barcode.rawValue val valueType = barcode.valueType // See API reference for complete list of supported types when (valueType) { Barcode.TYPE_WIFI -> { val ssid = barcode.wifi!!.ssid val password = barcode.wifi!!.password val type = barcode.wifi!!.encryptionType } Barcode.TYPE_URL -> { val title = barcode.url!!.title val url = barcode.url!!.url } } }
Java
for (Barcode barcode: barcodes) { Rect bounds = barcode.getBoundingBox(); Point[] corners = barcode.getCornerPoints(); String rawValue = barcode.getRawValue(); int valueType = barcode.getValueType(); // See API reference for complete list of supported types switch (valueType) { case Barcode.TYPE_WIFI: String ssid = barcode.getWifi().getSsid(); String password = barcode.getWifi().getPassword(); int type = barcode.getWifi().getEncryptionType(); break; case Barcode.TYPE_URL: String title = barcode.getUrl().getTitle(); String url = barcode.getUrl().getUrl(); break; } }
Suggerimenti per migliorare il rendimento in tempo reale
Se vuoi scansionare i codici a barre in un'applicazione in tempo reale, segui queste linee guida per ottenere la migliore frequenza fotogrammi:
-
Non acquisire l'input con la risoluzione nativa della videocamera. Su alcuni dispositivi, l'acquisizione degli input con la risoluzione nativa produce immagini estremamente grandi (oltre 10 megapixel), il che si traduce in una latenza molto bassa senza vantaggi per la precisione. Richiedere invece alla fotocamera solo le dimensioni necessarie per il rilevamento dei codici a barre, che di solito non superano i 2 megapixel.
Se la velocità di scansione è importante, puoi ridurre ulteriormente la risoluzione di acquisizione delle immagini. Tuttavia, tieni presente i requisiti minimi per le dimensioni dei codici a barre indicati sopra.
Se stai cercando di riconoscere i codici a barre da una sequenza di frame video in streaming, il riconoscimento potrebbe produrre risultati diversi da un frame all'altro. Devi attendere finché non ottieni una serie consecutivi di valori uguali per assicurarti di restituire un buon risultato.
La cifra di checksum non è supportata per ITF e CODE-39.
- Se utilizzi l'API
Camera
ocamera2
, limita le chiamate al rilevatore. Se è disponibile un nuovo frame video mentre il rilevatore è in esecuzione, elimina il frame. Guarda la classeVisionProcessorBase
nell'app di esempio della guida rapida per un esempio. - Se utilizzi l'API
CameraX
, assicurati che la strategia di contropressione sia impostata sul valore predefinitoImageAnalysis.STRATEGY_KEEP_ONLY_LATEST
. In questo modo, verrà fornita una sola immagine alla volta per l'analisi. Se vengono generate più immagini quando lo strumento di analisi è occupato, verranno eliminate automaticamente e non saranno messe in coda per la pubblicazione. Una volta che l'immagine analizzata viene chiusa chiamando ImageProxy.close(), verrà pubblicata l'ultima immagine successiva. - Se utilizzi l'output del rilevatore per sovrapporre la grafica all'immagine di input, prima ottieni il risultato da ML Kit, quindi visualizza l'immagine e l'overlay in un solo passaggio. Questo viene visualizzato nella superficie di visualizzazione
una sola volta per ogni frame di input. Guarda un esempio delle classi
CameraSourcePreview
eGraphicOverlay
nell'app di esempio della guida rapida. - Se utilizzi l'API Camera2, acquisisci le immagini nel formato
ImageFormat.YUV_420_888
. Se utilizzi la versione precedente dell'API Camera, acquisisci le immagini in formatoImageFormat.NV21
.