Nhận dạng mực kỹ thuật số bằng Bộ công cụ học máy trên iOS

Với tính năng nhận dạng mực kỹ thuật số của Bộ công cụ học máy, bạn có thể nhận dạng văn bản viết tay trên bề mặt kỹ thuật số bằng hàng trăm ngôn ngữ, cũng như phân loại các bản phác thảo.

Dùng thử

Trước khi bắt đầu

  1. Thêm các thư viện Bộ công cụ học máy sau đây vào Podfile của bạn:

    pod 'GoogleMLKit/DigitalInkRecognition', '3.2.0'
    
    
  2. Sau khi bạn cài đặt hoặc cập nhật Nhóm của dự án, hãy mở dự án Xcode bằng cách sử dụng .xcworkspace của dự án. Bộ công cụ học máy được hỗ trợ trong Xcode phiên bản 13.2.1 trở lên.

Giờ đây, bạn đã sẵn sàng bắt đầu nhận dạng văn bản trong các đối tượng Ink.

Tạo một đối tượng Ink

Cách chính để tạo đối tượng Ink là vẽ đối tượng đó trên màn hình cảm ứng. Trên iOS, bạn có thể sử dụng UIImageView cùng với trình xử lý sự kiện chạm để vẽ các nét trên màn hình và lưu trữ các điểm của nét vẽ để tạo đối tượng Ink. Mẫu chung này được minh hoạ trong đoạn mã sau. Hãy xem phần khởi động nhanh ứng dụng để biết ví dụ hoàn chỉnh hơn, tách biệt việc xử lý sự kiện chạm, vẽ màn hình và quản lý dữ liệu nét vẽ.

Swift

@IBOutlet weak var mainImageView: UIImageView!
var kMillisecondsPerTimeInterval = 1000.0
var lastPoint = CGPoint.zero
private var strokes: [Stroke] = []
private var points: [StrokePoint] = []

func drawLine(from fromPoint: CGPoint, to toPoint: CGPoint) {
  UIGraphicsBeginImageContext(view.frame.size)
  guard let context = UIGraphicsGetCurrentContext() else {
    return
  }
  mainImageView.image?.draw(in: view.bounds)
  context.move(to: fromPoint)
  context.addLine(to: toPoint)
  context.setLineCap(.round)
  context.setBlendMode(.normal)
  context.setLineWidth(10.0)
  context.setStrokeColor(UIColor.white.cgColor)
  context.strokePath()
  mainImageView.image = UIGraphicsGetImageFromCurrentImageContext()
  mainImageView.alpha = 1.0
  UIGraphicsEndImageContext()
}

override func touchesBegan(_ touches: Set, with event: UIEvent?) {
  guard let touch = touches.first else {
    return
  }
  lastPoint = touch.location(in: mainImageView)
  let t = touch.timestamp
  points = [StrokePoint.init(x: Float(lastPoint.x),
                             y: Float(lastPoint.y),
                             t: Int(t * kMillisecondsPerTimeInterval))]
  drawLine(from:lastPoint, to:lastPoint)
}

override func touchesMoved(_ touches: Set, with event: UIEvent?) {
  guard let touch = touches.first else {
    return
  }
  let currentPoint = touch.location(in: mainImageView)
  let t = touch.timestamp
  points.append(StrokePoint.init(x: Float(currentPoint.x),
                                 y: Float(currentPoint.y),
                                 t: Int(t * kMillisecondsPerTimeInterval)))
  drawLine(from: lastPoint, to: currentPoint)
  lastPoint = currentPoint
}

override func touchesEnded(_ touches: Set, with event: UIEvent?) {
  guard let touch = touches.first else {
    return
  }
  let currentPoint = touch.location(in: mainImageView)
  let t = touch.timestamp
  points.append(StrokePoint.init(x: Float(currentPoint.x),
                                 y: Float(currentPoint.y),
                                 t: Int(t * kMillisecondsPerTimeInterval)))
  drawLine(from: lastPoint, to: currentPoint)
  lastPoint = currentPoint
  strokes.append(Stroke.init(points: points))
  self.points = []
  doRecognition()
}

Objective-C

// Interface
@property (weak, nonatomic) IBOutlet UIImageView *mainImageView;
@property(nonatomic) CGPoint lastPoint;
@property(nonatomic) NSMutableArray *strokes;
@property(nonatomic) NSMutableArray *points;

// Implementations
static const double kMillisecondsPerTimeInterval = 1000.0;

- (void)drawLineFrom:(CGPoint)fromPoint to:(CGPoint)toPoint {
  UIGraphicsBeginImageContext(self.mainImageView.frame.size);
  [self.mainImageView.image drawInRect:CGRectMake(0, 0, self.mainImageView.frame.size.width,
                                                  self.mainImageView.frame.size.height)];
  CGContextMoveToPoint(UIGraphicsGetCurrentContext(), fromPoint.x, fromPoint.y);
  CGContextAddLineToPoint(UIGraphicsGetCurrentContext(), toPoint.x, toPoint.y);
  CGContextSetLineCap(UIGraphicsGetCurrentContext(), kCGLineCapRound);
  CGContextSetLineWidth(UIGraphicsGetCurrentContext(), 10.0);
  CGContextSetRGBStrokeColor(UIGraphicsGetCurrentContext(), 1, 1, 1, 1);
  CGContextSetBlendMode(UIGraphicsGetCurrentContext(), kCGBlendModeNormal);
  CGContextStrokePath(UIGraphicsGetCurrentContext());
  CGContextFlush(UIGraphicsGetCurrentContext());
  self.mainImageView.image = UIGraphicsGetImageFromCurrentImageContext();
  UIGraphicsEndImageContext();
}

- (void)touchesBegan:(NSSet *)touches withEvent:(nullable UIEvent *)event {
  UITouch *touch = [touches anyObject];
  self.lastPoint = [touch locationInView:self.mainImageView];
  NSTimeInterval time = [touch timestamp];
  self.points = [NSMutableArray array];
  [self.points addObject:[[MLKStrokePoint alloc] initWithX:self.lastPoint.x
                                                         y:self.lastPoint.y
                                                         t:time * kMillisecondsPerTimeInterval]];
  [self drawLineFrom:self.lastPoint to:self.lastPoint];
}

- (void)touchesMoved:(NSSet *)touches withEvent:(nullable UIEvent *)event {
  UITouch *touch = [touches anyObject];
  CGPoint currentPoint = [touch locationInView:self.mainImageView];
  NSTimeInterval time = [touch timestamp];
  [self.points addObject:[[MLKStrokePoint alloc] initWithX:currentPoint.x
                                                         y:currentPoint.y
                                                         t:time * kMillisecondsPerTimeInterval]];
  [self drawLineFrom:self.lastPoint to:currentPoint];
  self.lastPoint = currentPoint;
}

- (void)touchesEnded:(NSSet *)touches withEvent:(nullable UIEvent *)event {
  UITouch *touch = [touches anyObject];
  CGPoint currentPoint = [touch locationInView:self.mainImageView];
  NSTimeInterval time = [touch timestamp];
  [self.points addObject:[[MLKStrokePoint alloc] initWithX:currentPoint.x
                                                         y:currentPoint.y
                                                         t:time * kMillisecondsPerTimeInterval]];
  [self drawLineFrom:self.lastPoint to:currentPoint];
  self.lastPoint = currentPoint;
  if (self.strokes == nil) {
    self.strokes = [NSMutableArray array];
  }
  [self.strokes addObject:[[MLKStroke alloc] initWithPoints:self.points]];
  self.points = nil;
  [self doRecognition];
}

Lưu ý rằng đoạn mã bao gồm một hàm mẫu để vẽ nét vẽ vào UIImageView. Bạn phải điều chỉnh hàm này nếu cần cho ứng dụng của mình. Bạn nên sử dụng hình tròn khi vẽ các đoạn đường để vẽ các đoạn có độ dài bằng 0 dưới dạng dấu chấm (hãy nghĩ đến dấu chấm trên chữ i viết thường). Hàm doRecognition() được gọi sau khi viết mỗi nét vẽ và sẽ được định nghĩa ở bên dưới.

Nhận một thực thể của DigitalInkRecognizer

Để nhận dạng, chúng ta cần truyền đối tượng Ink đến một thực thể DigitalInkRecognizer. Để có được phiên bản DigitalInkRecognizer, trước tiên, chúng ta cần tải mô hình trình nhận dạng xuống cho ngôn ngữ mong muốn và tải mô hình đó vào RAM. Bạn có thể thực hiện việc này bằng cách sử dụng đoạn mã sau đây. Để đơn giản hoá, bạn có thể đặt đoạn mã này trong phương thức viewDidLoad() và dùng tên ngôn ngữ được mã hoá cứng. Hãy xem phần khởi động nhanh ứng dụng để biết ví dụ về cách hiển thị danh sách ngôn ngữ có sẵn cho người dùng và tải ngôn ngữ đã chọn xuống.

Swift

override func viewDidLoad() {
  super.viewDidLoad()
  let languageTag = "en-US"
  let identifier = DigitalInkRecognitionModelIdentifier(forLanguageTag: languageTag)
  if identifier == nil {
    // no model was found or the language tag couldn't be parsed, handle error.
  }
  let model = DigitalInkRecognitionModel.init(modelIdentifier: identifier!)
  let modelManager = ModelManager.modelManager()
  let conditions = ModelDownloadConditions.init(allowsCellularAccess: true,
                                         allowsBackgroundDownloading: true)
  modelManager.download(model, conditions: conditions)
  // Get a recognizer for the language
  let options: DigitalInkRecognizerOptions = DigitalInkRecognizerOptions.init(model: model)
  recognizer = DigitalInkRecognizer.digitalInkRecognizer(options: options)
}

Objective-C

- (void)viewDidLoad {
  [super viewDidLoad];
  NSString *languagetag = @"en-US";
  MLKDigitalInkRecognitionModelIdentifier *identifier =
      [MLKDigitalInkRecognitionModelIdentifier modelIdentifierForLanguageTag:languagetag];
  if (identifier == nil) {
    // no model was found or the language tag couldn't be parsed, handle error.
  }
  MLKDigitalInkRecognitionModel *model = [[MLKDigitalInkRecognitionModel alloc]
                                          initWithModelIdentifier:identifier];
  MLKModelManager *modelManager = [MLKModelManager modelManager];
  [modelManager downloadModel:model conditions:[[MLKModelDownloadConditions alloc]
                                                initWithAllowsCellularAccess:YES
                                                allowsBackgroundDownloading:YES]];
  MLKDigitalInkRecognizerOptions *options =
      [[MLKDigitalInkRecognizerOptions alloc] initWithModel:model];
  self.recognizer = [MLKDigitalInkRecognizer digitalInkRecognizerWithOptions:options];
}

Ứng dụng khởi động nhanh chứa mã bổ sung cho biết cách xử lý nhiều lượt tải xuống cùng một lúc và cách xác định lượt tải xuống nào thành công bằng cách xử lý thông báo hoàn tất.

Nhận dạng đối tượng Ink

Tiếp theo, chúng ta sẽ chuyển đến hàm doRecognition(). Để đơn giản, hàm này được gọi từ touchesEnded(). Trong các ứng dụng khác, bạn có thể chỉ muốn gọi tính năng nhận dạng sau khi hết thời gian chờ hoặc khi người dùng nhấn nút để kích hoạt tính năng nhận dạng.

Swift

func doRecognition() {
  let ink = Ink.init(strokes: strokes)
  recognizer.recognize(
    ink: ink,
    completion: {
      [unowned self]
      (result: DigitalInkRecognitionResult?, error: Error?) in
      var alertTitle = ""
      var alertText = ""
      if let result = result, let candidate = result.candidates.first {
        alertTitle = "I recognized this:"
        alertText = candidate.text
      } else {
        alertTitle = "I hit an error:"
        alertText = error!.localizedDescription
      }
      let alert = UIAlertController(title: alertTitle,
                                  message: alertText,
                           preferredStyle: UIAlertController.Style.alert)
      alert.addAction(UIAlertAction(title: "OK",
                                    style: UIAlertAction.Style.default,
                                  handler: nil))
      self.present(alert, animated: true, completion: nil)
    }
  )
}

Objective-C

- (void)doRecognition {
  MLKInk *ink = [[MLKInk alloc] initWithStrokes:self.strokes];
  __weak typeof(self) weakSelf = self;
  [self.recognizer
      recognizeInk:ink
        completion:^(MLKDigitalInkRecognitionResult *_Nullable result,
                     NSError *_Nullable error) {
    typeof(weakSelf) strongSelf = weakSelf;
    if (strongSelf == nil) {
      return;
    }
    NSString *alertTitle = nil;
    NSString *alertText = nil;
    if (result.candidates.count > 0) {
      alertTitle = @"I recognized this:";
      alertText = result.candidates[0].text;
    } else {
      alertTitle = @"I hit an error:";
      alertText = [error localizedDescription];
    }
    UIAlertController *alert =
        [UIAlertController alertControllerWithTitle:alertTitle
                                            message:alertText
                                     preferredStyle:UIAlertControllerStyleAlert];
    [alert addAction:[UIAlertAction actionWithTitle:@"OK"
                                              style:UIAlertActionStyleDefault
                                            handler:nil]];
    [strongSelf presentViewController:alert animated:YES completion:nil];
  }];
}

Quản lý lượt tải mô hình xuống

Chúng ta đã biết cách tải một mô hình nhận dạng xuống. Các đoạn mã sau đây minh hoạ cách kiểm tra xem một mô hình đã được tải xuống hay chưa, hoặc xoá một mô hình khi không cần dùng nữa để khôi phục không gian lưu trữ.

Kiểm tra xem mô hình đã được tải xuống hay chưa

Swift

let model : DigitalInkRecognitionModel = ...
let modelManager = ModelManager.modelManager()
modelManager.isModelDownloaded(model)

Objective-C

MLKDigitalInkRecognitionModel *model = ...;
MLKModelManager *modelManager = [MLKModelManager modelManager];
[modelManager isModelDownloaded:model];

Xoá mô hình đã tải xuống

Swift

let model : DigitalInkRecognitionModel = ...
let modelManager = ModelManager.modelManager()

if modelManager.isModelDownloaded(model) {
  modelManager.deleteDownloadedModel(
    model!,
    completion: {
      error in
      if error != nil {
        // Handle error
        return
      }
      NSLog(@"Model deleted.");
    })
}

Objective-C

MLKDigitalInkRecognitionModel *model = ...;
MLKModelManager *modelManager = [MLKModelManager modelManager];

if ([self.modelManager isModelDownloaded:model]) {
  [self.modelManager deleteDownloadedModel:model
                                completion:^(NSError *_Nullable error) {
                                  if (error) {
                                    // Handle error.
                                    return;
                                  }
                                  NSLog(@"Model deleted.");
                                }];
}

Mẹo cải thiện độ chính xác của tính năng nhận dạng văn bản

Độ chính xác của tính năng nhận dạng văn bản có thể khác nhau giữa các ngôn ngữ. Độ chính xác cũng phụ thuộc vào phong cách viết. Mặc dù công nghệ Nhận dạng mực kỹ thuật số được huấn luyện để xử lý nhiều loại kiểu viết, nhưng kết quả có thể khác nhau tuỳ theo người dùng.

Sau đây là một số cách cải thiện độ chính xác của trình nhận dạng văn bản. Xin lưu ý rằng những kỹ thuật này không áp dụng cho thuật toán phân loại bản vẽ đối với biểu tượng cảm xúc, tính năng tự động vẽ và hình dạng.

Khu vực viết

Nhiều ứng dụng có vùng viết được xác định rõ ràng cho thao tác nhập của người dùng. Ý nghĩa của biểu tượng được xác định một phần dựa trên kích thước tương ứng với kích thước của vùng viết chứa ký hiệu đó. Ví dụ: sự khác biệt giữa chữ cái viết thường hoặc viết hoa "o" hoặc "c", dấu phẩy so với dấu gạch chéo lên.

Việc cho trình nhận dạng biết chiều rộng và chiều cao của vùng viết có thể cải thiện độ chính xác. Tuy nhiên, trình nhận dạng sẽ giả định rằng vùng viết chỉ chứa một dòng văn bản. Nếu vùng viết thực tế đủ lớn để cho phép người dùng viết 2 dòng trở lên, bạn có thể nhận được kết quả tốt hơn bằng cách truyền vào một WriteArea có chiều cao là ước tính chính xác nhất về chiều cao của một dòng văn bản. Đối tượng WriteArea mà bạn truyền đến trình nhận dạng không cần phải tương ứng chính xác với vùng viết thực trên màn hình. Việc thay đổi chiều cao của WriteArea theo cách này sẽ hoạt động tốt hơn ở một số ngôn ngữ so với các ngôn ngữ khác.

Khi bạn chỉ định vùng viết, hãy chỉ định chiều rộng và chiều cao của vùng đó bằng cùng đơn vị với toạ độ nét vẽ. Đối số toạ độ x,y không có yêu cầu về đơn vị – API chuẩn hoá tất cả đơn vị, vì vậy, điều duy nhất quan trọng là kích thước và vị trí tương đối của nét. Bạn có thể truyền toạ độ theo bất kỳ tỷ lệ nào phù hợp với hệ thống của mình.

Bối cảnh trước

Ngữ cảnh trước là văn bản đứng ngay trước nét chữ trong Ink mà bạn đang cố gắng nhận dạng. Bạn có thể giúp trình nhận dạng bằng cách nói về bối cảnh trước.

Ví dụ: các chữ cái viết tay "n" và "u" thường bị nhầm lẫn với nhau. Nếu người dùng đã nhập một phần từ "arg", họ có thể tiếp tục bằng các nét vẽ có thể được nhận dạng là "ument" hoặc "nment". Việc chỉ định "arg" trước ngữ cảnh sẽ giải quyết sự không rõ ràng, vì từ "đối số" có nhiều khả năng hơn "argnment".

Bối cảnh trước cũng có thể giúp trình nhận dạng xác định dấu ngắt từ, dấu cách giữa các từ. Bạn có thể nhập một ký tự dấu cách nhưng không thể vẽ một ký tự, vậy làm thế nào trình nhận dạng có thể xác định thời điểm một từ kết thúc và từ tiếp theo bắt đầu? Nếu người dùng đã viết "hello" và tiếp tục với từ "world" (thế giới), nếu không có ngữ cảnh trước thì trình nhận dạng sẽ trả về chuỗi "world". Tuy nhiên, nếu bạn chỉ định chữ "hello" trước ngữ cảnh, thì mô hình sẽ trả về chuỗi "world" (thế giới), với một dấu cách ở đầu, vì "helloworld" sẽ có ý nghĩa hơn "helloword".

Bạn nên cung cấp chuỗi dài nhất có thể theo ngữ cảnh trước, tối đa 20 ký tự, bao gồm cả dấu cách. Nếu chuỗi dài hơn thì trình nhận dạng chỉ sử dụng 20 ký tự cuối cùng.

Mã mẫu dưới đây cho biết cách xác định một vùng viết và sử dụng đối tượng RecognitionContext để chỉ định ngữ cảnh trước.

Swift

let ink: Ink = ...;
let recognizer: DigitalInkRecognizer =  ...;
let preContext: String = ...;
let writingArea = WritingArea.init(width: ..., height: ...);

let context: DigitalInkRecognitionContext.init(
    preContext: preContext,
    writingArea: writingArea);

recognizer.recognizeHandwriting(
  from: ink,
  context: context,
  completion: {
    (result: DigitalInkRecognitionResult?, error: Error?) in
    if let result = result, let candidate = result.candidates.first {
      NSLog("Recognized \(candidate.text)")
    } else {
      NSLog("Recognition error \(error)")
    }
  })

Objective-C

MLKInk *ink = ...;
MLKDigitalInkRecognizer *recognizer = ...;
NSString *preContext = ...;
MLKWritingArea *writingArea = [MLKWritingArea initWithWidth:...
                                              height:...];

MLKDigitalInkRecognitionContext *context = [MLKDigitalInkRecognitionContext
       initWithPreContext:preContext
       writingArea:writingArea];

[recognizer recognizeHandwritingFromInk:ink
            context:context
            completion:^(MLKDigitalInkRecognitionResult
                         *_Nullable result, NSError *_Nullable error) {
                               NSLog(@"Recognition result %@",
                                     result.candidates[0].text);
                         }];

Thứ tự nét vẽ

Độ chính xác của tính năng nhận dạng phụ thuộc vào thứ tự nét vẽ. Trình nhận dạng mong muốn các nét vẽ sẽ xảy ra theo thứ tự mà mọi người sẽ viết một cách tự nhiên; ví dụ: từ trái sang phải đối với tiếng Anh. Mọi trường hợp khởi hành từ mẫu này, chẳng hạn như viết một câu tiếng Anh bắt đầu bằng từ cuối cùng, sẽ cho kết quả kém chính xác hơn.

Ví dụ khác là trường hợp một từ ở giữa Ink bị xoá và thay thế bằng một từ khác. Bản sửa đổi có thể nằm ở giữa câu, nhưng các nét của bản sửa đổi lại ở cuối trình tự nét vẽ. Trong trường hợp này, bạn nên gửi riêng từ mới viết tới API và hợp nhất kết quả với những nhận dạng trước đó bằng cách sử dụng logic của riêng bạn.

Xử lý những hình dạng mơ hồ

Có những trường hợp ý nghĩa của hình dạng được cung cấp cho trình nhận dạng là không rõ ràng. Ví dụ: một hình chữ nhật có các cạnh rất tròn có thể được xem là hình chữ nhật hoặc hình elip.

Bạn có thể xử lý những trường hợp không rõ ràng này bằng cách sử dụng điểm số nhận dạng (nếu có). Chỉ các thuật toán phân loại hình dạng mới cung cấp điểm. Nếu mô hình rất tự tin, điểm số của kết quả hàng đầu sẽ cao hơn nhiều so với kết quả tốt thứ hai. Nếu không chắc chắn, điểm số cho hai kết quả hàng đầu sẽ sát nhau. Ngoài ra, hãy lưu ý rằng các thuật toán phân loại hình dạng sẽ diễn giải toàn bộ Ink là một hình dạng duy nhất. Ví dụ: nếu Ink chứa một hình chữ nhật và một hình elip nằm cạnh nhau, thì trình nhận dạng có thể trả về kết quả là một hình chữ nhật (hoặc một hình dạng hoàn toàn khác), vì một đề xuất nhận dạng duy nhất không thể biểu thị hai hình dạng.