Core ML : Xây dựng ứng dụng xác định vật thể
1 - Core ML là gì? Core ML là một frame work về machine learning được ra mắt tại WWDC 2017. Core ML giúp sử dụng các “Trained models” trong các ứng dụng chỉ với vài dòng code với một hiệu năng tuyệt vời. 2. Xây dựng ứng dụng Core ML Model : Đây là định dạng của trained model ...
1 - Core ML là gì?
Core ML là một frame work về machine learning được ra mắt tại WWDC 2017. Core ML giúp sử dụng các “Trained models” trong các ứng dụng chỉ với vài dòng code với một hiệu năng tuyệt vời.
2. Xây dựng ứng dụng
Core ML Model :
Đây là định dạng của trained model được sử dụng trong Core ML. Để có model sử dụng trong app, chúng ta có thể chuyển đổi rất nhiều các dạng trained model phổ biến có sắn sang Core ML model bằng Core ML Tools ( chi tiết xem tại đây ).
Trong project này mình sử dụng Inception V3 (một model cho phép xác định hơn 1000 các nhóm đối tượng khác nhau trên ảnh như cây cối, động vật, thức ăn …). Các bạn có thể tải Model này cũng như một số model khác ngay tại https://developer.apple.com/machine-learning/.
Để đưa model vào project chúng ta chỉ việc kéo chúng vào, khi click vào model chúng ta có thể thấy được input và output của chúng.
Cài đặt Vision với Core ML Model
Khi kéo model vào project, xcode đã tự động tạo ra các file code liên quan, việc còn lại của chúng ta chỉ là viết nốt vài dòng code , đầu tiên chúng ta cần tạo một biến VNCoreMLRequest :
lazy var classificationRequest: VNCoreMLRequest = {
do {
let model = try VNCoreMLModel(for: Inceptionv3().model)
let request = VNCoreMLRequest(model: model, completionHandler: { [weak self] request, error in
self?.processClassifications(for: request, error: error)
})
request.imageCropAndScaleOption = .centerCrop
return request
} catch {
fatalError("Failed to load Vision ML model: (error)")
}
}()
Trong đó processClassifications là hàm xử lý dữ liệu trả về :
func processClassifications(for request: VNRequest, error: Error?) {
DispatchQueue.main.async {
guard let results = request.results else {
return
}
// The `results` will always be `VNClassificationObservation`s, as specified by the Core ML model in this project.
let classifications = results as! [VNClassificationObservation]
if classifications.isEmpty {
return
} else {
let topClassifications = classifications.prefix(2)
let descriptions = topClassifications.map { classification in
return String(format: " (%.2f) %@", classification.confidence, classification.identifier)
}
self.answerLabel.text = "Classification:
" + descriptions.joined(separator: "
")
}
}
}
Chạy Vision Request :
Cuối cùng là gọi request :
DispatchQueue.global(qos: .userInitiated).async {
let handler = VNImageRequestHandler(ciImage: ciImage, orientation: orientation)
do {
try handler.perform([self.classificationRequest])
} catch {
print("Failed to perform classification.
(error.localizedDescription)")
}
}
Kết quả
Và đây là kết quả thu được :
ref :
https://developer.apple.com/documentation/coreml
https://developer.apple.com/documentation/vision/classifying_images_with_vision_and_core_ml
https://www.raywenderlich.com/164213/coreml-and-vision-machine-learning-in-ios-11-tutorial