Bạn đã bao giờ muốn sao chép văn bản từ một hình ảnh hoặc áp phích hoặc tra cứu ý nghĩa hoặc bản dịch của nó? Chà, tính năng nhận dạng hình ảnh mới của Apple, Live Text, giúp việc này trở nên cực kỳ dễ dàng. Hơn nữa, nó cũng có thể nhận ra các đồ vật, thực vật, động vật và di tích để giúp bạn hiểu thế giới xung quanh dễ dàng hơn.

Nhưng nó thực sự hoạt động tốt như thế nào? Tôi quyết định so sánh Apple Live Text với Google Lens, có khả năng tương tự và đã tồn tại lâu hơn. Hãy cùng tìm hiểu thêm về cả hai và xem cách hoạt động của từng loại.

Văn bản trực tiếp so với Google Ống kính: Khả năng tương thích

Trước hết, Live Text chỉ có sẵn trên hệ sinh thái Apple, vì vậy nó tương thích với:

  • iPhone có chip A12 Bionic trở lên chạy iOS 15
  • iPad mini (thế hệ thứ 5) trở lên, iPad Air (2019, thế hệ thứ 3) trở lên, iPad (2020, thế hệ thứ 8) trở lên, iPad Pro (2020) trở lên, chạy iPadOS 15
  • Máy Mac có chip M1 chạy macOS Monterey

Mặt khác, Google Lens có sẵn trên cả thiết bị iOS và Android. Bài viết này so sánh Live Text của iOS 15 với Google Lens trên cùng một iPhone 11.

Văn bản trực tiếp so với Google Ống kính: Các tính năng

Live Text về cơ bản là câu trả lời của Apple cho Google Lens. Vì vậy, nó cung cấp nhiều tính năng tương tự. Hãy hiểu thêm về cả hai.

Văn bản trực tiếp trên iOS 15 là gì?

Live Text trong iOS 15 bổ sung khả năng nhận dạng văn bản và hình ảnh thông minh cho camera iPhone của bạn. Bạn có thể sử dụng nó để tách văn bản khỏi hình ảnh bằng cách chỉ máy ảnh của bạn vào vật liệu đích hoặc nhận dạng văn bản trong hình ảnh trong thư viện ảnh của bạn. Sau đó, bạn có thể tra cứu văn bản trực tuyến, sao chép, dịch sang ngôn ngữ được hỗ trợ hoặc chia sẻ

Live Text cũng bao gồm Visual Lookup, cho phép bạn tìm chi tiết về các đối tượng, động vật, thực vật và địa điểm bằng cách hướng máy ảnh của bạn vào chúng hoặc từ việc phân tích ảnh chụp chúng.

Google Lens là gì?

Google Lens được ra mắt vào năm 2017 với các bản xem trước ứng dụng được cài đặt sẵn vào Google Pixel 2. Sau đó, nó bắt đầu ra mắt như một ứng dụng độc lập cho điện thoại Android và hiện được tích hợp vào ứng dụng máy ảnh trên các thiết bị Android cao cấp.

Trên iOS, Google Lens có sẵn trong ứng dụng Google. Nó cung cấp tính năng nhận dạng văn bản, dịch thuật, nhận dạng đối tượng và địa điểm, quét mã vạch và mã QR, và thậm chí giúp trả lời các câu hỏi bài tập về nhà cho sinh viên.

Kể từ khi nó xuất hiện được vài năm nay, Google Lens đã phát triển hơn và hoạt động tốt hơn rất nhiều so với Apple Live Text tại thời điểm này. Tôi đã thử nghiệm và so sánh các khả năng chính của cả hai và kết quả được giải thích bên dưới.

Văn bản trực tiếp so với Google Ống kính: Nhận dạng văn bản

Sau nhiều vòng thử nghiệm với các loại văn bản khác nhau, tôi có thể kết luận rằng Văn bản trực tiếp hiện đang được đánh giá cao hoặc bỏ lỡ. Nó hoạt động đôi khi, và những lần khác nó chỉ đơn giản là không nhận dạng văn bản.

Điều này đúng cho dù bạn cố gắng sử dụng nó trên một hình ảnh văn bản hay trực tiếp trong khi hướng máy ảnh vào một số văn bản.

Hơn nữa, tính năng nhận dạng chữ viết tay đã không hoạt động. Điều này có thể là do iOS 15 vẫn đang trong giai đoạn thử nghiệm beta, vì vậy tôi mong muốn thử nghiệm lại tính năng nhận dạng văn bản khi bản phát hành chính thức ra mắt.

Để sử dụng Văn bản trực tiếp, hãy nhấn vào biểu tượng Văn bản trực tiếp ở dưới cùng bên phải của hình ảnh. Biểu tượng này chỉ xuất hiện khi hệ thống phát hiện một số văn bản trong ảnh.

Để nhận dạng văn bản trong kính ngắm máy ảnh, hãy nhấn vào vùng văn bản chung, sau đó nhấn vào biểu tượng màu vàng ở dưới cùng bên phải của màn hình.

Như đã đề cập ở trên, hiện tại, iOS 15 chưa thực sự tốt trong việc nhận diện sự hiện diện của văn bản trong hình ảnh, vì vậy nó hoạt động không liên tục.

Một vài lần tính năng nhận dạng văn bản hoạt động với tôi, tôi có thể chọn văn bản để xem các hành động theo ngữ cảnh mà tôi có thể thực hiện. Ví dụ: tôi có thể chọn Sao chép, Chọn tất cả, Tra cứu, Dịch và Chia sẻ văn bản.

Hoặc, khi Live Text nhận dạng một thời gian, nó cung cấp tùy chọn để thêm lời nhắc vào lịch của tôi.

Thêm lời nhắc bằng Apple Live Text

Tuy nhiên, bất chấp nhiều lần thử, Live Text không nhận dạng được số điện thoại hoặc địa chỉ.

Trong khi đó, Google Lens thực hiện một công việc đặc biệt khi nhận dạng bất kỳ loại văn bản nào, kể cả chữ viết tay. Nó cũng cung cấp các hành động theo ngữ cảnh có liên quan cho số điện thoại, địa chỉ web, địa chỉ đường phố, v.v. Vì vậy, tại thời điểm này, nó là một người chiến thắng rõ ràng và thực sự thuận tiện.

Nhận dạng văn bản ống kính của Google trên iPhone

Văn bản trực tiếp so với Google Ống kính: Bản dịch

Apple Live Text hiện chỉ có sẵn ở bảy ngôn ngữ, trong khi Google Lens có sẵn ở tất cả 108 ngôn ngữ mà Google Dịch hỗ trợ.

Google Lens đưa bản dịch vào ngay văn bản trong hình ảnh trong khi Live Text cung cấp cho nó bên dưới hình ảnh.

Văn bản trực tiếp so với Google Ống kính - Bản dịch

Cả hai đều có vẻ khá chính xác, nhưng Google Lens có thêm lợi ích là dịch chữ viết tay, điều này khá tuyệt!

Google Lens dịch chữ viết tay trên iPhone

Văn bản trực tiếp so với Google Ống kính: Tra cứu bằng hình ảnh

Visual Lookup là một tính năng cho phép bạn nhận ra các đối tượng, di tích, thực vật và động vật trong ảnh bằng cách nhấn vào biểu tượng chữ ‘i’ nhỏ bên dưới hình ảnh.

Xác định đối tượng

Thật không may, có vẻ như tính năng này không hoạt động trong phiên bản iOS 15 beta. Tôi đã thử với nhiều vật thể dễ nhận dạng khác nhau như iPhone và sách, nhưng không có kết quả.

Tra cứu trực quan trong Apple Live Text

Google Ống kính không gặp vấn đề gì khi xác định mọi thứ, như được hiển thị trong ảnh chụp màn hình bên dưới.

Tra cứu hình ảnh trong Google Ống kính

Xác định các điểm mốc

Apple Live Text không tìm nạp bất kỳ kết quả nào khi tôi cố gắng tìm kiếm vị trí trong ảnh.

Google Lens khá thành thạo trong việc xác định các địa danh như trong bức ảnh này của tôi từ Đà Nẵng, Việt Nam.

Các mốc xác định ống kính của Google

Nhận dạng cây và hoa

Điều này cũng không hoạt động trên Apple Live Text, nhưng Google Lens có thể xác định chính xác hoa và thực vật.

Google Ống kính xác định thực vật và hoa

Nhận dạng động vật

Giống như tất cả các tính năng Tra cứu trực quan khác trên Live Text, tính năng này dường như không hoạt động trên iOS 15 beta. Đối với Google Lens, nó có thể xác định con mèo của tôi nhưng không quá rõ ràng về giống mèo.

Google Ống kính nhận dạng động vật

Văn bản trực tiếp so với Google Ống kính: Dễ sử dụng

Mặc dù hầu hết các tính năng Live Text hiện không hoạt động như bình thường, nhưng một trong những lĩnh vực mà nó chiến thắng là tính dễ sử dụng. Việc tích hợp nó vào ứng dụng camera của iPhone khiến nó trở nên vô cùng trực quan và tiện dụng. Tôi chắc chắn rằng nó sẽ thành công khi phiên bản chính thức của iOS phát hành và Live Text hoạt động hết công suất.

So sánh, Google Lens hơi phức tạp vì để truy cập nó, bạn phải vào ứng dụng Google và nhấn vào biểu tượng Google Lens. Sau đó, bạn phải vuốt để chọn tính năng cụ thể mà bạn muốn sử dụng.

Biểu tượng Google Ống kính vào ứng dụng Google trên iPhone

Văn bản trực tiếp so với Google Ống kính: Độ chính xác

Tại thời điểm này, Google Lens chính xác hơn nhiều so với Apple Live Text, cho dù đó là để nhận dạng văn bản, chữ viết tay, địa chỉ, số điện thoại, đối tượng, địa điểm, v.v. Điều này là do Google có nhiều dữ liệu hơn và có đủ thời gian để làm cho Google Ống kính trở nên cực kỳ thông minh.

Tuy nhiên, tôi chắc chắn rằng Live Text sẽ thấy một số cải tiến đáng kể trong năm tới sau khi nó được phát hành chính thức.

Văn bản trực tiếp so với Google Ống kính: Bảo mật

Google nổi tiếng với việc theo dõi và sử dụng dữ liệu của bạn để cá nhân hóa trải nghiệm của bạn, cải thiện các dịch vụ của Google, phát triển thêm AI và hơn thế nữa. Vì vậy, không cần phải nói rằng dữ liệu về những gì bạn tra cứu bằng Google Lens được lưu trữ.

Mặc dù tôi không thể tìm thấy nhiều thông tin về quyền riêng tư của Live Text, nhưng Apple ưu tiên quyền riêng tư, điều này có thể sẽ được tích hợp trong Live Text. Bạn sẽ không phải lo lắng về việc dữ liệu của mình được lưu trữ trên máy chủ hoặc được chia sẻ với các bên thứ ba. Theo dõi không gian này để biết thêm thông tin cập nhật về điều này trong tương lai sau khi iOS 15 chính thức ra mắt công chúng.

Nhận định: Văn bản trực tiếp của iOS 15 so với Google Lens – cái nào tốt hơn?

Điều đó kết thúc so sánh của tôi về các công cụ nhận dạng hình ảnh của Google và Apple. Google Lens đã ra đời được vài năm, vì vậy nó tiên tiến hơn và vượt trội hơn Live Text khi nhận dạng và dịch văn bản, tra cứu mọi thứ và địa điểm trực tuyến, v.v.

Tuy nhiên, nó không thể đánh bại Apple khi chúng tôi xem xét tính dễ sử dụng, tích hợp với hệ sinh thái Apple và tất nhiên, quyền riêng tư. Sự tiện lợi mà Google Lens mang lại phải trả giá bằng dữ liệu của bạn.

Vì vậy, mặc dù Apple có một số việc phải làm khi nói đến công nghệ nhận dạng hình ảnh, Live Text vẫn là một tính năng tích hợp tuyệt vời dành cho người dùng Apple, được thiết lập để nâng cao cách bạn sử dụng iPhone và các thiết bị Apple khác. Bạn nghĩ sao? Hãy cho tôi biết trong các ý kiến ​​dưới đây.