Texto en vivo vs. Google Lens: ¿Cuál es mejor?
¿Alguna vez has querido copiar el texto de una imagen o póster o buscar su significado o traducción? Bueno, la nueva función de reconocimiento de imágenes de Apple, Live Text, lo hace muy fácil. Además, también puede reconocer objetos, plantas, animales y monumentos para facilitar la comprensión del mundo que le rodea.
Pero, ¿qué tan bien funciona realmente? Decidí comparar Apple Live Text con Google Lens, que tiene capacidades similares y existe desde hace mucho más tiempo. Aprendamos más sobre ambos y veamos cómo se desempeña cada uno.
- Texto en vivo vs. Google Lens: compatibilidad
- Texto en vivo vs. Google Lens: características
- Texto en vivo vs. Google Lens: Reconocimiento de texto
- Texto en vivo vs. Google Lens: traducción
- Texto en vivo vs. Google Lens: Búsqueda visual
- Texto en vivo vs. Google Lens: Facilidad de uso
- Texto en vivo vs. Google Lens: precisión
- Texto en vivo vs. Google Lens: privacidad
Texto en vivo vs. Google Lens: compatibilidad
En primer lugar, Live Text está disponible exclusivamente en todo el ecosistema de Apple, por lo que es compatible con:
- iPhones con el chip A12 Bionic y posteriores con iOS 15
- iPad mini (5.ª generación) y modelos posteriores, iPad Air (2019, 3.ª generación) y modelos posteriores, iPad (2020, 8.ª generación) y modelos posteriores, iPad Pro (2020) y modelos posteriores con iPadOS 15
- Mac con el chip M1 con macOS Monterey
Google Lens, por otro lado, está disponible en dispositivos iOS y Android. Este artículo compara Live Text de iOS 15 con Google Lens en el mismo iPhone 11.
Texto en vivo vs. Google Lens: características
Live Text es esencialmente la respuesta de Apple a Google Lens. Por lo tanto, ofrece muchas características similares. Entendamos más sobre ambos.
¿Qué es iOS 15 Live Text?
Live Text en iOS 15 agrega funciones inteligentes de reconocimiento de texto e imágenes a la cámara de tu iPhone. Puede usarlo para aislar el texto de las imágenes simplemente apuntando su cámara al material de destino o reconociendo el texto en las imágenes de su biblioteca de fotos. A continuación, puede buscar el texto en línea, copiarlo, traducirlo a un idioma compatible o compartirlo
Live Text también incluye Visual Lookup, que te permite encontrar detalles sobre objetos, animales, plantas y lugares apuntando tu cámara hacia ellos o analizando fotos de ellos.
¿Qué es Google Lens?
Google Lens se lanzó en 2017 con vistas previas de aplicaciones preinstaladas en el Google Pixel 2. Más tarde comenzó a implementarse como una aplicación independiente para teléfonos Android y ahora está integrada en la aplicación de la cámara en dispositivos Android de gama alta.
En iOS, Google Lens está disponible en la aplicación de Google. Ofrece reconocimiento de texto, traducción, reconocimiento de objetos y lugares, escaneo de códigos de barras y códigos QR, e incluso ayuda con las preguntas de la tarea para los estudiantes.
Dado que existe desde hace algunos años, Google Lens está más desarrollado y funciona mucho mejor que Apple Live Text en este momento. Probé y comparé las principales capacidades de ambos, y los resultados se explican a continuación.
Texto en vivo vs. Google Lens: Reconocimiento de texto
Después de varias rondas de pruebas con diferentes tipos de texto, puedo concluir que Live Text es actualmente impredecible. A veces funciona, y otras veces simplemente no reconoce el texto.
Esto es cierto ya sea que intente usarlo en una imagen de texto o directamente mientras apunta la cámara a algún texto.
Además, el reconocimiento de escritura a mano no funcionó en absoluto. Esto probablemente se deba a que iOS 15 todavía está en pruebas beta, por lo que espero volver a probar el reconocimiento de texto una vez que salga el lanzamiento oficial.
Para usar Live Text, toca el icono de Live Text en la parte inferior derecha de una imagen. Este icono solo aparece cuando el sistema ha detectado algún texto en la imagen.
Para reconocer texto en el visor de la cámara, toque el área genérica de texto y, a continuación, toque el icono amarillo en la parte inferior derecha de la pantalla.
Como se mencionó anteriormente, actualmente, iOS 15 no es muy bueno para reconocer la presencia de texto en las imágenes, por lo que funciona de manera intermitente.
Las pocas veces que el reconocimiento de texto funcionó para mí, pude seleccionar el texto para ver las acciones contextuales que podía realizar. Por ejemplo, podría elegir Copiar, Seleccionar todo, Buscar, Traducir y Compartir texto.
O bien, cuando Live Text reconocía una hora, ofrecía la opción de agregar un recordatorio a mi calendario.
Sin embargo, a pesar de varios intentos, Live Text no reconoció números de teléfono ni direcciones.
En comparación, Google Lens hace un trabajo excepcional al reconocer cualquier tipo de texto, incluida la escritura a mano. También proporcionó las acciones contextuales relevantes para números de teléfono, direcciones web, direcciones postales, etc. Entonces, en este momento es un claro ganador y realmente conveniente.
Texto en vivo vs. Google Lens: traducción
Apple Live Text está disponible actualmente en solo siete idiomas, mientras que Google Lens está disponible en los 108 idiomas que admite Google Translate.
Google Lens coloca la traducción directamente en el texto de la imagen, mientras que Live Text la da debajo de la imagen.
Ambos parecían bastante precisos, pero Google Lens tiene el beneficio adicional de traducir la escritura a mano, ¡lo cual es genial!
Texto en vivo vs. Google Lens: Búsqueda visual
La búsqueda visual es una función que le permite reconocer objetos, monumentos, plantas y animales en fotos tocando el pequeño ícono 'i' debajo de la imagen.
Identificación de objetos
Desafortunadamente, parece que esta función no funciona en la versión beta de iOS 15. Intenté con varios objetos fácilmente identificables, como iPhones y libros, pero no obtuvieron resultados.
Google Lens no tuvo problemas para identificar cosas, como se muestra en las capturas de pantalla a continuación.
Identificación de puntos de referencia
Apple Live Text no obtuvo ningún resultado cuando intenté buscar ubicaciones en las fotos.
Google Lens fue bastante inteligente para identificar puntos de referencia como en esta foto mía de Danang, Vietnam.
Identificación de plantas y flores
Esto tampoco funcionó en Apple Live Text, pero Google Lens pudo identificar con precisión flores y plantas.
Identificación de animales
Al igual que todas las demás funciones de búsqueda visual en Live Text, esto no parece funcionar en iOS 15 beta. En cuanto a Google Lens, pudo identificar a mi gato, pero no tenía tan clara la raza.
Texto en vivo vs. Google Lens: Facilidad de uso
Aunque la mayoría de las funciones de Live Text no funcionan actualmente como deberían, un área en la que gana es la facilidad de uso. Su integración en la aplicación de la cámara del iPhone lo hace increíblemente intuitivo y práctico. Estoy seguro de que será un éxito una vez que se lance la versión oficial de iOS y Live Text funcione a su máxima capacidad.
En comparación, Google Lens es un poco torpe porque para acceder a él, debe ingresar a la aplicación de Google y tocar el ícono de Google Lens. A continuación, tienes que deslizar el dedo para seleccionar la función específica que quieres utilizar.
Texto en vivo vs. Google Lens: precisión
En este momento, Google Lens es mucho más preciso que Apple Live Text, ya sea para reconocer texto, escritura a mano, direcciones, números de teléfono, objetos, lugares y más. Esto se debe a que Google tiene muchos más datos y ha tenido suficiente tiempo para hacer que Google Lens sea increíblemente inteligente.
No obstante, estoy seguro de que Live Text verá algunas mejoras significativas en el próximo año después de su lanzamiento oficial.
Texto en vivo vs. Google Lens: privacidad
Google es conocido por rastrear y usar sus datos para personalizar su experiencia, mejorar sus servicios, promover el desarrollo de IA y más. Por lo tanto, no hace falta decir que se almacenan datos sobre lo que busca con Google Lens.
Aunque no pude encontrar mucha información sobre la privacidad de Live Text, Apple prioriza la privacidad, que probablemente se incorporará a Live Text. No tendrás que preocuparte de que tus datos se almacenen en un servidor o se compartan con terceros. Esté atento a este espacio para obtener más actualizaciones sobre esto en el futuro después del lanzamiento público oficial de iOS 15.
Veredicto: Live Text de iOS 15 vs. Google Lens: ¿cuál es mejor?
Con esto termino mi comparación de las herramientas de reconocimiento de imágenes de Google y Apple. Google Lens existe desde hace un par de años, por lo que es más avanzado y superior a Live Text cuando se trata de reconocer y traducir texto, buscar cosas y lugares en línea, y más.
Sin embargo, no puede superar a Apple cuando consideramos la facilidad de uso, la integración con el ecosistema de Apple y, por supuesto, la privacidad. La comodidad que ofrece Google Lens tiene un costo de sus datos. También puedes usar Google Lens en tu Mac usando Google Chrome, Safari u otros navegadores.
Por lo tanto, aunque Apple tiene que ponerse al día en lo que respecta a la tecnología de reconocimiento de imágenes, Live Text sigue siendo una gran función incorporada para los usuarios de Apple que está configurada para mejorar la forma en que usa su iPhone y otros dispositivos Apple. ¿Qué te parece? Házmelo saber en los comentarios a continuación.
Leer más:
- Safari vs. Chrome: ¿Qué navegador es mejor para iPhone y Mac?
- Twitter Spaces vs. Clubhouse: ¿Qué aplicación de audio social es mejor?
- ¿El texto en vivo no funciona en el iPhone? ¡Arréglalo ahora!