Lo fue, pero ahora con el lanzamiento del segundo teléfono pixel de la generación no es …
El efecto Bokeh o el efecto de poca profundidad de campo es común con las cámaras SLR donde la lente física manipula los factores de iluminación para descuidar el fondo y dar un estiramiento facial al sujeto principal. Esto está completamente orientado al hardware, lo que implica física y nada más, pero esto no se puede implementar en un teléfono inteligente de mano.
- ¿Qué teléfonos móviles tienen estas características: teclado QWERTY no deslizable, legibilidad de pantalla decente a la luz del sol, batería decente y sincronización sólida de contactos de Google?
- En el Samsung Galaxy S7 edge, ¿dónde se encuentra la carpeta segura?
- ¿Cuál es el punto de crear teléfonos inteligentes de aspecto elegante si solo van a colocarse en estuches protectores?
- ¿Qué teléfono inteligente es mejor con Redmi Note 4 o Hyve Buzz?
- ¿Debo cambiar mi Samsung Galaxy Note 3 a una Nota 4?
La lente en la cámara de un teléfono inteligente es pequeña y no puede actuar como una lente SLR con características de ajuste de apertura y distancia focal variables. Si pregunta “por qué los fabricantes no pueden poner una lente así en un teléfono inteligente”, la respuesta es “simplemente no pueden”. Una lente como esa no es pequeña, pesa más que un teléfono inteligente típico. Entonces, para implementar ese efecto de poca profundidad de campo en los teléfonos inteligentes, los técnicos crearon la técnica asistida por software.
Anteriormente, como antes de un año, esto fue posible con la ayuda de un sistema de cámara de doble lente donde una lente captura la imagen, mientras que la otra lente recopila detalles como la distancia entre el sujeto principal y la cámara y algunas otras cosas por el estilo. Usando estos datos, el software de procesamiento de imágenes en el back-end identifica el tema principal en el que enfocar y recorta ese tema. Luego agudiza el sujeto recortado y también mejora otros artefactos de imagen para que se destaque del fondo. Luego aplica desenfoque gaussiano al fondo. Finalmente, el sistema une ambas imágenes, lo que resulta en una imagen perfecta con un bokeh en el fondo.
El método no es el mismo con todos los teléfonos inteligentes. Los diferentes teléfonos inteligentes utilizan diferentes técnicas para clasificar el sujeto desde el fondo. Algunos teléfonos inteligentes usan una combinación de teleobjetivo + lente gran angular donde la lente secundaria aplica diferentes zooms ópticos para que la imagen capturada identifique al sujeto. Hay otro sistema de doble lente que se usa una lente monocromática para obtener el mismo resultado. En este sistema, el sujeto se identifica utilizando los detalles de iluminación y contraste.
Hasta hace unos meses, el motor de procesamiento de imágenes necesitaba la ayuda de un sistema de doble lente para lograr un bokeh perfecto, pero Google cambió todo hace unas semanas con el lanzamiento de la serie Pixel 2. El pixel 2 y el 2 xl tienen una sola lente y ambos teléfonos inteligentes podrían simular el efecto de profundidad de campo sin la necesidad de una lente secundaria. Así que ahora el beken artificial no es exclusivo para teléfonos inteligentes con doble lente solo …
Están utilizando fotografía computacional + aprendizaje automático para lograr el efecto bokeh.
No estoy seguro de lo que realmente está sucediendo en el fondo, pero este podría ser el truco. En el evento, explicaron que el píxel 2 y la cámara xl disparan ráfagas de disparos, lo que significa que captura múltiples imágenes de un solo disparo sin retrasos y luego analiza los píxeles de la imagen y combina los mejores píxeles disponibles con los máximos detalles de iluminación para producir El mejor tiro. Todas estas cosas suceden sin retrasos …
Este truco también podría ayudar con las tomas de retratos. Una vez que se captura una imagen, analiza los píxeles y los ordena con detalles de color uniformes. Entonces, si está capturando a una persona parada frente a un árbol, entonces la persona tendría diferentes detalles de iluminación en comparación con el fondo. El sistema de aprendizaje profundo de Google (fotografía computacional) analiza estos detalles de iluminación y separa los píxeles de fondo del primer plano y luego hace referencias cruzadas del sujeto de primer plano con su repositorio de datos. El sistema de aprendizaje automático que realiza estas cosas ya habría sido entrenado con millones de imágenes para recortar el sujeto principal del fondo, por lo tanto, sabe que una persona o una flor o un objeto con detalles de iluminación uniformes es el sujeto principal y el que tiene los diferentes detalles de iluminación son el fondo … luego simplemente difumina esos píxeles de fondo y luego combina tanto el primer plano como el fondo para producir una increíble toma de retrato.
Usando esta técnica, Google no solo implementó la captura de retratos en la cámara trasera, sino también con la cámara frontal, lo cual es una magia absoluta.
A diferencia de Apple, que patenta toda la tecnología revolucionaria para adaptarla solo a sus iPhones, Google es una compañía poco generosa. Así que supongo que podrían revelar esta técnica en un futuro cercano para que otros fabricantes de teléfonos inteligentes puedan adaptar lo mismo en sus teléfonos inteligentes sin usar una lente secundaria.
—Es asistentes