RebajasTOP. 1

Los teléfonos Pixel de Google fueron la chispa detrás de la increíble revolución actual de la fotografía por computadora, y los nuevos Pixel 6 y Pixel 6 Pro, una vez más, parecen estar abriendo nuevos caminos en imágenes con algunos trucos nuevos e increíbles para la cámara.

Ambos teléfonos tienen un potente hardware de cámara, que incluye cámaras anchas de 50 MP y cámaras ultra anchas de 12 MP (con zoom óptico de 4x en el Pixel 6 Pro). Pero en realidad son sus nuevas funciones de software, impulsadas por el nuevo chip Tensor de Google, las que son la parte más interesante de la historia fotográfica de la línea Pixel.

Google ya ha establecido su supremacía de la cámara en áreas como Night Sight, pero esta vez el enfoque es un poco diferente. Pixel 6 y Pixel 6 Pro tienen modos diseñados para superar las limitaciones del hardware, sus habilidades como fotógrafo e incluso la escena que está tratando de capturar.

Estos nuevos modos son Magic Eraser, Face Unblur y Motion. Ofrecen efectos que puede recrear en Adobe Photoshop y suites de edición de imágenes comparables, pero no requieren ninguna habilidad. O una suscripción cara a Creative Suite de Adobe. O incluso una computadora portátil.

Entonces, ¿estos nuevos trucos de la cámara de Google Pixel están minando el poder de edición de fotos de AI que Adobe incorpora apresuradamente en Photoshop? Aquí veremos cómo funciona cada una de estas herramientas, qué tan prometedoras son y cómo pueden incluso superar a las herramientas de Photoshop.

¿Qué es el borrador mágico?

Magic Eraser es probablemente la más interesante de las herramientas de imágenes de Pixel 6 para fotógrafos ávidos. Esta herramienta le permite eliminar objetos o personas de una foto que ya ha tomado.

Este consejo no es nada nuevo. Es una alternativa al pincel Heal de Photoshop, y hay una herramienta similar en Snapseed de Google; de ​​hecho, existe desde 2017.

(Crédito de la imagen: Google)

Sin embargo, la versión de Google es un poco diferente. En Snapseed, debe seleccionar manualmente el área que desea eliminar. Luego analiza los datos de las imágenes circundantes para llenar el vacío, por lo general bloqueándolo con texturas que encuentra cerca.

Magic Eraser sugiere objetos que puedes eliminar de una escena. Luego, los selecciona o simplemente presiona un botón para eliminarlos todos. Sobre el papel, es un enfoque mucho más fácil de usar del concepto.

¿Será bueno el borrador mágico?

Seamos francos: la herramienta Heal de Snapseed apesta, al menos en comparación con la gran alternativa de Photoshop. Esto con frecuencia da como resultado patrones de textura descaradamente repetidos, que parecen falsos y, a menudo, dejan manchas antinaturales de información de la imagen que no tienen mucho sentido en el contexto.

Magic Eraser es mucho más interesante. Google no ha revelado completamente cómo funciona bajo el capó, pero tenemos una idea bastante buena. El Pixel 6 Magic Eraser probablemente se basa en las mismas técnicas de aprendizaje automático que se utilizan en sus otros productos y servicios. Por ejemplo, Google Photos puede identificar con precisión automóviles, farolas, personas, barcos y casi un sinnúmero de otras escenas.

Esta inteligencia se ha desarrollado a lo largo de los años gracias a las fotos que subes a Google Photos, y también a esas exasperantes pantallas de verificación que te hacen hacer clic en los cuadrados que contienen una boca de incendios o un paso de peatones.

En el contexto de Magic Eraser, esto permite que un Pixel 6 no solo identifique objetos, sino que también brinde algún conocimiento de la textura que podría estar debajo de los objetos que elija eliminar. Cualquiera que sea la imagen que intente retratar, Google probablemente haya visto millones que se parecen a ella.

Esto hace que Magic Eraser sea una especie de pincel de curación de próxima generación que se basa menos en los datos de la imagen dentro de la propia imagen y más en la apariencia de imágenes similares. Es un padre de la tecnología ‘deep fake’ totalmente generada por IA, y esto debería permitirle evaluar dónde, por ejemplo, las sombras deberían estar debajo de los objetos eliminados, incluso si el algoritmo ‘piensa de una manera más abstracta’.

Sin embargo, Google dice que no funcionará en todos los elementos de la imagen. Y cuanto más grande sea un objeto que intentas quitar, más falso se verá. Tampoco será útil en los contextos donde más usamos el pincel curativo de Photoshop. La mayoría de las veces lo usamos para eliminar el polvo de las imágenes o las manchas causadas por el polvo en la lente o el sensor.

El nuevo Magic Eraser de Google Pixel 6 en acción

(Crédito de la imagen: Google)

El pincel de curación de Photoshop también es ideal para eliminar líneas eléctricas y pequeños fragmentos de paisaje de fondo que forman una pequeña parte de la imagen, pero que aún pueden alterar drásticamente la percepción cuando se golpea. No estamos seguros de que Magic Eraser pueda manejarlos.

Parte del arte de la herramienta de curación es usar múltiples conjuntos de correcciones, porque al cambiar la imagen en la primera pasada, en realidad está cambiando la biblioteca de datos de imágenes que usa en la segunda pasada. Si bien puede seleccionar manualmente las áreas que se tratarán con Magic Eraser, aquí es donde el proceso puede comenzar a parecer tedioso, y es posible que desee tener un mouse a mano.

Magic Eraser es definitivamente una herramienta genial, pero probablemente no funcionará tan bien con objetos grandes cerca del primer plano / sujeto. Sin embargo, no podemos esperar a probarlo.

¿Qué es Face Unblur?

Face Unblur definitivamente resultará una característica útil para la fotografía informal. Está tratando de resolver uno de los dolores de cabeza de capturar un sujeto en movimiento, especialmente en interiores.

A menos que utilice una velocidad de obturación rápida, los objetos en movimiento aparecerán borrosos. Podríamos culpar a los pequeños sensores usados ​​en los teléfonos, pero verás exactamente el mismo efecto con una cámara sin espejo con sensor grande si disparas en “Auto”.

Face Unblur contrarresta esto a través de la fotografía por computadora. Y ese es uno de los usos más interesantes que hemos visto desde el Super Zoom de Google de 2018.

Face Unblur de Google Pixel 6 en acción

(Crédito de la imagen: Google)

Cuando tomas una imagen con Face Unblur, las cámaras principal y ultra ancha del Pixel 6 capturan una foto. La cámara principal utiliza la velocidad de obturación que normalmente elegiría, según las condiciones de iluminación. Ultra gran angular toma una foto a una velocidad de obturación más rápida.

No sabemos cómo se acerca el ultra ancho a ISO, pero probablemente pueda usar una configuración más baja de la que podría usar para una imagen estándar, ya que esta toma está ahí para buscar áreas de contraste en la imagen. No es necesario que produzca una imagen brillante y satisfactoria por sí solo.

Las dos exposiciones se fusionan, la información de la imagen en la toma ultra ancha se utiliza para reafirmar los detalles y la definición solo en la cara. Y sabe dónde está la cara porque los algoritmos de Google pueden hacerlo sin siquiera intentarlo en estos días.

¿Será bueno Face Unblur?

Realmente no puede recrear el efecto exacto de Face Unblur en Photoshop si está usando solo una imagen. Sus opciones principales se encuentran entre las herramientas de Enfoque, pero hay una diseñada específicamente para el desenfoque de movimiento.

En el menú del efecto Nitidez inteligente, verá una lista desplegable que incluye «desenfoque de movimiento». Para obtener el mejor efecto, debe determinar el ángulo de desenfoque de movimiento y su distancia en píxeles. A continuación, puede ajustar la nitidez, lo que puede tener un efecto bastante bueno en la imagen final.

Sin embargo, no es lo mismo que Face Unblur. Smart Sharpen afecta a toda la imagen, a menos que cree una nueva capa en la que recorta la cara y, por lo tanto, tendrá un efecto perjudicial en el resto de la imagen.

Face Unblur actúa un poco más como una combinación de fotos tomadas con el modo de ráfaga de una cámara si, por ejemplo, tomaste la foto de ráfaga que más te gusta en su conjunto, luego recortaste y usaste la cara de la cámara. afilado.

Recrear el efecto de Face Unblur será difícil. Y la mayoría de los fotógrafos probablemente descartarían imágenes antes de probarlas de todos modos. Por lo que podemos decir, este tampoco es un modo específico al que deba cambiar. Si se usa, o se sugiere, siempre que sea necesario, es fantástico.

Sin embargo, parece que solo funcionará para sujetos humanos en este momento. Y como sabe cualquiera que haya intentado fotografiar a un perro: realmente lo necesitamos para que funcione también para los perros.

También hay un ligero signo de interrogación sobre su eficacia. Incluso en la demostración de Google, la imagen final se ve más nítida, pero no muy nítida. Aún así, es probable que sea una gran ventaja para la fotografía informal. Pero, ¿le gustaría ampliar una foto A3 Face Unblur y ponerla en su pared? Probablemente no.

¿Qué es el modo de movimiento?

Si toma el concepto del modo Retrato, donde el fondo de una imagen se difumina para emular el efecto de una lente de gran apertura más grande, y lo aplica a la técnica fotográfica de ‘panorámica’, terminará con el movimiento del Pixel 6. modo. Utiliza el desenfoque para agregar dramatismo a sus imágenes en movimiento.

Sin embargo, lo que estamos emulando aquí en términos de fotografía clásica depende de lo que estés filmando. En la propia demostración de Google de un ciclista en un velódromo, lograrías un efecto similar usando una velocidad de obturación rápida pero no súper rápida y moviendo la cámara en línea con el movimiento del ciclista mientras disparas. Esto es «paneo» y es una técnica comúnmente utilizada por los fotógrafos deportivos.

Esto significa que el ciclista está enfocado principalmente, pero el fondo está desenfocado. Y no es una técnica fácil de dominar. Lo probamos por última vez en una carrera de F1 antes de la pandemia, y en su mayoría terminamos con muchas imágenes algo borrosas. Así que estamos muy deprimidos por este.

Imagen 1 de 2

La nueva herramienta Motion Blur de Google Pixel 6 en acción

Una imagen antes de que se aplique el modo de movimiento … (Crédito de la imagen: Google) Imagen 2 de 2

El nuevo Motion Blur de Google Pixel 6 en acción

… y el efecto de «panorámica» virtual aplicado por el modo de movimiento. (Crédito de la imagen: Google)

Sin embargo, este no es el único uso del modo de movimiento. También puede usarlo para tomar fotos donde el sujeto más grande está estático, pero hay movimiento en el interior. Google usó un truco como ejemplo, pero también debería funcionar para automóviles que circulan por las calles de noche.

Separamos este estilo del piloto porque la técnica que usaría en una cámara dedicada es diferente. Este segundo estilo usaría una exposición prolongada, no el movimiento de la cámara en sí.

La forma en que se hacen estas fotos es lo que los conecta. Al igual que en otras formas de fotografía por computadora, se crean utilizando múltiples exposiciones fusionadas, donde las partes borrosas y las que permanecen enfocadas se controlan deliberadamente.

¿El modo de movimiento será …

Share This