Los ingenieros de Apple revelan más detalles del diseño de la cámara del iPhone 12 en una nueva entrevista

En una nueva entrevista concedida a PetaPixels la Gerente de la línea de productos de Apple, iPhone Francesca Sweet y el Vicepresidente de Ingeniería de Software para Cámaras Jon McCormack han contado como Apple se ha aproximado al diseño de las cámaras del iPhone. Una entrevista en la que se deja ver la visión que tiene la compañía del diseño y la filosofía detrás del desarrollo de unas cámaras de las que las de los nuevos iPhone 12 Pro Max son su máximo exponente.

Más que la suma de sus partes

Captura De Pantalla 2020 11 10 A Las 9 01 01

Lo primero a reseñar de la entrevista es que ambos ejecutivos coinciden en que en Apple se ve la cámara como algo holístico. No solo son lentes. Junto al procesador, al chip neural, al SiP (Signal Image Processing) y al software detrás de la fotografía computacional todos los elementos forman una unidad que trabaja conjuntamente para entregar las mejores imágenes posibles.

Para Apple el último objetivo de las cámaras es que podamos capturar aquellos momentos de nuestras vidas que nos importan sin que tengamos que distraernos con la tecnología. McCormack lo expresa así:

Como fotógrafos, tendemos a tener que pensar mucho en cosas como el ISO, el movimiento del sujeto, etc. Y Apple quiere quitar eso para permitir a las personas quedarse en el momento, tomar una gran foto, y volver a lo que están haciendo.

Captura De Pantalla 2020 11 10 A Las 9 02 10

Los fotógrafos profesionales, en general, querrán tomar la foto y después editarla convenientemente. Según McCormack Apple quiere reducir este proceso a una sola acción, la de tomar la fotografía.

Reproducimos todo lo que podemos a lo que el fotógrafo haría. Hay dos caras en la toma de una foto: la exposición, y cómo la revelas después. Usamos mucho la fotografía computacional en la exposición, pero cada vez más en la postproducción y lo hacemos automáticamente para ti. El objetivo de esto es hacer fotografías que parezcan más fieles a la vida, para replicar lo que fue estar realmente allí.

Los nuevos iPhone 12 doblan la cantidad de núcleos en el chip neural. Así el A14 Bionic permite a Apple aplicar machine learning para interpretar la escena y separarla en piezas que se entiendan mejor.

El fondo, el primer plano, los ojos, los labios, el pelo, la piel, la ropa, el cielo. Procesamos todo esto de forma independiente como lo harías en Lightroom con un montón de ajustes locales. Ajustamos todo, desde la exposición, el contraste y la saturación, y los combinamos todos juntos.

Captura De Pantalla 2020 11 10 A Las 9 01 42

Un exponente de esta tecnología es el Smart HDR que con los iPhone 12 alcanza la versión 3. En esta versión, como hemos podido ver en algunos análisis, los cielos son notablemente mejores, ya que se aíslan y tratan de forma independiente y luego se vuelven a colocar en su sitio. El resultado es un cielo mucho más cercano a la realidad.

Otro es la capacidad de entender la comida. Cuando sacamos una foto a un plato nuestro iPhone es capaz de entender de que se trata y sabiendo cómo debería verse es capaz de optimizar el color y la saturación para ser lo más realista posible.

JustStream, el streaming de contenido llevado a otro nivel: la app de la semana

En los últimos años parece que todos llevamos una cámara profesional en los bolsillos. Profesional entre comillas, porque las limitaciones físicas de espacio, apertura, componentes, hacen que las cámaras móviles hayan tocado prácticamente techo, pero el software, por decirlo de alguna forma, aún está empezando. El enfoque de Apple a la fotografía computacional, acompañado del desempeño del A14 Bionic del iPhone 12 nos esboza donde apunta la fotografía móvil: Una gran foto en un clic.

Link