La gerente de la línea de productos de Apple - iPhone, Francesca Sweet, brindó una entrevista junto al vicepresidente de Ingeniería y Software para Cámaras, Jon McCormack. Ambos revelaron la visión de la empresa del diseño y funcionamiento de las cámaras de los nuevos iPhone 12 Pro Max.
Para PetaPixels, confesaron que Apple ve las cámaras del iPhone 12 como "algo holístico". Se trata de una unidad integrada por el chip neural, la Signal Image Processing, el software, el procesador y otros elementos de fotografía computacional.
"Como fotógrafos, tendemos a tener que pensar mucho en cosas como el ISO, el movimiento del sujeto, etc. Y Apple quiere quitar eso para permitir a las personas quedarse en el momento, tomar una gran foto y volver a lo que están haciendo", dijo MacComarck sobre la cámara del iPhone.
Según el ingeniero, la intención de Apple es reducir con el iPhone 12 esa cantidad de pasos que incluyen el sacar una fotografía, como la edición posterior.
"Reproducimos todo lo que podemos a lo que el fotógrafo haría. Hay dos caras en la toma de una foto: la exposición y cómo la revelas después. Usamos mucho la fotografía computacional en la exposición, pero cada vez más en la postproducción y lo hacemos automáticamente para ti. El objetivo de esto es hacer fotografías que parezcan más fieles a la vida, para replicar lo que fue estar realmente allí", expresó.
Los ingenieros de Apple revelaron que el nuevo iPhone 12 duplica la cantidad de núcleos en el chip neural de la cámara. Esto le permite a la "machine learning" interpretar mejor lo que está frente al lente y separarlo en piezas para un mejor entendimiento de la escena.
"El fondo, el primer plano, los ojos, los labios, el pelo, la piel, la ropa, el cielo. Procesamos todo esto de forma independiente como lo harías en Lightroom con un montón de ajustes locales. Ajustamos todo, desde la exposición, el contraste y la saturación, y los combinamos todos juntos", indicó McCormack.







