¿Cómo funcionan las cámaras de los teléfonos inteligentes?
"¿Qué procesador tiene tu teléfono? ¿Cuanto espacio tiene? ¿Cuánta RAM?" Así es como solíamos comparar los teléfonos, pero hoy en día las preguntas más comunes son: "¿Qué tan buenas son las cámaras de tu teléfono? ¿Qué tan bien toma fotos y videos por la noche?” Al probar los teléfonos, todos, incluidos los evaluadores, incluidos nosotros en la oficina editorial, prestamos la mayor atención a las cámaras y solo entonces al rendimiento general del teléfono. Dado que hay bastantes incógnitas en torno a las cámaras y mucha terminología técnica (pantalla, sensores, lentes, enfoque...), puede que sea el momento de aclarar parte de la confusión sobre cómo funcionan.
Todo gira en torno a la luz.
Es sorprendente (o no) cuántos paralelismos podemos establecer entre la cámara y nuestro ojo. En cuartos oscuros, los ojos y las cámaras están ciegos. Para grabar una imagen, necesitamos luz. Pero la luz a menudo se dispersa en todas direcciones. Nuestros ojos tienen lentes que dirigen la luz hacia la retina. Incluso las cámaras de nuestros teléfonos tienen lentes que capturan y registran información sobre la luz.
La luz también puede dañar la fotografía, lo cual es más obvio en las cámaras analógicas que usan película fotográfica. Una exposición (demasiado) prolongada a la luz puede destruir el contenido de la película. La invención de la apertura resolvió este enigma. En las cámaras analógicas, el obturador es un mecanismo físico que se abre y se cierra rápidamente para controlar la cantidad de luz que llega a la película. Los párpados tienen una función similar.
No hay obturador físico en los teléfonos, aunque se escucha ese distintivo sonido de "clic" cuando se toma una foto. Es sólo un efecto de sonido. Pon el teléfono en modo silencioso y el sonido desaparecerá. En lugar de obturadores físicos, las cámaras de los teléfonos utilizan un obturador electrónico que tiene la misma función, pero hace todo con algoritmos en lugar de movimiento físico. Algunos smartphones, como el Huawei Mate 50 Pro, tienen una cámara con apertura física que se puede mover entre posiciones preestablecidas.
La película aún no ha sido olvidada. Todavía se utiliza entre aficionados, fotógrafos profesionales e incluso en la industria cinematográfica. En otros lugares, ha sido sustituido por sensores.
¿Por qué los teléfonos móviles tienen lentes diferentes?
Probablemente hayas visto a un fotógrafo profesional cambiar las lentes de su cámara dependiendo de la escena que tiene frente a él. Los teléfonos son técnicamente capaces de hacer esto, como lo demostró Xiaomi con el teléfono Xiaomi 12S Ultra Concept, pero es extremadamente poco práctico y surgen nuevos obstáculos, como problemas de durabilidad, resistencia al agua, alto precio y similares. Como solución, los fabricantes han propuesto varias cámaras diferentes, cada una con su propia lente específica, entre las que podemos cambiar fácilmente según nuestras necesidades dentro de la aplicación de la cámara. Hoy en día, la mayoría de las cámaras de los teléfonos funcionan de esta manera.
Si miras la parte posterior de tu teléfono, notarás dos, tres o incluso cuatro lentes y uno en la pantalla del frente. Cada uno ofrece una perspectiva diferente, profundidad y características únicas. Es comprensible que la lente principal esté siempre presente. La cámara ultra ancha también es más o menos una constante en los teléfonos móviles. En la clase baja encontramos a menudo una cámara macro, mientras que los teléfonos premium tienen un teleobjetivo y un teleobjetivo de periscopio, como el Samsung Galaxy S23 Ultra.
¿Cuál es la función de la lente?
La apertura, la lente y el sensor de imagen están estrechamente relacionados. La apertura es la apertura que puedes ver físicamente en la lente de la cámara. Como se mencionó, la apertura controla la cantidad de luz que llegará a la lente y al sensor. Como regla general, una apertura mayor es mejor porque significa que la cámara puede utilizar más información de luz. Sin embargo, este no es necesariamente el mejor indicador de la calidad de las fotografías.
Si observa las especificaciones de su teléfono, notará una calificación "f" para las cámaras. Estos grados son la relación entre la distancia focal y el diámetro físico de la apertura. Cuanto menor sea este número, mayor será la apertura. Por ejemplo, vivo X90 Pro tiene una lente principal f/1.8 con una distancia focal de 23 mm, un teleobjetivo sf/1.6 (50 mm), etc.
Le resultará difícil comparar el rendimiento de las cámaras de los teléfonos con la distancia focal. La distancia focal es extremadamente importante, pero para crear diferentes estéticas y efectos visuales. Una distancia focal más corta está pensada para una perspectiva de gran angular: los objetos cercanos parecen más grandes. Una distancia focal más larga, por ejemplo, crea una fotografía más proporcional y neutra.
A medida que la luz ingresa al módulo de la cámara, la lente recoge la luz entrante de la toma y la dirige hacia el sensor. Las cámaras de los teléfonos inteligentes se componen de muchas lentes de plástico llamadas elementos. Debido a la naturaleza de la luz, diferentes longitudes de onda de luz (colores) se refractan (doblan) en diferentes ángulos al pasar a través de una lente. Esto significa que los colores de la escena se proyectan desalineados en el sensor de la cámara. Las cámaras necesitan múltiples lentes para transmitir una imagen clara al sensor sin posibles irregularidades como desalineación y otros efectos.
¿Cómo funciona el enfoque en las cámaras de los teléfonos inteligentes?
Irónicamente, el enfoque no es el enfoque del usuario porque normalmente lo controlan las propias cámaras. Hasta cierto punto, el enfoque se puede ajustar manualmente (según el teléfono), pero en la mayoría de los casos el software hace el trabajo tan bien que no es necesaria la intervención manual. Las cámaras de los teléfonos móviles utilizan un sensor dedicado y/o hardware adicional, como un telémetro láser, para enfocar.
El enfoque automático del software utiliza datos del sensor de imagen para determinar si la imagen está enfocada y ajusta las lentes para compensar. La técnica habitual del autoenfoque pasivo se basa en detectar el contraste de la imagen y ajustar el enfoque hasta que esté al máximo. Este método está completamente basado en software, lo que lo convierte en la opción más económica. Sin embargo, el proceso es más lento y no funciona tan bien en condiciones de poca luz.
Los teléfonos más nuevos utilizan el enfoque automático por detección de fase (PDAF), que es más rápido y preciso. Vaya a las especificaciones del último iPhone 15 Pro Max y notará la etiqueta PDAF en las cámaras. Este último garantiza que llegue la misma cantidad de luz a dos sensores situados muy cerca del sensor de imagen. Los sistemas PDAF clásicos se basan en estos fotositos dedicados en el sensor de imagen para medir la luz proveniente del lado izquierdo o derecho de la lente. Si los puntos de la imagen de la derecha registran la misma intensidad de luz que los puntos de la izquierda, la imagen está enfocada. Si la intensidad no es la misma, el sistema puede calcular cuánto necesita para compensar una imagen nítida, lo cual es mucho más rápido que los sistemas que dependen de la detección de contraste.
Los sistemas PDAF más antiguos utilizan sólo un pequeño porcentaje de todos los sitios de imágenes, mientras que los más nuevos, como el Galaxy S23 Ultra, utilizan el 100 por ciento. Además de los puntos de imagen izquierdo y derecho, los puntos de imagen superior e inferior también se utilizan para enfocar.
Los iPhone tienen desde hace mucho tiempo un sensor LiDAR dedicado que mejora el enfoque, la percepción de la profundidad, las imágenes nocturnas y es útil para aplicaciones de realidad aumentada (AR).
¿Qué es un sensor de imagen?
El sensor es básicamente una oblea de silicio, de la que depende mucho. El sensor recibe luz y la convierte en señales eléctricas. Un sensor puede tener varios millones de píxeles. ¿Cómo puedes descubrir eso? Si ves una cámara de 100 o 200 MP, significa que el sensor en cuestión tiene 100 o incluso 200 megapíxeles. Si la luz de la lente no llega al punto de la imagen, el sensor registra este punto de la imagen como negro. Si el punto de la imagen recibe mucha luz, el sensor lo registra como blanco. Los tonos de gris que el sensor puede registrar se denominan profundidad de bits.
La mayoría de los teléfonos tienen una profundidad de 8 bits, pero algunos tienen una profundidad de 10 bits. En comparación, la profundidad de 8 bits significa que la cámara puede capturar 256 tonos para cada canal de color primario utilizado para mezclar el espectro de colores (rojo, verde y azul). Son 256 tonos de rojo, verde y azul. En total, son 16,7 millones de tonos de color posibles. Las cámaras de 10 bits pueden capturar más de mil millones de sombras.
¿Cómo captura una cámara una fotografía en color? Cada punto de imagen tiene un filtro de color que sólo deja pasar ciertos colores. Con raras excepciones, como los teléfonos Huawei que usan RYYB (filtros amarillos en lugar de verdes), el más comúnmente utilizado es una matriz de filtros de color Bayer que divide cada cuadrado (2×2) del punto de la imagen en rojo, azul y dos verdes. filtros (RGGB).
Normalmente, una cámara que ejecuta un conjunto de filtros Bayer sumará todos estos datos de color en un solo valor, pero la agrupación de píxeles no hace esto. Los fabricantes necesitaban una forma de recopilar cada color individualmente.
Para ello diseñaron lo que se conoce como matriz quad-Bayer, en la que a cada grupo de píxeles (2×2) se le asigna un color. Luego se combinan cuatro de ellos, de forma muy similar al conjunto original de filtros Bayer: 2x verdes, 1x azul, 1x rojo.
El nuevo conjunto no sólo permite a los fabricantes de teléfonos inteligentes conservar los datos de color en el proceso de combinación de píxeles, sino que también les permite introducir otras funciones innovadoras como el modo HDR.
Volvamos a los sensores. En el caso de los sensores, hay que prestar atención a su tamaño y al tamaño de los propios píxeles. Los sensores más grandes pueden capturar mejores fotografías porque tienen más áreas de imagen, que también son más grandes. Recientemente, los teléfonos inteligentes y sus cámaras han entrado en el mundo de las pantallas de 1 pulgada. Por ejemplo, Xiaomi 13 Pro y vivo X90 Pro están entre los primeros en incorporar sensores de 1 pulgada.
Los píxeles se miden en micrómetros (μm). Los píxeles más grandes pueden absorber más luz, lo que es bueno para la fotografía nocturna. No se preocupe si su teléfono tiene píxeles más pequeños que otros teléfonos. Fuera de la fotografía nocturna, aún podrá ofrecer buenos resultados. Incluso los mejores teléfonos Samsung tienen problemas con los píxeles más pequeños. El Galaxy S23 Ultra tiene un sensor de 200 MP con píxeles de 0,6 µm, mientras que el iPhone 15 Pro Max tiene un sensor de 48 MP con píxeles de 1,22 µm. Por lo tanto, los fabricantes han comenzado a utilizar la tecnología de agrupación de píxeles. El Galaxy S23 Ultra combina 16 píxeles en uno para capturar fotografías con una resolución final de 12 MP.
Estabilización óptica y electrónica.
La estabilización también es importante para capturar buenas fotografías y vídeos: óptica o electrónica.
OIS es una solución de hardware que utiliza un giroscopio de sistema microelectromecánico (MEMS) para detectar movimiento y ajustar el sistema de cámara en consecuencia. Ejemplo: si sostienes un smartphone y tu mano se mueve ligeramente hacia la izquierda, el sistema OIS lo detectará y moverá la cámara ligeramente hacia la derecha. Esto es especialmente importante en fotografía nocturna, cuando la cámara tarda mucho en capturar la luz, tiempo durante el cual las vibraciones pueden afectar la calidad de la foto.
La Estabilización Electrónica de Imagen (EIS) se basa en el acelerómetro del teléfono para detectar movimiento. En lugar de mover partes de la cámara, mueve fotogramas de la imagen o la iluminación. Debido a que las exposiciones se alinean según el contenido de la imagen y no el marco del sensor de imagen, la imagen o el videoclip final tiene una resolución reducida.
¿Qué hace el software?
Después de que el sensor de imagen convierte la luz en señales eléctricas, es trabajo del procesador de señales de imagen (ISP) convertir esos números en una imagen. Los datos de las señales eléctricas son esencialmente una imagen en blanco y negro. El ISP primero debe devolver los datos de color basándose en un conjunto de filtros de color (Bayer u otra cosa). Esto crea una imagen, pero los píxeles tienen diferentes intensidades de rojo, verde o azul. A esto le sigue la reconstrucción del color, donde el ISP cambia los colores de los píxeles en función de los colores de los píxeles vecinos. Por ejemplo, si hay muchos píxeles verdes y rojos y muy pocos píxeles azules en un área determinada, los algoritmos de reconstrucción de color los convierten a amarillo.
El ISP también tiene algoritmos de eliminación de ruido y nitidez después de realizar la reconstrucción del color. Cada teléfono tiene sus propios algoritmos específicos para producir la foto final.
La próxima vez que levante su teléfono, encienda la cámara y tome una foto, sabrá lo que estaba sucediendo en segundo plano durante ese tiempo. ¿Te interesa cómo funcionan los relojes inteligentes o sus sensores?