¿Es posible tener una cámara decente en el smartphone?

La imagen con el sensor de Rambus, a la derecha.

A pesar de que tenemos teléfonos cada vez más poderosos, la calidad de las imágenes que capturan no ha dado un salto significativo. Eso podría estar por cambiar.

 

Por Parmy Olson

 

La era de teléfonos inteligentes nos ha dado computadoras de bolsillo con un sinnúmero de características poderosísimas, pero que aun así toman fotografías malísimas. La razón por la que una Instagram es inferior a lo que se ve con el ojo tiene que ver con el mito de los megapixeles.

Los proveedores como Samsung y Nokia nos dicen que más píxeles por sensor de imagen equivalen a mejores fotos, pero a medida que los teléfonos se encogen, también lo hacen los pixeles, esos bits electrónicos discretos que captan la luz. Hoy son 40% más pequeños de lo que eran hace seis años. Y mientras más se reducen, también lo hace su capacidad para capturar detalles a través de una amplia gama de oscuridad y luz.

Rambus, una compañía conocida más por sus chips de memoria y sus creación de patentes, tiene una solución: una nueva tecnología de sensor de imagen que utiliza un poco de inteligencia agregada para capturar un rango dinámico más real de la luz, al mismo tiempo que ahorra energía de la batería. El sensor de Rambus puede trabajar en cualquier tamaño de chip de la cámara y es una combinación de hardware y software. La empresa de Sunnyvale, California, está comprando su tecnología, que denomina de pixel binario, a grande fabricantes de sensores y teléfonos.

Cómo funciona: En una 1/30 parte de un segundo que toma a una cámara de smartphone capturar una imagen, los fotones de luz bañan el sensor de imagen y llenan los millones de pixeles como pequeños cubos de agua. Los sensores de imagen actuales no miden la velocidad de los fotones que vierten en cada cubo, así que muchos de ellos se desbordan y se pierde detalle en las zonas de luz brillante y de muchas sombras. El sensor de Rambus comprueba cada cubo tan rápido como cada dos milisegundos y borra los que han rebasado su umbral, permitiendo que el sensor continúe recogiendo datos sobre luz y color, especialmente útiles a la hora de procesar o editar la imagen digital. “Todo lo que se mide, se puede cambiar”, dice Jay Endsley, coinventor de la tecnología.

Los sensores de imagen para una tableta normalmente cuestan 7 dólares, según la Guía 2013 para tabletas de Nomura, y Endsley dice que su sensor estará al nivel de las tarifas vigentes. Este no es un producto de alto margen de Rambus, pero si logra un acuerdo exclusivo con Samsung o Apple, podría marcar un nuevo flujo de ingresos para una empresa que acaba de salir de dos años de caídas en los ingresos.

El problema está en desmentir el mito. Los consumidores encontrarán difícil de entender por qué están recibiendo menos pixeles, no más. HTC es el único fabricante de teléfonos hasta ahora que ha tratado de hacerlo. Su nuevo HTC One ofrece fotos de mejor calidad con un sensor de 4 megapixeles, cada pixel es cuatro veces más grande que uno convencional. El iPhone trata de solucionarlo con la fusión de varias exposiciones en una sola imagen, llamada fotografía de alto rango dinámico (HDR), sin embargo, un solo disparo puede tardar hasta dos segundos y devorarse la potencia de procesamiento.

“Los fabricantes estarán felices de reducir el número de pixeles en sus cámaras”, dijo el libro blanco de Nokia en 2012, “[pero] no están tan seguros de que el mercado aceptaría esto.”

Michael Ching, jefe de división de imagen de Rambus, está de acuerdo: “La parte más difícil de la venta es que es una tecnología nueva, y una que necesita ser lanzada al mercado.”