En los últimos tiempos varios post han tratado el tema del tamaño de las fotografías, en algo que parece que genera muchas dudas. El por eso que he pensado en escribir un mini-tutorial acerca de esto (incluida la interpolación del tramado Bayer, Evi!!) en el día que he llegado a la parte de arriba de la cadena trófica Caborian.
Las fotografías digitales como tales son conjuntos de números (datos, en filas y columnas y en tres capas RGB) y alguna coletilla acerca de dónde provienen (metadatos EXIF). Y como conjuntos de números las fotografías digitales NO TIENEN RESOLUCIÓN. Únicamente sabemos cuántas filas y columnas de datos. En mi Nikon, por ejemplo, 3006 x 2000.
Los archivos además tienen profundidad de color, el número de tonos intermedios entre el más oscuro y el más claro en las tres capas RGB. 256 tonos en 8bits (JPG), 4096 tonos en 12bits (RAW) y 65536 en 16 bits (TIFF). Photoshop, cuando trabajamos en 16 bits, sigue mostrándonos por sencillez en el cuentagotas una escala que va sólo de 0 a 255, pero eso no quiere decir que tengamos solo esos tonos.
Cuando se pasan a papel las fotografías, por el procedimiento que sea, el resultado SI TIENE RESOLUCION, y esta no es otra que la del dispositivo que las ha hecho. Cada dispositivo, impresora, minilab o lo que sea tiene la suya propia. Vamos, que cada uno es capaz de pintar más o menos puntitos por pulgada o por centímetro. En general los mejores dispositivos producen resoluciones más altas, y se considera que alrededor de 250 por pulgada, o mejor, 100 por centímetro, para arriba, es una buena calidad de impresión.
Si un minilab, con una resolución de salida de 100 puntos por centímetro (lo más habitual), imprime mi archivo de 3000x2000 puntos, el resultado es sencillo, dividiendo sale 30x20 centímetros.
¿Eso quiere decir que no puedo imprimir las fotos de otro tamaño? NO, pero en ese caso, y antes de imprimir tendrá que cambiar el tamaño del archivo, haciendo que tenga más o menos filas y columnas. El problema es que las maquinitas normales suelen hacer esto peor que el Photoshop, y por eso es mejor hacerlo en casa antes de llevarlas.
¿Cómo se cambia el tamaño (número de filas y columnas) de un archivo? INTERPOLANDO. Interpolar es tomar valores intermedios, dicho así a lo bruto. El ejemplo más sencillo sería hacer un archivo el doble de ancho y alto, pasar a 6012x4000 píxels. En el método de interpolación lineal, los píxeles nuevos, en el hueco que queda al hacer el doble, se rellenan haciendo un promedio de los vecinos. El de la derecha, izquierda, arriba y abajo. Si en la capa roja teníamos 200,202,200,202, pues el promedio es 201. Si la cuenta tiene decimales, perdemos información, pero mucha menos en 16bits, por eso siempre es mejor interpolar en 16bits. Si queremos un archivo la mitad de ancho y alto, de cada cuatro píxels hará solo uno, haciendo de nuevo un promedio. Y de nuevo perdiendo información.
No hay que olvidar que al ampliar esta información nos la estamos inventado, no es real, lo que sale en el CSI es imposible, todos lo sabemos. En el método de interpolación bicúbica, en lugar de 4 vecinos, se consideran 8. Eso garantiza transiciones más suaves en los tonos de color. En un ejemplo exagerado una mala transición provoca el banding, pixelado, o como lo llameis. La bicúbica más suavizada lo que hace es interpolar y luego desenfocar suavemente, y la bicúbica más enfocada, enfoca suavemente después. Genuine Fractals considera muchos más vecinos, y busca patrones y formas para ‘inventarse’ los píxels de mejor manera. Esto es muy evidente por ejemplo si pintamos un círculo donde se vean los píxels y lo ampliamos con los dos métodos. GF lo hace mejor.
El cuadro de diálogo de Photoshop lleva al equívoco con lo que hemos visto porque habla del tamaño de la imagen, en cm o pulgadas, cuando en realidad quedamos en que la fotografía no tenía ¿no?. Ese es el tamaño de salida en el SUPUESTO de que la vayamos a pasar a papel. Y en ese supuesto, las tres cosas están relacionadas. Si queremos una fotografía más grande, 60x40, manteniendo una resolución de 100 puntos por centímetro, PS deberá interpolar hasta 6000x4000 pixels. Si le llevamos un archivo de 6000x4000 para sacar a 60x40 no tendrá que interpolar el maquinillo ¡bien!.
Y ¿que pasa en la pantalla? Pues lo mismo. Cuando en PS vemos las cosas al 100%, cada punto de la pantalla es un punto del archivo digital. Para arriba o para abajo, a interpolar se ha dicho. El interfaz gráfico lo hace por nosotros y no muy bien que digamos. Al 66% muchas veces vemos en pantalla a veces dientes de sierra y otros artefactos que en realidad no existen. Lo mismo sucede cuando un navegador redimensiona una foto para que quepa en la pantalla. La mejor visión es al 100% y por eso, cuando mandamos una foto de 800pix y el foro la redimensiona a 704 en la pantalla, aparecen esas cosas raras.
¿y entonces, que es eso del tramado Bayer? Pues que por ejemplo en una 350D de 8 mpix, solo hay 2mpix sensibles al rojo, 2mpix sensibles al azul y 4mpix sensibles al verde. Y entoces, ¿de donde sale el resto? De interpolar. El archivo RAW no tiene tres capas de color, solo una, con los píxeles rojos, verdes y azules. Ese es un motivo para conservar los RAW. Puede que aparezca otro revelador que interpole mejor que los de ahora, al igual que GF lo hace mejor que PS….
No se si es demasiado rollo ni si soy muy didáctico o no, pero ahí queda esto…
¡el tamaño importa!