Kitabı oku: «Tecnología del color», sayfa 5
Fig. 2.14 Esquema de cómo implementar modelos de apariencia del color en el método de igualación propuesto en las estructuras del perfil ICC con dos espacios perceptuales de color de conexión: a la entrada y a la salida del sistema de gestión del color.
7. Los métodos de interpolación: no están perfectamente definidos los métodos matématicos de interpolación que puede manejar un módulo de gestión del color (CMM) en las transformaciones cuantizadas del color entre dispositivos.
8. Falta de claridad en la descripción de los métodos posibles de creación de las especificaciones de los perfiles de los dispositivos.
9. Para los sistemas de gestión del color basados en el perfil ICC, se necesita ponerse de acuerdo en quiénes van a hacer las transformaciones de color, dónde y cuándo, y estar seguro de que no existirá ambigüedad sobre la interpretación de los datos etiquetados y no etiquetados de los perfiles de los dispositivos.
10. La organización ICC tiene dos objetivos principales en el formato de fichero ICC: primero, facilitar la interoperatividad de perfiles desde fuentes diferentes sobre plataformas (hardware) y aplicaciones (software) diferentes y, en segundo lugar, facilitar la comunicación consistente de color entre los dispositivos. Se puede decir que la especificación cumple el primer objetivo proporcionando un formato de fichero y un espacio de color de conexión razonablemente fuertes y claramente definidos, con un comportamiento común para los componentes dentro de la arquitectura de gestión del color. Sin embargo, el segundo objetivo está menos conseguido, y existen problemas serios sobre las inconsistencias posibles procedentes de los distintos métodos de proyectar los colores de un dispositivo en y desde el espacio PCS. El formato de fichero ICC es un estándar que está evolucionando y se esperan nuevas investigaciones para clarificar esta cuestión en el futuro.
Como resumen de todo este capítulo, podríamos extraer unas críticas generales o cuestiones a resolver sobre los sistemas de gestión del color recordando con ello que este campo de la colorimetría aplicada es un campo en evolución constante debido al trasfondo científico y tecnológico que subyace en el mismo. Así pues, los aspectos que deberían resolverse son:
1. Cada componente de una cadena de reproducción cruzada del color necesita hacer su parte de gestión del color, pero ninguna más. Los softwares de control (drivers) de los escáneres no deberían registrar el color en los espacios de color de las impresoras o imprentas, ni los softwares de control (drivers) de las impresoras o imprentas no necesitan saber qué espacio de color usa el escáner.
2. CMYK es un espacio de color que todavía se sostendrá en el futuro cercano de las artes gráficas. Se necesita, por tanto, que se mantenga completamente incluso en sistemas de reproducción y gestión del color centrados en espacios de color independientes del dispositivo.
3. Las intenciones de conversión entre espacios de color son apropiadas y necesitan conservarse para la clase alta de gestión del color, pero un conversor que se ajuste a todos los tipos de perfiles o a todas las transformaciones podría ser apropiado para la clase baja de gestión del color.
4. Actualmente, existen demasiados procedimientos para hacerlo de forma incorrecta y muy pocos para hacerlo bien (Lammens 1999). Se necesita trabajar con configuraciones comunes e interfaces para usuarios que pro-porcionen los controles del color de forma consistente, inteligible y no redundante.
5. Para mantener todos los tipos posibles de sistemas de reproducción y gestión del color, los fabricantes de equipos multimedia tienen que añadir hardware y/o software complejos en sus dispositivos. Se necesita estándares bien definidos de amplio uso industrial sobre cómo manejar el color de forma que este tipo de complejidad pueda eliminarse o simplificarse, o al menos no duplicarse.
2.4 Apéndice: espacios de color RIMM/ROMM RGB, e-sRGB e ICC-2001
El mundo de la gestión del color no para de evolucionar. Tras lo explicado en los párrafos anteriores, parecía necesario mejorar los defectos del formato ICC, y al fin, se ha conseguido. Si la versión de trabajo (v. 3.5) de este capítulo es del año 1998, ya ha aparecido la versión núm. 4 (ICC 2001), cuyas característi-cas colorimétricas novedosas (tabla 2.7) veremos resumidamente a continuación.
TABLA 2.7
Datos colorimétricos de los espacios de representación del color e-sRGB, ICC PCS, ROMM RGB y RIMM RGB
Con el advenimiento de gran variedad de dispositivos o periféricos, parece que ya no es necesario centrar el flujo de la información cromática alrededor de la visualización de la imagen desde un monitor estándar tipo sRGB. Por ejemplo, ya resulta bastante común enviar directamente las fotos captadas con una cámara digital a una impresora de sublimación. Esto significa que ya no tiene sentido limitar la gama de colores de la imagen a la de un monitor tipo CRT, puesto que no se utiliza en el proceso. Así pues, un nuevo espacio de color independiente del dispositivo, e-sRGB (PIMA 2001, SRGB 2001), pretende capitalizar los nuevos retos de la gestión del color sobre el intercambio de información cromática entre nuevos dispositivos multimedia donde el monitor CRT no sea imprescindible. Para ello, dado que el estándar sRGB seguirá en marcha durante varios años más, se ha optado por un enfoque interoperativo, de forma que el nuevo estándar es una extensión del espacio sRGB. Aunque la propuesta inicial es de PIMA (Photographic and Imaging Manufacturers Association), ya está en fase de desarrollo desde ISO (ISO 22028) y de igual forma desde IEC (IEC 61966-2-2). Por tanto, es mera cuestión de tiempo que este informe pase a ser definitivamente un estándar internacional más bien dentro del campo de la tecnología del color.
Por otra parte, se ha acordado recientemente que la mayoría de las imágenes se pueden clasificar en dos tipos: el referido al dispositivo de transferencia o salida (output-referred) y el referido al contenido colorimétrico original de la escena (scene-referred). Para ello, una familia de sistemas de representación del color de una gran gama de colores reproducibles (con algunos primarios irreales) se han definido también para el almacenamiento, el intercambio y la manipulación de imágenes (Spaulding, Woolfe, Giorgianni 2000). El espacio estándar RGB de salida (Reference Output Medium Metric RGB, ROMM RGB) es un sistema de color de amplia gama diseñado para usarse en las imágenes ya procesadas (manipuladas, listas para transferir, imprimir, etc.). Este espacio está fuertemente ligado al formato ICC PCS, y es compatible por ejemplo con el espacio de color que usa Adobe Photoshop. ROMM RGB está asociado a un entorno específico de visualización y medio de soporte (tabla 2.7), permitiendo una comunicación exacta y eficiente de la apariencia del color de la imagen. El espacio estándar RGB de entrada (Reference Input Medium Metric RGB, RIMM RGB) se basa en el mismo espacio de representación ROMM RGB, y está diseñado para codificar la apariencia del color de imágenes no manipuladas o brutas. Se le asocia, por tanto, con un conjunto de condiciones de visualización propio de escenas al aire libre, es decir, con luz solar, con iluminaciones elevadas y amplio rango dinámico de luminancias (tabla 2.7).
El monitor o la pantalla estándar de visualización del espacio e-sRGB posee un blanco de cromaticidad D65 y luminancia YW = 80 cd/m2, un negro de luminancia YK = 1 cd/m2, y los primarios RGB tienen las mismas cromaticidades que los del espacio sRGB (tabla 2.7). Con estos datos, la transformación de color entre e-sRGB y CIE-XYZ es ya conocida.
El paso no lineal a valores digitales, que depende del nivel de digitalización n (10, 12, 16 bits), es el siguiente:
Así, la conversión de sRGB a e-sRGB es:
Y, la conversión de e-sRGB a e-sYCC es:
Dadas las diferencias colorimétricas existentes entre los espacios e-sRGB y ROMM RGB (tabla 2.7), la conversión entre estos dos espacios de color pasa inicialmente por escalar los valores colorimétricos (lineales) e-sRGB entre 0.53 y 1.68 para, de esta forma, aplicar la ecuación matricial siguiente:
Los valores lineales ROMM RGB se escalan entre 0 y 1, para a continuación, aplicar la transformación no lineal a valores digitales del modo siguiente:
La transformación entre ROMM RGB y ICC PCS es la siguiente:
dado que la nueva especificación ICC PCS se aplica tras la normalización:
donde XPCSYPCSZPCS son los valores triestímulo de la imagen, XW = 85.81, YW = 89.00 (densidad visual D = 0.0506), ZW = 73.42, los valores triestímulo del blanco de referencia del medio, y XK = 0.2980, YK = 0.3091 (densidad visual D = 2.5099), ZK = 0.2550, los valores triestímulo del negro de referencia del medio.
En cualquier caso de manipulación (perceptual o colorimétrica) de la gama de colores reproducibles, los valores triestímulo (lineales) en el espacio e-sRGB deben escalarse entre 0.53 y 1.68 para poder aplicar directamente la transformación matricial siguiente:
Por último, el espacio estándar de entrada RIMM RGB, el que se usará para codificar la colorimetría bruta de una escena, utiliza la misma transformación de color que el espacio ROMM RGB (2.23), pero con la salvedad de que la transformación no lineal a valores digitales se obtiene usando la transformación implementada en Photo CD:
3. Escáneres y cámaras electrónicas
3.1 Introducción
Tal como vimos en el capítulo anterior, concretamente en la introducción del mismo (fig. 2.1), existen múltiples formas de crear una imagen digital coloreada. De entre los dispositivos de entrada en la cadena de reproducción digital del color, no cabe duda de que los escáneres, las cámaras (estáticas) y videocámaras son los más utilizados para tal fin. No obstante, antes de desarrollar este capítulo, es preciso indicar, en primer lugar, que todos estos dispositivos digitales están compuestos por un sensor optoelectrónico o fotosensor analógico y un dispositivo que transforma las señales analógicas en código digital, el cual denominaremos convencionalmente conversor analógico-digital (ADC, Analog-to-Digital Converter). Si el objetivo principal en este capítulo es analizar las características de reproducción del color de estos dispositivos, no cabe duda de que, parte de los resultados que presentaremos estarán influenciados directamente por ambos componentes básicos, aunque la mayoría de ellos dependan de otros aspectos complementarios (tecnológicos). Por tanto, parte de los objetivos de este capítulo estará ligado al desarrollo de estos aspectos complementarios que permiten alterar positiva o negativamente el nivel de reproducción del color en el proceso básico de captura digital de una imagen, y a algoritmos sobre la evaluación del nivel en la reproducción del color.
Con este preámbulo, solamente resta acotar el campo de desarrollo de este capítulo. En concreto, en ningún momento haremos referencia a los medios de almacenamiento y transmisión (JPEG, MPEG, etc.) y a los tipos de formato (TIFF/EP, JPEG, etc.) de la información contenida en una imagen analógica o digital, puesto que esto pertenece al capítulo siguiente. Tampoco centraremos este capítulo en los aspectos de transferencia de la imagen digital desde un dispositivo de entrada (escáner o cámara) a un dispositivo de salida (escáner de salida o filmadora digital, impresora de sublimación térmica, de chorro de tinta, etc.), puesto que tales aspectos se han analizado globalmente en el capítulo anterior, y pueden complementarse con el capítulo 6 («Reproducción del color en impresoras»). No obstante, como veremos más adelante, la transferencia intermedia de visualización en un monitor CRT de una imagen digital sí que se estudiará parcialmente, pero sólo desde el punto de vista del dispositivo de entrada, no del dispositivo de visualización, puesto que éste se estudiará en el capítulo 5 («Reproducción del color en monitores»).
En lo que viene a continuación, salvo que no se indique lo contrario, no distinguiremos entre escáneres y cámaras digitales, ya sean éstas estáticas (portátiles, de estudio, etc.) o videocámaras. Además, tal como se titula este capítulo, en ningún momento haremos referencia a los aspectos específicos del vídeo digital (Watkinson 1998) ni de la fotografía fotoquímica (clásica). Respecto al primer ámbito, porque exceptuando los aspectos específicos de registro, almacenamiento y manipulación de imágenes en movimiento, parte de lo desarrollado en este capítulo es totalmente compatible con él. En cambio, como los aspectos tecnológicos y colorimétricos de la fotografía fotoquímica (analógica) son bastante diferentes a los que desarrollarán a continuación, éstos se tratarán exclusivamente en el capítulo 7.
3.1.1 Fundamentos de Optoelectrónica
A diferencia de la fotografía fotoquímica y los sistemas biológicos fotosensibles, en la que la interacción radiación-materia (película fotográfica, retina, etc.) es sobre todo química, la interacción radiación-materia en fotografía digital es un proceso completamente físico (Joshi, Olsen 1995; Norton 1995), en concreto el efecto fotoeléctrico descubierto por Albert Einstein en 1905. El proceso, esquematizado en la figura 3.1, consiste básicamente en que los fotones nν de la radiación electromagnética arrancan electrones de ciertos átomos que componen el elemento fotodetector o fotodiodo. Estos fotoelectrones npe pueden recolectarse de varias formas, destacando entre todas ellas los modos CCD (Charge Coupled Device, dispositivo de carga acoplada) y CMOS (Capacitator Metal-Oxide Semiconductor) (Holst 1998, Janesick 2000, Tredwell 1995). La recolección de carga genera una microcorriente eléctrica (μV0), la cual necesita ampliarse (ganancia interna G) para que pueda acoplarse a dispositivos electrónicos convencionales y así controlarse a voluntad. En estos momentos, la información codificada es completamente analógica (continua), y el elemento imagen o píxel que la ha generado es el sistema compuesto por el fotodiodo y los elementos que compongan el sistema de lectura (CCD o CMOS), siendo a partir de ahora una unidad indivisible dentro de la cadena de control de la información contenida en la imagen. La señal eléctrica V1 resultante del proceso básico de captura optoelectrónica puede sufrir varias transformaciones más (ganancia externa G1) antes de introducirse en un conversor analógico-digital CA/D, dentro o fuera del dispositivo de captura para transformarse en una señal digital (discreta), el cual, a su vez, aporta sus transformaciones electrónicas propias (ganancia G2). Si bien la fotocorriente generada npe es proporcional a la tasa de fotones incidentes nν, el nivel de gris o número digital (ND) del píxel de la imagen resultante quedará finalmente como:
Fig. 3.1 Funcionamiento optoelectrónico global de un dispositivo de captura.
Un esquema global más estricto del funcionamiento o transferencia optoelectrónica de un dispositivo cualquiera de captura puede aproximarse en el dominio de linealidad de la forma siguiente (Holst 1998: 111-119; Janesick 2000; Wyszecki, Stiles 1982: 4). La exposición cuántica o tasa de fotones incidentes nν, como número de fotones incidentes/sr·nm, sobre el plano focal fotosensor es
donde h y c son constantes físicas fundamentales, Le la radiancia espectral en W/sr·m2 de la escena, ASENSOR el área efectivamente irradiada del plano focal fotosensor, t el tiempo de exposición o de integración optoelectrónica, N el diafragma de apertura (f-number) del objetivo fotográfico o sistema óptico de entrada, mOBJETIVO el aumento lateral del objetivo fotográfico, τOBJETIVO la transmitancia espectral del objetivo fotográfico, TATM la transmitancia espectral de la atmósfera y θ la posición angular del objeto-escena respecto el eje óptico del sistema óptico de entrada.
En ese intervalo de exposición t, se produce la conversión fotoeléctrica y la serie de lecturas/conversiones de cargas eléctricas recolectadas en un voltaje analógico (VSALIDA), el cual sería verdaderamente el correspondiente valor triestímulo dado por el dispositivo de captura. Si tenemos en cuenta el principio de univarianza, el proceso optoelectrónico de captura queda como
donde QE(λ) es la eficiencia cuántica del fotodetector, la cual indica la conversión de fotones incidentes a fotoelectrones, o versión cuántica de la sensibilidad espectral del dispositivo de captura en el intervalo espectral [λ1, λ2] nm.
Centrándonos ya en el dominio visible (λ1 = 380 nm, λ2 = 780 nm) de la radiación electromagnética mediante la utilización de fotodiodos de Si, podemos encontrar un expresión más práctica en términos macroscópicos de la eficiencia cuántica QE. Para ello, debemos convertir en primer lugar la variable cuántica nν en su equivalente macroscópico exposición espectral H(λ), cuya unidad métrica es el joule (J):
Así, y de forma paralela, la conversión optoelectrónica que tiene lugar en un dispositivo de captura puede entenderse ahora expresando la expositión espectral H(λ) como directamente proportional a la radiancia espectral Le(λ) del objeto-escena y el tiempo de expositión t, e inversamente proportional al cuadrado del número de diafragma N. Si tenemos en cuenta que la transmitancia espectral de la atmósfera TATM en el rango visible es la unidad, y que podemos considerar para la mayoría de las lentes fotográficas la transmitancia espectral τOBJETIVO constante e independiente de la longitud de onda en el rango visible con un valor cercano también a la unidad, la expresión anterior para una escena centrada sobre el eje óptico (θ = 0) quedaría de forma más efectiva como:
Si paralelamente, consideramos también todo el proceso electrónico descrito por la inversa del producto G2·G1·G como un proceso de transferencia optoelectrónica K, número de fotoelectrones npe por número digital ND, y que resulta más conveniente trabajar con números o niveles digitales relativos NDR para ampliar este esquema a cualquier nivel de digitalización o profundidad de respuesta digital (2bits -1), nos queda que la eficiencia cuántica espectral QE(λ) se expresaría para una longitud de onda λ determinada como:
De las últimas dos expresiones, se derivan dos aspectos conceptualmente importantes para el proceso básico de captura de una imagen: la tasa de fotones incidentes del estímulo equienergético y la ley de la reciprocidad.
Respecto al primero, si consideramos por simplicidad las propiedades de la fotodetección ideal (QE = 1, K = cte, ∀ λ), resulta que para conseguir la misma responsividad espectral rλ para todo el rango espectral sensible, es necesario aumentar proporcionalmente el número de fotones incidentes para cada longitud de onda λ. Esto debe asimilarse como que el espectro equienergético E, expresado vectorialmente como [1, 1, …, 1]t W/m (densidad espectral de potencia radiante) en función de la longitud de onda λ, está representando una tasa de fotones no lineal con la longitud de onda. Así, para que una expositión específica de fotones λ1 provoque la misma respuesta digital que otra expositión específica de fotones λ2 (> λ1), pero energéticamente equivalentes Eλ2 = Eλ2 (Wyszecki, Stiles 1982: 4), la tasa de fotones λ2 debe ser superior a la de los fotones λ1, concretamente nv2 = (λ2/λ1)3.nv1
Por otro lado, y con vistas a allanar el camino para los pormenores de la caracterización espectral de los dispositivos de captura, la expositión espectral H(k) puede variarse de tres formas diferentes: según la luminosidad del testobjeto, el diámetro del diafragma de apertura del sistema óptico de entrada y/o el tiempo de expositión o integratión optoelectrónica. Lo que no es seguro es si todas las combinaciones posibles de series de expositión [Le (λ), N, t] para obtener la misma expositión espectral H(λ) provocarán la misma respuesta digital ND(λ). Es lo que se conoce como ley de la reciprocidad, la cual no se verifica completamente en fotografía fotoquímica (Hunt 1995: 282), pero poco se sabe también hasta qué punto se verifica o no en fotografía digital.
3.1.1.1 Espacio RGB de un dispositivo de captura
Uno de los aspectos más críticos a la hora de evaluar el grado de reproductión del color de los dispositivos de captura es la acotación o el control del espacio RGB dependiente del dispositivo. Dependiendo del uso posterior de la salida cromática analógica, ésta puede sufrir interna o externamente varias transformaciones electrónicas de color, denotadas convencionalmente como matrixing o rendering, por lo que al final, la nueva codificatión RGB no será verdaderamente la originaria o bruta. Como lo que resulta primordial es conocer y controlar el espacio RGB bruto del dispositivo de captura, las variables que pueden afectar al proceso de generación de la imagen digital (fig. 3.2) pueden agruparse en factores extrínsecos e intrínsecos.
Fig. 3.2 Esquema de las variables principales que influyen en el proceso de generación de una imagen digital en un dispositivo de captura.
Los factores extrínsecos, como el número de diafragma N del sistema óptico de entrada, el tiempo de exposición t y la arquitectura de color, entendida ésta como el método tecnológico de separación de color de la luz incidente, son variables que afectarían antes de la generación optoelectrónica de la imagen. Si bien, a diferencia de los escáneres, los factores N y t pueden variarse en las cámaras, el tipo de arquitectura de color es fijo en ambos dispositivos.
Los factores intrínsecos engloban todas aquellas variables que intervienen posteriormente en el procesado electrónico de generación de la imagen digital. Aunque algunos procesos electrónicos internos resultan inevitables, y no por ello simples (Herben 1997; Parulski et al. 1991; Perales 1994), otros no son estrictamente necesarios, pero se incorporan para que la funcionalidad del dispositivo sea más versátil. Según el modelo o marca del dispositivo, parte de estas variables se puede modificar a través del menú de control que proporciona el fabricante, mientras que otras quedan fijadas. Por tanto, si tuviéramos que definir una imagen RGB bruta (raw), sería aquella que resultara de configurar todos los factores intrínsecos a valores por defecto, donde se supone que no alterarían en nada las señales RGB originarias. De entre las variables posibles, y marcadas en la figura, destacamos la ganancia externa, el balance (electrónico) de blanco, consistente en hacer corresponder los niveles digitales máximos disponibles con el estímulo-color catalogado como blanco dentro de la escena, y los parámetros offset (brillo) y ganancia (contraste) del conversor analógico-digital, que analizaremos más adelante. A diferencia de los escáneres, la mayoría de las cámaras permiten variar por hardware (no por software, que es como se haría en los escáneres) la ganancia y el balance de blanco; un grupo reducido de ellas, sobretodo las que forman parte de equipos sofisticados de visión artificial (por computador), permiten variar también los parámetros de la digitalización.
Suponiendo, pues, un dispositivo de captura de la marca/modelo que sea, con los parámetros fijos N, t, arquitectura de color, ganancia, balance de blanco, y los asociados a la digitalización, queda ahora bastante más claro que esta configuración acarrea un espacio RGB determinado. Ahora bien, es bastante habitual encontrarse con modelos diferentes de la misma marca que no consiguen codificar con la misma terna RGB un estímulo-color, el cual tiene una codificación CIE invariable. Por tanto, los espacios RGB asociados a cada dispositivo son colorimétricamente distintos. Es lo mismo que ocurriría cuando, si eligiendo uno de ambos, alteráramos la ganancia externa o el balance de blanco: se codificaría con ternas RGB diferentes el mismo estímulo-color. En consecuencia, cuando llegue el momento de desarrollar en secciones posteriores los aspectos relativos a la caracterización espectral y colorimétrica de estos dispositivos, supondremos en todo momento que se tiene conciencia del tipo de espacio RGB dependiente, ya sea éste verdaderamente bruto o alterado de forma voluntaria. Evidentemente, los algoritmos de caracterización espectrocolorimétrica que desarrollaremos más adelante serán aplicables a cualquier tipo de espacio RGB, pero siempre resultará más interesante, desde el punto de vista teórico y tecnológico, el espacio RGB bruto del dispositivo, aunque éste pueda diferir entre modelos de la misma marca. De esta forma, la caracterización serviría para evaluar el grado de reproducción del color como un factor clave de calidad, entre modelos diferentes de la misma marca o entre modelos con las mismas prestaciones aparentes de marcas distintas.
3.1.1.2 Arquitecturas de color
La arquitectura de color es el método tecnológico usado para separar la luz incidente en tres bandas espectrales, que convencionalmente denominamos RGB. El esquema básico (fig. 3.3, véase apéndice de color) de diseño óptico-colorimétrico de separación espectral de la luz en cualquier dispositivo de captura consta de:
1. Un conjunto de filtros ópticos adosado a un sistema óptico de enfoque: uno que impida la radiación ultravioleta (UV) τUV, el de la lente generalmente, otro para evitar la radiación infrarroja (IR) τIR, y los filtros de colores RGB τR, τG, τB para la separación espectral de la información fotoeléctrica asociada a tres canales de color.
2. Un dispositivo optoelectrónico de tipo semiconductor, como un CCD inventado por Boyle y Smith en 1970, como sistema fotosensor base con sensibilidad espectral relativa1 sCCD. En concreto, para el esquema de arriba existirían tres sensores CCD, aunque veremos a continuación cuáles son las variaciones de diseño al respecto.
3. Con estos datos ópticos, y teniendo en cuenta que el funcionamiento del dispositivo se considera lineal (que se cumplen las leyes de Grassmann), la terna TRGB = [R, G, B]t de respuesta del dispositivo se obtiene a partir de , donde c el vector estímulo-color
Aunque esta es una formulación estrictamente óptica y colorimétrica, más adelante la coordinaremos con la desarrollada en formato optoelectrónico (3.6), dejando, pues, al final un modelo completo de todo el proceso.
Si bien el esquema anterior suele denominarse de filtros estáticos (Static Filter RGB), y aunque la variante tecnológica más optimizada es la del bloque 3-CCDs (fig. 3.4, véase apéndice de color), existen otras variantes para los mosaicos o matrices y líneas (Arrays) CCD agrupadas colectivamente bajo el nombre de filtrado de color sobre píxel (Stripe Filter), puesto que son tiras de filtros microscópicos sobre los píxeles de los sensores CCD (fig. 3.5, véase apéndice de color). Aunque en el diseño básico de filtros estáticos y en éste último se dispone de un único sensor CCD (o sea, un dispositivo en blanco y negro), en el primero de ellos se adosa una rueda de tres filtros de color, generalmente de tipo RGB; en cambio, en el segundo grupo existen multitud de diseños pictóricos (en RGB, en CMY, GCMY, etc.) y geométricos, desde líneas verticales RGB hasta estructuras geométricas en mosaico –estructura Bayer (Dillon, Lewis, Kaspar 1978; Hunt 1995), 3G/R/B, etc.–, por lo que resulta necesario reconstruir la información colorimétrica completa RGB en cada píxel mediante algoritmos electrónicos complejos y no estandarizados de interpolación (Acharya, Tsai 1999; Kuno et al. 1999; Parulski et al. 1985).
3.1.1.3 El concepto de la digitalización
La información de salida de un dispositivo de captura es eminentemente electrónica, de carácter analógico, en voltaje o en intensidad, por las características fotoeléctricas de los sensores. Y así se ha usado durante mucho tiempo en las cámaras de televisión con tubos de imagen Vidicón o Plumbicón (Hunt 1995: 463 y ss). Pero con el descubrimiento de las ventajas de la codificación digital de la imagen y el invento del sensor CCD (Boyle, Smith 1970), la mayoría de los dispositivos actuales de captura incorporan interna o externamente el conversor analógico-digital CA/D para los sistemas de manipulación/control de la imagen digital, puesto que éste es imprescindible si existe una conexión directa posterior con un ordenador convencional. El principio de la digitalización sería, pues, el siguiente (fig. 3.6):
– El rango dinámico de la respuesta bruta de la imagen-escena vendrá dado por los valores mínimo y máximo de exposiciones que recibe el sensor, lo cual se corresponderá con los voltajes mínimo y máximo brutos, respectivamente.
Fig. 3.6 Esquema del proceso de digitalización en niveles de gris a 12 bits o a 8 bits para una tarjeta gráfica de monitor CRT de una imagen captada inicialmente en formato analógico (voltaje).
– Configuración del offset (brillo): suma de la componente continua Vc para adaptar el nivel de gris (digital) medio seleccionado a voluntad, como por ejemplo para la visualización de la imagen en un monitor CRT a través de una tarjeta gráfica SVGA de 8 bits (256 niveles de gris) por canal RGB.
– Configuración del gain (contraste): amplificación G2 (≡ φ) de la señal para adaptarse a la dinámica o rango de niveles de salida digital/analógica seleccionada, como por ejemplo para la visualización de la imagen en un monitor CRT a través de una tarjeta gráfica SVGA de 8 bits (256 niveles de gris) por canal RGB.