Unidad de medida de una millonésima de centímetro. Se suele usar para medir cosas muy reducidas como la longitud de onda de la luz y de las ondas electromágneticas de frecuencia más reducida (luz ultravioleta, rayos x…). En la actualidad se prefiere usar el nanómetro (igual a 10 angstroms).
La mínima únidad de información posible. Es uno de los dos estados de sólo dos posibilidades (blanco / negro, positivo / negativo, hay / no hay...). Es, por tanto, una unidad "binaria". Se suele representar como un uno (1. Estado "positivo") o un cero (0. Estado "negativo"). Es la base de los sistemas informáticos y digitales desarrollados por el ser humano hasta ahora.
Unidad estandarizada básica para la medición de la intensidad luminosa en el Sistema Internacional de medición de magnitudes físicas (de la que es la séptima unidad básica).
Equivale a la intensidad luminosa emitida en una dirección concreta por una fuente luminosa monocromática de una frecuencia de 540 teraherzios —lo que se corresponde con una longitud de onda de 555 nanómetros, el punto medio del espectro visible para el ser humano (es decir: la zona llamada luz)—. Para que equivalga a una candela, la intensidad de de esa radiación emitida debe ser de 1/683 vatios por estereorradián.
También se puede definir define como la sexagésima parte (1/60) de la intensidad de la luz que emite un centímetro cuadrado de platino puro a la temperatura de 2046 K (es decir: 1772,85 grados C, que es la temperatura en la que su estado pasa de sólido a líquido).
Una forma de medir la diferencia existente entre dos colores. En realidad lo que se está haciendo es medir la distancia entre puntos en un espacio tridimensional (un espacio de colorLab).
La medida ΔE (léase "delta E" o, más apropiadamente, "error delta" —puesto que eso es lo que finalmente representa—) se usa para especificar la diferencia mínima entre dos colores que el ojo humano medio es capaz de distinguir. En esa medida, uno de los colores es el color que se pretende conseguir y otra el color que se ha conseguido reproducir.
La fórmula de cálculo de diferencia de colores (DeltaE) CIELAB 1976.
De ese modo, el valor ΔE se utiliza para saber cuánta desviación hay en un sistema de tratamiento del color en el que la fidelidad de su reproducción es esencial.
Se elige una tolerancia máxima (diferencia que se permite entre el color original y el reproducido) y a partir de ahí, el exceso se considera error. Cuanto menor sea el valor ΔE tolerado, más difícil será alcanzar el objetivo pero más fiel será la reproducción.
La tabla de valores deltaE entre el color pretendido y el obtenido en un monitor. A mayor valor, peor fidelidad en la reproducción.
La medición para saber cuánto es un valor ΔE se hace con un espectrofotómetro y con diversos métodos de cálculo. No hay una única fórmula, las principales son las definidas por la CIE: CIELAB 1976, CIE 94 y CIEDE 2000. La primera es la más sencilla y la última la más compleja pero precisa.
Los valores de ΔE delta considerados admisibles son usualmente muy bajos: Entre 2 y 3,5 son valores ya perceptibles como 'colores distintos' por el ojo no adiestrado. Lo cierto es que hay tonos en los que el ojo percibe antes las diferencias (por ejemplo, los tonos de piel).
La intensidad luminosa de una fuente de luz en una dirección dada. Su unidad de medida es la candela por metro cuadrado (cd/m2) —es decir: La cantidad de luz dividida por el área receptora en la dirección en consideración.
La luminancia mide la cantidad de luz que pasa o se refleja por una zona concreta en una dirección dada. Por eso, es una unidad de medida fotométrica.
La luminancia es una medida objetiva y no relativa con respecto a la percepción, al contrario que el brillo(brighness).
Al hablar de los dispositivos de reproducción de imagenes, como las pantallas o monitores, es usual referirse a la luminancia mínima y máxima de que es capaz, por lo que se emplea la medida mencionada de cd/m2.
Unidad de distancia que equivale a una milmillonésima parte de un metro (10-9 metros). Debido a su reducido tamaño, en física y óptica se usa para medir longitudes de onda (la luz tiene longitudes de onda entre los los 380 y los 780 nanómetro, por ejemplo).
Medida de distancia en tipografía tradicional entre los tipógrafos de tradicion anglosajona. La pica tradicional medía 4,22 mm (en una pulgada había 6,0225 picas) y se dividía en doce puntos de pica, que a su vez se dividían en décimas de punto.
La pica PostScript no mide lo mismo que la pica tradicional. Equivale a una sexta parte de una pulgada, mientras que la pica tradicional mide "casi" eso. Esa diferencia se debió a un redondeo necesario para facilitar en gran medida el trabajo de los primeros dispositivos PostScript: Una pulgada mide 72 puntos de pica PostScript y 72,27 puntos de pica tradicionales).
En Europa continental (incluida España), la medida tradicional en tipografía era el cícero (dividido en puntos Didot), que no medía lo mismo.]
Unidad de medida usada desde el siglo XVIII por los tipógrafos de Europa continental. Un punto didot es la doceava parte de un cícero y mide 0,3759 mm (en origen medía 0,376006 mm, pero en 1978 se acordó normalizarlo con 0,3759 mm). Es levemente más grande que su equivalente anglosajón, el "punto de pica".
Su inventor fue el tipógrafo francés François-Ambroise Didot, quien lo propuso hacia mediados de los años setenta del siglo XVIII como parte de una racionalización del sistema de medidas tipográficas para sustituir los puntos tipográficos anteriormente establecidos.