“¿Cómo funciona la reducción de ruido en algunas cámaras? ¿Tiene una conexión con el sensor de la cámara o hay otros factores?
Ambas son posibles: existen técnicas de reducción de ruido en el nivel del sensor / óptica y también en el procesamiento posterior. A nivel del sensor, el objetivo es maximizar el número de fotoelectrones producidos por la luz incidente y minimizar los electrones producidos por otros procesos. Se pueden medir más electrones con mayor precisión, la relación señal / ruido y el rango dinámico mejoran.
- Fijación multifásica. Se utiliza principalmente en sensores científicos para mitigar el efecto de la corriente oscura (física) – Wikipedia. El campo eléctrico alrededor de los píxeles tiene una forma tal que los electrones con fugas tienen que superar una barrera potencial para llegar a las regiones de almacenamiento de electrones. Esto reduce en gran medida la magnitud de la corriente oscura, que es uno de los mayores contribuyentes al ruido de la imagen.
- Enfriamiento. Otra técnica genial para reducir la corriente oscura. Los semiconductores son muy sensibles a la temperatura, la corriente se duplica con cada aumento de 7–8 ° C. Al enfriar el sensor, la corriente oscura se puede reducir a niveles insignificantes alrededor de -100 C.
- Iluminación de fondo. En los sensores tradicionales, la luz incidente tiene que luchar a través de la electrónica de píxeles, las estructuras de las puertas para alcanzar la región fotosensible. Esto reduce la eficiencia cuántica – Wikipedia y el factor de relleno (sensor de imagen) – Wikipedia. La eficiencia cuántica rara vez supera el 25% en sensores comerciales baratos. Sensor retroiluminado: Wikipedia es básicamente un sensor normal iluminado desde el otro lado. El portador está grabado y molido y la luz impacta directamente en la región sensible. Son mucho más caros de producir, pero debido al rendimiento superior también se están volviendo populares en las cámaras comerciales. Los sensores científicos retroiluminados logran un factor de llenado del 100% y una eficiencia cuántica superior al 90%. Debido al ruido de la conversión de carga a voltaje, esto no significa que se puedan medir todos los electrones.
- Puertas transparentes. Esta tecnología fue utilizada por Kodak, ahora On Semiconductor está produciendo tales sensores. Es una tecnología más barata para lograr un alto QE y FF. QE alrededor del 50% es posible.
- Las matrices de microlentes mejoran aún más el factor de relleno. Esto es particularmente importante para los sensores interlineales, donde los píxeles activos se mezclan con píxeles de almacenamiento inactivos, por lo tanto, la mitad del área de la imagen se desperdicia ópticamente. Las microlentes recogen luz de toda el área de la imagen y la enfocan a las regiones sensibles.
- CCD intensificado. La luz incidente se amplifica con un intensificador de imagen – tubo de Wikipedia, al igual que en la visión nocturna – dispositivos Wikipedia. Lamentablemente, los tubos intensificadores sufren de su propio ruido. Esta tecnología es en gran parte obsoleta y reemplazada por EmCCD.
- EmCCD emplea un dispositivo especial de multiplicación de electrones de silicio en el chip, que multiplica el número de electrones antes de la conversión de carga a voltaje: dispositivo de carga acoplada – Wikipedia. Es posible detectar y medir casi todos los fotones de esta manera, acercándose a 1e ruido de lectura.
- CDS. Quizás esto no valga la pena mencionarlo porque es trivial: muestreo doble correlacionado – Wikipedia. Todos los sensores de imagen emplean esta técnica. Después de convertir la carga en un píxel a voltaje, la etapa de salida debe reiniciarse, el pequeño condensador utilizado para la medición debe descargarse. Este es un procedimiento inherentemente ruidoso, después del reinicio hay una señal de ruido en el condensador, que contaminaría la señal de salida sin CDS.
- Procesamiento analógico integrado con sensor y ADC. En lugar de enrutar la señal analógica vulnerable fuera del chip para procesamiento externo, el circuito analógico completo y el convertidor de analógico a digital: Wikipedia está integrada en el chip del sensor. En la mayoría de las cámaras DSLR modernas hay un ADC separado para cada fila del sensor, hay literalmente varios miles de convertidores en el chip.
- Óptica optimizada. La película no es sensible al ángulo de incidencia (óptica) – Wikipedia, pero los sensores digitales sí. Funcionan mejor con lentes telecéntricos – Wikipedia. La mayoría de los objetivos fotográficos son casi telecéntricos en el campo de imagen para maximizar el rendimiento. Las lentes “analógicas” antiguas, sin embargo, en muchos casos pueden caber en cámaras digitales, no son una buena idea.
- Píxeles grandes Cuanto mayor es el tamaño físico de los píxeles, más electrones se acumulan. Esto es bueno tanto para el ruido como para el rango dinámico.
¡Se pueden hacer muchas cosas a nivel de sensor para reducir el ruido! Las opciones para recuperar una señal ya contaminada con ruido son relativamente pobres.
- ¿Cuáles son algunas de las buenas características de la Canon 77D y 800D que superan a las Nikon D7000 y 7100?
- ¿Cuáles son los factores que debo tener en cuenta al comprar un flash Canon?
- En una lente gran angular, ¿cuál es la diferencia en el ángulo de visión entre una lente de 16 y 17 mm en una cámara de fotograma completo (FX)?
- ¿Cuándo comenzaron a ser utilizadas las cámaras por el público en general?
- ¿Por qué el IMX 204, un sensor de cámara de teléfono inteligente construido por Sony, nunca utilizado por ninguna compañía? Su tamaño, área de píxeles y salida es probablemente el mejor.
- Corrección de fallas del sensor, ruido de patrón fijo. No todos los píxeles funcionan de la misma manera en un sensor típico. Muchos son completamente malos, no producen ninguna salida o producen señales continuamente incluso sin luz. El resto tiene diferentes corrientes oscuras, sensibilidad y otras características. Estos artefactos tienen que ser compensados con la resta Dark-frame: Wikipedia y otras técnicas.
- Filtración. El ruido se puede eliminar de manera eficiente, pero la información oscurecida por el ruido no se puede recuperar, se pierde para siempre. Los detalles se pierden. Hay algoritmos muy inteligentes, no es una exageración decir que el procesador de imágenes dibuja una imagen para nosotros en función de la información recopilada por el sensor.
- Imagen apilada. (Ver Shift-and-add – Wikipedia) En lugar de una exposición, se capturan muchas imágenes de exposición más cortas. Un software inteligente alinea las imágenes, descarta las imágenes borrosas / desenfocadas / de mala calidad y promedia las buenas. El ruido se puede reducir enormemente de esta manera y se puede mejorar el rango dinámico. La técnica es muy popular entre los astrónomos, lo han estado haciendo durante décadas. La mayoría de las cámaras de teléfonos celulares y muchas cámaras digitales implementan soluciones similares.