¿Cómo funciona la reducción de ruido en algunas cámaras? ¿Tiene una conexión con el sensor de la cámara o hay otros factores?

“¿Cómo funciona la reducción de ruido en algunas cámaras? ¿Tiene una conexión con el sensor de la cámara o hay otros factores?

Ambas son posibles: existen técnicas de reducción de ruido en el nivel del sensor / óptica y también en el procesamiento posterior. A nivel del sensor, el objetivo es maximizar el número de fotoelectrones producidos por la luz incidente y minimizar los electrones producidos por otros procesos. Se pueden medir más electrones con mayor precisión, la relación señal / ruido y el rango dinámico mejoran.

  • Fijación multifásica. Se utiliza principalmente en sensores científicos para mitigar el efecto de la corriente oscura (física) – Wikipedia. El campo eléctrico alrededor de los píxeles tiene una forma tal que los electrones con fugas tienen que superar una barrera potencial para llegar a las regiones de almacenamiento de electrones. Esto reduce en gran medida la magnitud de la corriente oscura, que es uno de los mayores contribuyentes al ruido de la imagen.
  • Enfriamiento. Otra técnica genial para reducir la corriente oscura. Los semiconductores son muy sensibles a la temperatura, la corriente se duplica con cada aumento de 7–8 ° C. Al enfriar el sensor, la corriente oscura se puede reducir a niveles insignificantes alrededor de -100 C.
  • Iluminación de fondo. En los sensores tradicionales, la luz incidente tiene que luchar a través de la electrónica de píxeles, las estructuras de las puertas para alcanzar la región fotosensible. Esto reduce la eficiencia cuántica – Wikipedia y el factor de relleno (sensor de imagen) – Wikipedia. La eficiencia cuántica rara vez supera el 25% en sensores comerciales baratos. Sensor retroiluminado: Wikipedia es básicamente un sensor normal iluminado desde el otro lado. El portador está grabado y molido y la luz impacta directamente en la región sensible. Son mucho más caros de producir, pero debido al rendimiento superior también se están volviendo populares en las cámaras comerciales. Los sensores científicos retroiluminados logran un factor de llenado del 100% y una eficiencia cuántica superior al 90%. Debido al ruido de la conversión de carga a voltaje, esto no significa que se puedan medir todos los electrones.
  • Puertas transparentes. Esta tecnología fue utilizada por Kodak, ahora On Semiconductor está produciendo tales sensores. Es una tecnología más barata para lograr un alto QE y FF. QE alrededor del 50% es posible.
  • Las matrices de microlentes mejoran aún más el factor de relleno. Esto es particularmente importante para los sensores interlineales, donde los píxeles activos se mezclan con píxeles de almacenamiento inactivos, por lo tanto, la mitad del área de la imagen se desperdicia ópticamente. Las microlentes recogen luz de toda el área de la imagen y la enfocan a las regiones sensibles.
  • CCD intensificado. La luz incidente se amplifica con un intensificador de imagen – tubo de Wikipedia, al igual que en la visión nocturna – dispositivos Wikipedia. Lamentablemente, los tubos intensificadores sufren de su propio ruido. Esta tecnología es en gran parte obsoleta y reemplazada por EmCCD.
  • EmCCD emplea un dispositivo especial de multiplicación de electrones de silicio en el chip, que multiplica el número de electrones antes de la conversión de carga a voltaje: dispositivo de carga acoplada – Wikipedia. Es posible detectar y medir casi todos los fotones de esta manera, acercándose a 1e ruido de lectura.
  • CDS. Quizás esto no valga la pena mencionarlo porque es trivial: muestreo doble correlacionado – Wikipedia. Todos los sensores de imagen emplean esta técnica. Después de convertir la carga en un píxel a voltaje, la etapa de salida debe reiniciarse, el pequeño condensador utilizado para la medición debe descargarse. Este es un procedimiento inherentemente ruidoso, después del reinicio hay una señal de ruido en el condensador, que contaminaría la señal de salida sin CDS.
  • Procesamiento analógico integrado con sensor y ADC. En lugar de enrutar la señal analógica vulnerable fuera del chip para procesamiento externo, el circuito analógico completo y el convertidor de analógico a digital: Wikipedia está integrada en el chip del sensor. En la mayoría de las cámaras DSLR modernas hay un ADC separado para cada fila del sensor, hay literalmente varios miles de convertidores en el chip.
  • Óptica optimizada. La película no es sensible al ángulo de incidencia (óptica) – Wikipedia, pero los sensores digitales sí. Funcionan mejor con lentes telecéntricos – Wikipedia. La mayoría de los objetivos fotográficos son casi telecéntricos en el campo de imagen para maximizar el rendimiento. Las lentes “analógicas” antiguas, sin embargo, en muchos casos pueden caber en cámaras digitales, no son una buena idea.
  • Píxeles grandes Cuanto mayor es el tamaño físico de los píxeles, más electrones se acumulan. Esto es bueno tanto para el ruido como para el rango dinámico.

¡Se pueden hacer muchas cosas a nivel de sensor para reducir el ruido! Las opciones para recuperar una señal ya contaminada con ruido son relativamente pobres.

  • Corrección de fallas del sensor, ruido de patrón fijo. No todos los píxeles funcionan de la misma manera en un sensor típico. Muchos son completamente malos, no producen ninguna salida o producen señales continuamente incluso sin luz. El resto tiene diferentes corrientes oscuras, sensibilidad y otras características. Estos artefactos tienen que ser compensados ​​con la resta Dark-frame: Wikipedia y otras técnicas.
  • Filtración. El ruido se puede eliminar de manera eficiente, pero la información oscurecida por el ruido no se puede recuperar, se pierde para siempre. Los detalles se pierden. Hay algoritmos muy inteligentes, no es una exageración decir que el procesador de imágenes dibuja una imagen para nosotros en función de la información recopilada por el sensor.
  • Imagen apilada. (Ver Shift-and-add – Wikipedia) En lugar de una exposición, se capturan muchas imágenes de exposición más cortas. Un software inteligente alinea las imágenes, descarta las imágenes borrosas / desenfocadas / de mala calidad y promedia las buenas. El ruido se puede reducir enormemente de esta manera y se puede mejorar el rango dinámico. La técnica es muy popular entre los astrónomos, lo han estado haciendo durante décadas. La mayoría de las cámaras de teléfonos celulares y muchas cámaras digitales implementan soluciones similares.

La reducción de ruido se realiza en software. Básicamente, difumina muy ligeramente la imagen, con la intención y la esperanza de difuminar más el ruido que los detalles.

En la cámara, hay una combinación de hardware / firmware para convertir los datos RAW del sensor en un JPEG para que los humanos puedan verlos. Hay varios parámetros que el usuario puede establecer para ese procesamiento, incluida la nitidez de los bordes de la imagen y el grado de reducción de ruido. El procesamiento también aplicará más reducción de ruido a medida que aumente la configuración ISO.

Puede ver todo esto si graba imágenes RAW y luego las procesa usted mismo para producir un JPEG (uso Adobe Lightroom, pero hay programas gratuitos para probar esto). En cualquier editor decente, tiene un control completo sobre la reducción de ruido, por lo que puede elegir entre difuminar el ruido o mantener los detalles nítidos. La elección de la mayoría de las personas variará según el tema de la fotografía: una imagen muy rica en detalles enmascarará el ruido, y querrá todos esos detalles nítidos, mientras que una imagen con muchos tonos uniformes, como un mar y un cielo, scape, mostrará ruido, del que probablemente querrás deshacerte, a menos que quieras un efecto puntillista vanguardista.

Obtendrá más ruido cuanto mayor sea la configuración ISO, porque la física, básicamente.

La reducción de ruido no es un proceso físico (que yo sepa) es algo digital. Al igual que los programas de reducción de ruido que usaría en la computadora al retocar imágenes. Hasta donde yo sé, no tiene nada que ver con la lente y tal.

Todas las cámaras digitales tienen una pequeña computadora a bordo que, según su configuración, procesa las imágenes que toma. Por ejemplo, cuando toma fotos en formato JPEG, la cámara toma la foto y le hace ciertas cosas, como ajustar el brillo, el contraste, la saturación, etc., y cuando lo hace, guarda la imagen en su tarjeta de memoria.

Si tiene habilitada la reducción de ruido, se aplicará a la imagen al igual que los ajustes de brillo y contraste. Si no está habilitado, no se aplicará nada a la imagen, como sin reducción de ruido.

Personalmente, nunca uso la reducción de ruido de la cámara y prefiero aplicar mi propia reducción de ruido en la publicación. La reducción de ruido funciona a expensas de los detalles y prefiero hacerlo yo mismo, así que si no me gusta, siempre puedo volver al estado original.

No estoy 100% seguro de esta próxima parte, pero por lo que sé si disparas en formato RAW, la reducción de ruido a bordo escribe sus cálculos en el archivo RAW, pero la mayoría de los programas de computadora como lightroom lo ignorarán y te darán una imagen sin reducción de ruido.

Probablemente se esté refiriendo a lo que Nikon llama reducción de ruido de larga exposición. No estoy seguro de si otros proveedores de cámaras lo nombran un poco diferente. Durante exposiciones prolongadas, cualquier anomalía en el sensor de la cámara se magnifica como resultado del tiempo de exposición prolongado. Los píxeles calientes o “atascados” causan artefactos notables en la imagen. Entonces, cuando se completa la exposición, la cámara toma una segunda exposición de igual longitud, pero con el obturador cerrado. Esto produce una imagen que contiene solo los píxeles calientes. Luego, la cámara resta la imagen de ruido de la imagen real. El resultado minimiza la presencia de píxeles anormales. No elimina todo el ruido, pero es una mejora.

Dado que esta forma de reducción de ruido beneficia las exposiciones prolongadas, como la fotografía nocturna, el tiempo de exposición suele ser de al menos diez segundos, y activar la reducción de ruido de exposición prolongada duplica ese tiempo.