No puedo encontrar ningún número real de Nikon, Canon o Sony con respecto a sus conjuntos de chips DSLR, pero supongo que sea cual sea la velocidad a la que se ejecutan, no se acerca a los 2.5 Ghz + comunes en las computadoras domésticas.
No tiene mucho sentido comparar las velocidades de reloj DSLR con las de PC / Macs porque los chips dentro de las cámaras no son procesadores de propósito general. El chipset Intel dentro de un Macbook Pro es muy rápido pero contiene relativamente pocas funciones de alto nivel: hacer algo como el procesamiento de imágenes requiere que todas las matemáticas se deletreen en código, una operación a la vez. Pero los procesadores de imagen dentro de las cámaras están diseñados (y cableados) para hacer cosas muy específicas como la reducción de ruido, la codificación jpeg / mp4 y los muchos “extras” como la detección de rostros que son comunes. Necesitan hacer estas cosas en tiempo real (o muy cerca) y poder bombear todos los datos a la tarjeta de memoria sin hipo.
Un chipset dedicado y específico siempre será más rápido que una PC o una Mac de velocidad comparable para realizar todas las operaciones en el software. Esta es la razón por la cual, durante años, la única forma de codificar video HiDef en tiempo real fue con un codificador de hardware: solo relativamente recientemente se han puesto al día las computadoras domésticas.
- ¿Por qué no podemos reemplazar cualquier filtro de cámara con una máscara binaria digital idéntica (por qué no podemos renunciar a los filtros de cámara)?
- ¿Qué evento / s condujo al uso casi universal de los sistemas de cámara Nikon por parte de profesionales forenses / de la escena del crimen en el Reino Unido?
- ¿Cuál es el mejor lugar para alquilar cámaras y lentes en Mumbai?
- ¿Por qué las cámaras viejas toman fotos de baja calidad? ¿Qué hace que la calidad de la imagen mejore con las cámaras más nuevas?
- ¿Una cámara con un mayor número de puntos de enfoque tiene más nitidez que una cámara con un menor número de puntos de enfoque?
Piensa en una tarjeta gráfica. Veo que los últimos están pasando la marca de 2 Ghz, sustancialmente más lento que los procesadores actuales de PC / Mac. Pero si intenta jugar un juego sin pasar por la tarjeta gráfica (dejando que la CPU normal haga todos los cálculos), verá rápidamente que a pesar de su velocidad de reloj lenta, una tarjeta gráfica hace las pocas cosas para las que está diseñada MUCHO más rápido que la CPU de tu computadora Los procesadores de cámara funcionan de la misma manera, y creo que la razón por la que no publican velocidades de reloj es que cada sistema es diferente y los números no tendrían sentido.
Ninguna cámara tendrá un conjunto de chips que no sea lo suficientemente potente como para manejar los datos que salen de su sensor, eso no tendría sentido. La tecnología de 14 megapíxeles es lo suficientemente antigua como para que nada parezca lento en la actualidad. Pero cuando aparecieron las primeras cámaras de fotograma completo con sus imágenes de 25mp, fueron notablemente más lentas (era común el disparo continuo de 3 o 4 fps, en comparación con 7+). Incluso eso fue hace años. Mientras no esté comprando tecnología de punta, cualquier réflex digital hará su trabajo más rápido que usted.