Análisis completo y detallado de sensores de imagen CMOS y CCD
CCD y CMOS
En primer lugar, necesitamos saber qué significan CMOS y CCD.
CMOS es en realidad la abreviatura de semiconductor de óxido metálico complementario, que en chino se llama semiconductor de óxido metálico complementario. CCD es la abreviatura de dispositivo de carga acoplada, que significa dispositivo de carga acoplada. ¿Te sientes avergonzado? CMOS y CCD son más agradables al oído.
Los sensores CCD reciben su nombre de cómo se lee la carga después de capturar la imagen. Mediante el uso de técnicas de fabricación especiales, el sensor puede transferir la carga acumulada sin afectar la calidad de la imagen. El área completa de píxeles puede considerarse como una matriz y cada unidad de matriz es un píxel.
01. Microestructura de CMOS y CCD
La unidad fotosensible básica de CCD es MOS (condensador semiconductor de óxido metálico), que se utiliza como fotodiodo y dispositivo de memoria.
Un dispositivo CCD típico tiene cuatro capas: (a) sustrato de silicio dopado con boro, (b) capa de parada de canal, (c) capa de dióxido de silicio y (d) puerta de polisilicio para el electrodo de control. Cuando el voltaje de la compuerta es alto, se crea un pozo de potencial debajo de la capa de óxido. Los fotones incidentes pueden excitar electrones en el pozo de potencial, y estos electrones pueden ser recogidos y guiados por la región dopada circundante para evitar que los electrones excitados se escapen.
El uso de cámaras CCD para producir imágenes se puede dividir en cuatro etapas o funciones principales: generación de carga mediante la interacción de fotones con el área fotosensible del dispositivo, recolección y almacenamiento de la carga liberada, transferencia de carga. y medición de carga.
① Generación de carga de señal: El primer paso en el proceso de trabajo del CCD es la generación de carga. El CCD puede convertir señales de luz incidente en salida de carga, que se basa en el efecto fotoeléctrico (efecto fotovoltaico) dentro del semiconductor.
②Almacenamiento de cargas de señal: el segundo paso en el proceso de trabajo del CCD es la recolección de cargas de señal, que es el proceso de recolectar cargas excitadas por fotones incidentes en paquetes de cargas de señal.
③Transmisión (acoplamiento) de cargas de señal: el tercer paso del proceso de trabajo del CCD es la transmisión de paquetes de carga de señal, es decir, los paquetes de carga recopilados se transfieren de un píxel al siguiente hasta que se cargan todas. Los paquetes son proceso de salida.
④ Detección de carga de señal: El cuarto paso en el proceso de trabajo del CCD es la detección de carga, que es el proceso de convertir la carga transferida a la etapa de salida en corriente o voltaje.
Microestructura de CMOS: La mayor diferencia con respecto al CCD es la diferente forma de transmisión de carga. CMOS utiliza cables metálicos para la transmisión. Diagrama esquemático del funcionamiento de los píxeles CMOS. Los píxeles del sensor (diodos de polarización inversa) están conectados a la electrónica de píxeles en el chip de lectura.
02. Principio de funcionamiento de los sensores CMOS y CCD
Apariencia del CMOS: incluidos píxeles, circuitos lógicos digitales, procesadores de señal, controladores de reloj, etc.
Apariencia CCD: Incluye registros de desplazamiento horizontal y vertical, controladores de reloj para registros de desplazamiento horizontal y vertical y amplificadores de salida. Resumiendo estos dos sensores, existen los siguientes dos diagramas de circuito.
Diagrama esquemático del sensor CCD. Un CCD es esencialmente una gran variedad de "barriles" semiconductores que convierten los fotones entrantes en electrones y retienen la carga acumulada. Estas cargas se pueden transferir a través del registro de desplazamiento vertical al registro de desplazamiento horizontal, que puede convertir la carga en una salida de voltaje.
Esquema del sensor CMOS. En lugar de transferir grandes cantidades de carga, los semiconductores complementarios de óxido metálico están diseñados para convertir instantáneamente la carga en voltaje, emitiendo el voltaje en un microcable.
Esquema del sensor de imagen CMOS. Los CCD convierten la carga en voltaje al final del proceso, mientras que los sensores CMOS realizan esta conversión al principio (porque cada píxel contiene un convertidor de voltaje). Luego, el voltaje se emite a través de un pequeño microcable que ahorra energía.
Los CCD de fotograma completo son los sensores más simples y pueden producirse a resoluciones muy altas. Solo tienen un registro de transferencia de un solo cable como buffer y la velocidad de obturación no se puede configurar mediante el control del sensor. Por lo tanto, el sensor debe ubicarse detrás del obturador mecánico, ya que la superficie del sensor fotosensible sólo puede quedar expuesta durante el tiempo de exposición. Los CCD de fotograma completo se utilizan principalmente con fines fotográficos en ciencia y astronomía.
Al final del tiempo de exposición, las cargas de las células del sensor se transfieren simultáneamente a la memoria intermedia de todos los píxeles y se leen en ella mediante desplazamientos verticales y horizontales. La ventaja del CCD de transmisión línea a línea es que puede recibir rápida y completamente información de imagen de la unidad del sensor sin requerir un bloqueo mecánico para el almacenamiento intermedio. La desventaja de este diseño es que el sensor tiene un factor de llenado más bajo, lo que puede hacer que sea menos sensible a la luz o más propenso al ruido en condiciones de poca luz.
Después de la exposición, la imagen o carga almacenada en la celda se transferirá al registro de transferencia muy rápidamente. Luego, la carga se lee del registro de transferencia de la misma manera que un CCD de fotograma completo.
Combinando los principios del CCD línea a línea y de fotograma completo.
Con esta estructura, la carga de la unidad sensora activa se puede transferir muy rápidamente a una unidad de almacenamiento intermedia, y desde allí se puede transferir con la misma rapidez a un registro de transferencia completamente opaco. En cuanto al principio de funcionamiento del CCD, existe una metáfora clásica de la medición de la lluvia regional.
El método de lectura serial del CCD se puede indicar midiendo las precipitaciones en la zona. La intensidad de la lluvia que cae sobre el conjunto de barriles puede variar de un lugar a otro. De manera similar a los fotones incidentes en un sensor de imágenes, los cubos recogen cantidades variables de señal (agua) durante la integración, y los cubos se transfieren a cubos vacíos en una cinta transportadora que representa un conjunto de cubos en serie. Una fila completa de cubos se mueve en paralelo al banco de registros en serie.
Operación de lectura y cambio en serie, en la que el agua de lluvia acumulada en cada cubo se representa como transferida secuencialmente a un recipiente de medición calibrado similar a un amplificador de salida CCD. Cuando el contenido de todos los contenedores en el transportador en serie se mide secuencialmente, otro desplazamiento de registro paralelo transfiere el contenido del siguiente depósito de recolección al contenedor de registro en serie, y el proceso se repite hasta que se mida el contenido de cada depósito (píxel).
03. Conclusión
Con el entendimiento anterior, podemos sacar directamente la conclusión. La principal diferencia entre los sensores CCD y CMOS es la forma en que se procesa cada píxel: el CCD mueve la carga fotogenerada de un píxel a otro y la convierte en voltaje en el nodo de salida. Los generadores de imágenes CMOS utilizan múltiples transistores en cada píxel para convertir la carga de cada píxel en un voltaje que amplifica y mueve la carga utilizando cables más tradicionales.
La diferencia entre los sensores CCD y CMOS: la carga generada por el píxel CCD debe registrarse primero en el registro vertical y luego transferirse al registro horizontal rama por rama. Finalmente, la carga de cada píxel. Se mide por separado y la señal de salida se amplifica. El sensor CMOS puede generar un voltaje en cada píxel y luego transmitirlo a la salida del amplificador a través de líneas metálicas, lo cual es más rápido.
El CCD mueve la carga fotogenerada de un píxel a otro y la convierte en voltaje en el nodo de salida. Los generadores de imágenes CMOS utilizan múltiples transistores en cada píxel para convertir la carga de cada píxel en un voltaje que amplifica y mueve la carga utilizando cables más tradicionales.
CCDVSCMOS.
CMOS tiene algunas ventajas distintivas sobre CCD:
Los sensores CMOS tienen velocidades de recuperación de datos más rápidas que los CCD. En CMOS, cada píxel se amplifica individualmente, en lugar de procesar datos en un nodo común en el CCD. Esto significa que cada píxel tiene su propio amplificador y el ruido consumido por el procesador puede reducirse a nivel de píxel y luego amplificarse para obtener una mayor definición, en lugar de amplificar los datos sin procesar para cada píxel de una sola vez en el nodo final.
Los sensores CMOS son más eficientes energéticamente y tienen menores costes de producción. Se pueden fabricar reutilizando semiconductores existentes. Estos circuitos también consumen menos energía que los circuitos analógicos de alto voltaje de los CCD. La calidad de imagen de los sensores CCD es mejor que la de los sensores CMOS. Sin embargo, los sensores CMOS son superiores a los sensores CCD en términos de consumo de energía y precio.
Lectura de sensores de imagen CMOS
En 1873, los científicos Joseph May y Willoughby Smith Meave descubrieron que los cristales de selenio pueden producir una corriente eléctrica cuando se exponen a la luz. Así, se inició el desarrollo de las imágenes electrónicas. A medida que la tecnología evolucionó, el rendimiento de los sensores de imagen mejoró gradualmente. Años 1,50 del siglo XX - Aparece el tubo fotomultiplicador (PMT). Entre 1965 y 1970, empresas como IBM y Fairchild desarrollaron conjuntos de diodos fotovoltaicos y bipolares. En 1970, el sensor de imagen CCD se inventó en Bell Labs y se convirtió en el mercado de sensores de imagen dominante con su alta eficiencia cuántica, alta sensibilidad, baja corriente oscura, alta consistencia y bajo ruido. A finales de la década de 1990, entramos en la era CMOS.
Cámaras CCD para la Estación Espacial Internacional
1. En 1997, la Estación Espacial Internacional Cassini utilizó cámaras CCD (gran angular y ángulo estrecho).
2. El director de la NASA, Daniel Golding, elogió las cámaras CCD como "más rápidas, mejores y más baratas"; se dice que para reducir la masa, la potencia y el costo de las futuras naves espaciales se necesitarán cámaras más pequeñas. La integración electrónica es un buen enfoque para la miniaturización, y los sensores de imagen basados en MOS están disponibles en configuraciones de píxeles pasivos y activos (3T).
La evolución histórica de los sensores de imagen: sensores de imagen CMOS
1. Los sensores de imagen CMOS hacen posibles las "cámaras con chip", y la tendencia a la miniaturización de las cámaras es obvia.
2. En 2007, la aparición del modelo de cámara Siimpel AF marcó un gran avance en la miniaturización de cámaras.
3. El auge de las cámaras con chip ha brindado nuevas oportunidades para la innovación tecnológica en muchos campos (automotriz, militar y aeroespacial, médico, fabricación industrial, fotografía móvil, seguridad).
Los sensores de imagen CMOS están a punto de comercializarse.
1.1.995 La empresa Photobit se fundó en febrero para comercializar la tecnología de sensores de imagen CMOS.
2. De 1995 a 2001, el número de Photobits aumentó a aproximadamente 135, incluyendo principalmente: contratos de diseño personalizados levantados por empresas privadas, importante apoyo del programa SBIR (NASA/Departamento de Defensa) y estratégicos. inversión de socios comerciales.
Durante este período, * * * se presentaron más de 100 nuevas solicitudes de patente.
3. Después de la comercialización, los sensores de imagen CMOS se han desarrollado rápidamente y tienen amplias perspectivas de aplicación, reemplazando gradualmente al CCD como nueva tendencia.
Amplia aplicación de sensores de imagen CMOS
En 2001, 11, Micron Technology adquirió Photobit y lo devolvió a Caltech con una licencia. Mientras tanto, en 2001, surgieron docenas de competidores, como Toshiba, STMicroelectronics, Omnivision y el negocio de sensores de imagen CMOS, en parte debido a los primeros esfuerzos por promover la transformación de los logros tecnológicos. Posteriormente, Sony y Samsung se convirtieron en el número uno y el número dos del mercado mundial, respectivamente. Posteriormente, Micron escindió Aptina, que fue adquirida por ON Semi y actualmente ocupa el cuarto lugar. Los sensores CMOS se han ido convirtiendo poco a poco en la corriente principal en el campo de la fotografía y se utilizan ampliamente en muchas ocasiones.
La historia del desarrollo de los sensores de imagen CMOS
En los años 1970: Fairchild, en los años 1980: Hitachi, a principios de los años 1980: Sony, en 1971: la invención de la tecnología FDA y CDS . Mediados de la década de 1980: gran avance en el mercado de consumo; 1990: NHK/Olympus, Amplified MOS Imager (AMI), también conocido como CIS, 1993: JPL, sensor de píxeles activo CMOS, 1998: cámara de un solo chip, después de 2005: imagen CMOS Los sensores se vuelven populares.
Introducción a la tecnología de sensores de imagen CMOS
Sensor de imagen CMOS
El sensor de imagen CMOS es una integración de circuitos analógicos y circuitos digitales. Consta principalmente de cuatro partes: microlente, filtro de color (CF), fotodiodo (PD) y diseño de píxeles.
1. Microlente: Tiene lentes esféricas y de malla; cuando la luz pasa a través de la microlente, la parte inactiva del CIS se encarga de recoger la luz y enfocarla en el filtro de color.
2. Filtro de color (CF): los componentes rojo, verde y azul (RGB) de la luz reflejada están separados y el filtro de matriz Bayer está compuesto por un elemento fotosensible.
3. Fotodiodo (PD): Como dispositivo de conversión fotoeléctrica, captura la luz y la convierte en corriente; generalmente está compuesto por diodos PIN o dispositivos de unión PN.
4. Diseño de píxeles: realizado a través de un sensor de píxeles activo (APS) ensamblado en CIS. APS suele constar de 3 a 6 transistores. Toma o amortigua píxeles de una gran matriz de condensadores y convierte la fotocorriente en voltaje dentro del píxel, con niveles de sensibilidad perfectos y una buena figura de ruido.
Filtros y píxeles de matriz de Bayer
1. Cada cuadrado del elemento fotosensible representa un bloque de píxeles, con una capa de filtro de color (CF) adjunta. Después de que CF separa los componentes RGB en la luz reflejada, se forma un filtro de matriz Bayer a partir del elemento fotosensible. La matriz Bayer clásica se reproduce en una forma de cuatro fotogramas RGB de 2x2 * * *, mientras que la matriz Quad Bayer se expande a 4x4 y los RGB se organizan adyacentemente en una forma de 2x2. Literatura sobre ingeniería mecánica de la cuenta oficial de WeChat, ¡una gasolinera para ingenieros!
2. El píxel, es decir, el número de píxeles en condiciones de luz brillante u oscura, es la unidad básica de la visualización digital. Su esencia es una muestra abstracta, que utilizamos cuadrados de colores para representar.
3. El píxel que se muestra está relleno con los tres colores primarios de R (rojo), G (verde) y B (azul). La longitud de cada pequeño bloque de píxeles se refiere al tamaño de píxel. El tamaño que se muestra en la figura es de 0,8 micrones.
Filtro de matriz de Bayer y píxeles
Cada pequeño píxel del filtro Los cuadrados. corresponden a los bloques de píxeles del elemento fotosensible, es decir, se cubre un filtro de color específico delante de cada píxel. Por ejemplo, un bloque de filtro rojo solo permite proyectar luz roja sobre el elemento fotosensible, por lo que el bloque de píxeles correspondiente solo refleja información de luz roja. Más tarde, deberá restaurar el color para adivinar el color y, finalmente, formar una fotografía en color completa. Todo el proceso de elemento fotosensible → filtro Bayer → restauración del color se llama matriz Bayer.
Front-SIDE Illuminated (FSI) y BSI (BSI)
A principios de la CEI, se utilizaba la tecnología FSI (FRONT-SIDE Illuminated, iluminación frontal), y en A metal (aluminio, cobre) se mezcla entre el filtro de matriz Bayer y el fotodiodo (PD). La presencia de una gran cantidad de cables metálicos interfiere en gran medida con la luz que ingresa a la superficie del sensor, imposibilitando que una parte considerable de la luz ingrese a la siguiente capa de fotodiodos (PD), lo que resulta en una baja relación señal-ruido. . Después de las mejoras tecnológicas, bajo la estructura de BSI (iluminación frontal), el área metálica (aluminio, cobre) se transfiere a la parte posterior del fotodiodo (PD), lo que significa que la luz recogida por el filtro de matriz Bayer ya no es Bloqueado por muchas líneas metálicas, la luz puede ingresar al fotodiodo directamente; BSI no solo puede mejorar en gran medida la relación señal-ruido, sino también mejorar la velocidad de lectura de sensores con circuitos más complejos y de mayor escala.
Parámetros CIS - velocidad de cuadros
Velocidad de cuadros: la frecuencia con la que las imágenes de mapa de bits en cuadros aparecen continuamente en la pantalla, es decir, cuántas imágenes se pueden mostrar por segundo. Para realizar el diseño de CIS de alta resolución, el diseño de circuitos analógicos es muy importante. Sin combinar circuitos de lectura y procesamiento de alta velocidad, no hay forma de generar una alta velocidad de fotogramas.
Sony lanzó el primer sensor Exmor en Sichuan y Jiangxi ya en 2007.
El sensor Exmor está equipado con un convertidor analógico a digital ADC independiente debajo de cada columna de píxeles, lo que significa que la conversión de analógico a digital se puede completar en el chip CIS, reduciendo efectivamente el ruido, aumentando considerablemente la velocidad de lectura y simplificando el diseño de PCB.
Aplicaciones de los sensores de imagen CMOS
Tamaño del mercado global de sensores de imagen CMOS
2017 es un punto de alto crecimiento para los sensores de imagen CMOS, con un crecimiento interanual crecimiento anual del 20%. El tamaño del mercado mundial de la CEI fue de 15.500 millones de dólares en 2018 y se espera que crezca un 10% hasta 1.700 millones de dólares en 2019. Actualmente, el mercado de la CEI se encuentra en un período de crecimiento estable. Se espera que el mercado se sature gradualmente en 2024, y que el tamaño del mercado alcance los 24 mil millones de dólares.
Aplicación CIS - Campo de vehículos
1. Las aplicaciones CIS en el campo de vehículos incluyen: cámara de visión trasera (RVC), sistema panorámico (SVS), sistema de monitoreo de cámara (CMS), FV /MV, sistema DMS/IMS.
2. Las ventas globales de sensores de imagen para automóviles crecen año tras año.
3. Las cámaras de visión trasera (RVC) son la principal fuerza de ventas y muestran una tendencia de crecimiento constante. Las ventas globales fueron de 510.000 en 2016, 60 millones en 2018, 65 millones en 2019 y superaron los 70 millones en 2020.
4.Las ventas globales de FV/MV están creciendo rápidamente, de 100.000 unidades en 2016 a 30 millones de unidades en 2018. Posteriormente, se espera que FV/MV mantenga un rápido crecimiento, con ventas de 40 millones de unidades en 2019 y 75 millones de unidades en 2021.
Método de tecnología HDR de escena en el automóvil
1. La solución HDR, es decir, imágenes de alto rango dinámico, se utiliza para lograr un rango dinámico de exposición mayor que la tecnología de imágenes digitales ordinaria.
2. Multiplexación temporal. La misma matriz de píxeles representa múltiples bordes mediante el uso de múltiples pantallas de desplazamiento (HDR escalonado). Ventajas: La solución HDR es la tecnología de píxeles más simple compatible con los sensores tradicionales. Desventaja: Las capturas que se realizan en momentos diferentes pueden provocar artefactos de movimiento.
3. Reutilización del espacio. Divida un cuadro de matriz de píxeles único en varios cuadros, capturados con diferentes métodos: 1. Control de exposición independiente a nivel de píxel o fila. Ventajas: Los artefactos de movimiento de un solo cuadro son menores que los artefactos de movimiento intercalados. Desventajas: pérdida de resolución, artefactos de movimiento y franjas. 2. Múltiples fotodiodos que utilizan la misma microlente para cada píxel. Ventajas: Sin artefactos de movimiento en un único cuadro de captura múltiple. Desventajas: Sensibilidad reducida en términos de área de píxeles equivalente.
4. Productividad de pozos petroleros de gran tamaño.