Red de conocimiento del abogados - Consultar a un abogado - ¡La historia del desarrollo de las tarjetas de memoria!

¡La historia del desarrollo de las tarjetas de memoria!

Historia del desarrollo de la memoria

Antes de comprender el desarrollo de la memoria, primero debemos explicar algunos términos comunes, que nos ayudarán a fortalecer nuestra comprensión de la memoria.

RAM es la abreviatura de RandomAccessMemory. Se divide en dos tipos: StaticRAM (memoria estática de acceso aleatorio) y DynamicRAM (memoria dinámica de acceso aleatorio).

La SRAM solía ser un tipo importante de memoria. La SRAM era muy rápida y podía guardar datos sin necesidad de actualizarla. Almacena datos en forma de circuito biestable con una estructura compleja. Requiere más transistores para formar registros para guardar datos. Por lo tanto, el área de oblea de silicio que utiliza es bastante grande y el costo de fabricación es bastante alto. usarse en En un caché que es mucho más pequeño que la memoria principal. Después de que Intel integró la caché L2 en la CPU (comenzando con Medocino), SRAM perdió su mayor fuente de demanda de aplicaciones. Afortunadamente, en la tendencia de desarrollo de los teléfonos móviles de analógico a digital, SRAM finalmente encontró otra fuente de ventajas de ahorro de energía. La oportunidad de crecimiento de la demanda, junto con los incentivos de demanda para servidores de red, enrutadores, etc., ha permitido que el mercado de SRAM apenas siga creciendo.

DRAM, como su nombre indica, es RAM dinámica. La estructura de la DRAM es mucho más simple que la de la SRAM. La estructura básica está compuesta por un tubo MOS y un condensador. Tiene las ventajas de una estructura simple, alta integración, bajo consumo de energía y bajo costo de producción, y es adecuado para fabricar memorias de gran capacidad, por lo que la mayoría de las memorias que utilizamos ahora están compuestas por DRAM. Entonces, lo siguiente presenta principalmente la memoria DRAM. Antes de describir en detalle la memoria DRAM, primero debemos hablar sobre el concepto de sincronización. Según el método de acceso a la memoria, se puede dividir en dos tipos: memoria síncrona y memoria asíncrona. El criterio de diferenciación es si se pueden sincronizar con el reloj del sistema. El circuito de control de memoria (en el chipset de la placa base, generalmente en el chipset Northbridge) emite una señal de selección de dirección de fila (RAS) y una señal de selección de dirección de columna (CAS) para especificar a qué banco de memoria se accederá. La memoria EDO antes de SDRAM usaba este método. El tiempo necesario para leer los datos se expresa en nanosegundos. Cuando la velocidad del sistema aumenta gradualmente, especialmente cuando la frecuencia de 66MHz se convierte en el estándar del bus, la velocidad de la memoria EDO se vuelve muy lenta. La CPU siempre tiene que esperar datos de la memoria, lo que afecta seriamente el rendimiento y la memoria se vuelve un problema. gran cuello de botella. Por lo tanto, aparece SDRAM que sincroniza la frecuencia del reloj del sistema. Clasificación de DRAM FPDRAM: también llamada memoria de página rápida, muy popular en la era 386. Debido a que la DRAM requiere una corriente constante para retener información, una vez que se apaga, la información se pierde. Su frecuencia de actualización puede alcanzar cientos de veces por segundo, pero debido a que FPDRAM usa el mismo circuito para acceder a los datos, hay un cierto intervalo de tiempo entre los tiempos de acceso de la DRAM, lo que hace que su velocidad de acceso no sea muy rápida. Además, en DRAM, dado que el espacio de direcciones de almacenamiento está organizado en páginas, cuando se accede a una determinada página, cambiar a otra página ocupará ciclos de reloj adicionales de la CPU. La mayoría de sus interfaces son del tipo SIMM de 72 líneas. EDODRAM: EDORAM - ExtendedDateOutRAM - memoria externa en modo de datos extendidos es similar a FPDRAM. Cancela el intervalo de tiempo entre los dos ciclos de almacenamiento de la memoria de salida de datos extendida y la memoria de transmisión, y envía los datos a la CPU al mismo tiempo. Acceda a la página siguiente, para que la velocidad sea entre un 15% y un 30% más rápida que la DRAM normal. El voltaje de funcionamiento es generalmente de 5 V y su método de interfaz es principalmente del tipo SIMM de 72 líneas, pero también hay tipos DIMM de 168 líneas. EDODRAM es popular en las computadoras 486 y primeras Pentium. El estándar actual es SDRAM (abreviatura de DRAM síncrona) que, como su nombre indica, está sincronizada con la frecuencia del reloj del sistema. El acceso a la memoria SDRAM utiliza el modo ráfaga. Su principio es que SDRAM agrega lógica de control de sincronización (una máquina de estado) a la memoria dinámica estándar existente y utiliza un único reloj del sistema para sincronizar todos los datos de direcciones y señales de control. El uso de SDRAM no solo puede mejorar el rendimiento del sistema, sino también simplificar el diseño y proporcionar una transmisión de datos de alta velocidad. Funcionalmente, es similar a la DRAM convencional y también requiere un reloj para actualizarse. Se puede decir que SDRAM es una DRAM mejorada con una estructura mejorada. Sin embargo, ¿cómo utiliza la SDRAM sus características de sincronización para adaptarse a las necesidades de los sistemas de alta velocidad? Sabemos que la tecnología de memoria dinámica que utilizamos originalmente se basaba en el control asincrónico. Cuando el sistema utiliza estas memorias dinámicas asíncronas, necesita insertar algunos estados de espera para adaptarse a las necesidades de las memorias dinámicas asíncronas. En este momento, el tiempo de ejecución de la instrucción a menudo está determinado por la velocidad de la memoria en lugar de la más alta. velocidad que el propio sistema puede alcanzar. Por ejemplo, cuando se almacenan datos continuos en CACHE, una memoria de página rápida con una velocidad de 60 ns requiere un tiempo de ciclo de página de 40 ns cuando la velocidad del sistema funciona a 100 MHz (un ciclo de reloj de 10 ns), cada vez que se realiza un acceso a datos; ¡Necesita esperar 4 ciclos de reloj! Utilizando SDRAM, por sus características de sincronización, se puede evitar este momento. Otra característica importante de la estructura SDRAM es que admite la apertura de dos columnas de direcciones DRAM al mismo tiempo.

El acceso a la memoria entre dos bancos de memoria abiertos se puede intercalar. Las columnas de activación o preestablecidos generales se pueden ocultar en el proceso de acceso al banco de memoria, lo que permite leer o escribir un banco de memoria al mismo tiempo. Al proceder de esta manera, se pueden lograr velocidades de datos fluidas de 100 MHz durante todo el proceso de lectura o escritura del dispositivo. Debido a que la velocidad de la SDRAM limita la velocidad del reloj del sistema, su velocidad se calcula en MHz o ns. La velocidad de la SDRAM no puede ser al menos más lenta que la velocidad del reloj del sistema. El acceso a la SDRAM generalmente ocurre en cuatro ciclos de ráfaga consecutivos. El primer ciclo de ráfaga requiere 4 ciclos de reloj del sistema, y ​​los ciclos de ráfaga segundo a cuarto solo requieren 1 ciclo de reloj del sistema. La representación numérica es la siguiente: 4-1-1-1. Por cierto, BEDO (BurstEDO) es una memoria EDO en ráfaga. De hecho, su principio y rendimiento son similares a los de la SDRAM, porque el conjunto de chips de Intel admite SDRAM y el liderazgo de mercado de INTEL ha ayudado a que la SDRAM se convierta en el estándar del mercado.

Dos tipos de interfaz de DRAMR Hay dos tipos de interfaz principales de DRAM, a saber, los primeros SIMM y los DIMM estándar actuales. SIMM es la abreviatura de Single-InLineMemoryModule, que es un módulo de memoria de contacto de un solo lado. Este es el método de interfaz de memoria comúnmente utilizado en PC 486 y anteriores. En las PC anteriores (antes de 486), se usaban principalmente interfaces SIMM de 30 pines, mientras que en Pentium, se usaban principalmente interfaces SIMM de 72 pines, o coexistían con tipos de interfaz DIMM. DIMM es la abreviatura de DualIn-LineMemoryModule, que es un módulo de memoria de contacto de doble cara, es decir, hay contactos de interfaz de datos en ambos lados de la placa enchufable de este tipo de memoria de interfaz. La memoria se usa ampliamente en las computadoras actuales, generalmente tiene 84 pines, pero debido a que es bilateral, hay 84 × 2 = 168 líneas de contacto en un terminal, por lo que la gente suele llamar a este tipo de memoria memoria de 168 líneas y la de 72. El módulo de memoria tipo SIMM de línea se denomina directamente 72 líneas de memoria. La memoria DRAM suele tener 72 líneas, la memoria EDO-RAM tiene 72 líneas y 168 líneas, y la memoria SDRAM suele tener 168 líneas. La llegada de nuevos estándares de memoria en el nuevo siglo también ha provocado importantes cambios en el hardware informático. La tecnología de fabricación de computadoras se ha desarrollado hasta el punto en que es posible aumentar la frecuencia de reloj de los microprocesadores (CPU) hasta el borde de un gigabit. La memoria correspondiente también debe mantenerse al día con la velocidad del procesador. Ahora existen dos nuevos estándares, la memoria DDRSDRAM y la memoria Rambus. La competencia entre ellos se convertirá en el núcleo de la competencia en el mercado de memorias para PC. DDRSDRAM representa un camino de evolución gradual de la memoria. Rambus representa un cambio importante en el diseño de ordenadores. Visto desde una perspectiva más amplia. DDRSDRAM es un estándar abierto. Sin embargo, Rambus es una patente. El ganador entre ellos tendrá un impacto significativo y de largo alcance en la industria de fabricación de computadoras.

RDRAM ha mejorado enormemente su frecuencia operativa, pero este cambio estructural implica cambios integrales que incluyen conjuntos de chips, fabricación de DRAM, empaques, pruebas e incluso PCB y módulos, que se puede decir que son de gran alcance. mueve todo el cuerpo. ¿Cuál es el desarrollo futuro de las estructuras DRAM de alta velocidad?

¿Puede el chipset 820 reacondicionado y relanzado de Intel realmente llevar la RDRAM a la corriente principal? PC133SDRAM: PC133SDRAM es básicamente una extensión de PC100SDRAM. Continúa con las especificaciones anteriores en términos de fabricación, empaque, módulos y conectores de DRAM. Su equipo de producción es el mismo, por lo que el costo de producción es casi el mismo que el de PC100SDRAM. Estrictamente hablando, la diferencia entre los dos es sólo que bajo la misma tecnología de proceso, existe un proceso de "cribado" adicional para seleccionar partículas con una velocidad de hasta 133MHz. Si se utiliza con un conjunto de chips que admite FSB de 133 MHz y aumenta la frecuencia del bus frontal de la CPU (FrontSideBus) a 133 MHz, el ancho de banda de la DRAM se puede aumentar a más de 1 GB/s, mejorando así el rendimiento general del sistema. DDR-SDRAM: DDR SDRAM (Double Data Rate DRAM) o SDRAM II Debido a que DDR puede transmitir datos tanto en el flanco ascendente como en el descendente del reloj, el ancho de banda real se duplica, lo que mejora enormemente su relación rendimiento/costo. En términos de comparación de funciones reales, la PC266DDRSRAM de segunda generación (reloj de 133 MHz × transmisión de datos 2 veces = ancho de banda de 266 MHz) derivada de PC133 no solo muestra que su rendimiento es un 24,4% mayor que el de Rambus en el último informe de prueba de InQuest, sino también en Micron. En la prueba, su rendimiento también fue mejor que el de otras soluciones de gran ancho de banda, lo que demuestra plenamente que DDR es capaz de competir con Rambus en términos de rendimiento.

DirectRambus-DRAM: La gran diferencia entre el diseño de RambusDRAM y la DRAM anterior es que su microcontrolador es diferente de los controladores de memoria generales, por lo que el conjunto de chips debe rediseñarse para cumplir con los requisitos. Además, la interfaz del canal de datos también es diferente de la memoria general. Transmite datos con dos canales de datos (canales) de 8 bits cada uno (9 bits incluido ECC). Aunque es más estrecho que los 64 bits de SDRAM, su frecuencia de reloj puede llegar a 400 MHz y puede transmitir datos en ambos lados. y los flancos descendentes de los datos del reloj, logrando así un ancho de banda máximo de 1,6 GB/seg.

Comparación completa de varias especificaciones de DRAM Ancho de banda de datos: desde la perspectiva del ancho de banda de datos, la velocidad máxima de transferencia de datos del PC100 tradicional puede alcanzar los 800 MB/seg cuando la frecuencia del reloj es de 100 MHz. Si la DRAM se fabrica con subprocesos avanzados de 0,25 micrones, la mayoría de las partículas PC133 con una frecuencia de reloj de 133 MHz se pueden "seleccionar", lo que puede aumentar la velocidad máxima de transferencia de datos a 1,06 GB/seg nuevamente, siempre que la CPU y el chipset puedan cooperar. el rendimiento general se puede mejorar. Además, en lo que respecta a DDR, dado que puede transmitir datos tanto en el flanco ascendente como en el descendente del reloj, a la misma frecuencia de reloj de 133MHz, su transmisión máxima de datos se incrementará significativamente al doble, alcanzando el nivel de 2,1 GB/seg. Su rendimiento es incluso superior a los 1,6 GB/seg que Rambus puede alcanzar en esta etapa.

Modo de transmisión: la SDRAM tradicional utiliza la transmisión de datos en paralelo, mientras que Rambus adopta un método de transmisión en serie más especial. Bajo el método de transmisión en serie, todas las señales de datos entran y salen, lo que puede reducir el ancho de banda de datos a 16 bits y aumentar considerablemente la frecuencia del reloj operativo (400 MHz), pero esto también crea un problema en el diseño de transmisión de datos del módulo. límite. Es decir, en modo de conexión en serie, si uno de los módulos está dañado o tiene el circuito abierto, todo el sistema no podrá arrancar con normalidad. Por lo tanto, para una placa base que utiliza módulos de memoria Rambus, los tres conjuntos de ranuras de expansión de memoria deben estar completamente llenos. Si los módulos Rambus son insuficientes, solo un módulo de relé (Módulo ContinuityRIMM; C-RIMM), que se usa exclusivamente para proporcionar señal serial. la conexión funciona y permite una transmisión de datos fluida. Diseño de módulos y PCB: dado que la frecuencia de funcionamiento de Rambus es de hasta 400 MHz, el diseño del circuito, el diseño del circuito, el empaquetado de partículas y el diseño del módulo de memoria son muy diferentes de la SDRAM anterior. En términos de diseño del módulo, el módulo de memoria compuesto por RDRAM se llama RIMM (RambusInMemoryModule). El diseño actual puede estar compuesto por diferentes números de partículas RDRAM como 4, 6, 8, 12 y 16. Aunque el número de pines tiene. Se ha aumentado a 184, pero la longitud de todo el módulo es equivalente al DIMM original. Además, en términos de diseño, cada canal de transmisión de Rambus puede transportar un número limitado de partículas de chip (hasta 32), lo que resulta en una limitación en la capacidad del módulo de memoria RDRAM. En otras palabras, si ya ha instalado un módulo RIMM que contiene 16 chips RDARM, si desea ampliar la memoria, sólo puede instalar otro módulo con hasta 16 chips RDARM. Además, dado que el RDARM generará altas temperaturas cuando funcione a altas frecuencias, el módulo RIMM debe diseñarse con un disipador de calor, lo que también aumenta el costo del módulo RIMM.

Envasado de partículas: la tecnología de envasado DRAM ha mejorado desde los primeros DIP y SOJ hasta TSOP. A juzgar por los módulos SDRAM convencionales actuales, además de la tecnología TinyBGA iniciada por Shengchuang Technology y el modo de empaquetado BLP iniciado por Qiaofeng Technology, la gran mayoría todavía usa la tecnología de empaquetado TSOP.

Con la introducción sucesiva de DDR y RDRAM, la frecuencia de la memoria se ha elevado a un nivel superior. La tecnología de empaquetado TSOP se ha vuelto gradualmente incapaz de cumplir con los requisitos del diseño de DRAM. A juzgar por la RDRAM promovida por Intel, adopta una forma de empaque μBGA de nueva generación. Se cree que el empaque de otras DRAM de alta velocidad como DDR también adoptará la misma o diferente forma de empaque BGA en el futuro. Aunque RDRAM ha logrado grandes avances en la frecuencia de reloj, mejorando efectivamente el rendimiento de todo el sistema, en el uso real, sus especificaciones son muy diferentes de las de la SDRAM convencional actual, y no solo es incompatible con los chips del sistema existentes. situación en la que Intel es el único monopolio. Incluso en el diseño de módulos DRAM, no solo se utiliza el método de empaquetado BGA de última generación, sino que también se adoptan los estrictos estándares de las placas de 8 capas en el diseño de placas de circuito, sin mencionar la enorme inversión en equipos de prueba. Esto hace que la mayoría de los fabricantes de módulos y DRAM no se atrevan a hacer un seguimiento precipitado.

Además, dado que Rambus es un estándar patentado, los fabricantes que quieran producir RDRAM deben primero obtener la certificación de Rambus y pagar altas tarifas de patente. Esto no sólo aumenta la carga de costos para los fabricantes de DRAM, sino que también les preocupa perder sus capacidades de control de especificaciones originales al formular estándares de memoria de nueva generación en el futuro.

Dado que el módulo RIMM solo puede tener un máximo de 32 partículas, la aplicación de Rambus es limitada y solo puede usarse en servidores de nivel básico y PC avanzados. Quizás el PC133 no pueda competir con Rambus en términos de rendimiento, pero una vez que se integra la tecnología DDR, su ancho de banda de datos puede alcanzar los 2,1 GB/s, lo que no sólo está por delante del estándar de 1,6 GB/s que puede alcanzar Rambus, sino también debido a su open Debido a que los estándares y la compatibilidad son mucho más altos que los de Rambus, se estima que causará un gran daño a Rambus. Es más, con el fuerte apoyo de alianzas de Taiwán como VIA y AMD, aún se desconoce si Intel podrá seguir dominando el mercado como antes. Al menos, en términos de PC de bajo precio y PC de red, el mercado para Rambus será pequeño.

Conclusión: Aunque Intel ha adoptado varios diseños estratégicos y contramedidas para restaurar el impulso de Rambus, después de todo, los productos con especificaciones innovadoras como Rambus tienen muchas dificultades inherentes que superar. Quizás Intel pueda resolver los problemas técnicos cambiando el método de ranura RIMM de la placa base o proponiendo una solución de transición (S-RIMM, RIMMRiser) donde SDRAM y RDRAM coexistan. Pero cuando se trata de controlar el costo de la producción en masa a gran escala, Intel no puede hacerlo solo. Es más, las aplicaciones informáticas bajo la tendencia de la red serán cada vez más baratas, ¿todavía la demanda del mercado está interesada en Rambus? para ser probado. Por el lado de la oferta, a juzgar por la especificación VCMSDRAM (VirtualChannelMemory) original de NEC y el hecho de que los principales fabricantes de DRAM, como Samsung, se han vuelto más conservadores en su soporte a Rambus, junto con una inversión insuficiente en equipos de prueba y embalaje relacionados, se estima que antes A finales de año, los módulos de memoria Rambus todavía carecerán de competitividad en precio con respecto al PC133 o incluso al DDR. Desde una perspectiva a largo plazo, la arquitectura Rambus puede convertirse en la corriente principal, pero ya no será la corriente principal absoluta que domine el mercado. La arquitectura SDRAM (PC133, DDR) debería tener muy buen rendimiento debido a sus ventajas de bajo costo y su amplia gama de funciones. campos de aplicación. Creo que el futuro mercado de DRAM será una situación en la que coexistirán múltiples estructuras.

La última noticia es que Rambus DRAM, que se espera que se convierta en la fuerza principal de la próxima generación de memorias, ha sufrido un ligero revés debido al retraso en el lanzamiento de muchos de los principales chipsets y semiconductores. Los fabricantes de computadoras de todo el mundo tienen como objetivo estandarizar DDR SDRAM. El grupo AMII (Advanced Memory International Inc.) formado por el mismo partido decidió promover activamente la estandarización de las especificaciones DDR SDRAM PC1600 y PC2100 que son más de 10 veces más rápidas que PC200 y PC200. PC266 Este movimiento ha llevado la batalla por el dominio de la memoria entre Rambus DRAM y DDR SDRAM a una nueva etapa. AMD, el segundo mayor fabricante de microprocesadores del mundo, ha decidido que su procesador Athlon utilizará DDRSDRAM PC266 y desarrollará un conjunto de chips que admita DDRSDRAM antes de mediados de este año, lo que anima enormemente al campo de DDRSDRAM. Es muy probable que los fabricantes mundiales de memorias cambien su enfoque de inversión futura de Rambus DRAM a DDRSDRAM.

En resumen, el impulso de desarrollo de DDRSDRAM este año superará al de RAMBUS. Además, el costo de producción de DDR SDRAM es solo 1,3 veces mayor que el de SDRAM, lo que es más ventajoso en términos de costo de producción. Además de DDR y RAMBUS, existen otros productos de memoria prometedores en el futuro. Éstos son algunos de ellos: SLDRAM (SyncLinkDRAM, memoria de enlace síncrono): SLDRAM puede ser el competidor más cercano a RDRAM en términos de velocidad. SLDRAM es una arquitectura SDRAM mejorada y ampliada, que amplía la estructura actual de 4 bancos a 16 bancos y agrega nuevas interfaces y circuitos lógicos de control

. SLDRAM utiliza cada flanco de pulso como SDRAM para transferir datos.

VirtualChannelDRAM: VirtualChannel "canal virtual" es un tipo de registro instalado entre la unidad de memoria y la parte de control de memoria en el chip de control principal, lo que equivale a un caché. Después de usar la tecnología VC, cuando se realizan operaciones externas de lectura y escritura en la memoria, las operaciones de lectura y escritura en cada unidad en el chip de memoria ya no se realizarán directamente, sino que las realizará el agente VC. El efecto de almacenamiento en caché del VC en sí no se puede subestimar. Cuando la capacidad del chip de memoria es de 64 Mbit, que es la más común en la actualidad, el ancho de banda entre el VC y la unidad de memoria ha alcanzado los 1024 bits. Incluso sin considerar la mejora de la velocidad aportada por el procesamiento paralelo frontal/de fondo, la estructura básica de "primero mover datos desde la unidad de memoria al VC de alta velocidad y luego leer y escribir externamente" es en sí misma muy adecuada para mejorar el rendimiento de la memoria. . Cada chip de memoria puede equiparse con varios VC y el número total de VC en el producto de 64 Mbit es 16.

Cada VC no solo puede corresponder a un dispositivo maestro de memoria diferente (MemoryMaster, aquí se refiere a la CPU, el chip Southbridge, varias tarjetas de expansión, etc.), sino que, cuando sea necesario, también se pueden agrupar varios canales VC para corresponder a un maestro de memoria. dispositivo que ocupa un ancho de banda particularmente grande. Por lo tanto, VC-SDRAM también puede garantizar una transmisión de datos continua y eficiente cuando se ejecutan múltiples tareas simultáneamente. Otra característica de VC-SDRAM es que sigue siendo compatible con pines con la SDRAM tradicional. Los fabricantes no necesitan rediseñar el cableado de la placa base para que la placa base lo admita. Sin embargo, debido a que se controla de manera diferente a la SDRAM tradicional, requiere el soporte de un chipset de control antes de poder usarse. Los chipsets que actualmente admiten VC-SDRAM incluyen la serie ApolloPro133 de VIA, ApolloMVP4 y SiS630 de SiS.