Red de conocimiento del abogados - Preguntas y respuestas sobre la Ley de marcas - ¿La historia del desarrollo de la nueva generación de ordenadores? En el siglo V a.C., los chinos inventaron el ábaco, que fue muy utilizado en el comercio y el comercio. El ábaco se considera la primera computadora y todavía se utiliza en la actualidad. En algunos aspectos, la potencia informática del ábaco es mejor que la de las computadoras actuales, lo que refleja la sabiduría del pueblo chino. No fue hasta el siglo XVII que los dispositivos informáticos lograron su segundo gran avance. En 1642, el francés Blaise Pascal (1623-1662) inventó el sumador automático, llamado Pascalene. En 1694, el matemático alemán Gottfried Wilhemvon Leibniz (1646-1716) mejoró el Pascaling para que pudiera calcular la multiplicación. Posteriormente, el francés Charles Xavier Thomas de Colmar inventó una calculadora que podía realizar cuatro operaciones aritméticas. El verdadero origen de las computadoras modernas proviene del profesor de matemáticas británico Charles Babbage. Charles Babbage descubrió muchos errores en los dispositivos informáticos comunes. Mientras estudiaba en Cambridge, pensó que podía utilizar una máquina de vapor para hacer cálculos. Inicialmente diseñó una máquina de extensión diferencial para calcular tablas de navegación. Más tarde, descubrió que el motor diferencial era sólo una máquina especial, por lo que abandonó su investigación original y comenzó a diseñar un analizador que contenía los componentes básicos de una computadora moderna. (Motor analítico) Aunque la computadora de vapor de Babbage finalmente quedó inacabada, era muy primitiva para los estándares actuales. Pero describió las capacidades básicas de una computadora moderna de propósito general, un avance conceptual. Durante los años siguientes, muchos ingenieros lograron avances importantes en otras áreas. El estadounidense Herman Hollery (1860-1929) inventó la computadora de láminas porosas basada en el principio del telar jacquard y la llevó al campo comercial para establecer una empresa. En Filadelfia se presentó la primera generación de ordenadores de tubo, que marcaron el nacimiento de los ordenadores modernos. ENIAC representa un hito en la historia del desarrollo informático. Se programa mediante recableado entre diferentes partes, con capacidad de computación en paralelo. ENIAC fue desarrollado conjuntamente por el gobierno de Estados Unidos y la Universidad de Pensilvania. Utiliza 18.000 tubos de electrones, 70.000 resistencias, 5 millones de uniones de soldadura, consume 160 kilovatios de energía y funciona a una velocidad de 5.000 veces por segundo. Las computadoras de primera generación se caracterizaban por tener instrucciones de funcionamiento programadas para tareas específicas. Cada máquina tiene su propio lenguaje de máquina diferente, funcionalidad limitada y velocidad lenta. Otra característica distintiva es el uso de tubos de vacío y tambores magnéticos para almacenar datos. En la segunda generación de computadoras con transistores (1957-1964) 1948, la invención de los transistores reemplazó a los voluminosos tubos de electrones y el tamaño de los dispositivos electrónicos continuó disminuyendo. Desde 65438 hasta 0956, se utilizaron transistores, transistores y memorias de núcleo magnético en las computadoras que condujeron a la segunda generación de computadoras. Las computadoras de segunda generación son de tamaño pequeño, velocidad rápida, bajo consumo de energía y rendimiento más estable. En 1960, algunas computadoras de segunda generación se utilizaron con éxito en empresas, universidades y departamentos gubernamentales. La segunda generación de computadoras utilizó transistores en lugar de tubos de electrones, así como algunos componentes de las computadoras modernas: impresoras, cintas, discos, memoria, sistemas operativos, etc. Los programas almacenados en una computadora hacen que ésta sea adaptable y pueda usarse de manera más eficiente con fines comerciales. Durante este período aparecieron lenguajes de nivel superior como COBOL y FORTRAN, que facilitaron la programación informática. Nacieron nuevas profesiones (programadores, analistas y expertos en sistemas informáticos) y toda una industria del software. Computadora de circuito integrado de tercera generación (1964-1972) En 1958, Jack Kilby, un ingeniero de Texas Instruments, inventó el circuito integrado (IC), que combina tres componentes electrónicos en un pequeño chip de silicio. A medida que se integran más y más componentes en un único chip semiconductor, las computadoras se vuelven más pequeñas, consumen menos energía y son más rápidas. Los avances durante este período también incluyeron el uso de sistemas operativos, que permitían a las computadoras ejecutar muchos programas diferentes simultáneamente bajo el control y coordinación de un programa central. Computadoras LSI de cuarta generación (1972-ahora) LSI puede acomodar cientos de componentes en un solo chip. En la década de 1980, los circuitos integrados a muy gran escala (VLSI) contenían cientos de miles de componentes en un chip, y más tarde (ULSI) ampliaron este número a millones.

¿La historia del desarrollo de la nueva generación de ordenadores? En el siglo V a.C., los chinos inventaron el ábaco, que fue muy utilizado en el comercio y el comercio. El ábaco se considera la primera computadora y todavía se utiliza en la actualidad. En algunos aspectos, la potencia informática del ábaco es mejor que la de las computadoras actuales, lo que refleja la sabiduría del pueblo chino. No fue hasta el siglo XVII que los dispositivos informáticos lograron su segundo gran avance. En 1642, el francés Blaise Pascal (1623-1662) inventó el sumador automático, llamado Pascalene. En 1694, el matemático alemán Gottfried Wilhemvon Leibniz (1646-1716) mejoró el Pascaling para que pudiera calcular la multiplicación. Posteriormente, el francés Charles Xavier Thomas de Colmar inventó una calculadora que podía realizar cuatro operaciones aritméticas. El verdadero origen de las computadoras modernas proviene del profesor de matemáticas británico Charles Babbage. Charles Babbage descubrió muchos errores en los dispositivos informáticos comunes. Mientras estudiaba en Cambridge, pensó que podía utilizar una máquina de vapor para hacer cálculos. Inicialmente diseñó una máquina de extensión diferencial para calcular tablas de navegación. Más tarde, descubrió que el motor diferencial era sólo una máquina especial, por lo que abandonó su investigación original y comenzó a diseñar un analizador que contenía los componentes básicos de una computadora moderna. (Motor analítico) Aunque la computadora de vapor de Babbage finalmente quedó inacabada, era muy primitiva para los estándares actuales. Pero describió las capacidades básicas de una computadora moderna de propósito general, un avance conceptual. Durante los años siguientes, muchos ingenieros lograron avances importantes en otras áreas. El estadounidense Herman Hollery (1860-1929) inventó la computadora de láminas porosas basada en el principio del telar jacquard y la llevó al campo comercial para establecer una empresa. En Filadelfia se presentó la primera generación de ordenadores de tubo, que marcaron el nacimiento de los ordenadores modernos. ENIAC representa un hito en la historia del desarrollo informático. Se programa mediante recableado entre diferentes partes, con capacidad de computación en paralelo. ENIAC fue desarrollado conjuntamente por el gobierno de Estados Unidos y la Universidad de Pensilvania. Utiliza 18.000 tubos de electrones, 70.000 resistencias, 5 millones de uniones de soldadura, consume 160 kilovatios de energía y funciona a una velocidad de 5.000 veces por segundo. Las computadoras de primera generación se caracterizaban por tener instrucciones de funcionamiento programadas para tareas específicas. Cada máquina tiene su propio lenguaje de máquina diferente, funcionalidad limitada y velocidad lenta. Otra característica distintiva es el uso de tubos de vacío y tambores magnéticos para almacenar datos. En la segunda generación de computadoras con transistores (1957-1964) 1948, la invención de los transistores reemplazó a los voluminosos tubos de electrones y el tamaño de los dispositivos electrónicos continuó disminuyendo. Desde 65438 hasta 0956, se utilizaron transistores, transistores y memorias de núcleo magnético en las computadoras que condujeron a la segunda generación de computadoras. Las computadoras de segunda generación son de tamaño pequeño, velocidad rápida, bajo consumo de energía y rendimiento más estable. En 1960, algunas computadoras de segunda generación se utilizaron con éxito en empresas, universidades y departamentos gubernamentales. La segunda generación de computadoras utilizó transistores en lugar de tubos de electrones, así como algunos componentes de las computadoras modernas: impresoras, cintas, discos, memoria, sistemas operativos, etc. Los programas almacenados en una computadora hacen que ésta sea adaptable y pueda usarse de manera más eficiente con fines comerciales. Durante este período aparecieron lenguajes de nivel superior como COBOL y FORTRAN, que facilitaron la programación informática. Nacieron nuevas profesiones (programadores, analistas y expertos en sistemas informáticos) y toda una industria del software. Computadora de circuito integrado de tercera generación (1964-1972) En 1958, Jack Kilby, un ingeniero de Texas Instruments, inventó el circuito integrado (IC), que combina tres componentes electrónicos en un pequeño chip de silicio. A medida que se integran más y más componentes en un único chip semiconductor, las computadoras se vuelven más pequeñas, consumen menos energía y son más rápidas. Los avances durante este período también incluyeron el uso de sistemas operativos, que permitían a las computadoras ejecutar muchos programas diferentes simultáneamente bajo el control y coordinación de un programa central. Computadoras LSI de cuarta generación (1972-ahora) LSI puede acomodar cientos de componentes en un solo chip. En la década de 1980, los circuitos integrados a muy gran escala (VLSI) contenían cientos de miles de componentes en un chip, y más tarde (ULSI) ampliaron este número a millones.

Se pueden acomodar tantos componentes en un chip del tamaño de una moneda, lo que permite que las computadoras sigan disminuyendo en tamaño y precio al tiempo que aumentan la funcionalidad y la confiabilidad. A mediados de la década de 1970, los fabricantes de computadoras comenzaron a llevarlas a los consumidores comunes. En ese momento, las minicomputadoras tenían paquetes de software fáciles de usar, programas para profanos y los programas de procesamiento de textos y hojas de cálculo más populares. En 1981, IBM lanzó la computadora personal (PC) para uso doméstico, de oficina y escolar. En la década de 1980, la competencia de las computadoras personales hizo que los precios siguieran bajando, aumentara el número de microcomputadoras que se debían conservar y que el tamaño de las computadoras siguiera reduciéndose. La línea Apple Macintosh, que competía con la IBM PC, se lanzó en 1984. Macintosh proporciona una interfaz gráfica amigable que los usuarios pueden operar fácilmente con el mouse. La historia del desarrollo de las computadoras modernas se remonta a 1666. Samuel Moran de Inglaterra inventó una máquina de contar mecánica que podía sumar y restar. En 1673, Gottfried Leibniz construyó un contador con una rueda cilíndrica escalonada llamada "calculadora de pasos". Esta calculadora puede multiplicar números repetidos y sumarlos automáticamente al sumador. En 1694, el matemático alemán Gottfried Leibniz mejoró el de Pascal y construyó una máquina que podía calcular multiplicadores. Todavía funciona mediante engranajes y diales. En 1773, Philippe Matthäus fabricó y vendió una pequeña cantidad de computadoras con una precisión de 12 dígitos. En 1775, el tercer conde Stanhope inventó una calculadora de multiplicaciones similar a la de Leibniz. En 1786, J.H. Mueller diseñó una ampliación diferencial pero lamentablemente no contaba con los fondos para fabricarla. En 1801, el telar de Joseph-Marie Jacquard utilizaba tarjetas perforadas para controlar el patrón de tejido. En 1854, George Boole publicó "Una inspección de las leyes del pensamiento", que hablaba de símbolos y razonamiento lógico, que más tarde se convirtieron en los conceptos básicos del diseño informático. En 1858, una línea telegráfica cruzó por primera vez el Atlántico y prestó servicio durante unos días. En 1861, una línea telegráfica transcontinental conectaba las costas del Atlántico y el Pacífico. En 1876, Alexander Graham Bell inventó y patentó el teléfono. De 1876 a 1878, el barón Kelvin construyó analizadores de armónicos y pronosticadores de mareas. En 1882, William S. Burrows dejó su trabajo como empleado de banco para concentrarse en inventar la máquina sumadora. En 1889, la máquina tabuladora eléctrica de Herman Hollery obtuvo buenos resultados en una competición y se utilizó en el censo de 1890. Herman Hollery utilizó el concepto del telar jacquard para calcular. Usó una tarjeta para almacenar los datos y luego la introdujo en una máquina para compilar los resultados. La máquina permitió obtener los resultados del censo en sólo seis semanas, lo que habría llevado una década. En 1893 se inventó la primera calculadora de cuatro funciones. En 1895, Guglielmo Marconi transmitió una señal de radio. En 1896, Hollerith fundó Tabulated Machine Company. En 1901 aparecieron las teclas perforadas y poco cambió en el siguiente medio siglo. En 1904, John A. Fleming recibió una patente para el diodo de vacío, sentando las bases para las comunicaciones por radio. En 1906, Liedfordert añadió un diodo con una tercera válvula a Fermín, creando un tubo de vacío de tres electrodos. En 1907, la música grabada formó la primera estación de radio oficial de Nueva York. En 1908, el científico británico Campbell Swinton describió el método de escaneo electrónico y predijo el uso de tubos de rayos catódicos para construir televisores. En 1911, Hollerith's Watch Machine Company se fusionó con otras dos empresas para formar Computerized Tabulated and Recording Company (C-T-R), una empresa de relojería y grabación. Pero en 1924 pasó a llamarse International Business Machines Corporation (IBM). En 1911, el físico holandés Kamerlingh Onnes descubrió la superconductividad en la Universidad de Leiden. En 1931, Vannifer Bush inventó una máquina de contar que podía resolver programas en diferencias. La máquina podría resolver complejos programas de diferencias que molestan a matemáticos y científicos. En 1935, IBM (International Business Machines Corporation) presentó el "IBM 601", una máquina de tarjetas perforadas con un componente aritmético que podía calcular multiplicadores en un segundo. Desempeña un papel muy importante en la informática científica y la informática empresarial.