¿Por qué piensan las computadoras?
lang-es |Una computadora es una máquina que utiliza principios electrónicos para procesar datos de acuerdo con una serie de instrucciones.
En los tiempos modernos, la aplicación de las computadoras mecánicas ha sido completamente reemplazada por las computadoras electrónicas - {simplificación:, por lo que las computadoras electrónicas a menudo se denominan computadoras tradicionales:;. El estudio técnico relacionado se llama informática. "Tecnología informática" se refiere a la suma de muchos resultados técnicos y empíricos derivados de la aplicación de los resultados de la informática a la práctica de la ingeniería. "Tecnología informática" e "informática" son dos conceptos relacionados pero diferentes. La diferencia entre ellos es que el primero enfatiza la práctica y el segundo enfatiza la teoría.
En cuanto a la investigación centrada en datos, se denomina tecnología de la información. Normalmente, lo que más entra en contacto la gente es el ordenador personal.
Existen muchos tipos de ordenadores. De hecho, las computadoras son generalmente herramientas para procesar información. Según la teoría de la máquina de Turing, una computadora con las funciones más básicas debería poder hacer cualquier cosa que otras computadoras puedan hacer. Por lo tanto, independientemente de los factores de tiempo y almacenamiento, todos los asistentes digitales personales (PDA) y supercomputadoras deberían poder hacer el mismo trabajo. Es decir, incluso ordenadores con el mismo diseño pueden utilizarse para diversas tareas, desde la gestión de nóminas de empresas hasta el control de naves espaciales no tripuladas, siempre que se realicen las modificaciones correspondientes. Debido a los rápidos avances en ciencia y tecnología, la próxima generación de computadoras siempre puede superar significativamente a sus predecesoras en rendimiento, lo que a veces se denomina "Ley de Moore".
Las computadoras vienen en diferentes formas. Las primeras computadoras eran tan grandes como una casa, pero algunas computadoras integradas hoy en día pueden ser más pequeñas que una baraja de cartas. Por supuesto, incluso hoy en día todavía hay una gran cantidad de supercomputadoras gigantes que atienden a grandes organizaciones con necesidades de procesamiento de transacciones o informática científica especializada. Las computadoras relativamente pequeñas diseñadas para uso personal se denominan microcomputadoras o simplemente microcomputadoras. Normalmente nos referimos a esto cuando utilizamos la palabra "computadora" en nuestra vida diaria. Sin embargo, la forma de aplicación más común en las computadoras ahora es la integrada. Las computadoras integradas suelen ser relativamente simples y pequeñas, y se utilizan para controlar otros equipos, ya sea un avión, un robot industrial o una cámara digital. & ltref & gtMeier, Hans; Erich Strohmeier; Simon, Horst Jack Dongara (13 de noviembre de 2006). La arquitectura se comparte a lo largo del tiempo. TOP500. Hora de recuperación: 27/11/2006. </ref>
La definición anterior de computadora electrónica incluye muchos dispositivos de propósito especial que pueden calcular o tener funciones limitadas. Pero cuando se trata de computadoras electrónicas modernas, la característica más importante es que cualquier computadora electrónica puede simular el comportamiento de cualquier otra computadora siempre que reciba las instrucciones correctas (limitadas únicamente por la capacidad de almacenamiento y la velocidad de ejecución de la propia computadora electrónica). ). Por lo tanto, en comparación con las primeras computadoras electrónicas, las computadoras electrónicas modernas también se denominan computadoras electrónicas de uso general.
Maestro histórico|El pulgar de la historia de la computadora es un hito en la historia del desarrollo de la computadora]] Resulta que la palabra original en inglés "computadora" se refiere a una persona que se dedica al cálculo de datos. Y a menudo necesitan utilizar algún equipo informático mecánico u ordenadores analógicos. Los antepasados de estos primeros dispositivos informáticos incluyen el ábaco y la máquina Antíoco Quatra, que data del 87 a. C. y fue utilizada por los antiguos griegos para calcular los movimientos de los planetas. Con la prosperidad de las matemáticas y la ingeniería en Europa a finales de la Edad Media, el erudito alemán Wilhelm Schickard tomó la iniciativa en el desarrollo del primer dispositivo informático de Europa en 1623. Este es un "reloj calculador" que puede sumar y restar números de hasta seis dígitos y generar la respuesta mediante un tono de llamada. Utilice engranajes giratorios para su funcionamiento.
En 1642, el matemático francés Blaise Pascal mejoró la "regla de cálculo" del matemático británico William Outred, haciendo posibles las operaciones de ocho bits. También vendía muchos productos que se pusieron de moda en la época.
En 1801, el francés Joseph Marie Jacquard mejoró el diseño del telar, utilizando una serie de tarjetas de papel perforadas como programa para tejer patrones complejos. Aunque la máquina, llamada "Jacquard Loom", no se considera una verdadera computadora, su naturaleza programable la convirtió en un paso importante en el desarrollo de las computadoras modernas.
Charles Babbage concibió y diseñó el primer ordenador totalmente programable en 1820. Sin embargo, debido a condiciones técnicas, limitaciones financieras y constantes e insoportables retoques en el diseño, esta computadora nunca apareció durante su vida. A finales del siglo XIX, habían surgido muchas tecnologías que resultarían de gran importancia para la informática, incluidas las tarjetas perforadas y los tubos de vacío. El estadístico alemán-estadounidense Herman Hollerith diseñó una máquina tabuladora en la que se utilizaban tarjetas perforadas para el procesamiento automático de datos a gran escala.
En la primera mitad del siglo XX, para satisfacer las necesidades de la informática científica, se desarrollaron muchos ordenadores analógicos especializados de complejidad creciente. Estas computadoras se basan en modelos mecánicos o electrónicos de los problemas específicos que abordan. En las décadas de 1930 y 1940, las computadoras se volvieron más potentes y versátiles, y la funcionalidad crítica de las computadoras modernas siguió aumentando.
En 1937, Claude Shannon, un estudiante de posgrado del MIT de 21 años, publicó su gran artículo "Análisis simbólico en circuitos de relés y interruptores", que mencionó por primera vez la aplicación de la electrónica digital. Mostró cómo utilizar interruptores para realizar operaciones lógicas y matemáticas. Consolidó aún más sus ideas estudiando el simulador diferencial de Nivard Bush. Este fue un momento importante que marcó el comienzo del diseño de circuitos electrónicos binarios y las aplicaciones de puertas lógicas. Entre los pioneros en el nacimiento de estas ideas clave se encuentran: Almon Strowger, que patentó un dispositivo que contiene puertas lógicas; Nikola Tesla, que patentó un dispositivo con puertas lógicas ya en 1898. Dispositivo de circuito para puertas lógicas, en 1907, que reemplazó a De Forest; Relés con tubos de vacío. Correcto
Es bastante difícil definir el llamado "primer ordenador electrónico" a una distancia tan larga. En mayo de 1941, el ingeniero alemán Konrad Zuse completó su computadora Turing totalmente electromecánica "Z3", la primera computadora con cálculos matemáticos binarios automáticos y programación factible, pero no era una computadora "electrónica". Además, otros logros notables incluyen: la computadora Atanasoff-Berry, nacida en el verano de 1941, la primera computadora electrónica del mundo, que utilizaba una calculadora de tubo de vacío, valores binarios y memoria reutilizable. La misteriosa computadora Colossus demostró en Inglaterra en 1943; Tenía capacidades de programación extremadamente limitadas, pero convenció a la gente de que el uso de tubos de vacío era confiable y podía reprogramarse para la electrificación. Mark I de la Universidad de Harvard; y la "ENIAC" de base binaria (ENIAC, 1944), cuyo nombre completo es "Calculadora integral numérica electrónica", es la primera computadora de propósito general, pero su diseño estructural no es lo suficientemente flexible, por lo que debe reiniciarse cada vez. Programar todo significa volver a cablear los circuitos eléctricos y físicos.
Durante la Segunda Guerra Mundial en la década de 1940, con el fin de entrenar pilotos de bombarderos, la Marina de los Estados Unidos pidió al MIT si podía desarrollar una computadora que pudiera controlar un simulador de vuelo. La idea inicial de los militares era utilizar computadoras para reflejar los datos generados por las operaciones simuladas de los pilotos en el panel de instrumentos en tiempo real. A diferencia de los equipos de simulación anteriores, el ejército requiere que las computadoras se basen en un diseño aerodinámico y sean infinitamente cercanas a las reales para llevar a cabo diversos entrenamientos de aviación. Entonces el MIT creó el Proyecto Cyclone, produjo la primera "Computadora Tornado" del mundo que podía procesar datos en tiempo real e inventó la memoria de núcleo magnético. Esto hizo una contribución histórica al desarrollo de las computadoras personales.
El equipo que desarrolló Eniac mejoró aún más el diseño basándose en sus defectos, lo que finalmente dio como resultado la arquitectura von Neumann (arquitectura de almacenamiento de programas) que conocemos hoy. Este sistema es la base de todas las computadoras actuales. A mediados y finales de los años 40 se comenzaron a desarrollar un gran número de ordenadores basados en este sistema, entre los que el Reino Unido fue el primero. Aunque la primera máquina desarrollada y puesta en funcionamiento fue la Pequeña Máquina Experimental (SSEM), es probable que la máquina práctica real desarrollada fuera la EDSAC.
Durante la década de 1950, dominaron las computadoras de tubos de vacío. En septiembre de 1958, bajo el liderazgo del fundador de Intel, Robert Noyce, se inventó el circuito integrado. Poco después se introdujo el microprocesador. Las computadoras diseñadas entre 1959 y 1964 generalmente se denominan computadoras de segunda generación.
En la década de 1960, los ordenadores con transistores los sustituyeron. Los transistores son más pequeños, más rápidos, más baratos y más fiables, lo que permite su comercialización. Las computadoras de 1964 a 1972 generalmente se denominan computadoras de tercera generación. Se utiliza una gran cantidad de circuitos integrados y el modelo típico es la serie IBM360.
En la década de 1970, la introducción de la tecnología de circuitos integrados redujo en gran medida el costo de producción de las computadoras, y las computadoras comenzaron a llegar a miles de hogares. Las computadoras posteriores a 1972 se denominan habitualmente computadoras de cuarta generación. Basado en circuitos integrados a gran escala y posteriormente circuitos integrados a muy gran escala. 1972 El 1 de abril, Intel lanza el microprocesador 8008. Apple Computer fue fundada en 1976 por Stephen Jobs y Stephen Woznak. Y lanzó la computadora Apple I. 1977 En mayo se lanza la computadora de segunda generación de Apple. El 1 de junio de 1979, Intel lanzó un microprocesador 8088 de 8 bits.
Desde 65438 hasta 0982, los microordenadores comenzaron a popularizarse y entraron en grandes cantidades en escuelas y hogares. 1982 Computadora 65438+Commodore 64 lanzada en octubre, con un precio de 595 dólares estadounidenses. 1982 febrero 80286 lanzado. La frecuencia del reloj aumenta a 20 MHz, se agrega un modo de protección y se puede acceder a una memoria de 16 M. Admite más de 1 GB de memoria virtual. Ejecuta 2,7 millones de instrucciones por segundo e integra 134.000 transistores.
En octubre de 1990, Microsoft lanzó la primera generación MPC (PC multimedia, estándar de computadora personal multimedia): procesador de al menos 80286/12 MHz (posteriormente aumentado a 80386SX/16 MHz), con unidad óptica, velocidad de transmisión no menor que 65438+. 1994 10 El 10 de junio, Intel lanzó el procesador Pentium de 75 MHz. 1995 165438+1 de octubre, se lanzó Pentium Pro. La frecuencia principal puede alcanzar los 200 MHz, completar 440 millones de instrucciones por segundo e integrar 5,5 millones de transistores.
1997 65438 + 8 de octubre, Intel lanzó el Pentium MMX, que mejoró las capacidades multimedia y de juegos.
Desde entonces, las computadoras han avanzado rápidamente y la Ley de Moore, publicada en 1965, se ha demostrado continuamente y la predicción seguirá siendo aplicable en los próximos 10 a 15 años. [CEG]
Principio La estructura principal del pulgar:
CPU de la placa base del monitor (microprocesador)
(Memoria)
Tarjeta de expansión (Tarjeta de sonido, tarjeta de red, tarjeta de TV, etc.)
Unidad de disquete/unidad óptica con fuente de alimentación
(disco duro)
Aunque desde la primera electrónica Computadora de propósito general en la década de 1940 La tecnología informática se ha desarrollado rápidamente desde su nacimiento, pero las computadoras actuales todavía usan básicamente la estructura del programa almacenado, es decir, la estructura de von Neumann. Esta estructura realiza una computadora práctica de uso general.
La estructura del programa almacenado describe una computadora en cuatro partes principales: unidad lógica aritmética (ALU), circuitos de control, memoria y dispositivos de entrada/salida (E/S). Estos elementos están conectados por un conjunto de cables planos (especialmente cuando se utiliza un conjunto de cables para la transmisión de datos con diferentes intenciones, también llamado bus) y son impulsados por un reloj (por supuesto, algunos otros eventos también pueden impulsar el circuito de control). ).
Conceptualmente, la memoria de una computadora puede considerarse como un conjunto de "células". Cada "celda" tiene un número llamado dirección; y puede almacenar mensajes más pequeños y de longitud fija. Esta información puede ser instrucciones (que le dicen a la computadora qué hacer) o datos (qué procesan las instrucciones). En principio, cada "célula" puede almacenar cualquiera de ellos.
La Unidad Aritmético Lógica (ALU) puede denominarse el cerebro de la computadora. Puede realizar dos tipos de operaciones: la primera son operaciones aritméticas, como la suma y resta de dos números. Los operadores aritméticos tienen un papel muy limitado en la ALU. De hecho, algunas ALU no admiten ninguna operación de multiplicación y división a nivel de circuito (porque los usuarios solo pueden realizar operaciones de multiplicación y división a través de la programación). La segunda es una operación de comparación, es decir, dados dos números, ALU los compara para determinar cuál es mayor. & ltref & gtDigital Equipment Corporation (1972). Manual del procesador PDP-11/40 (PDF), Maynard, MA: Digital Equipment Corporation. & lt/ref & gt;
El sistema de entrada y salida es el medio por el cual la computadora recibe información externa y retroalimenta los resultados del cálculo al mundo exterior. Para una computadora personal estándar, los dispositivos de entrada principales son el teclado y el mouse, mientras que los dispositivos de salida son el monitor, la impresora y muchos otros dispositivos de entrada y salida que se pueden conectar a la computadora.
El sistema de control conecta todas las partes de los ordenadores antes mencionados. Su función es leer instrucciones y datos de la memoria y de los dispositivos de entrada/salida, decodificar las instrucciones y pasar la entrada correcta que cumpla con los requisitos de la instrucción a la ALU, diciéndole a la ALU cómo procesar los datos y dónde devolver los datos del resultado. Un componente importante en el sistema de control es un contador que se utiliza para registrar la dirección de la instrucción actual. Normalmente, este contador se acumula a medida que se ejecuta la instrucción, pero a veces esta regla no se sigue si la instrucción indica un salto.
Desde la década de 1980, la ALU y la unidad de control (conocidas colectivamente como unidad central de procesamiento (CPU)) se han integrado gradualmente en un circuito integrado llamado microprocesador. El modo de trabajo de esta computadora es muy intuitivo: dentro de un ciclo de reloj, la computadora primero obtiene instrucciones y datos de la memoria, luego ejecuta las instrucciones, almacena los datos y luego obtiene la siguiente instrucción. Este proceso se repite hasta que se obtiene una instrucción de terminación.
Según la interpretación del controlador, el conjunto de instrucciones ejecutadas por la unidad informática es un conjunto cuidadosamente definido de instrucciones simples con un número muy limitado. Generalmente, se puede dividir en cuatro categorías: 1), movimiento de datos (como copiar un valor de la unidad de almacenamiento A a la unidad de almacenamiento B) 2), operaciones numéricas y lógicas (como calcular la suma de la unidad de almacenamiento A y la unidad de almacenamiento). B y devolver el resultado Vaya a la unidad de almacenamiento C) 3), verificación de la condición (por ejemplo, si el valor en la unidad de almacenamiento A es 100, entonces la siguiente instrucción.
Las instrucciones, como los datos, se representan en binario en computadoras Por ejemplo, 10110000 es Intel Una copia del código de instrucción para el microprocesador x86. El conjunto de instrucciones admitido por la computadora es el lenguaje de máquina de la computadora. Por lo tanto, usar un lenguaje de máquina popular lo hará más fácil para las personas. Desarrollar software comercial, por ejemplo, generalmente solo se refiere a uno o unos pocos lenguajes de máquina diferentes.
Las minicomputadoras, computadoras centrales y servidores más potentes pueden diferir de los mencionados anteriormente y a menudo comparten tareas con diferentes CPU. , Los microprocesadores y las computadoras personales multinúcleo también se están desarrollando en esta dirección.
Desde la miniaturización de las computadoras, el control de los equipos mecánicos también ha comenzado a depender del soporte de las computadoras. Es necesario construir una computadora que sea lo suficientemente pequeña. La computadora incorporada que controló el Apolo 1 impulsó un salto en la tecnología de circuitos integrados. Hoy en día, es mucho más difícil encontrar un dispositivo mecánico activo que no esté controlado por computadora que uno que sí lo esté. Incluso parcialmente controlado por computadora, ¿un robot que tiene una apariencia más o menos humana y un cierto subconjunto de comportamiento humano? Los robots industriales se han convertido en algo común en la producción en masa. Sin embargo, los robots totalmente antropomórficos todavía existen sólo en la ciencia ficción o en los laboratorios.
La robótica es esencialmente un eslabón de expresión física en el campo de la inteligencia artificial.
La llamada inteligencia artificial es un concepto vago, pero lo cierto es que esta disciplina intenta permitir que los ordenadores posean capacidades que no están disponibles actualmente pero que son inherentes al ser humano. A lo largo de los años, se han desarrollado muchos métodos nuevos para permitir que las computadoras hagan cosas que antes se pensaba que solo eran posibles para los humanos. Por ejemplo, leer y jugar al ajedrez. Sin embargo, hasta ahora, el progreso en el desarrollo de computadoras con inteligencia "holística" similar a la humana ha sido muy lento.
Redes e Internet Desde los años 50, los ordenadores se han utilizado como herramienta para coordinar información procedente de diferentes lugares. El SAGE del ejército estadounidense es el primer sistema a gran escala en este campo. Posteriormente también apareció una serie de sistemas comerciales dedicados como "sabre".
Después de la década de 1970, los ingenieros informáticos de las universidades estadounidenses comenzaron a utilizar tecnología de telecomunicaciones para conectar sus ordenadores. Debido a que este trabajo fue patrocinado por ARPA, su red informática también se llamó ARPANET. Desde entonces, la tecnología utilizada en la red ARPA se extendió y evolucionó rápidamente, y la red también traspasó el alcance de las universidades y el ejército, formando finalmente la Internet actual. La aparición de Internet ha llevado a la redefinición de las propiedades y límites de las computadoras. John Gage y Bill Joy de Sun Microsystems señalaron que "la red es la computadora". Los sistemas operativos y las aplicaciones informáticas están evolucionando hacia el acceso a recursos de la red, como otras computadoras en la red. Al principio, estos dispositivos de red sólo eran utilizados por científicos de alto nivel, pero después de la década de 1990, con la popularidad del correo electrónico y las tecnologías World Wide Web, así como el bajo costo de las tecnologías de conexión de red como Ethernet y ADSL, Internet se ha convertido en ubicuo. ¿Por qué hay hoy decenas de millones de ordenadores conectados a Internet? Con la popularidad de la tecnología de Internet inalámbrica, Internet en entornos informáticos móviles también ha seguido su ejemplo. Por ejemplo, la tecnología Wi-Fi, que se utiliza ampliamente en las computadoras portátiles, es una aplicación representativa del acceso inalámbrico a Internet.
La velocidad y la potencia de las computadoras digitales han mejorado enormemente desde la llegada de las computadoras de próxima generación, y todavía hay muchos temas que parecen estar más allá de las capacidades de las computadoras actuales. Para algunos de estos problemas, las computadoras tradicionales son imposibles de resolver de todos modos porque el tiempo que lleva encontrar una solución no puede mantenerse a la altura de la escala del problema. Por lo tanto, los científicos han comenzado a centrar su atención en la tecnología de computación biológica y la teoría cuántica para resolver tales problemas. Por ejemplo, la gente planea utilizar el procesamiento biológico para resolver un problema específico (computación del ADN). Debido al crecimiento exponencial de la división celular, los sistemas informáticos de ADN probablemente serán capaces de resolver problemas de la misma escala. Por supuesto, un sistema de este tipo está directamente limitado por la cantidad controlable de ADN.
Los ordenadores cuánticos, como su nombre indica, aprovechan las extraordinarias propiedades del mundo físico cuántico. Una vez que se pueda construir una computadora cuántica, su velocidad aumentará más allá del alcance de las computadoras comunes. Por supuesto, esta próxima generación de computadoras que involucran criptografía y simulaciones de física cuántica aún se encuentra solo en la etapa conceptual.