¿Qué es una computadora?
Una computadora electrónica es una máquina que procesa datos según una serie de instrucciones. La investigación técnica relacionada se llama informática y la investigación centrada en datos se llama tecnología de la información.
Existen muchos tipos de ordenadores. De hecho, las computadoras son generalmente herramientas para procesar información. Según la teoría de la máquina de Turing, una computadora con las funciones más básicas debería poder hacer cualquier cosa que otras computadoras puedan hacer. Por lo tanto, independientemente de los factores de tiempo y almacenamiento, todos los asistentes digitales personales (PDA) y supercomputadoras deberían poder hacer el mismo trabajo. Es decir, incluso ordenadores con el mismo diseño pueden utilizarse para diversas tareas, desde la gestión de nóminas de empresas hasta el control de naves espaciales no tripuladas, siempre que se realicen las modificaciones correspondientes. Debido a los rápidos avances en ciencia y tecnología, la próxima generación de computadoras siempre puede superar significativamente a sus predecesoras en rendimiento, lo que a veces se denomina "Ley de Moore".
Las computadoras vienen en diferentes formas. Las primeras computadoras eran tan grandes como una casa, pero algunas computadoras integradas hoy en día pueden ser más pequeñas que una baraja de cartas. Por supuesto, incluso hoy en día todavía hay una gran cantidad de supercomputadoras gigantes que atienden a grandes organizaciones con necesidades de procesamiento de transacciones o informática científica especializada. Las computadoras relativamente pequeñas diseñadas para uso personal se denominan microcomputadoras o simplemente microcomputadoras. Normalmente nos referimos a esto cuando utilizamos la palabra "computadora" en nuestra vida diaria. Sin embargo, la forma de aplicación más común en las computadoras ahora es la integrada. Las computadoras integradas suelen ser relativamente simples y pequeñas, y se utilizan para controlar otros equipos, ya sea un avión, un robot industrial o una cámara digital.
La definición anterior de computadoras electrónicas incluye muchos dispositivos de propósito especial que pueden calcular o tener funciones limitadas. Pero cuando se trata de computadoras electrónicas modernas, la característica más importante es que cualquier computadora electrónica puede simular el comportamiento de cualquier otra computadora siempre que reciba las instrucciones correctas (limitadas únicamente por la capacidad de almacenamiento y la velocidad de ejecución de la propia computadora electrónica). ). Por lo tanto, en comparación con las primeras computadoras electrónicas, las computadoras electrónicas modernas también se denominan computadoras electrónicas de uso general.
Historia
ENIAC es un hito en la historia del desarrollo informático. La palabra inglesa "computadora" originalmente se refiere a una persona que se dedica al cálculo de datos. Y a menudo necesitan utilizar algún equipo informático mecánico u ordenadores analógicos. Los antepasados de estos primeros dispositivos informáticos incluyen el ábaco y el mecanismo de Antioquía-Quitera, que datan del 87 a. C. y fueron utilizados por los antiguos griegos para calcular el movimiento planetario. Con el resurgimiento de las matemáticas y la ingeniería en Europa a finales de la Edad Media, Wilhelm Schickard tomó la iniciativa en el desarrollo del primer dispositivo informático de Europa en 1623, un dispositivo que podía sumar y restar números de hasta seis dígitos y un "reloj de cálculo" que generaba los números. responder a través de un tono de llamada. Utilice engranajes giratorios para su funcionamiento.
En 1642, el matemático francés Pascal mejoró la regla de cálculo basándose en el trabajo de William Outred y fue capaz de realizar cálculos de ocho dígitos. También vendía muchos productos que se pusieron de moda en la época.
En 1801, Joseph Marie Jacquard mejoró el diseño del telar, en el que utilizaba una serie de tarjetas de papel perforadas como programa para tejer patrones complejos. Aunque el telar Jacquard no se considera una verdadera computadora, su aparición fue de hecho un paso importante en el desarrollo de las computadoras modernas.
Carlos. Babbage fue el primero en concebir y diseñar una computadora totalmente programable en 1820. Sin embargo, debido a limitaciones técnicas, limitaciones financieras y constantes e insoportables retoques en el diseño, la computadora nunca vio la luz en su vida. A finales del siglo XIX, habían surgido muchas tecnologías que resultarían de gran importancia para la informática, incluidas las tarjetas perforadas y los tubos de vacío. Hermann Hollerith diseñó una máquina de tabulación que utilizaba tarjetas perforadas para permitir el procesamiento automático de datos a gran escala.
En la primera mitad del siglo XX, para satisfacer las necesidades de la informática científica, se desarrollaron muchos ordenadores analógicos de un solo propósito y cada vez más complejos. Estas computadoras se basan en modelos mecánicos o electrónicos de los problemas específicos que abordan. En las décadas de 1930 y 1940, las computadoras se volvieron más potentes y versátiles, y la funcionalidad crítica de las computadoras modernas siguió aumentando.
En 65438-0937, Claude Elwood Shannon publicó su gran artículo "Análisis simbólico en circuitos de conmutación y relés", que menciona por primera vez la aplicación de la electrónica digital. Mostró cómo utilizar interruptores para realizar operaciones lógicas y matemáticas. Consolidó aún más sus ideas estudiando el simulador diferencial de Vannevar Bush. Este fue un momento importante que marcó el comienzo del diseño de circuitos electrónicos binarios y las aplicaciones de puertas lógicas. Los pioneros en el nacimiento de estas ideas clave deberían incluir: Almon Strowger, quien patentó un dispositivo que contiene puertas lógicas, Nicholas? Nikola Tesla, ya en 1898, solicitó un dispositivo de circuito con puertas lógicas; de Forest, en 1907, reemplazó los relés con tubos de vacío.
El ordenador Amiga 500 producido por Commodore en los años 80, tras un recorrido tan largo, resulta bastante difícil definir el llamado "primer ordenador electrónico".
En mayo de 1941, Konrad Zuse completó su dispositivo electromecánico "Z3", la primera computadora con cálculos matemáticos binarios automáticos y programación factible, pero no era una computadora "electrónica". Además, otros logros notables incluyen: la computadora Atanasoff-Berry, nacida en el verano de 1941, la primera computadora electrónica del mundo, que utilizaba una calculadora de tubo de vacío, valores binarios y memoria reutilizable. La misteriosa computadora Colossus exhibida en Gran Bretaña en 1943; Le dijo a la gente que el uso de tubos de vacío era confiable y podía lograr la reprogramación de la electrificación, aunque sus capacidades de programación eran extremadamente limitadas. Harvard Mark I; de la Universidad de Harvard; y el "ENIAC" de base binaria (ENIAC, 1944), la primera computadora de propósito general, pero su diseño arquitectónico no era lo suficientemente flexible como para que cada reprogramación implicara recablear los circuitos eléctricos y físicos.
El equipo que desarrolló Eniac mejoró aún más el diseño basándose en sus defectos, lo que finalmente dio como resultado la arquitectura von Neumann (arquitectura de almacenamiento de programas) que conocemos hoy. Este sistema es la base de todas las computadoras actuales. A mediados y finales de los años 40 se comenzaron a desarrollar un gran número de ordenadores basados en este sistema, entre los que el Reino Unido fue el primero. Aunque la primera máquina desarrollada y puesta en funcionamiento fue la Pequeña Máquina Experimental (SSEM), es probable que la máquina práctica real desarrollada fuera la EDSAC.
Durante la década de 1950, dominaron las computadoras de tubos de vacío. El 2 de septiembre de 1958, bajo el liderazgo de Robert Noyce (fundador de Intel Corporation), se inventó el circuito integrado. Poco después se introdujo el microprocesador. Las computadoras diseñadas entre 1959 y 1964 generalmente se denominan computadoras de segunda generación.
En la década de 1960, los ordenadores con transistores los sustituyeron. Los transistores son más pequeños, más rápidos, más baratos y más fiables, lo que permite su comercialización. Las computadoras de 1964 a 1972 generalmente se denominan computadoras de tercera generación. Se utiliza una gran cantidad de circuitos integrados y el modelo típico es la serie IBM360.
En la década de 1970, la introducción de la tecnología de circuitos integrados redujo en gran medida el costo de producción de las computadoras, y las computadoras comenzaron a llegar a miles de hogares. Las computadoras posteriores a 1972 se denominan habitualmente computadoras de cuarta generación. Basado en circuitos integrados a gran escala y posteriormente circuitos integrados a muy gran escala. 1972 El 1 de abril, Intel lanza el microprocesador 8008. 1976 Stephen Woznak y Stephen Jobs fundan Apple Computer. Y lanzó la computadora Apple I. 1977 En mayo se lanza la computadora de segunda generación de Apple. El 1 de junio de 1979, Intel lanzó un microprocesador 8088 de 8 bits.
Desde 65438 hasta 0982, los microordenadores comenzaron a popularizarse y entraron en grandes cantidades en escuelas y hogares. 1982 65438+computadora Commodore 64 lanzada en octubre, precio: 595 dólares estadounidenses. 1982 febrero 80286 lanzado. La frecuencia del reloj aumenta a 20 MHz, se agrega un modo de protección y se puede acceder a una memoria de 16 M. Admite más de 1 GB de memoria virtual. Ejecuta 2,7 millones de instrucciones por segundo e integra 134.000 transistores.
1990 165438+Octubre: Se lanza la primera generación de MPC (Multimedia Personal Computer Standard). El procesador debe ser de al menos 80286/12MHz, posteriormente aumentado a 80386SX/16 MHz, y la velocidad de transferencia de la unidad óptica debe ser de al menos 150 KB/seg. 1994 10 El 10 de junio, Intel lanzó el procesador Pentium de 75 MHz. 1995 165438 + Pentium Pro lanzado el 1 de octubre. La frecuencia principal puede alcanzar los 200 MHz, completar 440 millones de instrucciones por segundo e integrar 5,5 millones de transistores. 1997 65438 + Intel lanzó Pentium MMX el 8 de octubre. Se han mejorado las capacidades de juegos y multimedia.
Desde entonces, las computadoras han avanzado rápidamente y la Ley de Moore, publicada en 1965, se ha demostrado continuamente y la predicción seguirá siendo aplicable en los próximos 10 a 15 años.
Principios
La estructura principal de una computadora personal (PC):
Indicador
Placa base
Central procesamiento
Memoria principal
Tarjetas de expansión (algunas placas base como tarjetas gráficas, tarjetas de sonido, tarjetas de red, etc. pueden integrarlas)
Fuente de alimentación p>
Unidad de disco óptico
Almacenamiento auxiliar (disco duro)
Teclado
Ratón
Aunque las computadoras han sido populares desde El nacimiento de la primera computadora electrónica de uso general en la década de 1940. La tecnología se está desarrollando rápidamente, pero las computadoras actuales todavía usan básicamente la estructura del programa almacenado, es decir, la estructura de von Neumann. Esta estructura realiza una computadora práctica de uso general.
La estructura del programa almacenado describe una computadora en cuatro partes principales: unidad lógica aritmética (ALU), circuitos de control, memoria y dispositivos de entrada/salida (E/S). Estos elementos están conectados por un conjunto de cables planos (especialmente cuando se utiliza un conjunto de cables para la transmisión de datos con diferentes intenciones, también llamado bus) y son impulsados por un reloj (por supuesto, algunos otros eventos también pueden impulsar el circuito de control). ).
Conceptualmente, la memoria de una computadora puede considerarse como un conjunto de "células". Cada "celda" tiene un número llamado dirección; y puede almacenar mensajes más pequeños y de longitud fija. Esta información puede ser instrucciones (que le dicen a la computadora qué hacer) o datos (qué procesan las instrucciones).
En principio, cada "célula" puede almacenar cualquiera de ellos.
La Unidad Aritmético Lógica (ALU) puede denominarse el cerebro de la computadora. Puede realizar dos tipos de operaciones: la primera son operaciones aritméticas, como la suma y resta de dos números. Los operadores aritméticos tienen un papel muy limitado en la ALU. De hecho, algunas ALU no admiten ninguna operación de multiplicación y división a nivel de circuito (porque los usuarios solo pueden realizar operaciones de multiplicación y división a través de la programación). La segunda es una operación de comparación, es decir, dados dos números, ALU los compara para determinar cuál es mayor.
El sistema de entrada y salida es el medio por el cual la computadora recibe información externa y retroalimenta los resultados del cálculo al mundo exterior. Para una computadora personal estándar, los dispositivos de entrada son principalmente el teclado y el mouse, mientras que los dispositivos de salida son monitores, impresoras y muchos otros dispositivos de E/S que se pueden conectar a la computadora.
El sistema de control conecta todas las partes de los ordenadores antes mencionados. Su función es leer instrucciones y datos de la memoria y de los dispositivos de entrada/salida, decodificar las instrucciones y pasar la entrada correcta que cumpla con los requisitos de la instrucción a la ALU, diciéndole a la ALU cómo procesar los datos y dónde devolver los datos del resultado. Un componente importante en el sistema de control es un contador que se utiliza para registrar la dirección de la instrucción actual. Normalmente, este contador se acumula a medida que se ejecuta la instrucción, pero a veces esta regla no se sigue si la instrucción indica un salto.
Desde la década de 1980, la ALU y la unidad de control (ambas integradas en la unidad central de procesamiento (CPU)) se han integrado gradualmente en un único circuito integrado, llamado microprocesador. El modo de trabajo de esta computadora es muy intuitivo: dentro de un ciclo de reloj, la computadora primero obtiene instrucciones y datos de la memoria, luego ejecuta las instrucciones, almacena los datos y luego obtiene la siguiente instrucción. Este proceso se repite hasta que se obtiene una instrucción de terminación.
Según la interpretación del controlador, el conjunto de instrucciones ejecutadas por la unidad informática es un conjunto cuidadosamente definido de instrucciones simples con un número muy limitado. Generalmente, se puede dividir en cuatro categorías: 1), movimiento de datos (como copiar un valor de la unidad de almacenamiento A a la unidad de almacenamiento B) 2), operaciones numéricas y lógicas (como calcular la suma de la unidad de almacenamiento A y la unidad de almacenamiento). B y devolver el resultado Vaya a la unidad de almacenamiento C) 3), verificación de la condición (por ejemplo, si el valor en la unidad de almacenamiento A es 100, entonces la siguiente instrucción.
Las instrucciones, como los datos, se representan en binario en computadoras Por ejemplo, 10110000 es Intel Una copia del código de instrucción para el microprocesador x86. El conjunto de instrucciones admitido por la computadora es el lenguaje de máquina de la computadora. Por lo tanto, usar un lenguaje de máquina popular lo hará más fácil para las personas. Desarrollar software comercial, por ejemplo, generalmente solo se refiere a uno o unos pocos lenguajes de máquina diferentes.
Las minicomputadoras, computadoras centrales y servidores más potentes pueden diferir de los mencionados anteriormente y a menudo comparten tareas con diferentes CPU. , los microprocesadores y las computadoras personales multinúcleo también se están moviendo en esta dirección.
Las supercomputadoras a menudo tienen arquitecturas significativamente diferentes a las de las computadoras básicas con programas almacenados. A menudo tienen miles de CPU, pero estos diseños parecen ser solo una. pocos. Útil para tareas específicas. En varias computadoras, hay microcontroladores diseñados usando la arquitectura Harvard para separar programas y datos.
Las implementaciones de circuitos digitales de la computadora son diversas. Las computadoras de programa pueden ser mecánicas o basadas en electrónica digital, mientras que los circuitos digitales pueden implementar sumas aritméticas usando números binarios mediante el control electrónico de interruptores como los relés. El artículo de Shannon simplemente nos mostró cómo se pueden organizar los relés para formar puertas lógicas que puedan realizar operaciones. Operaciones booleanas simples Otros estudiosos se apresuraron a señalar que los tubos de vacío podrían reemplazar a los circuitos de relé, que originalmente se usaban como amplificadores en circuitos de radio. Se usan cada vez más como interruptores rápidos en circuitos electrónicos digitales. la corriente puede fluir libremente entre los otros dos terminales.
A través de la disposición y combinación de puertas lógicas, se pueden diseñar y realizar muchas tareas complejas. Por ejemplo, un sumador es un dispositivo que en electrónica suma dos números. y almacena el resultado: en informática, un conjunto de operaciones que realiza una tarea específica. El enfoque previsto se llamó algoritmo. Al final, se logró ensamblar una ALU completa y un controlador a partir de un número considerable de puertas lógicas. Un número impresionante, basta con mirar el CSIRAC, que fue probablemente la computadora de tubo práctica más pequeña. La máquina contiene 2000 tubos de vacío, muchos de los cuales son dispositivos de doble propósito, lo que significa un total de 2000 a 4000 dispositivos lógicos. Obviamente, los tubos de vacío no son costosos ni inestables para fabricar circuitos de compuerta a gran escala (especialmente en grandes cantidades), voluminosos, consumen mucha energía y no son lo suficientemente rápidos, aunque son muy superiores a los circuitos de conmutación mecánicos, todo lo cual condujo a su reemplazo por transistores en la década de 1960, que eran más pequeños, más fáciles de operar, más confiables y más eficientes desde el punto de vista energético y más económicos.
Los circuitos integrados son la base de los ordenadores electrónicos actuales. Después de la década de 1960, los transistores comenzaron a ser reemplazados gradualmente por circuitos integrados, que colocaban una gran cantidad de transistores, varios otros componentes electrónicos y cables de conexión en una placa de silicio. En la década de 1970, la ALU y el controlador, como dos partes de la CPU, comenzaron a integrarse en un chip, llamado "microprocesador".
A lo largo de la historia del desarrollo de los circuitos integrados, podemos ver que la cantidad de dispositivos integrados en un chip ha aumentado rápidamente. Los primeros circuitos integrados contenían sólo unas pocas docenas de componentes; en 2006, el número de transistores en un procesador Intel Core Duo llegaba a 151 millones.
Ya sea un tubo de vacío, un transistor o un circuito integrado, se puede utilizar como componente de "almacenamiento" en una arquitectura de programa almacenado mediante el uso de un mecanismo de diseño flip-flop. De hecho, los flip-flops se utilizan como almacenamiento ultrarrápido a pequeña escala. Sin embargo, pocos diseños de computadoras utilizan flip-flops para el almacenamiento de datos a gran escala. Las primeras computadoras usaban tubos Williams para enviar haces de electrones a una pantalla de televisión o a algunas líneas de retardo de mercurio (las ondas sonoras viajan lo suficientemente lento como para considerarse "almacenadas" en ellas) y luego leerlas. Por supuesto, estos métodos efectivos pero poco elegantes finalmente fueron reemplazados por el almacenamiento magnético. Por ejemplo, en la memoria del núcleo magnético, la corriente que representa la información puede generar un campo magnético débil permanente en el material de hierro. Cuando este campo magnético se lee nuevamente, se logra la recuperación de datos. También se inventó la memoria dinámica de acceso aleatorio (DRAM). Es un circuito integrado que contiene una gran cantidad de condensadores. Estos dispositivos capacitivos son responsables de almacenar la carga de datos; la intensidad de la carga se define como el valor de los datos.
Dispositivos de entrada y salida
Dispositivos de entrada y salida (E/S) son el término general para los dispositivos que envían información a la computadora desde el mundo exterior y los dispositivos que devuelven resultados de procesamiento a el mundo exterior. Estos resultados devueltos pueden ser experimentados intuitivamente por el usuario, o pueden ser ingresados desde otros dispositivos controlados por la computadora: para un robot, la salida de la computadora de control es básicamente el propio robot, como la realización de diversos comportamientos.
Los ordenadores de primera generación tenían una variedad muy limitada de dispositivos de entrada y salida. El dispositivo de entrada habitual es un lector de tarjetas con tarjetas perforadas, que se utiliza para introducir instrucciones y datos en la memoria; el dispositivo de salida que se utiliza para almacenar los resultados suele ser una cinta magnética. Con el avance de la tecnología, ha aumentado la riqueza de dispositivos de entrada y salida. Tomemos como ejemplo una computadora personal: el teclado y el mouse son las herramientas principales para que los usuarios ingresen información directamente en la computadora, mientras que los monitores, impresoras, parlantes y auriculares devuelven los resultados del procesamiento. Además, existen muchos dispositivos de entrada que aceptan diferentes tipos de información, como cámaras digitales que pueden introducir imágenes. Entre los dispositivos de entrada y salida, hay dos categorías que merecen atención: la primera categoría son los dispositivos de almacenamiento secundario, como discos duros, discos ópticos u otros dispositivos lentos pero de gran capacidad. El segundo es el equipo de acceso a la red informática. A través de este equipo, la transmisión directa de datos entre computadoras aumenta en gran medida el valor de las computadoras. Hoy en día, Internet ha permitido que decenas de millones de computadoras se transfieran diversos tipos de datos entre sí.
Programa
En pocas palabras, un programa de computadora es una serie de instrucciones ejecutadas por una computadora. Pueden ser unas pocas instrucciones que realizan una tarea simple o una cola de instrucciones compleja que opera con grandes cantidades de datos. Muchos programas informáticos contienen millones de instrucciones, muchas de las cuales pueden ejecutarse repetidamente. En 2005, una computadora personal típica podía ejecutar aproximadamente 3 mil millones de instrucciones por segundo. Las computadoras generalmente no ejecutan instrucciones complejas para obtener funciones adicionales, sino que ejecutan instrucciones breves simples pero numerosas según lo dispuesto por el programador.
En general, los programadores no escriben instrucciones directamente en el ordenador en lenguaje de máquina. El resultado de esto sólo puede ser lento, laborioso, ineficiente y lleno de lagunas. Por lo tanto, los programadores suelen escribir programas en un lenguaje de "alto nivel", que luego se traducen al lenguaje de máquina mediante algún programa informático especial, como un intérprete o un compilador. Algunos lenguajes de programación se parecen mucho al lenguaje de máquina, como el lenguaje ensamblador, y se consideran lenguajes de bajo nivel. Otros lenguajes, como Prolog, que utilizan principios abstractos, ignoran por completo los detalles operativos del funcionamiento real de la computadora y pueden describirse como lenguajes de alto nivel. Para una tarea específica, se debe seleccionar el idioma correspondiente en función de sus características de transacción, habilidades de programador, herramientas disponibles y necesidades del cliente (los proyectos de ingeniería en los Estados Unidos y China generalmente requieren el uso del lenguaje Ada). .
Software informático es otra palabra que no equivale a programa informático. El software de computadora es un término técnico más inclusivo que incluye varios programas y todos los materiales relacionados utilizados para completar tareas. Por ejemplo, los videojuegos contienen no sólo el programa en sí, sino también imágenes, sonidos y otros contenidos de datos para crear un entorno de juego virtual. En el mercado minorista, una aplicación en una computadora es solo una copia del software para una gran cantidad de usuarios. El ejemplo cliché aquí es, por supuesto, el paquete de software Office de Microsoft, que incluye una serie de programas interrelacionados que satisfacen las necesidades generales de la oficina.
El uso de esas instrucciones extremadamente simples en lenguaje de máquina para implementar innumerables aplicaciones de software potentes significa que su escala de programación está destinada a ser grande. Windows XP, un programa del sistema operativo, contiene 40 millones de líneas de código fuente en lenguaje de alto nivel C++. Por supuesto, este no es el más grande. Una escala tan grande de software también ilustra la importancia de la gestión en el proceso de desarrollo. En la programación real, los programas se dividen en tamaños que cada programador puede completar en un período de tiempo aceptable.
Aun así, el proceso de desarrollo de software sigue siendo lento, impredecible y lleno de omisiones. Con las exigencias de los tiempos, la ingeniería de software se centra en cómo acelerar el progreso del trabajo y mejorar la eficiencia y la calidad.
Bibliotecas y sistemas operativos
Poco después del nacimiento de las computadoras, se descubrió que ciertas tareas debían realizarse en muchos programas diferentes, como calcular algunas funciones matemáticas estándar.
Para mejorar la eficiencia, las versiones estándar de estos programas se recopilan en una "biblioteca" para que cada programa las llame. Muchas tareas suelen requerir el manejo de una variedad de interfaces de entrada y salida. En este momento, la biblioteca para la conexión puede resultar útil.
En la década de 1960, con la popularidad de la industrialización informática, las computadoras se utilizaron cada vez más para manejar diferentes tareas en las organizaciones. Pronto estuvo disponible un software especial que podía programar automáticamente la continuación y ejecución del trabajo. El software que controla el hardware y es responsable de la programación del trabajo se denomina "sistema operativo". Un ejemplo de uno de los primeros sistemas operativos es IBM OS/360.
En el proceso de mejora continua, el sistema operativo ha introducido un mecanismo de tiempo compartido: la concurrencia. Esto permite que muchos usuarios diferentes utilicen la máquina para ejecutar sus propios programas simultáneamente, como si cada uno tuviera su propio ordenador. Para ello, el sistema operativo necesita proporcionar a cada usuario una "máquina virtual" para separar diferentes programas. Como cada vez hay más dispositivos que necesitan ser controlados por el sistema operativo, uno de ellos es el disco duro. Por lo tanto, el sistema operativo también introduce la gestión de archivos y directorios (carpetas), lo que simplifica enormemente la aplicación de dichos dispositivos de almacenamiento permanente. Además, el sistema operativo es responsable de los controles de seguridad para garantizar que los usuarios sólo puedan acceder a aquellos archivos a los que se les ha permitido acceder.
Por supuesto, el último paso importante en el desarrollo de sistemas operativos hasta ahora es proporcionar una interfaz gráfica de usuario (GUI) estándar para los programas. Aunque no existe ninguna razón técnica por la que el sistema operativo deba proporcionar estas interfaces, los fabricantes de sistemas operativos siempre esperan y alientan que el software que se ejecuta en sus sistemas sea consistente o similar en apariencia y características de comportamiento al sistema operativo.
Además de estas funciones principales, el sistema operativo también encapsula una serie de otras herramientas de uso común. Algunos tienen poca importancia para la gestión informática pero son útiles para los usuarios. Por ejemplo, Mac OS X de Apple incluye una aplicación de edición de vídeo.
Es posible que algunos sistemas operativos de computadoras pequeñas no utilicen esta función. Las primeras microcomputadoras no ofrecían funciones adicionales debido a la memoria y la potencia de procesamiento limitadas, mientras que las computadoras integradas usaban sistemas operativos especializados o ninguno. A menudo expresan directamente algunas funciones del sistema operativo a través de aplicaciones.
Aplicaciones App
Las máquinas controladas por ordenadores son habituales en la industria.
Muchos juguetes modernos producidos en masa, como Furby, son inseparables de procesadores integrados baratos.
Al principio, los enormes y costosos ordenadores digitales se utilizaban principalmente para cálculos científicos, especialmente en proyectos militares. Por ejemplo, ENIAC se utilizó por primera vez para calcular la densidad de neutrones de las secciones transversales balísticas de artillería y diseñar bombas de hidrógeno (muchas supercomputadoras todavía desempeñan un papel importante en la simulación de pruebas nucleares en la actualidad). El CSIR Mk I fue la primera computadora con programa almacenado diseñada en Australia para evaluar las precipitaciones en cuencas hidroeléctricas. Otros se utilizaron para descifrar, como la computadora programable británica "Colossus". Además de estas primeras aplicaciones científicas o militares, las computadoras se utilizaron en una amplia gama de otros campos.
Desde el principio, los ordenadores con programas almacenados han estado estrechamente asociados con la resolución de problemas empresariales. Mucho antes de que naciera la primera computadora comercial de IBM, J. Lyons y otros en el Reino Unido diseñaron y fabricaron LEO para la gestión de activos u otros fines comerciales. Debido a los continuos controles de volumen y costos, las computadoras comenzaron a extenderse a organizaciones más pequeñas. Junto con la invención del microprocesador en la década de 1970, las computadoras baratas se convirtieron en una realidad. En la década de 1980, las computadoras personales se hicieron muy populares y las operaciones repetitivas de informes, como escribir e imprimir documentos electrónicos y cálculos presupuestarios, comenzaron a depender cada vez más de las computadoras.
A medida que los ordenadores se abarataron, las obras de arte creativas empezaron a utilizarlos. La gente usa sintetizadores, gráficos por computadora y animaciones para crear y modificar sonidos, imágenes y videos. La industrialización de los videojuegos también muestra que las computadoras han creado una nueva historia en el entretenimiento.
Desde la miniaturización de los ordenadores, el control de los equipos mecánicos también ha pasado a depender del soporte informático. De hecho, fue la construcción de una computadora integrada lo suficientemente pequeña como para controlar la nave espacial Apolo lo que impulsó un salto en la tecnología de circuitos integrados. Hoy en día, es mucho más difícil encontrar un dispositivo mecánico activo que no esté controlado por una computadora que encontrar uno que esté incluso parcialmente controlado por computadora. Quizás los dispositivos controlados por computadora más conocidos sean los robots, que tienen una apariencia más o menos humana y algún subconjunto de comportamiento humano. Los robots industriales se han convertido en algo habitual en la producción en masa. Sin embargo, los robots totalmente antropomórficos todavía existen sólo en novelas de ciencia ficción o en laboratorios.
La tecnología robótica es esencialmente un vínculo de expresión física en el campo de la inteligencia artificial. La llamada inteligencia artificial es un concepto vago, pero lo cierto es que esta disciplina intenta permitir que los ordenadores posean capacidades que no están disponibles actualmente pero que son inherentes al ser humano. A lo largo de los años, se han desarrollado muchos métodos nuevos para permitir que las computadoras hagan cosas que antes se pensaba que solo eran posibles para los humanos. Por ejemplo, leer y jugar al ajedrez. Sin embargo, hasta ahora, el progreso en el desarrollo de computadoras con inteligencia "holística" similar a la humana ha sido muy lento.
Red, Internet
Desde los años 50, los ordenadores se han utilizado como herramienta para coordinar información procedente de diferentes lugares. El SAGE del ejército estadounidense es el primer sistema a gran escala en este campo. Posteriormente también apareció una serie de sistemas comerciales dedicados como "sabre".
Después de la década de 1970, los ingenieros informáticos de las universidades estadounidenses comenzaron a utilizar tecnología de telecomunicaciones para conectar sus ordenadores. Debido a que este trabajo fue patrocinado por ARPA, su red informática también se llamó ARPANET. Desde entonces, la tecnología utilizada en la red ARPA se extendió y evolucionó rápidamente, y la red también traspasó el alcance de las universidades y el ejército, formando finalmente la Internet actual. La aparición de Internet ha llevado a la redefinición de las propiedades y límites de las computadoras. John Gage y Bill Joy de Sun Microsystems señalaron que "la red es la computadora". Los sistemas operativos y las aplicaciones informáticas están evolucionando hacia el acceso a recursos de la red, como otras computadoras en la red. Al principio, estos dispositivos de red sólo eran utilizados por científicos de alto nivel, pero después de la década de 1990, con la popularidad del correo electrónico y las tecnologías World Wide Web, así como el bajo costo de las tecnologías de conexión de red como Ethernet y ADSL, Internet se ha convertido en ubicuo. ¿Por qué hay hoy decenas de millones de ordenadores conectados a Internet? Con la popularidad de la tecnología de Internet inalámbrica, Internet en entornos informáticos móviles también ha seguido su ejemplo. Por ejemplo, la tecnología Wi-Fi, que se utiliza ampliamente en las computadoras portátiles, es una aplicación representativa del acceso inalámbrico a Internet.