sábado, 6 de mayo de 2017
viernes, 5 de mayo de 2017
Hª DE LA COMPUTACIÓN 9
HISTORIA DE LA COMUTACIÓN (9):
Historia de la computadora, desde el ábaco hasta el procesamiento en paralelo.
Recientes Adelantos
En los años ochenta del siglo pasado el enorme éxito de la computadora personal y los adelantos resultantes en la tecnología del microprocesador iniciaron un proceso de competencia entre los gigantes de la industria de la computadora. Es decir, como resultado de los adelantos que continuamente se hacen en la fabricación de pastillas, rápidamente se pudieron comprar cantidades crecientes de poder informático por los mismos costos básicos. Los microprocesadores se equiparon con ROM, o memoria de sólo lectura (que almacena programas inmutables constantemente usados), y empezaron a realizar un número creciente de controles de procesos, pruebas, supervisión, y diagnóstico de funciones, como en los sistemas de ignición automovilísticos, en el diagnóstico de los motores automovilísticos, y en tareas de inspección de producción en línea.
A principios de los años noventa estos cambios estaban obligando en conjunto a la industria de la computadora a hacer ajustes llamativos. Los gigantes del campo largamente establecidos y algunos más recientes --notablemente, compañías tales como IBM, la Corporación de Equipo Digital (DEC), y Olivetti de Italia--estaban reduciendo su planta de personal, cerrando fábricas, y dejando caer subsidiarias. Al mismo tiempo, los productores de computadoras personales continuaron proliferando y las compañías especializadas surgieron en números crecientes, cada compañía consagrándose a alguna área especial de la fabricación, distribución, o el servicio al cliente.
Las computadoras continúan menguando en tamaño hasta dimensiones cada vez más convenientes para el uso en oficinas, escuelas, y hogares. La productividad en la programación no ha aumentado tan rápidamente, sin embargo, y, como resultado, el software se ha vuelto el costo mayor de muchos sistemas. Nuevas técnicas de programación como la programación orientada a objetos, se han desarrollado para ayudar a aliviar este problema. El campo de la computadora continúa experimentando un tremendo crecimiento en conjunto. Mientras que la computadora y las tecnologías de las telecomunicaciones continúan su integración, las redes computacionales, (como la red mundial de Internet), el correo electrónico y la publicación electrónica son algunas de las aplicaciones que han madurado rápidamente en los años recientes, revolucionando la sociedad a gran escala.
En el área de las supercomputadoras y los sistemas de computadoras más poderosas, las empresas americanas de Investigación Cray (Cray Research) y Control Data, Inc. permanecieron como los líderes de los años ochenta hasta los años noventa. Hoy, los investigadores buscan nuevas maneras de construir a computadoras mejores continuamente. Las metas de sus esfuerzos normalmente están en una o más de las áreas siguientes: reducción de costos, aumento de la velocidad de procesamiento, capacidades crecientes, y lograr que las computadoras sean más fáciles de usar.
La memoria, primaria y secundaria, es una parte de la computadora que ha recibido considerable atención durante los años. Originalmente, la unidad de memoria de cualquier computadora era una serie de anillos férricos pequeños que podían ser magnetizados con cualquiera de dos polaridades. El proceso resultante era lento, voluminoso, y caro. Desde entonces, las pastillas de semiconductores se han vuelto los soportes principales de memorias primarias, con las cintas magnéticas y discos manejando el almacenamiento de memoria secundaria. Otros fenómenos continúan siendo estudiados como posibles formas de tecnologías de memoria. Éstos incluyen dispositivos como la burbuja magnética, el electrón y los discos compactos. En el área de almacenamiento magnético, el esfuerzo considerable se ha aplicado para encontrar maneras de copiar información más densamente.
El progreso en las tecnologías del semiconductor continúa, produciendo aumentos en las velocidades de procesamiento y el montaje de más circuitos en menos espacio. Gracias a la integración a muy gran escala (VLSI) que hemos mencionado -la integración de centenares de miles de circuitos en una oblea de silicón-, y a los adelantos en semiconductores, los diseñadores tienen la libertad de construir funciones en hardware que previamente tenían que ser proporcionadas por el software, y las computadoras ganan en velocidad y versatilidad.
El uso de la óptica para guardar información es principalmente atractivo porque la alta frecuencia inherente a la luz implica que debe proporcionar densidades altas de transmisión de información.
Desgraciadamente, el ojo humano es más tolerante a los errores informativos que una computadora. Por esta razón, así como por la dificultad de crear un material que puede escribirse repetida y rápidamente por la luz del láser, la apariencia de los medios de almacenamiento óptico aún está evolucionando. Están desarrollándose otras tecnologías de óptica láser.
El uso de métodos ópticos de cómputo para el procesamiento real todavía está en las fases tempranas de desarrollo pero ofrece la esperanza de computadoras muy rápidas y eficaces en el futuro.
El uso de métodos ópticos de cómputo para el procesamiento real todavía está en las fases tempranas de desarrollo pero ofrece la esperanza de computadoras muy rápidas y eficaces en el futuro.
Existe un significativo de interés en el campo de la inteligencia artificial. Las tecnologías y beneficios que derivarán de esta área de estudio se filtrarán indudablemente a todas las áreas de la informática. Gran parte del trabajo en la investigación de inteligencia artificial involucra la construcción de programas para realizar tareas de manera similar a la manera en la que los humanos piensan.
Otras investigaciones en el área de las computadoras incluyen la integración de microprocesadores con formatos biológicos, (como en el desarrollo de un chip que envía una primitiva señal visual al cerebro de un ciego, o en las pastillas que integran transistores con neuronas, o en la computación con ADN), y la computación cuántica (que promete ser capaz de procesar rápidamente operaciones muy lentas hoy en día, como la factorización de grandes números). Aunque este y otros tipos de procesamiento de cómputo y arquitecturas están en las etapas más primitivas, ofrecen la posibilidad de adelantos en líneas de trabajo totalmente distintas a las de la computación digital estándar.
jueves, 4 de mayo de 2017
Hª DE LA COMPUTACIÓN 8
HISTORIA DE LA COMUTACIÓN (8): Historia de la computadora, desde el ábaco hasta el procesamiento en paralelo.
Recientes Adelantos
La tendencia durante los años setenta estuvo, en alguna medida, lejos de la computación sumamente poderosa, enfocándose hacia un rango más amplio de aplicaciones para los sistemas de computadoras menos costosas. La mayoría de los procesos de fabricación continua, como la refino del petróleo y los sistemas de distribución de poder eléctrico, usaron computadoras de capacidad relativamente modesta para controlar y regular sus actividades.
En los años sesenta la programación aplicada a problemas fue un obstáculo para la autosuficiencia de las instalaciones de computo in situ -clasificadas según su tamaño-, pero los grandes adelantos en lenguajes de programación para aplicaciones están removiendo estos obstáculos. Los lenguajes de aplicaciones están ahora disponibles para controlar un gran rango de procesos industriales, para el funcionamiento de computarizado de herramientas y máquinas, y para muchas otras tareas.
Es más, tuvo lugar una nueva revolución en el hardware de la computadora, involucrando la miniaturización de los circuitos de la computadora lógica y de sus componentes manufacturados por lo que se ha dado en llamar integración de gran escala, o LSI (Large Scale Integration).
En los años cincuenta se comprendió que "reduciendo" el tamaño de los circuitos de las computadoras digitales electrónicas y sus partes aumentaría la velocidad y eficacia y por eso mejoraría la actuación si tan sólo los métodos industriales necesarios estuvieran disponibles para hacer eso.
Aproximadamente en 1960 la fotoimpresión de tableros de circuitos conductivos se desarrolló favorablemente. Entonces fue posible construir resistencias y condensadores en los circuitos por medios fotográficos (en un circuito impreso).
En la década de los 1970 la deposición al vacío de transistores era ya común, y la unión de componentes, como sumadoras, contadores y desplazamiento de registros, estuvieron disponibles en "pastillas" diminutas (chips).
miércoles, 3 de mayo de 2017
HISTORIA DE LA COMPUTACIÓN 7
HISTORIA DE LA COMPUTACIÓN (7): Historia de la computadora, desde el ábaco hasta el procesamiento en paralelo
Adelantos en los años sesenta
Diseñar y desarrollar las posibles computadoras más rápidas y con mayor capacidad alcanzó su punto cumbre con la realización de la máquina LARC para los Laboratorios de Radiación Livermore de la Universidad de California por la Corporación Sperry-Rand en los años 1960, y la computadora Stretch (Estiramiento) por IBM. El LARC tenía una memoria central de 98.000 palabras y multiplicaba en 10 msec. Stretch proporcionaba varias líneas de memoria, con un acceso más lento para las líneas de capacidad mayor: el tiempo de acceso más rápido era de menos de 1 msec y su capacidad total era de 100 millones de palabras.
Durante este período los fabricantes de computadoras mayores empezaron a ofrecer un amplio rango de capacidades de cómputo y de costos, así como varios equipos periféricos para entrada, tales como consolas y alimentadores de tarjetas; y para salida, tales como copiadoras de página, pantallas de tubos de rayos catódicos, dispositivos de gráficos; además de cinta magnética optativa y almacenamiento de archivos en disco magnético.
Éstos equipos encontraron un vasto uso en los negocios con aplicaciones tales como contabilidad, nóminas, control de inventario, petición de suministros y cobro de cuentas. Las unidades del procesamiento central (CPUs) para tales propósitos no necesitaban ser aritméticamente muy rápidas y accedían a cantidades grandes de información, principalmente desde archivos, manteniéndose siempre al corriente.
Éstos equipos encontraron un vasto uso en los negocios con aplicaciones tales como contabilidad, nóminas, control de inventario, petición de suministros y cobro de cuentas. Las unidades del procesamiento central (CPUs) para tales propósitos no necesitaban ser aritméticamente muy rápidas y accedían a cantidades grandes de información, principalmente desde archivos, manteniéndose siempre al corriente.
El mayor número de sistemas de cómputo se vendió para las aplicaciones más modestas, como en hospitales, para llevar el rastro de archivos de pacientes, medicaciones, y tratamientos dados. También se usaron en sistemas de bibliotecas automatizadas, como MEDLARS, el sistema de recuperación de la Biblioteca Médica Nacional y en el sistema de Resúmenes Químicos, donde la computadora graba en archivos casi todos los compuestos químicos conocidos
martes, 2 de mayo de 2017
HISTORIA DE LA COMPUTADORA
HISTORIA DE LA COMUTACIÓN (6): Historia de la computadora, desde el ábaco hasta el procesamiento en paralelo
Adelantos en los años cincuenta
En los años de la década de 1950 dos importantes descubrimientos de la ingeniería cambiaron la imagen del campo de la computadora electrónica, desde un campo de hardware rápido pero a menudo inestable hasta uno de fiabilidad relativamente alta y capacidad aún mayor. Estos descubrimientos fueron: la memoria de centro magnético y el elemento del circuito transistor.
Estos nuevos descubrimientos técnicos encontraron rápidamente su lugar en los nuevos modelos de computadoras digitales; la RAM aumentó su capacidad de 8.000 a 64.000 palabras en máquinas disponibles comercialmente a principios de los años sesenta, con tiempos de acceso de 2 o 3 msec. Estas máquinas eran muy caras para comprarse o alquilarse y era especialmente costoso operarlas debido al precio en aumento de la programación.
Tales computadoras se encontraban típicamente en centros de computo grandes -operados por la industria, el gobierno, y los laboratorios privados- provistos de personal con muchos programadores y personal de apoyo. Esta situación llevó a modos de operación que habilitan el compartir la alta capacidad disponible; uno de tales modos es el procesamiento por lotes en el que se preparan problemas y se mantienen listos para su cómputo en un medio de almacenamiento relativamente barato, como tambores magnéticos, discos magnéticos condensados, o cintas magnéticas.
Cuando la computadora termina con un problema, típicamente "vierte" el problema entero -el programa y los resultados- en una de estas unidades de almacenamiento periférico y toma un nuevo problema.
Otro modo de uso para máquinas rápidas y poderosas se llama de tiempo compartido. Usando tiempo compartido la computadora procesa muchos trabajos de espera en una sucesión tan rápida que cada trabajo progresa tan velozmente como si los otros trabajos no existieran, dejando así a cada cliente satisfecho. Tales modos de operación requieren detallados programas "ejecutivos" para asistir a la administración de las varias tareas.
Otro modo de uso para máquinas rápidas y poderosas se llama de tiempo compartido. Usando tiempo compartido la computadora procesa muchos trabajos de espera en una sucesión tan rápida que cada trabajo progresa tan velozmente como si los otros trabajos no existieran, dejando así a cada cliente satisfecho. Tales modos de operación requieren detallados programas "ejecutivos" para asistir a la administración de las varias tareas.
lunes, 1 de mayo de 2017
Hª DE LA COMPUTACIÓN 5
HISTORIA DE LA COMUTACIÓN (5):
Historia de la computadora, desde el ábaco hasta el procesamiento en paralelo
El Moderno EDC con "programa almacenado"
Intrigado por el éxito del ENIAC, el matemático John von Neumann emprendió (1945) un estudio teórico de cómputo que demostró que una computadora podría tener una estructura física muy simple, fija y podría todavía ejecutar cualquier tipo de cómputo eficazmente por medio del mando programado apropiado sin la necesidad de cambio alguno en el hardware. Von Neumann contribuyó a una nueva comprensión de cómo deben organizarse y construirse las computadoras rápidas prácticas; y estas ideas, a menudo llamadas la técnica del programa almacenado, fueron fundamentales para las generaciones futuras de computadoras digitales de gran velocidad.
La técnica de guardar el programa involucra muchos rasgos del diseño y funcionamiento de la computadora además del nombrado; en combinación, estos rasgos pueden hacer factible el funcionamiento a muy alta velocidad. Si cada instrucción en un programa de trabajo sólo se usara una vez en orden consecutivo, ¡ningún programador humano podría generar bastantes instrucciones para mantener a la computadora ocupada! Deben hacerse arreglos, llamados subrutinas, para ser usadas repetidamente por las partes del programa de trabajo. También sería claramente útil si las instrucciones pudieran alterarse por necesidad durante un cómputo para hacerlas comportarse diferentemente. Von Neumann satisfizo estas dos necesidades proporcionando un tipo especial de instrucción de máquina llamado traslado del mando condicional -qué permitió interrumpir la sucesión del programa y reiniciarlo en cualquier punto- guardando toda la instrucción del programa junto con los datos en la misma unidad de memoria, para que, cuando se desee, se puedan modificar las instrucciones aritméticamente de la misma manera que los datos.
Como resultado de estas técnicas y de algunas otras, computar y programar resultaron más rápidos, más flexibles, y más eficaces, con las instrucciones en subprogramas o subrutinas realizando mucho más trabajo computacional. Los subprogramas más frecuentemente usados no tuvieron que ser reprogramados para cada nuevo problema pero podían guardarse intactos en "bibliotecas" y leerse en la memoria cuando se necesitase. Así, gran parte de un programa dado podía congregarse de la biblioteca de subprogramas. La memoria de la computadora de propósito general se volvió el lugar en el que se guardaban partes de un cómputo largo, se trabajaban paso a paso, y se congregaban para formar los resultados finales. El mando de la computadora sirvió como un director errante del proceso global. En cuanto las ventajas de estas técnicas fueron claras, las técnicas se volvieron la práctica normal.
La primera generación de computadoras electrónicas programadas modernas que tomaron ventaja de estas mejoras apareció en 1947. Este grupo de computadoras incluía el uso de memoria de acceso al azar (RAM) que es una memoria diseñada para dar acceso casi constante a cualquier pedazo particular de información. Estas máquinas tenían tarjeta perforadas o entradas de cinta perforada y dispositivos de rendimiento y RAM de una capacidad de 1.000 palabras con un tiempo de acceso de 0.5 microsegundos (0.5 x 10 elevado a la menos 6 segundos). Algunos de ellos podían realizar multiplicaciones en 2 a 4 microsegundos.
Físicamente, eran mucho más compactos que el ENIAC: algunos eran del tamaño de un piano de cola y requerían 2.500 pequeños tubos de electrones, mucho menos que lo requerido por las máquinas anteriores.
Las computadoras de programas almacenados de primera generación requirieron mantenimiento considerable, y lograron quizás un 70 por ciento a un 80 por ciento de tiempo de funcionamiento fiable, usándose durante 8 a 12 años. Típicamente, se programaron directamente en idioma de máquina, aunque a mediados de 1950 ya se habían hecho progresos en varios aspectos de la programación avanzada.
Este grupo de máquinas, EDVAC incluido, y UNIVAC, fueron las primeras computadoras disponibles comercialmente.
domingo, 30 de abril de 2017
Hª DE LA COMPUTACIÓN (4): Desde el ábaco hasta el procesamiento en paralelo
HISTORIA DE LA COMUTACIÓN (4)
Historia de la computadora, desde el ábaco hasta el procesamiento en paralelo (4)
A) El uso de tarjetas perforadas por Hollerith
Un paso hacia el cómputo automatizado fue la introducción de tarjetas perforadas que se usaron para computar, por primera vez con éxito, en 1890 por Herman Hollerith y James Powers, trabajando para el Departamento del Censo de los E.U. Juntos desarrollaron dispositivos que podían leer la información que se había perforado en las tarjetas automáticamente, sin la intermediación humana. Se redujeron los errores de lectura y el flujo del trabajo aumentó, y se pudieron usar pilas de tarjetas perforadas como una forma de almacenamiento de memoria accesible de capacidad casi ilimitada; además, diferentes problemas podían guardarse en diferentes lotes de tarjetas para trabajarse más adelante cuando fuera necesario.
Estas ventajas fueron reconocidas por las corporaciones con intereses comerciales y pronto llevaron al desarrollo de sistemas mejorados de máquinas de negocios de tarjetas perforadas como los de Máquinas Comerciales Internacionales (International Business Machines - IBM), Remington-Rand, Burroughs, y otras corporaciones.
Estos sistemas usaban dispositivos electromecánicos en los que el poder eléctrico proporcionaba el movimiento mecánico--como el girar de las ruedas de una máquina sumadora. Tales sistemas pronto incluyeron rasgos para alimentar automáticamente un número específico de tarjetas desde una estación de lectura; para realizar operaciones como sumar, multiplicar, y ordenar; y producir tarjetas perforadas con los resultados. Según las normas modernas, las máquinas de tarjetas perforadas eran lentas, procesando normalmente de 50 a 250 tarjetas por minuto, con tarjetas conteniendo unos 80 números decimales. Sin embargo, para su tiempo, las tarjetas perforadas estaban muy adelantadas y constituyeron un enorme paso.
B) Computadoras Digitales Automáticas
A finales de 1930, las técnicas de máquinas de tarjetas perforadas se habían establecido bien y eran fiables, y algunos grupos de investigadores se esforzaron por construir computadoras digitales automáticas. Una máquina prometedora, construida de partes electromecánicas normales, fue construida por un equipo de la IBM liderado por Howard Hathaway Aiken. La máquina de Aiken, llamada la Harvard Mark I, manejaba números de 23 lugares decimales (palabras) y podía realizar todas las cuatro operaciones de la aritmética. Es más, tenía programas especiales en su arquitectura, o subprogramas, para manejar logaritmos y funciones trigonométricas. El Mark I se controlaba originalmente por medio de una cinta de papel perforado sin la provisión para la inversión (devolverse), de forma tal que instrucciones de "transferencia de mando" automático no podían programarse. La información de salida se registraba en tarjetas perforadas y máquinas de escribir eléctricas. Aunque el Mark I de la IBM usaba ruedas de contar como componentes importantes además de paradas electromagnéticas, la máquina fue clasificada como una computadora de parada. Era lenta, requiriendo de 3 a 5 segundos para una multiplicación, pero era totalmente automática y podía completar cómputos largos. Mark I fue la primera de una serie de computadoras diseñadas y construidas bajo la dirección de Aiken.
Suscribirse a:
Entradas (Atom)
-
El paradigma crítico. Esta tercera postura o cosmovisión del mundo, y de la ciencia social en particular, tiene una concepción ...
-
EL PARADIGMA INTERPRETATIVO (Cont.) Desde el punto de vista metodológico y siguiendo a Taylor y Bogdan (1986) trasladamos la siguiente ...
-
DESPEDIDA POR VACACIONES Estamos atravesando una ola de calor que anima poco a la concentración mental, al estudio, al análisis. Lo que an...