viernes, 5 de mayo de 2017

Hª DE LA COMPUTACIÓN 9

HISTORIA DE LA COMUTACIÓN (9): 
Historia de la computadora, desde el ábaco  hasta el procesamiento en paralelo.

Recientes Adelantos
En los años ochenta del siglo pasado el enorme éxito de la  computadora personal y los adelantos resultantes en la tecnología del  microprocesador iniciaron un proceso de competencia entre los gigantes de la industria  de la computadora. Es decir, como resultado de los adelantos que continuamente se hacen en la fabricación de pastillas, rápidamente se  pudieron comprar cantidades crecientes de poder informático por los mismos  costos básicos. Los microprocesadores se equiparon con ROM, o memoria de sólo  lectura (que almacena programas inmutables constantemente usados), y  empezaron a realizar un número creciente de controles de procesos, pruebas,  supervisión, y diagnóstico de funciones, como en los sistemas de ignición  automovilísticos, en el diagnóstico de los motores automovilísticos, y en tareas de inspección de producción en línea.

A principios de los años noventa  estos cambios estaban obligando en conjunto a la industria de la computadora  a hacer ajustes llamativos. Los gigantes del campo largamente establecidos y  algunos más recientes --notablemente, compañías tales como IBM, la  Corporación de Equipo Digital (DEC), y Olivetti de Italia--estaban reduciendo  su planta de personal, cerrando fábricas, y dejando caer subsidiarias. Al  mismo tiempo, los productores de computadoras personales continuaron  proliferando y las compañías especializadas surgieron en números crecientes,  cada compañía consagrándose a alguna área especial de la fabricación,  distribución, o el servicio al cliente.

Las computadoras continúan menguando en tamaño  hasta dimensiones cada vez más convenientes para el uso en oficinas,  escuelas, y hogares. La productividad en la programación no ha aumentado tan  rápidamente, sin embargo, y, como resultado, el software se ha vuelto el costo  mayor de muchos sistemas. Nuevas técnicas de programación como la  programación orientada a objetos, se han desarrollado para  ayudar a aliviar este problema. El campo de la computadora continúa experimentando un tremendo crecimiento en conjunto. Mientras que la  computadora y las tecnologías de las telecomunicaciones continúan su  integración, las redes computacionales, (como la red mundial de Internet), el  correo electrónico y la publicación electrónica son algunas de las  aplicaciones que han madurado rápidamente en los años recientes,  revolucionando la sociedad a gran escala.
    
En el área de las supercomputadoras y los sistemas  de computadoras más poderosas, las empresas americanas de Investigación Cray  (Cray Research) y Control Data, Inc. permanecieron como los líderes de los  años ochenta hasta los años noventa. Hoy, los investigadores buscan nuevas  maneras de construir a computadoras mejores continuamente. Las metas de sus  esfuerzos normalmente están en una o más de las áreas siguientes: reducción  de costos, aumento de la velocidad de procesamiento, capacidades crecientes,  y lograr que las computadoras sean más fáciles de usar.

La memoria, primaria y secundaria, es una parte de  la computadora que ha recibido considerable atención durante los años. Originalmente, la unidad de memoria de cualquier computadora era una serie de  anillos férricos pequeños que podían ser magnetizados con cualquiera  de dos polaridades. El proceso resultante era lento, voluminoso, y caro.  Desde entonces, las pastillas de semiconductores se han vuelto los soportes  principales de memorias primarias, con las cintas magnéticas y discos manejando el almacenamiento de memoria secundaria. Otros fenómenos continúan siendo estudiados como posibles formas de tecnologías de memoria. Éstos  incluyen dispositivos como la burbuja magnética, el electrón y los discos compactos. En el área de almacenamiento  magnético, el esfuerzo considerable se ha aplicado para encontrar maneras de copiar información más densamente. 
  
El progreso en las tecnologías del semiconductor  continúa, produciendo aumentos en las velocidades de procesamiento y el  montaje de más circuitos en menos espacio. Gracias a la integración a muy  gran escala (VLSI) que hemos mencionado -la integración de centenares de  miles de circuitos en una oblea de silicón-, y a los adelantos en semiconductores, los diseñadores tienen la libertad de construir funciones en  hardware que previamente tenían que ser proporcionadas por el software, y las  computadoras ganan en velocidad y versatilidad.
   
El uso de la óptica para guardar información es  principalmente atractivo porque la alta frecuencia inherente a la luz implica  que debe proporcionar densidades altas de transmisión de información. 
Desgraciadamente, el ojo humano es más tolerante a los errores informativos  que una computadora. Por esta razón, así como por la dificultad de crear un  material que puede escribirse repetida y rápidamente por la luz del láser, la apariencia de los medios de almacenamiento óptico aún está evolucionando.  Están desarrollándose otras tecnologías de óptica láser. 

El uso de  métodos ópticos de cómputo para el procesamiento real todavía está en las  fases tempranas de desarrollo pero ofrece la esperanza de computadoras muy  rápidas y eficaces en el futuro.   
Existe un significativo de interés en el  campo de la inteligencia artificial. Las tecnologías y beneficios que derivarán de esta área de estudio se filtrarán indudablemente a todas las  áreas de la informática. Gran parte del trabajo en la investigación de inteligencia artificial involucra la construcción de programas para realizar tareas de manera similar a la manera en la que los humanos piensan.


Otras investigaciones  en el área de las computadoras incluyen la  integración de microprocesadores con formatos biológicos, (como en el  desarrollo de un chip que envía una primitiva señal visual al cerebro de un  ciego, o en las pastillas que integran transistores con neuronas, o en la  computación con ADN), y la computación cuántica (que promete ser capaz de  procesar rápidamente operaciones muy lentas hoy en día, como la factorización de grandes números). Aunque este y otros tipos de procesamiento de cómputo y  arquitecturas están en las etapas más primitivas, ofrecen la posibilidad de adelantos en líneas de trabajo totalmente distintas a las de la computación  digital estándar.

jueves, 4 de mayo de 2017

Hª DE LA COMPUTACIÓN 8

HISTORIA DE LA COMUTACIÓN (8): Historia de la computadora, desde el ábaco  hasta el procesamiento en paralelo.

Recientes Adelantos 

La tendencia durante los años setenta estuvo, en alguna medida, lejos de la computación sumamente poderosa, enfocándose hacia un rango más amplio de aplicaciones para los sistemas de computadoras  menos costosas. La mayoría de los procesos de fabricación continua, como la refino del petróleo y los sistemas de distribución de poder eléctrico,  usaron computadoras de capacidad relativamente modesta para controlar y regular sus actividades.

En los años sesenta la programación aplicada a problemas fue un obstáculo para la autosuficiencia de las  instalaciones de computo in situ -clasificadas según su tamaño-, pero los grandes adelantos en lenguajes de  programación para aplicaciones están removiendo estos obstáculos. Los  lenguajes de aplicaciones están ahora disponibles para controlar un gran  rango de procesos industriales, para el funcionamiento de computarizado de  herramientas y máquinas, y para muchas otras tareas. 
Es más, tuvo lugar una nueva revolución en el hardware de la  computadora, involucrando la miniaturización de los circuitos de la  computadora lógica y de sus componentes manufacturados por lo que se ha dado en llamar integración de gran escala, o LSI (Large Scale Integration). 

En  los años cincuenta se comprendió que "reduciendo" el tamaño de los  circuitos de las computadoras digitales electrónicas y sus partes aumentaría la velocidad y eficacia y por eso mejoraría la actuación si tan sólo los  métodos industriales necesarios estuvieran disponibles para hacer eso.

Aproximadamente en 1960 la fotoimpresión de tableros de circuitos conductivos se desarrolló favorablemente. Entonces fue  posible construir resistencias y condensadores en los circuitos por medios  fotográficos (en un circuito impreso). 

En la década de los 1970 la deposición al vacío de transistores era ya común, y la unión de componentes, como sumadoras, contadores y desplazamiento de registros,  estuvieron disponibles en "pastillas" diminutas (chips). 

miércoles, 3 de mayo de 2017

HISTORIA DE LA COMPUTACIÓN 7

HISTORIA DE LA COMPUTACIÓN (7): Historia de la computadora, desde el ábaco  hasta el procesamiento en paralelo 

Adelantos en los años sesenta

Diseñar y desarrollar las posibles computadoras más rápidas y con mayor capacidad alcanzó su punto cumbre con la realización  de la máquina LARC para los Laboratorios de Radiación Livermore de la  Universidad de California por la Corporación Sperry-Rand en los años 1960, y la computadora Stretch (Estiramiento) por IBM. El LARC tenía una memoria central de 98.000 palabras y multiplicaba en 10 msec. Stretch proporcionaba varias líneas de memoria, con un acceso más lento para las líneas de  capacidad mayor: el tiempo de acceso más rápido era de menos de 1 msec y su capacidad total era de 100 millones de palabras.
Durante este período los fabricantes de  computadoras mayores empezaron a ofrecer un amplio rango de capacidades de cómputo y de costos, así como varios equipos periféricos para entrada, tales como consolas y alimentadores de tarjetas; y para salida, tales como copiadoras de página, pantallas de tubos de rayos catódicos, dispositivos de gráficos; además de cinta magnética optativa y almacenamiento de archivos en  disco magnético. 

Éstos equipos encontraron un vasto uso en los negocios con aplicaciones tales como contabilidad, nóminas, control de inventario, petición  de suministros y cobro de cuentas. Las unidades del procesamiento central  (CPUs) para tales propósitos no necesitaban ser aritméticamente muy rápidas y  accedían a cantidades grandes de información, principalmente desde archivos, manteniéndose siempre al corriente.

El mayor número de sistemas de cómputo se vendió para las aplicaciones más modestas, como en hospitales, para  llevar el rastro de archivos de pacientes, medicaciones, y tratamientos  dados. También se usaron en sistemas de bibliotecas automatizadas, como MEDLARS, el sistema de recuperación de la Biblioteca Médica Nacional y en el  sistema de Resúmenes Químicos, donde la computadora graba en archivos casi todos los compuestos químicos conocidos

martes, 2 de mayo de 2017

HISTORIA DE LA COMPUTADORA

HISTORIA DE LA COMUTACIÓN (6): Historia de la computadora, desde el ábaco  hasta el procesamiento en paralelo

Adelantos en los años cincuenta 

En los años de la década de 1950 dos importantes  descubrimientos de la ingeniería cambiaron la imagen del campo de la  computadora electrónica, desde un campo de hardware rápido pero a menudo  inestable hasta uno de fiabilidad relativamente alta y capacidad aún mayor.  Estos descubrimientos fueron: la memoria de centro magnético y el elemento  del circuito transistor.
   
Estos nuevos descubrimientos técnicos encontraron  rápidamente su lugar en los nuevos modelos de computadoras digitales; la RAM  aumentó su capacidad de 8.000 a 64.000 palabras en máquinas disponibles  comercialmente a principios de los años sesenta, con tiempos de acceso de 2 o  3 msec. Estas máquinas eran muy caras para comprarse o alquilarse y era  especialmente costoso operarlas debido al precio en aumento de la programación. 

Tales computadoras se encontraban típicamente en centros de  computo grandes -operados por la industria, el gobierno, y los laboratorios  privados- provistos de personal con muchos programadores y personal de  apoyo. Esta situación llevó a modos de operación que habilitan el compartir la alta capacidad disponible; uno de tales modos es el procesamiento por  lotes en el que se preparan problemas y se mantienen listos para su cómputo  en un medio de almacenamiento relativamente barato, como tambores magnéticos, discos magnéticos condensados, o cintas magnéticas.

Cuando la computadora  termina con un problema, típicamente "vierte" el problema entero -el programa y los resultados- en una de estas unidades de  almacenamiento periférico y toma un nuevo problema. 

Otro modo de uso para máquinas rápidas y poderosas se llama de tiempo compartido. Usando tiempo  compartido la computadora procesa muchos trabajos de espera en una sucesión  tan rápida que cada trabajo progresa tan velozmente como si los otros  trabajos no existieran, dejando así a cada cliente satisfecho. Tales modos de  operación requieren detallados programas "ejecutivos" para asistir  a la administración de las varias tareas.

lunes, 1 de mayo de 2017

Hª DE LA COMPUTACIÓN 5

HISTORIA DE LA COMUTACIÓN (5): 
Historia de la computadora, desde el ábaco  hasta el procesamiento en paralelo

El Moderno EDC con "programa  almacenado"

Intrigado por el éxito del ENIAC, el matemático  John von Neumann emprendió (1945) un estudio teórico de cómputo que demostró  que una computadora podría tener una estructura física muy simple, fija y  podría todavía ejecutar cualquier tipo de cómputo eficazmente por medio del  mando programado apropiado sin la necesidad de cambio alguno en el hardware.  Von Neumann contribuyó a una nueva comprensión de cómo deben organizarse y  construirse las computadoras rápidas prácticas; y estas ideas, a menudo llamadas la técnica del programa almacenado, fueron fundamentales para las generaciones futuras de computadoras digitales de gran velocidad.   
La técnica de guardar el programa involucra muchos rasgos del diseño y funcionamiento de la computadora además del nombrado; en combinación, estos rasgos pueden hacer factible el funcionamiento a muy alta velocidad. Si cada instrucción en un programa de trabajo sólo se usara una vez  en orden consecutivo, ¡ningún programador humano podría generar bastantes instrucciones para mantener a la computadora ocupada! Deben hacerse arreglos, llamados subrutinas, para ser usadas repetidamente por las  partes del programa de trabajo. También sería claramente útil si las instrucciones pudieran  alterarse por necesidad durante un cómputo para hacerlas comportarse  diferentemente. Von Neumann satisfizo estas dos necesidades proporcionando un  tipo especial de instrucción de máquina llamado traslado del mando  condicional -qué permitió interrumpir la sucesión del programa y reiniciarlo  en cualquier punto- guardando toda la instrucción del programa junto con los  datos en la misma unidad de memoria, para que, cuando se desee, se puedan  modificar las instrucciones aritméticamente de la misma manera que los  datos.
Como resultado de estas técnicas y de algunas  otras, computar y programar resultaron más rápidos, más flexibles, y más  eficaces, con las instrucciones en subprogramas o subrutinas realizando mucho  más trabajo computacional. Los subprogramas más frecuentemente usados no  tuvieron que ser reprogramados para cada nuevo problema pero podían guardarse  intactos en "bibliotecas" y leerse en la memoria cuando se necesitase. Así, gran parte de un programa dado podía congregarse de la  biblioteca de subprogramas. La memoria de la computadora de propósito general  se volvió el lugar en el que se guardaban partes de un cómputo  largo, se trabajaban paso a paso, y se congregaban para formar los resultados  finales. El mando de la computadora sirvió como un director errante del  proceso global. En cuanto las ventajas de estas técnicas fueron claras, las  técnicas se volvieron la práctica normal.  
La primera generación de computadoras electrónicas  programadas modernas que tomaron ventaja de estas mejoras apareció en 1947.  Este grupo de computadoras incluía el uso de memoria de acceso al azar (RAM)  que es una memoria diseñada para dar acceso casi constante a cualquier pedazo particular de información. Estas máquinas tenían tarjeta perforadas o entradas de cinta perforada y dispositivos de rendimiento y RAM de una  capacidad de 1.000 palabras con un tiempo de acceso de 0.5 microsegundos (0.5  x 10 elevado a la menos 6 segundos). Algunos de ellos podían realizar multiplicaciones en 2 a 4 microsegundos.
Físicamente, eran mucho más  compactos que el ENIAC: algunos eran del tamaño de un piano de cola y  requerían 2.500 pequeños tubos de electrones, mucho menos que lo requerido  por las máquinas anteriores. 
Las computadoras de programas almacenados de  primera generación requirieron mantenimiento considerable, y lograron quizás  un 70 por ciento a un 80 por ciento de tiempo de funcionamiento fiable, usándose durante 8 a 12 años. Típicamente, se programaron directamente en idioma de máquina, aunque a mediados de 1950 ya se habían hecho  progresos en varios aspectos de la programación avanzada. 

Este grupo de máquinas, EDVAC incluido, y UNIVAC, fueron las primeras computadoras  disponibles comercialmente.  

domingo, 30 de abril de 2017

Hª DE LA COMPUTACIÓN (4): Desde el ábaco hasta el procesamiento en paralelo

HISTORIA DE LA COMUTACIÓN (4)
Historia de la computadora, desde el ábaco  hasta el procesamiento en paralelo (4)



A) El uso de tarjetas perforadas por Hollerith   
Un paso hacia el cómputo automatizado fue la  introducción de tarjetas perforadas que se usaron para computar, por primera  vez con éxito, en 1890 por Herman Hollerith y James Powers, trabajando para  el Departamento del Censo de los E.U. Juntos desarrollaron dispositivos que  podían leer la información que se había perforado en las tarjetas automáticamente, sin la intermediación humana. Se redujeron los errores de lectura y el flujo del trabajo aumentó, y se pudieron usar pilas de tarjetas perforadas como una  forma de almacenamiento de memoria accesible de capacidad casi ilimitada;  además, diferentes problemas podían guardarse en diferentes lotes de tarjetas  para trabajarse más adelante cuando fuera necesario.   
Estas ventajas fueron reconocidas por las  corporaciones con intereses comerciales y pronto llevaron al desarrollo de  sistemas mejorados de máquinas de negocios de tarjetas perforadas como los de  Máquinas Comerciales Internacionales (International Business Machines - IBM),  Remington-Rand, Burroughs, y otras corporaciones. 
Estos sistemas usaban  dispositivos electromecánicos en los que el poder eléctrico proporcionaba el movimiento mecánico--como el girar de las ruedas de una máquina sumadora.  Tales sistemas pronto incluyeron rasgos para alimentar automáticamente un  número específico de tarjetas desde una estación de lectura; para realizar operaciones  como sumar, multiplicar, y ordenar; y producir tarjetas perforadas con los  resultados. Según las normas modernas, las máquinas de tarjetas perforadas eran lentas, procesando normalmente de 50 a 250 tarjetas por minuto, con tarjetas conteniendo unos 80 números decimales. Sin embargo, para su tiempo,  las tarjetas perforadas estaban muy adelantadas y constituyeron un enorme  paso.   

B) Computadoras Digitales Automáticas  

A finales de  1930, las técnicas de máquinas  de tarjetas perforadas se habían establecido bien y eran fiables, y algunos  grupos de investigadores se esforzaron por construir computadoras digitales  automáticas. Una máquina prometedora, construida de partes electromecánicas  normales, fue construida por un equipo de la IBM liderado por Howard Hathaway  Aiken. La máquina de Aiken, llamada la Harvard Mark I, manejaba números de 23  lugares decimales (palabras) y podía realizar todas las cuatro operaciones de  la aritmética. Es más, tenía programas especiales en su arquitectura, o subprogramas, para manejar logaritmos y funciones trigonométricas. El Mark I se controlaba  originalmente por medio de una cinta de papel perforado sin la provisión para  la inversión (devolverse), de forma tal que instrucciones de  "transferencia de mando" automático no podían programarse. La  información de salida se registraba en tarjetas perforadas y máquinas de escribir eléctricas. Aunque el Mark I de la IBM usaba ruedas de contar como  componentes importantes además de paradas electromagnéticas, la máquina fue  clasificada como una computadora de parada. Era lenta, requiriendo de 3 a 5  segundos para una multiplicación, pero era totalmente automática y podía  completar cómputos largos. Mark I fue la primera de una serie de computadoras  diseñadas y construidas bajo la dirección de Aiken