Es la ciencia de la computación a la cual se le denomina inteligencia artificial por su capacidad de no razonar de un agente no vivo.
martes, 25 de junio de 2013
EL CREADOR DE LA COMPUTADORA.
John Atanasoff nació en Hamilton, Nueva York el 4 de octubre de 1903, falleció en Frederick, Maryland el 15 de junio de 1995. Fue un destacado ingeniero electrónico estadounidense de origen búlgaro.
LA QUINTA GENERACIÓN DE LAS COMPUTADORAS.
La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software, usando el lenguaje PROLOG al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).
El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.
ANTECEDENTES Y DISEÑO:
A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras basadas en los modelos desarrollados en los Estados Unidos y el Reino Unido. Japón, a través de su Ministerio de Economía, Comercio e Industria (MITI) decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El Centro de Desarrollo y Proceso de la Información de Japón (JIPDEC) fue el encargado llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos con la participación conjunta de empresas de la industria dedicadas a la tecnología e instituciones académicas, a instancias de Hazime Hiroshi. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.
INICIO:
En 1981 a iniciativa del MITI se celebró una Conferencia Internacional, durante la cual Kazuhiro Fuchi anunció el programa de investigación y el 14 de abril de 1982 el gobierno decidió lanzar oficialmente el proyecto, creando el Institute for New Generation Computer Technology (Instituto para la Nueva Generación de Tecnologías de Computación o ICOT por sus siglas en inglés), bajo la dirección de Fuchi, a quien sucedería en el puesto como director del instituto Tohru Moto-Oka, y con la participación de investigadores de diversas empresas japonesas dedicadas al desarrollo de hardware y software, entre ellas Fujitsu, NEC, Matsushita, Oki, Hitachi, Toshiba y Sharp.
Los campos principales para la investigación de este proyecto inicialmente eran:
●Tecnologías para el proceso del conocimiento.
●Tecnologías para procesar bases de datos y bases de conocimiento masivo.
●Sitios de trabajo del alto rendimiento.
●Informáticas funcionales distribuidas.
●Supercomputadoras para el cálculo científico.
IMPACTO INSTITUCIONAL INTERNACIONAL:
Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación entre los otros países.
Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Microelectronics and Computer Technology Corporation y la Strategic Computing Initiative; por parte europea, en Reino Unido fue ALVEY, y en el resto de Europa su reacción fue conocida como ESPRIT (European Strategic Programme for Research in Information Technology, en español Programa Estratégico Europeo en Investigación de la Tecnología de la Información).
POPULARIDAD INTERNACIONAL:
Aparte de las reacciones a nivel institucional, en un plano más popular comenzó a ser conocido en Occidente gracias a la aparición de libros en los que se hablaba del proyecto de manera más o menos directa o era citado pero principalmente por artículos aparecidos en revistas dedicadas a los aficionados a la informática; así por ejemplo, en el número de agosto de 1984 de la estadounidense Creative Computing se publicó un artículo que trataba ampliamente el tema, "The fifth generation: Japan's computer challenge to the world" (traducido, La Quinta Generación: El desafío informático japonés al mundo). En el ámbito de habla hispana se puede citar por ejemplo a la revista MicroHobby, que en julio de 1985 publicó una entrevista a Juan Pazos Sierra, Doctorado en Informática y vinculado en aquella época a la Facultad de Informática de la Universidad de Madrid, en la que describía someramente el proyecto como:
"...un proyecto japonés que tiene unas características curiosas y especiales; en primer lugar, la pretensión es construir un computador basado en tecnología VLSI, con una arquitectura no Von Neumann y que llevaría como núcleo de software la programación lógica, el lenguaje PROLOG, para construir finalmente sobre todo esto Sistemas Expertos."
Y sobre sus potenciales resultados, expresaba una opinión relativamente optimista, en la línea de lo augurado por los propios promotores del proyecto. Así, ante la pregunta de si se había obtenido algún resultado en el mismo, respondía:
"De momento, nada. Se va a desarrollar muchísimo lo que ya existe, aparecerán nuevas tecnologías, nuevos Sistemas Expertos y la investigación se verá enormemente potenciada por la tremenda inyección de dinero que el proyecto quinta generación ha supuesto para la Inteligencia Artificial."
Por su parte, Román Gubern, en su ensayo El simio informatizado de 1987, consideraba que:
"...el ordenador de quinta generación es un verdadero intento de duplicación tecnológica del intelecto del Homo sapiens."
PRINCIPALES EVENTOS Y FINALIZACIÓN DEL PROYECTO:
●1981: se celebra la Conferencia Internacional en la que se perfilan y definen los objetivos y métodos del proyecto.
●1982: el proyecto se inicia y recibe subvenciones a partes iguales aportadas por sectores de la industria y por parte del gobierno.
●1985: se concluye el primer hardware desarrollado por el proyecto, conocido como Personal Sequential Inference machine (PSI) y la primera versión del sistema operativo Sequentual Inference Machine Programming Operating System (SIMPOS). SIMPOS fue programado en Kernel Language 0 (KL0), una variante concurrente de Prolog14 con extensiones para la programación orientada a objetos, el metalenguaje ESP. Poco después de las máquinas PSI, fueron desarrolladas las máquinas CHI (Co-operative High-performance Inference machine).
●1986: se ultima la máquina Delta, basada en bases de datos relacionales.
●1987: se construye un primer prototipo del hardware llamado Parallel Inference Machine (PIM) usando varias máquinas PSI conectadas en red. El proyecto recibe subvenciones para cinco años más. Se desarrolla una nueva versión del lenguaje propuesto, Kernel Language 1 (KL1) muy similar al "Flat GDC" (Flat Guarded Definite Clauses), influenciada por desarrollos posteriores del Prolog y orientada a la computación paralela. El sistema operativo SIMPOS es re-escrito en KL1 y rebautizado como Parallel Inference Machine Operating System, o PIMOS.
●1991: concluyen los trabajos en torno a las máquinas PIM.
●1992: el proyecto es prorrogado un año más a partir del plan original, que concluía este año.
●1993: finaliza oficialmente el proyecto de la quinta generación de computadoras, si bien para dar a conocer los resultados se inicia un nuevo proyecto de dos años de duración prevista, llamado FGCS Folow-on Project.15 El código fuente del sistema operativo PIMOS es lanzado bajo licencia de dominio público y el KL1 es portado a sistemas UNIX, dando como resultado el KLIC (KL1 to C compiler).
●1995: finalizan todas las iniciativas institucionales vinculadas con el proyecto.
Como uno de los productos finales del Proyecto se desarrollaron cinco Máquinas de Inferencia Paralela (PIM), llamadas PIM/m, PIM/p, PIM/i, PIM/k y PIM/c, teniendo como una de sus características principales 256 elementos de Procesamiento Acoplados en red. El proyecto también produjo herramientas que se podían utilizar con estos sistemas tales como el sistema de gestión de bases de datos en paralelo Kappa, el sistema de razonamiento legal HELIC-II, el lenguaje de programación Quixote, un híbrido entre base de datos deductiva orientada a objetos y lenguaje de programación lógico y el demostrador automático de teoremas MGTP.
Once años después del inicio del proyecto, la gran suma de dinero, infraestructura y recursos invertida en el mismo no se correspondía con los resultados esperados y se dio por concluido sin haber cumplido sus objetivos. William Zachman criticó el proyecto un año antes de su término, argumentando:
"Perjudica el desarrollo de aplicaciones de IA; con la IA, no importa el sistema, mientras no haya mecanismos de inferencia potentes. Ya hay un montón de aplicaciones de tipo IA, y estoy esperando la llegada del motor de inferencia potente, por eso las computadora de quinta generación son un error."
El hardware propuesto y sus desarrollos de software no tenían cabida en el mercado informático, que había evolucionado desde el momento en el que se lanzara el proyecto, y en el que sistemas de propósito general ahora podían hacerse cargo de la mayoría de las tareas propuestas como objetivos iniciales de las máquinas de quinta generación, de manera semejante a como había pasado en el caso del mercado potencial de las máquinas Lisp, en el que sistemas para la creación de Sistemas Expertos basados en reglas como CLIPS, implementados sobre computadoras comunes, habían convertido a estas costosas máquinas en innecesarias y obsoletas.
Por otra parte, dentro de las disputas entre las diferentes ramas de la Inteligencia Artificial, el proyecto japonés partía del paradigma basado en la programación lógica y la programación declarativa, dominante tras la publicación en 1969 por Marvin Minsky y Seymour Papert del libro Perceptrons, que pasaría progresivamente a un segundo plano en favor de la programación de Redes Neuronales Artificiales (RNA) tras la publicación en 1986 por parte de McClelland y Rumelhart del libro Parallel Distributed Processing, lo que junto a sus escasos resultados contribuyó a que el proyecto de la quinta generación cayera en el olvido a su término en 1993.
El Institute for New Generation Computer Technology (ICOT) fue renombrado en el año 1995 a Research Institute for Advanced Information Technology (AITEC), centro que fue clausurado en 2003, pasando todos sus recursos al Advanced IT Research Group (AITRG), dependiente del Departamento de Investigación del JIPDEC.
HARDWARE:
▪Primera etapa:
-Máquinas secuenciales PSI (Personal Sequential Inference machine) y CHI (Co-operative High-performance Inference machine):
●PSI-I: 30 KLIPS (Logical Inference Per Second)
●PSI-II: PSI-I + CPU VLSI
●CHI-I: 285 KLIPS
-Máquinas en paralelo PIM (Parallel Inference Machine):
●PIM-D
●PIM-R
-Máquina de base de datos relacional:
●DELTA
▪Segunda etapa:
-Máquinas secuenciales:
●PSI-III
●CHI-II: 490 KLIPS
-Máquinas en paralelo:
●Multi-PSI
▪Tercera etapa:
-Máquinas en paralelo:
●PIM/p: 512 microprocesadores RISC, 256 MB de memoria
●PIM/m: 256 microprocesadores CISC, 80 MB de memoria
●PIM/c: 256 microprocesadores CISC, 160 MB de memoria
●PIM/k: 16 microprocesadores RISC, 1 GB de memoria
●PIM/i: 16 microprocesadores RISC (tipo LIW), 320 MB de memoria
El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.
ANTECEDENTES Y DISEÑO:
A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras basadas en los modelos desarrollados en los Estados Unidos y el Reino Unido. Japón, a través de su Ministerio de Economía, Comercio e Industria (MITI) decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El Centro de Desarrollo y Proceso de la Información de Japón (JIPDEC) fue el encargado llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos con la participación conjunta de empresas de la industria dedicadas a la tecnología e instituciones académicas, a instancias de Hazime Hiroshi. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.
INICIO:
En 1981 a iniciativa del MITI se celebró una Conferencia Internacional, durante la cual Kazuhiro Fuchi anunció el programa de investigación y el 14 de abril de 1982 el gobierno decidió lanzar oficialmente el proyecto, creando el Institute for New Generation Computer Technology (Instituto para la Nueva Generación de Tecnologías de Computación o ICOT por sus siglas en inglés), bajo la dirección de Fuchi, a quien sucedería en el puesto como director del instituto Tohru Moto-Oka, y con la participación de investigadores de diversas empresas japonesas dedicadas al desarrollo de hardware y software, entre ellas Fujitsu, NEC, Matsushita, Oki, Hitachi, Toshiba y Sharp.
Los campos principales para la investigación de este proyecto inicialmente eran:
●Tecnologías para el proceso del conocimiento.
●Tecnologías para procesar bases de datos y bases de conocimiento masivo.
●Sitios de trabajo del alto rendimiento.
●Informáticas funcionales distribuidas.
●Supercomputadoras para el cálculo científico.
IMPACTO INSTITUCIONAL INTERNACIONAL:
Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación entre los otros países.
Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Microelectronics and Computer Technology Corporation y la Strategic Computing Initiative; por parte europea, en Reino Unido fue ALVEY, y en el resto de Europa su reacción fue conocida como ESPRIT (European Strategic Programme for Research in Information Technology, en español Programa Estratégico Europeo en Investigación de la Tecnología de la Información).
POPULARIDAD INTERNACIONAL:
Aparte de las reacciones a nivel institucional, en un plano más popular comenzó a ser conocido en Occidente gracias a la aparición de libros en los que se hablaba del proyecto de manera más o menos directa o era citado pero principalmente por artículos aparecidos en revistas dedicadas a los aficionados a la informática; así por ejemplo, en el número de agosto de 1984 de la estadounidense Creative Computing se publicó un artículo que trataba ampliamente el tema, "The fifth generation: Japan's computer challenge to the world" (traducido, La Quinta Generación: El desafío informático japonés al mundo). En el ámbito de habla hispana se puede citar por ejemplo a la revista MicroHobby, que en julio de 1985 publicó una entrevista a Juan Pazos Sierra, Doctorado en Informática y vinculado en aquella época a la Facultad de Informática de la Universidad de Madrid, en la que describía someramente el proyecto como:
"...un proyecto japonés que tiene unas características curiosas y especiales; en primer lugar, la pretensión es construir un computador basado en tecnología VLSI, con una arquitectura no Von Neumann y que llevaría como núcleo de software la programación lógica, el lenguaje PROLOG, para construir finalmente sobre todo esto Sistemas Expertos."
Y sobre sus potenciales resultados, expresaba una opinión relativamente optimista, en la línea de lo augurado por los propios promotores del proyecto. Así, ante la pregunta de si se había obtenido algún resultado en el mismo, respondía:
"De momento, nada. Se va a desarrollar muchísimo lo que ya existe, aparecerán nuevas tecnologías, nuevos Sistemas Expertos y la investigación se verá enormemente potenciada por la tremenda inyección de dinero que el proyecto quinta generación ha supuesto para la Inteligencia Artificial."
Por su parte, Román Gubern, en su ensayo El simio informatizado de 1987, consideraba que:
"...el ordenador de quinta generación es un verdadero intento de duplicación tecnológica del intelecto del Homo sapiens."
PRINCIPALES EVENTOS Y FINALIZACIÓN DEL PROYECTO:
●1981: se celebra la Conferencia Internacional en la que se perfilan y definen los objetivos y métodos del proyecto.
●1982: el proyecto se inicia y recibe subvenciones a partes iguales aportadas por sectores de la industria y por parte del gobierno.
●1985: se concluye el primer hardware desarrollado por el proyecto, conocido como Personal Sequential Inference machine (PSI) y la primera versión del sistema operativo Sequentual Inference Machine Programming Operating System (SIMPOS). SIMPOS fue programado en Kernel Language 0 (KL0), una variante concurrente de Prolog14 con extensiones para la programación orientada a objetos, el metalenguaje ESP. Poco después de las máquinas PSI, fueron desarrolladas las máquinas CHI (Co-operative High-performance Inference machine).
●1986: se ultima la máquina Delta, basada en bases de datos relacionales.
●1987: se construye un primer prototipo del hardware llamado Parallel Inference Machine (PIM) usando varias máquinas PSI conectadas en red. El proyecto recibe subvenciones para cinco años más. Se desarrolla una nueva versión del lenguaje propuesto, Kernel Language 1 (KL1) muy similar al "Flat GDC" (Flat Guarded Definite Clauses), influenciada por desarrollos posteriores del Prolog y orientada a la computación paralela. El sistema operativo SIMPOS es re-escrito en KL1 y rebautizado como Parallel Inference Machine Operating System, o PIMOS.
●1991: concluyen los trabajos en torno a las máquinas PIM.
●1992: el proyecto es prorrogado un año más a partir del plan original, que concluía este año.
●1993: finaliza oficialmente el proyecto de la quinta generación de computadoras, si bien para dar a conocer los resultados se inicia un nuevo proyecto de dos años de duración prevista, llamado FGCS Folow-on Project.15 El código fuente del sistema operativo PIMOS es lanzado bajo licencia de dominio público y el KL1 es portado a sistemas UNIX, dando como resultado el KLIC (KL1 to C compiler).
●1995: finalizan todas las iniciativas institucionales vinculadas con el proyecto.
Como uno de los productos finales del Proyecto se desarrollaron cinco Máquinas de Inferencia Paralela (PIM), llamadas PIM/m, PIM/p, PIM/i, PIM/k y PIM/c, teniendo como una de sus características principales 256 elementos de Procesamiento Acoplados en red. El proyecto también produjo herramientas que se podían utilizar con estos sistemas tales como el sistema de gestión de bases de datos en paralelo Kappa, el sistema de razonamiento legal HELIC-II, el lenguaje de programación Quixote, un híbrido entre base de datos deductiva orientada a objetos y lenguaje de programación lógico y el demostrador automático de teoremas MGTP.
Once años después del inicio del proyecto, la gran suma de dinero, infraestructura y recursos invertida en el mismo no se correspondía con los resultados esperados y se dio por concluido sin haber cumplido sus objetivos. William Zachman criticó el proyecto un año antes de su término, argumentando:
"Perjudica el desarrollo de aplicaciones de IA; con la IA, no importa el sistema, mientras no haya mecanismos de inferencia potentes. Ya hay un montón de aplicaciones de tipo IA, y estoy esperando la llegada del motor de inferencia potente, por eso las computadora de quinta generación son un error."
El hardware propuesto y sus desarrollos de software no tenían cabida en el mercado informático, que había evolucionado desde el momento en el que se lanzara el proyecto, y en el que sistemas de propósito general ahora podían hacerse cargo de la mayoría de las tareas propuestas como objetivos iniciales de las máquinas de quinta generación, de manera semejante a como había pasado en el caso del mercado potencial de las máquinas Lisp, en el que sistemas para la creación de Sistemas Expertos basados en reglas como CLIPS, implementados sobre computadoras comunes, habían convertido a estas costosas máquinas en innecesarias y obsoletas.
Por otra parte, dentro de las disputas entre las diferentes ramas de la Inteligencia Artificial, el proyecto japonés partía del paradigma basado en la programación lógica y la programación declarativa, dominante tras la publicación en 1969 por Marvin Minsky y Seymour Papert del libro Perceptrons, que pasaría progresivamente a un segundo plano en favor de la programación de Redes Neuronales Artificiales (RNA) tras la publicación en 1986 por parte de McClelland y Rumelhart del libro Parallel Distributed Processing, lo que junto a sus escasos resultados contribuyó a que el proyecto de la quinta generación cayera en el olvido a su término en 1993.
El Institute for New Generation Computer Technology (ICOT) fue renombrado en el año 1995 a Research Institute for Advanced Information Technology (AITEC), centro que fue clausurado en 2003, pasando todos sus recursos al Advanced IT Research Group (AITRG), dependiente del Departamento de Investigación del JIPDEC.
HARDWARE:
▪Primera etapa:
-Máquinas secuenciales PSI (Personal Sequential Inference machine) y CHI (Co-operative High-performance Inference machine):
●PSI-I: 30 KLIPS (Logical Inference Per Second)
●PSI-II: PSI-I + CPU VLSI
●CHI-I: 285 KLIPS
-Máquinas en paralelo PIM (Parallel Inference Machine):
●PIM-D
●PIM-R
-Máquina de base de datos relacional:
●DELTA
▪Segunda etapa:
-Máquinas secuenciales:
●PSI-III
●CHI-II: 490 KLIPS
-Máquinas en paralelo:
●Multi-PSI
▪Tercera etapa:
-Máquinas en paralelo:
●PIM/p: 512 microprocesadores RISC, 256 MB de memoria
●PIM/m: 256 microprocesadores CISC, 80 MB de memoria
●PIM/c: 256 microprocesadores CISC, 160 MB de memoria
●PIM/k: 16 microprocesadores RISC, 1 GB de memoria
●PIM/i: 16 microprocesadores RISC (tipo LIW), 320 MB de memoria
LA CUARTA GENERACIÓN DE LAS COMPUTADORAS.
Las microcomputadoras son mucho mas pequeñas y baratas, por lo que aumenta su uso.
Características:
* Se desarrolló el microprocesador.
* Cada chip puede hacer distintas tareas.
* Se desarrollan computadoras personales.
* Son más pequeñas y ligeras.
LA TERCERA GENERACIÓN DE LAS COMPUTADORAS.
A mediados de los años 60 se produjo la invención del circuito integrado o microchip, por parte de Jack St. Claire Kilby y Robert Noyce. Después llevó a Ted Hoff a la invención del microprocesador, en Intel. A finales de 1960, investigadores como George Gamow notó que las secuencias de nucleótidos en el ADN formaban un código, otra forma de codificar o programar.
A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips (circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.
En 1965, IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el nombre de serie Edgar.
Estas computadoras de tercera generación sustituyeron totalmente a los de segunda, introduciendo una forma de programar que aún se mantiene en las grandes computadoras actuales.
Características:
●Menor consumo de energía.
●Apreciable reducción del espacio.
●Aumento de fiabilidad.
●Teleproceso.
●Multiprogramación.
●Renovación de periféricos.
●Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11.
●Se calculó π (Número Pi) con 500.000 decimales.
A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips (circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.
En 1965, IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el nombre de serie Edgar.
Estas computadoras de tercera generación sustituyeron totalmente a los de segunda, introduciendo una forma de programar que aún se mantiene en las grandes computadoras actuales.
Características:
●Menor consumo de energía.
●Apreciable reducción del espacio.
●Aumento de fiabilidad.
●Teleproceso.
●Multiprogramación.
●Renovación de periféricos.
●Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11.
●Se calculó π (Número Pi) con 500.000 decimales.
LA SEGUNDA GENERACIÓN DE LAS COMPUTADORAS.
En ésta generación las computadoras se reducen de tamaño y costo.
Características:
* Se redujo el tamaño.
* No eran tan pesadas.
* Mejoraron los programas de la computadora.
* Redujeron el consumo eléctrico.
LA PRIMERA GENERACIÓN DE LAS COMPUTADORAS.
Abarca desde el año 1938 hasta el año 1958, época en que la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina.
Características:
●Estaban construidas con electrónica de válvulas.
●Se programaban en lenguaje de máquina.
Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios).
La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos de que constó:
●1941 ENIAC. Primera computadora digital electrónica en la historia. No fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 tubos de vacío, consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Presper Eckert en la universidad de Pensilvania, en los Estados Unidos.
●1949 EDVAC. Segunda computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis.
●1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina del Censo de Estados Unidos.
●1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que habían sido inventadas en los años de la revolución industrial (finales del siglo XVIII) por el francés Joseph Marie Jacquard y perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número uno, por su volumen de ventas.
●1954 - IBM continuó con otros modelos, que incorporaban
EL TUBO DE VACÍO.
La era de la computación moderna empezó con una ráfaga de desarrollo antes y durante la Segunda Guerra Mundial, como circuitos electrónicos, relés, condensadores y tubos de vacío que reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los cálculos analógicos.
Las computadoras que se diseñaron y construyeron entonces se denominan a veces "primera generación" de computadoras. La primera generación de computadoras eran usualmente construidas a mano usando circuitos que contenían relés y tubos de vacío, y a menudo usaron tarjetas perforadas (punched cards) o cinta de papel perforado (punched paper tape) para la entrada de datos [input] y como medio de almacenamiento principal (no volátil). El almacenamiento temporal fue proporcionado por las líneas de retraso acústicas (que usa la propagación de tiempo de sonido en un medio tal como alambre para almacenar datos) o por los tubos de William (que usan la habilidad de un tubo de televisión para guardar y recuperar datos).
Características:
●Estaban construidas con electrónica de válvulas.
●Se programaban en lenguaje de máquina.
Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios).
La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos de que constó:
●1941 ENIAC. Primera computadora digital electrónica en la historia. No fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 tubos de vacío, consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Presper Eckert en la universidad de Pensilvania, en los Estados Unidos.
●1949 EDVAC. Segunda computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis.
●1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina del Censo de Estados Unidos.
●1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que habían sido inventadas en los años de la revolución industrial (finales del siglo XVIII) por el francés Joseph Marie Jacquard y perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número uno, por su volumen de ventas.
●1954 - IBM continuó con otros modelos, que incorporaban
EL TUBO DE VACÍO.
La era de la computación moderna empezó con una ráfaga de desarrollo antes y durante la Segunda Guerra Mundial, como circuitos electrónicos, relés, condensadores y tubos de vacío que reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los cálculos analógicos.
Las computadoras que se diseñaron y construyeron entonces se denominan a veces "primera generación" de computadoras. La primera generación de computadoras eran usualmente construidas a mano usando circuitos que contenían relés y tubos de vacío, y a menudo usaron tarjetas perforadas (punched cards) o cinta de papel perforado (punched paper tape) para la entrada de datos [input] y como medio de almacenamiento principal (no volátil). El almacenamiento temporal fue proporcionado por las líneas de retraso acústicas (que usa la propagación de tiempo de sonido en un medio tal como alambre para almacenar datos) o por los tubos de William (que usan la habilidad de un tubo de televisión para guardar y recuperar datos).
Suscribirse a:
Entradas (Atom)