jueves, 16 de julio de 2015

IDAT apunta a Lima Norte con dos nuevas carreras este 2015

En marzo, el instituto de educación técnica inaugurará su nuevo centro en Tomás Valle, que demandó una inversión inicial de S/. 10 millones.

Para Luis Alcántara, director general de IDAT, el 2014 fue un año de consolidación y ordenamiento académico, y este 2015 será uno de expansión.
El plan de crecimiento del instituto de educación técnicaincluye la apertura de una nueva sede en Tomás Valle, en la que ya se invirtió un monto inicial de S/. 10 millones. La primera incursión de la entidad en Lima Norte pretende convocar a un cuerpo estudiantil de 900 personas.
En el 2014, IDAT agregó a su oferta educativa, dirigida a chicos que recién egresan del colegio y necesitan una rápida vía para ingresar al mercado laboral, la carrera de “ciencias publicitarias”. Este año, incorporan las carreras de Administración Bancaria y Financiera, y Mecatrónica Automotriz.
“(Las carreras más demandadas) han ido variando en el tiempo. Computación, informática y redes sigue siendo una de nuestras carreras principales, al igual que administración, negocios internacionales y diseño gráfico”, explicó Alcántara.
Desde su absorción de parte del grupo Intercorp, en el 2012, IDAT se ha enfocado en moldear su oferta educativa de acuerdo a las demandas del mercado.
El dato
  • Contando todas sus sedes en Lima, IDAT cuenta con 14,000 alumnos.
  • Con sedes en Chiclato, Piura y Tarapoto, están evaluando ingresar a Arequipa en un largo plazo.

miércoles, 15 de julio de 2015

INTRODUCCIÓN

La informática es la ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la información, utilizando sistemas computacionales, genialmente implementados como dispositivos electrónicos. También está definida como el procesamiento automático de la información. Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:
·         * entrada: captación de la información.
·         * proceso: tratamiento de la información.
·         * salida: transmisión de resultados.
Cuando hablamos de informática tenemos que definirla como unas de las materias más importantes en la actualidad, ya que por medio de esta vivimos en una sociedad comandada por las nuevas tecnologías, donde la informática juega un papel fundamental en todos los ámbitos. Por ello, es importante tomar conciencia de lo necesario que es saber manejar los principales programas.
En los inicios del procesado de información, con la informática sólo se facilitaban los trabajos repetitivos y monótonos del área administrativa. la automatización de esos procesos trajo como consecuencia directa una disminución de los costes y un incremento en la productividad. en la informática convergen los fundamentos de las ciencias de la computación, la programación y metodologías para el desarrollo de software, la arquitectura de computadores, las redes de computadores, la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas. esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. una de la aplicaciones más importantes de la informática es proveer información en forma oportuna y veraz, lo cual, por ejemplo, puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos.



¿QUE ES LA INFORMÁTICA?
No es una ciencia, ni tampoco es un método, sino que la Informática es el conjunto de Conocimientos Científicos y Métodos que permiten analizar, mejorar e implementar actualizaciones a la comunicación, envío y recepción de información a través de los ordenadores.
Si bien esta definición es bastante acotada a la utilización que hoy en día se le da a este término, lo cierto es que este concepto con el tiempo ha ido mejorando a medida que se implementaban nuevas tecnologías, pudiendo realizar otras actividades frente al ordenador y lógicamente, mejorando las velocidades de la comunicación mediante nuevo Hardware.
Su aparición como ciencia se debe a la presentación del primer ordenador, en una fecha cercana al año 1940, aunque su aplicación y su campo de estudio se fueron ampliando a medida que la tecnología avanzó (y sigue magnificándose aún más)
Se suele definir como ciencia utilizando una terminología similar, siendo la palabra exacta la Computación, o su nombre completo de Ciencia de la Computación, diferenciándose no solo el objeto de estudio sino qué es lo que se está estudiando, siendo esta última más enfocada al desarrollo de mejores ordenadores para utilizar hoy en día.
El origen del término Informática proviene de la conjunción de las palabras “Información” y “Automática”

¿Cuál es la diferencia entre informática y computación? 

La Informática es la ciencia del tratamiento automático de la información a través de un computador, y la computación es lo relativo al computador, tanto su parte electrónica como software, antiguamente relacionado con el "computo" de valores.
La informática se refiere al manejo automatizado de la información la computación es más enfocada a el uso de lo que usas para automatizar ese manejo.

Primeros indicios de la informática

Al principio el ábaco fue considerado como una de las herramientas mecánicas para la realización de cálculos aritméticos y como uno de los avances más notorios del hombre hacia la modernización, fue hasta que en 1642 Blaise Pascal diseño un aparato que se le nombro “La Pascalina” que estaba basado en mecanismos de relojería que permitía efectuar las operaciones básicas (Suma y Resta). 
El funcionamiento principal de La Máquina de Pascal (La Pascalina) se centra en las Ruedas o Engranes, la maquina constaba de varias Ruedas, una Representa a las Unidades, otra a las Decenas, otra a las Centenas, la idea de esta máquina era que una de las ruedas al dar un giro completo en este caso la de la centena ocasionaba que se moviera un décimo de giro la rueda de las unidades y asi sucesivamente. 
En 1964, Leibnitz Creo una Maquina que Podía Multiplicar y Dividir, además de las funciones de Sumar y Restar. 
William Oughtred, creo una herramienta basada en un descubrimiento matemático realizado 20 años atrás, los logaritmos. El Uso Fundamental de Los Logaritmos es Facilitar el Cálculo de Multiplicaciones y Divisiones, reduciéndola a la Suma y Resta de sus logaritmos. Basado en estos resultados, Oughtred invento “La Regla de Calculo” esto fue en paralelo con la salida o descubrimiento de la Maquina de Pascal. 
La persona que sentó las Bases para la Computación Moderna Fue “Charles Babbage” (matemático e Ingeniero Ingles). El propuso la construcción de una máquina para que hiciera los cálculos y para no utilizar la regla de cálculo, y le llamo “La Máquina de Diferencias”, durante su desarrollo de la Maquina de Diferencias Tuvo Dos Ideas Que hasta este momento Son parte de la computación moderna y forman parte del diseño de cualquier computadora: 
1.      La máquina debe de ser capaz de ejecutar varias operaciones elegibles por unas instrucción que se encuentran en un medio externo, es decir que se pueda Programar para que lleve a cabo una tarea. 
2.      La máquina debe de disponer de un medio para almacenar los datos intermedios y finales 
Pensando en estas dos ideas, diseño y le llamo La Máquina Analítica que nunca se construyó por que la tecnología de la época no estaba lo suficientemente desarrollada para llevarla a cabo, Tiempo después se realiza la construcción de la Maquina analítica. 
Las Características de esta Maquina Analítica incluye una Memoria que puede almacenar hasta 1000 números de hasta 50 dígitos cada uno, las operaciones que realizaba esta máquina eran almacenadas en unas “Tarjetas Perforadas”, se estimaba que la maquina tardaba un segundo en hacer una suma y un Minuto en una Multiplicación. 
La Máquina de Hollerith 
En la década de 1880, la oficina del censo de los Estados Unidos, deseaba agilizar el proceso del censo de 1890, para llevar a cabo esta labor, se contrató a Herman Hollerith (un experto en estadística) para que diseñara alguna técnica que pudiera acelerar el levantamiento de datos y análisis de los datos obtenidos en el censo. 
Hollerith propuso la utilización de tarjetas en las que se perforarían los datos, según un estándar preestablecido, una vez perforadas las tarjetas están serian tabuladas y clasificadas por maquinas especiales. 
La idea de las tarjetas perforadas no fue original de Hollerith, él se basó en el trabajo hecho en el telar de Joseph Jacquard, Joseph ingenio un sistema donde la trama de un diseño de una tela asi como la información necesaria para realizar su confección era almacenada en Tarjetas Perforada, el telar realizaba el diseño leyendo la información contenidas en las tarjeta. 
La propuesta de Hollerith resulto ser un éxito se procesó la información del censo de 1890 en tan solo 3 Años en comparación con los otros censos que en promedio se procesaban en 8 años. 
Después de algún tiempo Hollerith dejo la Oficina del Censo y fundo su propia compañía que se llamó la “Tabulating Machines Company”, y que luego de algunos cambios se convertiría en IBM (International Business Machines Coporation). 
En Resumen La Aportación que hizo Hollerith a la Informática fue la Introducción de Las Tarjetas Perforadas para el procesamiento de la información. 
AÑO
AUTOR
DESCUBRIMIENTO
1642
Blaise Pascal
La Pascalina que estaba basado en mecanismos de relojería que permitía efectuar las operaciones básicas (Suma y Resta). 
1964
Gottfried LeibnitzCreo una Maquina que Podía Multiplicar y Dividir, además de las funciones de Sumar y Restar
1633
William Oughtred
Creó un instrumento que hoy se conoce como regla de cálculo, utilizado hasta hace unos años por los ingenieros
1833 
Charles Babbage
El propuso la construcción de una máquina para que hiciera los cálculos y para no utilizar la regla de cálculo, y le llamo “La Máquina deDiferencias”.
1890
Hollerith
Introducción de Las Tarjetas Perforadas para el procesamiento de la información. 

GENERACIONES DE LOS COMPUTADORES
Las grandes etapas del mundo informático nacen aproximadamente en los años cincuenta, donde se comienzan a comercializar las computadoras y dejan de ser parte exclusiva de los militares y científicos; esta etapa se conoce con el nombre de GENERACIONES.
El avance tecnológico se produce gracias al desarrollo l de los diferentes componentes electrónicos.
El computador solo desempeñaba una función en especial y para realizar otra acción diferente se tenía que manipular o cambiar la parte física y lógica.
PRIMERA GENERACIÓN (1951-1959)
Los computadores de la primera generación aparecen aproximadamente en 1951 hasta 1959, introduciendo la primera computadora digital electrónica comercialmente viable; se caracterizó per el use de BULBOS, que consumían mucha energía, producían mucho calor y duraban poco tiempo.
La Universal Automatic Computer, UNIVAC I, desarrollada por Mauchly y Ecker para la Remington-Rand Corporation, fue la primera computadora  electrónica comercial, instalada en la oficina de censos de Estados- Unidos en 1951, desplazando las tarjetas perforadas.
Su velocidad era diez veces superior a la ENIAC y su tamaño diez veces menor, pero continuaban los errores de procesamientos do datos. Se desarrolla la producción en serie de las computadoras. El lenguaje de programación utilizado es el de máquina. Como únicos medios de almacenamiento para conseguir información estaban las tarjetas perforadas, etc.
CARACTERÍSTICAS PRINCIPALES:
  1. Válvula electrónica (tubos al vacío.)
  2. Se construye el ordenador ENIAC de grandes dimensiones (30 toneladas.)
  3. Alto consumo de energía. El voltaje de los tubos era de 300 v y la posibilidad de fundirse era grande.
  4. Almacenamiento de la información en tambor magnético interior. 
  5. Un tambor magnético disponía de su interior del ordenador, recogía y memorizaba los datos y los programas que se le suministraban mediante tarjetas.
  6. Lenguaje de máquina. 
  7. La programación se codifica en un lenguaje muy rudimentario denominado lenguaje de máquina. 
  8. Consistía en la yuxtaposición de largo bits o cadenas de cero y unos.
  9. Fabricación industrial. 
  10. La iniciativa se aventuró a entrar en este campo e inició la fabricación de computadoras en serie.  
  11. Aplicaciones comerciales. 
  12. La gran novedad fue el uso de la computadora en actividades  comerciales.



SEGUNDA GENERACICN (1959 - 1964)

En 1947 se desarrolla el TRANSISTOR (transference resistor), desempeñaba las mismas funciones que el bulbo pero era más rápido, confiable, 150 veces más pequeño y requería menos electricidad.
La segunda generación se inicia aproximadamente en 1959 hasta 1964, el computador disminuye su tamaño, incrementa su potencia y se vuelve confiable, menos costoso y más fácil de operar que sus predecesoras a base Bulbos. La velocidad de procesamiento de datos se media en milisegundos (ms) y 110 en segundos como en la anterior generación. Sólo las compañías grandes podían pagar las computadoras de esa época cuyos precios ascendían a miles y decenas de miles de dólares.
Grace Murria Hooper (1906-1992), quien en 1952 habia inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), que se encago de desarrollar el proyecto COBOL El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y  se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.
CARACTERÍSTICAS  PRINCIPALES
  1. Transistor. El componente principal es un pequeño trozo de semiconductor, y se expone en los llamados circuitos transistorizados.
  2. Disminución del tamaño.
  3. Disminución del consumo y de la producción del calor.
  4. Su fiabilidad alcanza metas imaginables con los efímeros tubos al vacío.
  5. Mayor rapidez ala velocidades de datos.
  6. Memoria interna de núcleos de ferrita.
  7. Instrumentos de almacenamiento.
  8. Mejora de los dispositivos de entrada y salida.
  9. Introducción de elementos modulares.
  10. Lenguaje  de programación más potente.
TERCERA GENERACIÓN (1965-4970)

Abarca aproximadamente desde los años 1965 a 1970. Se caracteriza por que  los transistores fueron reemplazados por los CIRCUITOS INTEGRADOS o CHIP, CD los cuales se colocaban varios componentes electrónicos (resistores, diodos, transistores, capacitores), que produjo una reducción en el tamaño de los equipos, en su costo y en su consumo de energía, además incrementó su confiabilidad y su velocidad de procesamiento 

La DEC (Digital Equipment Corporation) 1963 crea la primera minicomputadora PDP—8; se la utilizaba en plantas de manufactura, inventarios, laboratorios científicos, microempresas. Su éxito comercial se dio en 1965. Seymour Cray crea la primera supercomputadora llamada Control Data CDC 6600, luego es mejorada originando las CRAY 

Junto con esta generación de computadoras proliferaron los lenguajes de programación (Software) de alto nivel (BASIC, PASCAL, etc.), incrementando el campo de utilización de los computadores. Surgió el empleo de memoria virtual permitiendo la optimización del uso de la memoria principal. En 1969 se incursiona en redes (teleprocesos) Internet en el proyecto ARPANET y los usuarios podían compartir simultáneamente una computadora.
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras.
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.

CARACTERÍSTICAS GENERALES
  • Circuito integrado, miniaturización y reunión de centenares de elementos en una placa de silicio o (chip)
  • Menor consumo.
  • Apreciable reducción de espacio.
  • Aumento de fiabilidad.
  • Teleproceso.
  • Multiprogramación.
  • Renovación de periféricos.
  • Instrumentación del sistema.
  • Compatibilidad.
  • Ampliación de las aplicaciones.
  • La mini computadora.


CUARTA GENERACIÓN

Esta generación se caracteriza por los microcircuitos, colocando todos los principales componente electrónicos del U.C.S. (unidad central da sistema) dentro de un microchip llamado microprocesador.
Se inicié aproximadamente en el año 1971, el computador pasa a ser parte esencial el hogar, educación, empresas, etc. El número de compañías de  computadoras se incrementó (IBM, APPLE, COMPAQ, DELL, etc.) y 10s precios se vuelven más accesibles a la economía de las personas.
Las redes se desarrollan y la tecnología inalámbrica esté en su apogeo. Se utilizaban los disquetes, CD, DVD, unidades ZIP como unidades de almacenamiento externo. En 1971 se crea KENBAK—1, primera computadora personal controlada por un microprocesador. 
EN 1975 se crea la empresa Microsoft dirigida por William H. Gates III y Paul Allan.
En 1976 Steve Jobs y Steve Wozniac fundaron Apple Computer Inc. lanzando el primer microordenador con un  microprocesador desarrollado por la Motorola Corporation.
En 1981 la Microsoft Ianza al mercado el MS- DOS. El 12 de agosto 1981 la IBM presenta su producto PC (computadora personal) con un chip de INTEL 8088, memoria RAM de 64 Kb, disquete de  5 1/4 pulgadas, impresora y monitor monocromático.
En 1984 la APPLE presenta su computador MACINTOSH.
En 1985 la Microsoft aparece el sistema operativo Windows 1.0. En 1990 se crea la WWW (WORLD WIDE WEB) ofrece una interfaz gráfica para el manejo de Internet a través de la página Web
Se inventan una gran cantidad de lenguajes y se crea la programación orientada a objeto qua torna más sencilla la elaboración da programas por ejemplo: Visual Basic, Visual .NET, Visual C, etc.

CARACTERÍSTICAS GENERALES
  1. Desarrollo del microprocesador
  2. Memorias de chips
  3. Supercomputadoras
  4. Placa que tiene chip de silicio
  5. Se colocaban más circuitos en el chip. 


QUINTA GENERACIÓN 

En esta generación se podrá multiplicar la velocidad y reducir el costo, tamaño, con la utilización de nuevas tecnologías de microchips como la molecular o nanotecnología, creando en teoría computadoras más pequeñas que una bacteria.



Se utilizara los programas inteligentes, se dará una orden en forma oral (lenguaje natural) y automáticamente buscara la forma de ejecutar la tarea; esto se podrá aplicar en las casas inteligentes.
Una de sus áreas de utilización constituye el empleo de lenguajes conversacionales altamente interactivos en que el computador conduce todas las fases del procesamiento de información.



Esta nueva generación incluye el uso de inteligencia artificial y de sistemas expertos, interfaz de datos, imágenes y voz. Las redes de computadoras estarán conectadas de una forma continua, el Internet satelital y los ordenadores que se auto reparan serán una realidad La búsqueda de información será exacta y veloz. El entretenimiento se manejara en forma virtual (3D) y la identidad de las personas se  digitalizara.
Otra área de desarrollo, es el control total de procesos robotizados, particularmente en zonas de alto riesgo o elevada mecanización y la interconexión entre todo tipo de computadores. ·


CARACTERÍSTICAS GENERALES
  1. Sistemas expertos
  2. Sistemas inteligentes
  3. Robótica
  4. Redes de comunicación
  5. Computadoras personales


CUADRO COMPARATIVO GENERACIÓN AÑO CARACTERÍSTICAS



1era Generación
2da  Generación
3eraGeneración
4taGeneración
5ta Generación
AÑO
1951-1952
1952-1964
1964-1971
1971-1988
1988 al presente
ALMACENAMIENTO
Almacenamiento de la información en tambor magnético interior. Un tambor magnético disponía de su interior del ordenador, recogía y memorizaba los datos y los programas que se le suministraban.
cintas y discos
Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta
Aumenta la capacidad de almacenamiento
Mayor almacenamiento
PROGRAMACIÓN
Programación en lenguaje máquina, consistía en largas cadenas de bits, de ceros y unos, por lo que la programación resultaba larga y compleja.
Lenguajes de programación más potentes, ensambladores y de alto nivel (fortran, cobol y algol).
Generalizació n de lenguajes de programación de alto nivel.
Computadora que pueda procesar varios Programas de manera simultánea.
Sistemas de tratamiento de bases de datos
Lenguajes de programación: PROGOL (Programming Logic) y LISP (List Processing).
TARJETAS
Uso de tarjetas perforadas para suministrar datos y los programas
Mejoran los dispositivos de entrada y salida, para la mejor lectura de tarjetas perforadas, se disponía de células fotoeléctricas
Circuitos integrados
Aumento en las mejoras de las tarjetas
Multiprocesador (Procesadores interconectados)
FABRICACIÓN INDUSTRIAL
La iniciativa se aventuro a entrar en este campo e inició la fabricación de computadoras en serie.
Se utilizaban anillos magnéticos para almacenar la información
Grandes aplicaciones humana
Generalizació n de las aplicaciones: innumerables. ..
Hogar, industrial, etc
COSTO
Alto costo.
Alto costo
Alto costo.
Alto costo.
Alto costo.
PERSONAJES DESTACADOS
Eckert y Mauchly
Grace Murria Hooper
ingeniero Jack S. Kilby descubridor del primer circuito integrado
Microsoft dirigida por William H. Gates III y Paul Allan.
En 1976 Steve Jobs y Steve Wozniac






































Acerca de las generaciones de las computadoras nos hemos dado cuenta del avance que han tenidos y, gracias a los avances en relación a ellas hemos alcanzado un nivel de tecnología muy elevado el cual nos ha servido para muchas áreas, como por ejemplo las comunicaciones, la medicina, la educación, etc.
La velocidad y capacidad de las computadoras se centra sobre todo en la mejora de la tecnología de los circuitos integrados y en el desarrollo de componentes de conmutación aún más rápidos. Se han construido circuitos integrados a gran escala que contienen varios millones de componentes en un solo chip.
Las computadoras se han convertido en la principal herramienta utilizada por el hombre y ya son parte esencial de cada uno de nosotros, y usted deberá aprender todas esas, antes complicadas hoy comunes tecnologías modernas.








BBC Mundo

¿Cómo llegó el mundo a funcionar en código?

La web, tan presente que parece vieja, recién tiene 20 años, mientras que el lenguaje de las computadoras es muy antiguo

¿Cómo llegó el mundo a funcionar en código?

Desde la guadaña hasta el motor de vapor, siempre hemos usado la tecnología para controlar al mundo que nos rodea.
Pero nuestra habilidad para modelar nuestro entorno fue transformado por una máquina quizás más que cualquier otra: lacomputadora.
Lo que hace a las computadoras poderosas es el código: es increíblemente flexible, de manera que puede controlar desde juegos hasta naves espaciales.
Llegó a serlo gracias a individuos geniales, invenciones que brotaron de la necesidad y el poder de la imaginación humana.
1679 - Binario: el lenguaje de las computadoras
¿Cómo llegó el mundo a funcionar en código?
La raíz del mundo digital de hoy en día tiene sus orígenes en una idea sencilla de hace tres siglos: el código binario.
Los humanos hemos creado códigos desde las épocas antiguas. Pero fue un matemático alemán el que se inventó el código que apuntala casi toda la computación en la actualidad.
Gottfried Liebniz creó un sistema que no utilizaba los diez dígitos normales, 0 al 9, sino sólo dos: el 0 y el 1.
Lo llamó "binario" y se imaginó una calculadora mecánica en la que unas bolitas podían caer por un hueco para representar al 1 o quedarse por fuera cuando el hueco estuviera cerrado, para representar al 0.
La calculadora nunca se fabricó, pero la idea de Liebniz allanó el camino para la informática.
1804 - El telar de Jacquard: máquinas controladas por cartón
Más de un siglo después de que Leibniz inventara el sistema binario, un tejedor francés lo usó para cambiar la forma en la que hacía textiles. José Jacquard inventó un telar automático con motor de vapor. 
La guía eran pedazos de cartón que contenían filas de huecos. La presencia o ausencia de un hueco en cada posición programaba al telar a tejer cierto patrón. Una tarjeta distinta hacía que el telar produjera un patrón distinto.
Las tarjetas eran en efecto las instrucciones para el telar: un antecesor a los programas de computador modernos.
1842-1843 - Babbage y Lovelace: la primera idea del hardware y software
Ada Lovelace fue una matemática inglesa que se adelantó en el tiempo al describir cómo programar una máquina calculadora mucho antes de que las computadoras fueran desarrolladas.
El también matemático británico Charles Babbage llevó la idea de Jacquard más lejos y diseñó el Motor Analítico: la primera calculadora de uso general.
La idea de Babbage era que las tarjetas perforadas alimentarían con números y con las instrucciones sobre qué hacer con esos números a la máquina.
Eso hizo que la calculadora fuera increíblemente flexible.
En 1842, su colega Lovelace describió exactamente cómo las tarjetas perforadas podían programar el Motor Analítico para que hiciera un cálculo específico.
Aunque la calculadora nunca fue construida y por ende su programa nunca fue probado, Lovelace se llevó el crédito de ser la primera programadora de computador de la historia.
1890 - La máquina de censo de Hollerith: el nacimiento de big data
El censo de Estados Unidos al final del siglo XIX representaba una pesadilla administrativa. Iba a tomar ocho años registrar manualmente los datos de cada ciudadano.
Un oficinista llamado Herman Hollerith encontró la solución. Se dio cuenta de que podía adaptar las tarjetas perforadas de Jacquard y Babbage usando la nueva tecnología de la electricidad.
La información del censo de cada persona era codificada en una tarjeta. Con unos alfileres se presionaba sobre la tarjeta y si pasaban por un hueco, se completaba un circuito eléctrico que se registraba.
Hollerith tornó su invento en un negocio, que más tarde llegó a ser la firma de computadores IBM.
1923 - Enigma: matemáticas para guardar secretos militares
La idea de usar electricidad para cifrar fue aprovechada por los militares. Al final de la Primera Guerra Mundial, el ingeniero alemán Arturo Scherbius diseñó la máquina Enigma, que podía cifrar y descifrar mensajes secretos codificados.
Pronto estuvo disponible comercialmente y le siguieron otros modelos más complicados.
El código Enigma fue usado por la Alemania nazi en la Segunda Guerra Mundial y descifrado por matemáticos británicos que trabajaban en Bletchley Park, como Alan Turing.
Se le acredita a la capacidad de los aliados de descodificar los mensajes alemanes el haber acortado la guerra por dos años.
1936 - La máquina universal Turing: una computadora multipropósito
Las primeras máquinas de computador como Enigma estaban programadas para cumplir con sólo un tipo de tarea.
Alan Turing se propuso hacer una máquina que pudiera hacer más.
La describió como una máquina flexible que seguiría las instrucciones de un largo pedazo de cinta, lo que sería el equivalente de la memoria de una computadora moderna.
Como los patrones cifrados en la cinta podrían ser cambiados fácilmente, la máquina sería capaz de hacer casi cualquier tarea.
Aunque esto suena como una idea simple hoy en día, en esa época era un concepto radical.
1948 - El "Baby" de Manchester: la primera computadora electrónica
Aunque Turing tuvo la visión de una computadora multipropósito, confeccionar una memoria vasta de instrucciones en una cinta de papel no era una solución práctica.
En 1948, un equipo de ingenieros en la Universidad de Manchester encontró la manera de guardar memoria usando cargas eléctricas, una técnica inspirada en los equipos de radares de la guerra.
Eso les permitió construir la primera computadora para propósitos generales que funcionaba: la Manchester Small Scale Experimental Machine (la máquina experimental a escala pequeña de Manchester).
La llamaban "Baby", estaba programada con código binario, contenía 128 bytes de memoria y ocupaba una habitación entera.
1951 y 1961 - La computadora se torna musical y juguetona
La "Baby" pronto se convirtió en el prototipo para la primera computadora electrónica para uso general que se vendió comercialmente: la Ferranti Mark 1.
Incluía un programa musical fue escrito por un amigo de Alan Turing, el científico Christopher Strachey.
Tras demostrar que podían hacer música, las computadoras se empezaron a usar para crear la primera forma de entretenimiento interactiva.
En 1961, a tres jóvenes programadores de MIT les dieron la oportunidad de experimentar con una computadora inusualmente pequeña, la PDP-1 (del tamaño de dos refrigeradores).
Lo que crearon fue "Spacewar!", el que ahora muchos consideran como el primer videojuego verdadero.
Dos jugadores, cada uno controlando una nave espacial, tenían la tarea de destruir al otro mientras orbitaban una estrella. El juego introdujo muchos de los conceptos que le son familiares a los aficionados de hoy, entre ellos la acción en tiempo real y los disparos.
1966 - Los computadores de Nasa: el software que nos lleva al espacio
Cuando empezaron a introducirse nuevos computadores más pequeños en el diseño de otras máquinas, se abrió la posibilidad de viajar al espacio.
El sistema Computador de Navegación del Apolo fue diseñado por el programa espacial de Nasa de Apolo. Fue usado por primera vez en 1966, y en cuestión de tres años le ayudó a Neil Armstrong y Buzz Aldrin a llegar a la superficie de la Luna.
Con sólo 74KB de memoria -menos que una calculadora de hoy en día- era capaz de controlar una nave espacial de 13.000 kilogramos, que viajó a 3.500 km/h alrededor de la Luna, alunizó sin problemas y regresó a la Tierra.
1971 - El microprocesador Intel: un salto cuántico para adelante
La computación entró en una nueva era en 1971, cuando laCorporación Intel lanzó al mercado su primer microprocesador comercial.
Valiéndose de la nueva tecnología con silicio, el Intel 4004 contenía el poder de procesamiento de una computadora en un chip minúsculo.
Inicialmente fue comisionado para una calculadora electrónica japonesa, pero ese chip y los que le sucedieron pronto fueron usados en una amplia gama de máquinas, incluso algunas de las primeras computadoras personales.
1975 - El Homebrew Computer Club: computadoras personales y nuevos lenguajes
Con microprocesadores cada vez más poderosos y computadores más pequeños, la computación personal empezó a generalizarse.
Un grupo de entusiastas en el Silicon Valley, California, fundaron el Homebrew Computer Club para intercambiar ideas. Fue uno de los primeros y se convirtió en uno de los más influyentes clubes de computadoras de la historia. Sus integrantes hacían computadoras y escribían lenguajes de programación para ellas.
Entre los miembros se contaba a Steve Wozniak, quien hizo la primera computadora Apple, usando una versión de BASIC, (siglas de Beginner's All-purpose Symbolic Instruction Code o Código simbólico de instrucciones de propósito general para principiantes).
Otro entusiasta de la computación de esa época -aunque no miembro del club- era Bill Gates, quien se enfocó en el software y escribió Microsoft BASIC.
1984 - El nacimiento de la creatividad digital
El creciente poder de los programas de computador empezó a ayudar a tornar grandes ideas en realidad.
Los arquitectos comenzaron a usar programas de diseño asistido por computadora conocidos como CAD (por las siglas en inglés de computer aided-design) a principios de la década de los 80 para diseñar y esbozar osadas estructuras.
En vez de matarse haciendo dibujos en papel y modelos a mano, las computadoras le permitieron a los diseñadores probar nuevos materiales y técnicas de construcción más rápidos, precisos y rentables.
Hoy en día, CAD no sólo ha revolucionado la arquitectura y la ingeniería, sino que también está multiplicando las posibilidades a mentes creativas en campos que van desde la moda hasta el paisajismo.
1986 - Un "big-bang" para el mercado de valores
En 1986, la desregulación de los mercados de valores -conocido como el "Big Bang"- le abrió las puertas a una revolución computarizada: los mercados financieros manejados con código.
La escena con agentes gritando y gesticulando para comprar y vender en un sitio físico se volvió cosa del pasado: las transacciones electrónicas tienen lugar en mercados virtuales.
Hoy, casi todas las transacciones de acciones en el London Stock Exchange se hacen por medio de computadoras que procesan más de un millón al día.
1990 - El poder del computador mapea el código de la vida
La capacidad de las computadoras de procesar vastas cantidades de datos permitió incursionar en nuevas áreas de exploración científica.
Ninguna tan ambiciosa como el Proyecto del Genoma Humano: la apuesta de mapear las 3.000 millones de letras que componen el código genético.
El proyecto tomó más de una década. El genoma humano fue cortado en fragmentos aleatorios superpuestos, permitiendo secuenciar el ADN de cada uno.
El software escrito por los expertos informáticos de la Universidad de California Santa Cruz identificó rápidamente las secuencias superpuestas y reconstruyó el genoma.
1991 - WWW: el experimento científico que se convirtió en un fenómeno cultural
¿Cómo llegó el mundo a funcionar en código?

Así era la primera página de la WWW.
Los científicos estaban empezando a considerar a la computación no sólo como una manera de hacer tareas sino también como una forma de compartir y colaborar.
El científico de la computación británico Tim Berners-Lee se inventó un sistema para vincular documentos e información con hipervínculos o enlaces.
Lo llamó la "world wide web" o red informática mundial. Podía usarse en casi cualquier computador, de manera que quien estuviera conectado a internet pudiera tener acceso a toda la información en la web.
Y como Berners-Lee nunca patentó esa tecnología, se expandió rápidamente. En cuestión de cinco años, había 100.000 sitios web en el mundo.
Hoy en día se estima que hay más de 500.000 millones.
1997 - Google: buscando en la web
¿Cómo llegó el mundo a funcionar en código?
Con la dramática multiplicación de los sitios web se volvió más difícil encontrar información. La web estaba en peligro de ser víctima de su propio éxito.
Entonces, dos estudiantes de la Universidad de Stanford, Larry Page y Sergey Brin, encontraron la manera de medir la popularidad de los sitios web, basándose en cuán a menudo había vínculos a la página.
Lo que empezó como un proyecto académico pronto se convirtió en una iniciativa empresarial, y el nuevo motor de búsqueda -llamadoGoogle- se pasó a ser la herramienta con la que la mayoría de la gente encuentra lo que está buscando en la web.
2004 - Facebook: estudiantes se expresan virtualmente
¿Cómo llegó el mundo a funcionar en código?
En 2004, otro grupo de estudiantes redefinieron nuestra relación con la red.
El estudiante de psicología de la Universidad de Harvard Mark Zuckerberg, junto con unos compañeros de su colegio, conformaron y lanzaron una red social para los estudiantes de esa universidad.
Thefacebook, como se conoció originalmente, pronto se expandió por otras universidades de élite y más allá.
Hoy en día, los programadores de Facebook publican nuevos códigos hasta dos veces al día para introducir nuevas funciones, proveyendo servicios en tiempo real a nivel global a los 802 millones de usuarios que acceden a diario.
2008 - Apps en celulares: los programas de computador en su bolsillo
Hace 20 años, virtualmente nadie usaba celulares; ahora, es difícil imaginarse la vida sin ellos.
Los aparatos portátiles en la actualidad son más poderosos y están más conectados que las computadoras de escritorio de los años 90.
Y para aprovechar todo ese poder se crearon las apps, o aplicaciones: programas de computador individuales que funcionan en teléfonos inteligentes.
Apple lanzó la primera tienda de aplicaciones en julio de 2008, y varios meses después lo siguió el Android Market.
El Apple App Store tuvo 10 millones de descargas en el primer fin de semana, y Facebook fue la aplicación más popular al final del año.
Las aplicaciones proveen una ruta de un sólo paso a servicios como redes sociales o bancos, y pueden ser creadas por cualquier persona que quiera codificar.