sábado, 29 de septiembre de 2012

El Ordenador


Ordenador o computadora, es una máquina electrónica que recibe y procesa datos para convertirlos en información útil, que ejecuta de acuerdo a lo indicado por un usuario o un programa una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una serie de aplicaciones, proceso que llamamos programación.

HISTORIA

La primera aproximación de un sistema matemático anterior al primer ordenador fue en 1670 cuando un filósofo y matemático alemán llamado Gottfried Wilhelm Leibniz inventó una máquina que podía multiplicar.

En 1880 el estadounidense Herman Hollerith, concibió la idea de utilizar tarjetas perforadas para procesar datos similares a las que utilizó Marie Jacquard al diseñar un telar automático con dichas tarjetas. Pero es durante la Segunda Guerra Mundial (1939-1945) cuando se crea el primer ordenador digital y electrónico llamado “Colossus” por un equipo de científicos y matemáticos dirigido por Alan Turing y compuesto por 1500 válvulas. Este es utilizado para descodificar los mensajes de radio cifrados por el ejército alemán. Por ello, podemos decir que el origen del ordenador tuvo función militar. Aunque no obstante, con independencia de este proyecto en 1939 John Atanasoff y Clifford Berry construyeron un prototipo de máquina electrónica.




En 1946 se creó el ordenador ENIAC (Electronic Numerical Integrator and Computer), calculador e integrador numérico electrónico, el cual tenía una velocidad de varios cientos de multiplicaciones por minuto. Este estaba compuesto por 18000 válvulas de vacío.

 



A finales de 1950 se crearon transistores, eliminando las válvulas, con la mejora de elementos lógicos más pequeños, rápidos y versátiles. Estos utilizaban menos energía y tenían una vida más larga que las válvulas. Los componentes se hicieron más pequeños por lo que abarataba los ordenadores llamados de 2ª Generación (La marina utilizó los ordenadores de 2ª Generación para crear el primer simulador de vuelo).

A finales de 1960 apareció el circuito integrado (microprocesador) lanzado por Intel (compañía 
estadounidense), donde se incorporan varios transistores en un único sustrato de silicio. Esto provocó una reducción en los precios, el tamaño y la eficiencia de los ordenadores, llamados los ordenadores de 3ª Generación. Más tarde mejoró este introduciendo el  circuito a gran escala y el circuito a mayor escala.

LENGUAJE

En primer lugar hablamos de un lenguaje llamado “Lenguaje de bajo nivel” que está formado por “bits” y es lo que entendería la máquina. El bit es un sistema de numeración binario compuesto por dos dígitos (0,1). Con este podemos representar valores como: encendido (1)/apagado (0), verdadero (1)/falso (0)…

En segundo lugar hablaremos del lenguaje de la programación, que es el que utilizamos para crear programas y dar instrucciones al ordenador:

El lenguaje es denominado “de alto nivel”, que se caracteriza por expresar una serie de algoritmos (instrucciones definidas y ordenadas) adecuados a la capacidad cognitiva humana. Se crearon para que el usuario pudiese solucionar problemas de procesamiento de datos de una manera fácil y rápida.

El primer lenguaje fue el Fortran, desarrollado por la empresa multinacional estadounidense de tecnología IBM (International Business Machines). Ha sido siempre bastante eficaz a la hora de realizar cálculos.

Seguidamente se creó el lenguaje Cobol, que se destinó fundamentalmente a la gestión comercial. Ha sido muy útil en el desarrollo de programas de tratamiento de texto. Pero en todos estos años se han desarrollado hasta más de 400 lenguajes de programación.

En los últimos años, la popularización de la informática junto con los ordenadores personales fue paralela a la invención de otro tipo de programas aún más sencillos de realizar y de entender, el más conocido era el BASIC, que se orientó desde el primero momento a los estudiantes y a aquellos que tenían su primer contacto con la informática.

El programa que más se utiliza actualmente es el “C++”, diseñado en el año 1980 por Bjarne Stroustup. La intención de su creación fue el extender al exitoso lenguaje de programación “C” con mecanismos que permitan la manipulación de objetos (conceptos) para programar de otra forma más cercana a lo humano utilizando modelos y desarrollando conceptos.

SOFTWARE LIBRE Y CERRADO

Software libre: respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, modificado, y redistribuido libremente. Suele ser gratuito. Todo esto hace que los errores y la mejora del producto se lleven a cabo por los usuarios que los utilicen, además de poder innovar y adaptarlo a sus necesidades. Uno de los mayores problemas es que los errores pueden solucionarse en un periodo de tiempo largo ya que no tienen una asistencia inmediata. Ejemplos: Linux, Ubuntu, Knoppis, Fedora, Red Hat…

Software cerrado: es cualquier programa informático en el que el usuario tiene limitaciones para usarlo, modificarlo o redistribuirlo. La compañía posee los derechos de autor, por lo que no es gratuito. Una ventaja con respecto a los software libres es que los errores se solucionan en poco tiempo. Ejemplos: Mac, Microsoft, Oracle, Sun...

Con respecto a este tema, hay diferentes opiniones sobre qué software es mejor para el usuario. Unos creen que no es bueno no poder modificar los programas informáticos del ordenador porque limita la creatividad, y sin embargo otros opinan que la mayoría de software abierto tiene un uso más complejo para un usuario que sepa poco de informática. En cualquier caso, podemos decir que todo tiene sus aspectos positivos y negativos.


 Linux (Software libre) y Microsoft (Software cerrado)



 Enlaces de Interés:



No hay comentarios:

Publicar un comentario