Ordenador o computadora, es una
máquina electrónica que recibe y procesa datos para convertirlos en información
útil, que ejecuta de acuerdo a lo indicado por un usuario o un programa una
gran variedad de secuencias o rutinas de instrucciones que son ordenadas,
organizadas y sistematizadas en función a una serie de aplicaciones, proceso
que llamamos programación.
HISTORIA
La primera aproximación de un
sistema matemático anterior al primer ordenador fue en 1670 cuando un filósofo
y matemático alemán llamado Gottfried Wilhelm Leibniz inventó una máquina que
podía multiplicar.
En 1880 el estadounidense Herman
Hollerith, concibió la idea de utilizar tarjetas perforadas para procesar datos
similares a las que utilizó Marie Jacquard al diseñar un telar automático con
dichas tarjetas. Pero es durante la Segunda Guerra Mundial (1939-1945) cuando
se crea el primer ordenador digital y electrónico llamado “Colossus” por un
equipo de científicos y matemáticos dirigido por Alan Turing y compuesto por
1500 válvulas. Este es utilizado para descodificar los mensajes de radio
cifrados por el ejército alemán. Por ello, podemos decir que el origen del ordenador
tuvo función militar. Aunque no obstante, con independencia de este proyecto en
1939 John Atanasoff y Clifford Berry construyeron un prototipo de máquina
electrónica.
En 1946 se creó el ordenador ENIAC (Electronic
Numerical Integrator and Computer), calculador e integrador numérico
electrónico, el cual tenía una velocidad de varios cientos de multiplicaciones
por minuto. Este estaba compuesto por 18000 válvulas de vacío.
A finales de 1950 se crearon
transistores, eliminando las válvulas, con la mejora de elementos lógicos más
pequeños, rápidos y versátiles. Estos utilizaban menos energía y tenían una
vida más larga que las válvulas. Los componentes se hicieron más pequeños por
lo que abarataba los ordenadores llamados de 2ª Generación (La marina utilizó
los ordenadores de 2ª Generación para crear el primer simulador de vuelo).
A finales de 1960 apareció el
circuito integrado (microprocesador) lanzado por Intel (compañía
estadounidense), donde se incorporan varios transistores en un único sustrato de silicio. Esto provocó una reducción en los precios, el tamaño y la eficiencia de los ordenadores, llamados los ordenadores de 3ª Generación. Más tarde mejoró este introduciendo el circuito a gran escala y el circuito a mayor escala.
estadounidense), donde se incorporan varios transistores en un único sustrato de silicio. Esto provocó una reducción en los precios, el tamaño y la eficiencia de los ordenadores, llamados los ordenadores de 3ª Generación. Más tarde mejoró este introduciendo el circuito a gran escala y el circuito a mayor escala.
LENGUAJE
En primer lugar hablamos de un
lenguaje llamado “Lenguaje de bajo nivel” que está formado por “bits” y es lo que
entendería la máquina. El bit es un sistema de numeración binario compuesto por
dos dígitos (0,1). Con este podemos representar valores como: encendido (1)/apagado
(0), verdadero (1)/falso (0)…
En segundo lugar hablaremos del lenguaje de la programación, que es el que utilizamos para crear programas y dar
instrucciones al ordenador:
El lenguaje es denominado “de alto
nivel”, que se caracteriza por expresar una serie de algoritmos (instrucciones definidas
y ordenadas) adecuados a la capacidad cognitiva humana. Se crearon para que el
usuario pudiese solucionar problemas de procesamiento de datos de una manera
fácil y rápida.
El primer lenguaje fue el Fortran,
desarrollado por la empresa multinacional estadounidense de tecnología IBM
(International Business Machines). Ha sido siempre bastante eficaz a la hora de
realizar cálculos.
Seguidamente se creó el lenguaje Cobol, que se destinó fundamentalmente a la gestión comercial. Ha sido muy útil
en el desarrollo de programas de tratamiento de texto. Pero en todos estos años
se han desarrollado hasta más de 400 lenguajes de programación.
En los últimos años, la
popularización de la informática junto con los ordenadores personales fue paralela
a la invención de otro tipo de programas aún más sencillos de realizar y de
entender, el más conocido era el BASIC, que se orientó desde el primero momento
a los estudiantes y a aquellos que tenían su primer contacto con la informática.
El programa que más se utiliza actualmente
es el “C++”, diseñado en el año 1980 por Bjarne Stroustup. La intención de su
creación fue el extender al exitoso lenguaje de programación “C” con mecanismos que permitan la
manipulación de objetos (conceptos) para programar de otra
forma más cercana a lo humano utilizando modelos y desarrollando conceptos.
SOFTWARE LIBRE Y CERRADO
Software libre: respeta la libertad
de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido
puede ser usado, copiado, estudiado, modificado, y redistribuido libremente.
Suele ser gratuito. Todo esto hace que los errores y la mejora del producto se lleven
a cabo por los usuarios que los utilicen, además de poder innovar y adaptarlo a
sus necesidades. Uno de los mayores problemas es que los errores pueden
solucionarse en un periodo de tiempo largo ya que no tienen una asistencia
inmediata. Ejemplos: Linux, Ubuntu, Knoppis, Fedora, Red Hat…
Software cerrado: es cualquier
programa informático en el que el usuario tiene limitaciones para usarlo,
modificarlo o redistribuirlo. La compañía posee los derechos de autor, por lo
que no es gratuito. Una ventaja con respecto a los software libres es que los
errores se solucionan en poco tiempo. Ejemplos: Mac, Microsoft, Oracle, Sun...
Con respecto a este tema, hay
diferentes opiniones sobre qué software es mejor para el usuario. Unos creen
que no es bueno no poder modificar los programas informáticos del ordenador porque
limita la creatividad, y sin embargo otros opinan que la mayoría de software abierto
tiene un uso más complejo para un usuario que sepa poco de informática. En
cualquier caso, podemos decir que todo tiene sus aspectos positivos y
negativos.
Linux (Software libre) y Microsoft (Software cerrado)
No hay comentarios:
Publicar un comentario