Eduardo Raúl Cotto Bello
18/03/2016
Historia de las Redes de Computadoras
Una red de computadoras, también llamada red de ordenadores, red
de comunicaciones de datos o red informática, es un conjunto de equipos
informáticos y software conectados entre sí por medio de dispositivos
físicos que envían y reciben impulsos eléctricos, ondas
electromagnéticas o cualquier otro medio para el transporte de datos,
con la finalidad de compartir información, recursos y ofrecer servicios.
Como en todo proceso de comunicación, se requiere de un emisor,
un mensaje, un medio y un receptor. La finalidad principal
para la creación de una red de computadoras es compartir los recursos y la
información en la distancia, asegurar la confiabilidad y la
disponibilidad de la información, aumentar la velocidad de transmisión de
los datos y reducir el costo. Un ejemplo es Internet, la cual es una
gran red de millones de computadoras ubicadas en distintos puntos del planeta
interconectadas básicamente para compartir información y recursos.
La estructura y el modo de funcionamiento de las redes informáticas
actuales están definidos en varios estándares, siendo el más importante y
extendido de todos ellos el modelo TCP/IP basado en el modelo de
referencia OSI. Este último, estructura cada red en siete capas con
funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a cuatro
capas. Existen multitud de protocolos repartidos por cada capa, los cuales
también están regidos por sus respectivos estándares.
Historia
El primer indicio de redes de comunicación fue de
tecnología telefónica y telegráfica. En 1940 se transmitieron
datos desde la Universidad de Darmouth, en Nuevo Hampshire, a Nueva
York. A finales de la década de 1960 y en los posteriores 70 fueron creadas las minicomputadoras.
En 1976, Apple introduce el Apple I, uno de los primeros
ordenadores personales. En 1981, IBM introduce su primer PC. A mitad
de la década de 1980 los PC comienzan a usar los módem para compartir
archivos con otros ordenadores, en un rango de velocidades que comenzó en 1200
bps y llegó a los 56 kbps (comunicación punto a punto o dial-up),
cuando empezaron a ser sustituidos por sistema de mayor velocidad,
especialmente ADSL.
El almacenamiento y análisis de la información ha sido uno
de los grandes problemas a que se ha enfrentado el hombre desde que inventó la
escritura. No es sino hasta la segunda mitad del siglo XX que el hombre ha
podido resolver, parcialmente, ese problema gracias a la invención de la
computadora.
En la década de los 50´s el hombre dio un gran salto al
inventar la computadora electrónica. La información ya podía ser enviada en
grandes cantidades a un lugar central donde se realizaba su procesamiento.
Ahora el problema era que esta información tenía que ser acarreada al
departamento de proceso de datos.
Con la aparición de las terminales en la década de los 60´s
se logró la comunicación directa entre los usuarios y la unidad central de
proceso, logrando una comunicación más rápida y eficiente, pero se encontró un
obstáculo; entre más terminales y otros periféricos se agregaban a la
computadora central, la velocidad de comunicación decaía.
Hacia la mitad de la década de los 70´s la delicada
tecnología del silicio e integración en miniatura permitió a los fabricantes de
computadoras construir mayor inteligencia en máquinas más pequeñas. Estas
máquinas llamadas microcomputadoras descongestionaron a las viejas máquinas
centrales. A partir de ese momento cada usuario tenía su propia
microcomputadora en su escritorio.
A principios de la década de los 80´s las microcomputadoras
habían revolucionado por completo el concepto de computación electrónica así
como sus aplicaciones y mercado. Los gerentes de los departamentos de
informática fueron perdiendo el control de la información puesto que el proceso
de la misma no estaba centralizado.
A esta época se le podría denominar la era del Floppy disk
ya que fue en este periodo donde se inventó el floppy (lector de unidades de
disco flexible)
Sin embargo de alguna manera se había retrocedido en la
forma de procesar información, había que acarrear la información almacenada en
los disquetes de una micro a otra y la relativa poca capacidad de los disquetes
hacía difícil el manejo de grandes cantidades de información.
Con la llegada de la tecnología Winchester (primer empresa
que creo discos duros) se lograron dispositivos (discos duros) que permitían
almacenar grandes cantidades de información, capacidades de iban desde 5
Megabytes hasta 100, en la actualidad hay hasta 80 Gigabytes. Una desventaja de
esta tecnología era el alto costo que significaba la adquisición de un disco
duro. Además, los usuarios tenían la necesidad de compartir información y
programas en forma simultánea y todo se hacía de manera mecánica.
Estas razones principalmente aunadas a otras, como él poder
compartir recursos de relativa baja utilización y alto costo llevaron a
diversos fabricantes y desarrolladores a la idea de las redes locales. Las
REDES locales habían nacido.
Las primeras Redes Locales estaban basadas en introducir un
servidor de Discos (Disk Servers). Estos equipos permitían a cada usuario el
mismo acceso a todas las partes del disco, causando obvios problemas de
seguridad y de integridad de datos, ya que la información no estaba segura en
ninguna computadora, todos tenían acceso a ella.
La compañía Novell, fue la primera en introducir un
Servidor de Archivos ( File Server) en que todos los usuarios pueden tener
acceso a la misma información, compartiendo archivos y contando con niveles de
seguridad, lo que permite que la integridad de la información no sea violada.
Novell, basó su investigación y desarrollo en la idea de que es el Software de
Red no el Hardware, el que hace la diferencia en la operación de la red, esto
se ha podido constatar. En la actualidad Novell soporta más de 100 tipos de
redes y otras casas desarrolladoras han surgido ((Windows, Linux, Uníx. Etc).
Las tendencias actuales indican una definitiva orientación
hacia la conectividad de datos. No solo es el envío de la información de una
computadora a otra, sino sobre todo en la distribución del procesamiento a lo
largo de grandes redes en la empresa, ciudad, país y mundo.
Novell, fue pionero en 1986, una vez más al lanzar la
tecnología de protocolo abierto que pretende tener una arquitectura universal
de conectividad bajo Netware.
De esta manera comienzan a aparecer las primeras
experiencias de transmisión de datos. En los años 40, en una etapa en la que el
proceso de datos se limitaba a la utilización de tarjetas perforadas., ya era
posible enviar y recibir el contenido de las mismas a través de los medios
telegráficos existentes.
A finales de los años sesenta, con la aparición de una
nueva generación de ordenadores que implicaba, entre otras mejoras, un costo más
accesible de los sistemas informáticos, se incorporan nuevos desarrollos con
necesidades de transmisión de datos. En este momento ya son significativos los
sistemas que utilizan la red telefónica para tratamiento de datos por lotes o
interactivamente, y hacen su aparición las redes de acceso de tiempo
compartido.
Todo ello es el preludio de una mayor generalización del
uso de sistemas de transmisión de datos., impulsada por organismos públicos y
entidades bancarias, que se concreta en España con la aparición, en noviembre de
1971, de la Red Española de Transmisión de Datos
A partir de aquel momento, determinados organismos se ponen
en marcha para mediar ante la necesaria normalización de los diversos niveles
de transmisión. A causa de todo esto surge la aparición de una primera versión
de recomendaciones por parte de C.C.I.T.T. Este organismo, cuyas siglas
responden a Comité Consultivo Internacional de Telegrafía y Telefónica.,
elaboro una serie de recomendaciones correspondientes a equipos de transmisión
y a la organización de redes públicas.
Otros organismos de normalización también han establecido
diversas reglas y recomendaciones en el área de trabajo de las comunicaciones.
Utilizando redes públicas, diversos constructores han
elaborado arquitecturas de red, con el objetivo de elevar los niveles de
transmisión y, en función de ello, conseguir una mayor adecuación de las redes
a las necesidades del usuario. Estas arquitecturas, que potencian los medios de
diálogo de que disponen los diversos constructores a través de sus propios
productos, se han empezado a introducir en el mercado. Entre ellas podemos
destacar las arquitecturas SNA (I.B.M), DECNET (DIGITAL), DSA (BULL) Y DSN
(HEWLETT PACKARD).
Con la aparición en el mercado informático de los productos
microinformáticos y de automatización de oficinas, el problema de comunicar
sistemas informáticos ha alcanzado un nivel diferente, cuya principal
característica es el ámbito geográfico de su distribución; presenta una
extensión que abarca desde unos centenares de metros a unas decenas de
kilómetros más limitada que la de las redes públicas. Las redes establecidas en
este entorno ofrecen otras tipificaciones en cuanto a sus características,
facilidades de instalación y costos de implementación. Estas redes reciben la
denominación de redes locales y su rápido crecimiento está íntimamente ligado a
la estandarización de la microinformática a través de los modelos compatibles,
que permiten mayores posibilidades de conexión y diálogos entre ellos.
Otro fenómeno previsible a corto plazo es la sustitución de
las redes analógicas por redes digitales, que posibilitaran una mayor velocidad
de transmisión y una mayor calidad de línea, y van a permitir la integración de
los accesos de las diversas redes a través de la red digital de servicios
integrados.
Concepto
Una red está formada por una serie de estaciones de trabajo
y por un conjunto de dispositivos como impresoras, escáneres, etc.,.Todos estos
dispositivos se encuentran coordinados por máquinas denominadas servidores.
Además, existen diferentes dispositivos que añaden funcionalidades a las redes,
como los rotures, switches y hubs. Cada dispositivo activo que interviene en la
comunicación de forma autónoma se denomina nodo.
Todos estos dispositivos que conforman la red se comunican
entre si por medios de transmisión físicos (cables coaxiales, de par trenzado,
de fibra óptica, etc) o basados en ondas (redes inalámbricas), aunque si el
tamaño de la red lo exige pueden hacerlo mediante líneas telefónicas, de radio
de largo alcance o por satélite.
Además una red debe ser:
Confiable: Estar
disponible cuando se le requiera, poseer velocidad de respuesta adecuada.
Confidencial: Proteger
los datos sobre los usuarios de ladrones de información.
Integra: En
su manejo de información
Limkografia