martes, 5 de abril de 2016

Cable Coaxial Grueso y Fino

Eduardo Raúl Cotto Bello                                 06/04/2016     6º-D
Cable Coaxial Grueso
Coaxial grueso ("thick" ): Es el cable más utilizado en LAN´s en un principio y que aún hoy sigue usándose en determinadas circunstancias (alto grado de interferencias, distancias largas, etc.). Los diámetros de su alma/malla son 2,6/9,5 mm. Y el del total del cable de 0,4 pulgadas (aprox. 1 cm.). Como conector se emplea un transceptor ("transceiver") relativamente complejo, ya que su inserción en el cable implica una perforación hasta su núcleo (derivación del cable coaxial mediante un elemento tipo "vampiro" o "grifo").
El Cable Coaxial Grueso, IEEE, o Ethernet 10Base-5, se empleaba, generalmente para crear grandes troncales ("backbones"). Un troncal une muchos pequeños segmentos de red en una gran LAN. El cable coaxial grueso es un troncal excelente porque puede soportar muchos nodos en una topología de bus y el segmento puede ser muy largo. Puede ir de un grupo de trabajo al siguiente, donde las redes departamentales pueden ser interconectadas al troncal. Un segmento de cable coaxial grueso puede tener hasta 500 metros de longitud y máximo de 100 nodos conectados.
El cable coaxial grueso es pesado, rígido, caro y difícil de instalar. Sin embargo es inmune a niveles corrientes de ruido eléctrico, lo que ayuda a la conservación de la integridad delas señales de la red. El cable no ha de ser cortado para instalar nuevos nodos, sino "taladrado" con un dispositivo comúnmente denominado "vampiro". Los nodos deben de ser especiados exactamente en incrementos de 2.5 metros para prevenir la interferencia de la señales. Debido a esta combinación de ventajas e inconvenientes, el cable coaxial grueso es más apropiado, aunque no limitado a, aplicaciones de troncal.
El cable Thicknet es un cable coaxial relativamente rígido de aproximadamente 1,27 centímetros de diámetro. Al cable Thicknet a veces se le denomina Ethernet estándar debido a que fue el primer tipo de cable utilizado con la conocida arquitectura de red Ethernet. El núcleo de cobre del cable Thicknet es más grueso que el del cable Thinnet.
Cuanto mayor sea el grosor del núcleo de cobre, más lejos puede transportar las señales. El cable Thicknet puede llevar una señal a 500 metros. Por tanto, debido a la capacidad de Thicknet para poder soportar transferencia de datos a distancias mayores, a veces se utiliza como enlace central o backbone para conectar varias redes más pequeñas basadas en Thinnet.
 


Eduardo Raul Cotto Bello                                       06/04/2016        6º-D

Cable Coaxial Fino
El cable Thinnet es un cable coaxial flexible de unos 0,64 centímetros de grueso (0,25 pulgadas). Este tipo de cable se puede utilizar para la mayoría de los tipos de instalaciones de redes, ya que es un cable flexible y fácil de manejar.
El cable coaxial Thinnet puede transportar una señal hasta una distancia aproximada de 185 metros (unos 607 pies) antes de que la señal comience a sufrir atenuación.

Los fabricantes de cables han acordado denominaciones específicas para los diferentes tipos de cables. El cable Thinnet está incluido en un grupo que se denomina la familia RG-58 y tiene una impedancia de 50 ohm. (La impedancia es la resistencia, medida en ohmios, a la corriente alterna que circula en un hilo.)

La característica principal de la familia RG-58 es el núcleo central de cobre y los diferentes tipos de cable de esta familia son:
•RG-58/U: Núcleo de cobre sólido.
•RG-58 A/U: Núcleo de hilos trenzados.
•RG-58 C/U: Especificación militar de RG-58 A/U.
•RG-59: Transmisión en banda ancha, como el cable de televisión.
•RG-60: Mayor diámetro y considerado para frecuencias más altas que RG-59, pero también utilizado para transmisiones de banda ancha.
•RG-62: Redes ARCnet.
 

















lunes, 4 de abril de 2016

Tabla de Categorías del Cable UTP

Eduardo Raúl Cotto Bello                               05/04/2016    6º- D

Tabla de Categorías del Cable UTP
En telecomunicaciones, el cable de par trenzado es un tipo de conexión que tiene dos conductores eléctricos aislados y entrelazados para anular las interferencias de fuentes externas y di afonía de los cables adyacentes.
Fue inventado por Alexander Graham Bell en 1881.

El cable de par trenzado consiste en ocho hilos de cobre aislados entre sí, trenzados de dos en dos que se entrelazan de forma helicoidal, como una molécula de ADN. De esta forma el par trenzado constituye un circuito que puede transmitir datos.
Esto se hace porque dos alambres paralelos constituyen una antena simple. Cuando se trenzan los alambres, las ondas se cancelan, por lo que la radiación del cable es menos efectiva.
Así la forma trenzada permite reducir la interferencia eléctrica tanto exterior como de pares cercanos.
Un cable de par trenzado está formado por un grupo de pares trenzados, normalmente cuatro, recubiertos por un material aislante. Cada uno de estos pares se identifica mediante un color.
El entrelazado de cables que llevan señal en modo diferencial (es decir que una es la invertida de la otra), tiene dos motivos principales:
Si tenemos que la forma de onda es A(t) en uno de los cables y en el otro es -A(t) y n(t) es ruido añadido por igual en ambos cables durante el camino hasta el receptor, tendremos: A(t) + n(t) en un cable y en el otro -A(t) + n(t) al hacer la diferencia en el receptor, quedaremos con 2A(t) y habremos eliminado el ruido.

Si pensamos en el campo magnético que producirá esta corriente en el cable y tenemos en cuenta que uno está junto al otro y que en el otro la corriente irá en sentido contrario, entonces los sentidos de los campos magnéticos serán opuestos y el módulo será prácticamente el mismo, con lo cual eliminaremos los campos fuera del cable, evitando así que se induzca alguna corriente en cables aledaños.
Tipos de Cable
Unshielded twisted pair (UTP) o par trenzado sin blindaje: son cables de pares trenzados sin blindar que se utilizan para diferentes tecnologías de redes locales. Son de bajo costo y de fácil uso, pero producen más errores que otros tipos de cable y tienen limitaciones para trabajar a grandes distancias sin regeneración de la señal, su impedancia es de 100 ohmios.

Shielded twisted pair (STP) o par trenzado blindado: se trata de cables de cobre aislados dentro de una cubierta protectora, con un número específico de trenzas por pie. STP se refiere a la cantidad de aislamiento alrededor de un conjunto de cables y, por lo tanto, a su inmunidad al ruido. Se utiliza en redes de ordenadores como Ethernet o Token Ring. Es más caro que la versión sin blindaje y su impedancia es de 150 ohmios.

Foiled twisted pair (FTP) o par trenzado con blindaje global: son cables de pares que poseen una pantalla conductora global en forma trenzada. Mejora la protección frente a interferencias y su impedancia es de 120 ohmios.

Screened fully shielded twisted pair (SFTP) o par trenzado totalmente blindado: es un tipo especial de cable que utiliza múltiples versiones de protección metálica, estos son blindadas y apantalladas.


Categorías
Linkografias

Historia de las Redes de Computadora

Eduardo Raúl Cotto Bello                                          18/03/2016

Historia de las Redes de Computadoras

Una red de computadoras, también llamada red de ordenadores, red de comunicaciones de datos o red informática, es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.
Como en todo proceso de comunicación, se requiere de un emisor, un mensaje, un medio y un receptor. La finalidad principal para la creación de una red de computadoras es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el costo. Un ejemplo es Internet, la cual es una gran red de millones de computadoras ubicadas en distintos puntos del planeta interconectadas básicamente para compartir información y recursos.
La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este último, estructura cada red en siete capas con funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a cuatro capas. Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos estándares.
Historia
El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En 1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire, a Nueva York. A finales de la década de 1960 y en los posteriores 70 fueron creadas las minicomputadoras. En 1976, Apple introduce el Apple I, uno de los primeros ordenadores personales. En 1981, IBM introduce su primer PC. A mitad de la década de 1980 los PC comienzan a usar los módem para compartir archivos con otros ordenadores, en un rango de velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad, especialmente ADSL.
El almacenamiento y análisis de la información ha sido uno de los grandes problemas a que se ha enfrentado el hombre desde que inventó la escritura. No es sino hasta la segunda mitad del siglo XX que el hombre ha podido resolver, parcialmente, ese problema gracias a la invención de la computadora.
En la década de los 50´s el hombre dio un gran salto al inventar la computadora electrónica. La información ya podía ser enviada en grandes cantidades a un lugar central donde se realizaba su procesamiento. Ahora el problema era que esta información tenía que ser acarreada al departamento de proceso de datos.
Con la aparición de las terminales en la década de los 60´s se logró la comunicación directa entre los usuarios y la unidad central de proceso, logrando una comunicación más rápida y eficiente, pero se encontró un obstáculo; entre más terminales y otros periféricos se agregaban a la computadora central, la velocidad de comunicación decaía.
Hacia la mitad de la década de los 70´s la delicada tecnología del silicio e integración en miniatura permitió a los fabricantes de computadoras construir mayor inteligencia en máquinas más pequeñas. Estas máquinas llamadas microcomputadoras descongestionaron a las viejas máquinas centrales. A partir de ese momento cada usuario tenía su propia microcomputadora en su escritorio.
A principios de la década de los 80´s las microcomputadoras habían revolucionado por completo el concepto de computación electrónica así como sus aplicaciones y mercado. Los gerentes de los departamentos de informática fueron perdiendo el control de la información puesto que el proceso de la misma no estaba centralizado.
A esta época se le podría denominar la era del Floppy disk ya que fue en este periodo donde se inventó el floppy (lector de unidades de disco flexible)
Sin embargo de alguna manera se había retrocedido en la forma de procesar información, había que acarrear la información almacenada en los disquetes de una micro a otra y la relativa poca capacidad de los disquetes hacía difícil el manejo de grandes cantidades de información.
Con la llegada de la tecnología Winchester (primer empresa que creo discos duros) se lograron dispositivos (discos duros) que permitían almacenar grandes cantidades de información, capacidades de iban desde 5 Megabytes hasta 100, en la actualidad hay hasta 80 Gigabytes. Una desventaja de esta tecnología era el alto costo que significaba la adquisición de un disco duro. Además, los usuarios tenían la necesidad de compartir información y programas en forma simultánea y todo se hacía de manera mecánica.
Estas razones principalmente aunadas a otras, como él poder compartir recursos de relativa baja utilización y alto costo llevaron a diversos fabricantes y desarrolladores a la idea de las redes locales. Las REDES locales habían nacido.
Las primeras Redes Locales estaban basadas en introducir un servidor de Discos (Disk Servers). Estos equipos permitían a cada usuario el mismo acceso a todas las partes del disco, causando obvios problemas de seguridad y de integridad de datos, ya que la información no estaba segura en ninguna computadora, todos tenían acceso a ella.
La compañía Novell, fue la primera en introducir un Servidor de Archivos ( File Server) en que todos los usuarios pueden tener acceso a la misma información, compartiendo archivos y contando con niveles de seguridad, lo que permite que la integridad de la información no sea violada. Novell, basó su investigación y desarrollo en la idea de que es el Software de Red no el Hardware, el que hace la diferencia en la operación de la red, esto se ha podido constatar. En la actualidad Novell soporta más de 100 tipos de redes y otras casas desarrolladoras han surgido ((Windows, Linux, Uníx. Etc).
Las tendencias actuales indican una definitiva orientación hacia la conectividad de datos. No solo es el envío de la información de una computadora a otra, sino sobre todo en la distribución del procesamiento a lo largo de grandes redes en la empresa, ciudad, país y mundo.
Novell, fue pionero en 1986, una vez más al lanzar la tecnología de protocolo abierto que pretende tener una arquitectura universal de conectividad bajo Netware.
De esta manera comienzan a aparecer las primeras experiencias de transmisión de datos. En los años 40, en una etapa en la que el proceso de datos se limitaba a la utilización de tarjetas perforadas., ya era posible enviar y recibir el contenido de las mismas a través de los medios telegráficos existentes.
A finales de los años sesenta, con la aparición de una nueva generación de ordenadores que implicaba, entre otras mejoras, un costo más accesible de los sistemas informáticos, se incorporan nuevos desarrollos con necesidades de transmisión de datos. En este momento ya son significativos los sistemas que utilizan la red telefónica para tratamiento de datos por lotes o interactivamente, y hacen su aparición las redes de acceso de tiempo compartido.
Todo ello es el preludio de una mayor generalización del uso de sistemas de transmisión de datos., impulsada por organismos públicos y entidades bancarias, que se concreta en España con la aparición, en noviembre de 1971, de la Red Española de Transmisión de Datos
A partir de aquel momento, determinados organismos se ponen en marcha para mediar ante la necesaria normalización de los diversos niveles de transmisión. A causa de todo esto surge la aparición de una primera versión de recomendaciones por parte de C.C.I.T.T. Este organismo, cuyas siglas responden a Comité Consultivo Internacional de Telegrafía y Telefónica., elaboro una serie de recomendaciones correspondientes a equipos de transmisión y a la organización de redes públicas.
Otros organismos de normalización también han establecido diversas reglas y recomendaciones en el área de trabajo de las comunicaciones.
Utilizando redes públicas, diversos constructores han elaborado arquitecturas de red, con el objetivo de elevar los niveles de transmisión y, en función de ello, conseguir una mayor adecuación de las redes a las necesidades del usuario. Estas arquitecturas, que potencian los medios de diálogo de que disponen los diversos constructores a través de sus propios productos, se han empezado a introducir en el mercado. Entre ellas podemos destacar las arquitecturas SNA (I.B.M), DECNET (DIGITAL), DSA (BULL) Y DSN (HEWLETT PACKARD).
Con la aparición en el mercado informático de los productos microinformáticos y de automatización de oficinas, el problema de comunicar sistemas informáticos ha alcanzado un nivel diferente, cuya principal característica es el ámbito geográfico de su distribución; presenta una extensión que abarca desde unos centenares de metros a unas decenas de kilómetros más limitada que la de las redes públicas. Las redes establecidas en este entorno ofrecen otras tipificaciones en cuanto a sus características, facilidades de instalación y costos de implementación. Estas redes reciben la denominación de redes locales y su rápido crecimiento está íntimamente ligado a la estandarización de la microinformática a través de los modelos compatibles, que permiten mayores posibilidades de conexión y diálogos entre ellos.
Otro fenómeno previsible a corto plazo es la sustitución de las redes analógicas por redes digitales, que posibilitaran una mayor velocidad de transmisión y una mayor calidad de línea, y van a permitir la integración de los accesos de las diversas redes a través de la red digital de servicios integrados.

Concepto
Una red está formada por una serie de estaciones de trabajo y por un conjunto de dispositivos como impresoras, escáneres, etc.,.Todos estos dispositivos se encuentran coordinados por máquinas denominadas servidores. Además, existen diferentes dispositivos que añaden funcionalidades a las redes, como los rotures, switches y hubs. Cada dispositivo activo que interviene en la comunicación de forma autónoma se denomina nodo.
Todos estos dispositivos que conforman la red se comunican entre si por medios de transmisión físicos (cables coaxiales, de par trenzado, de fibra óptica, etc) o basados en ondas (redes inalámbricas), aunque si el tamaño de la red lo exige pueden hacerlo mediante líneas telefónicas, de radio de largo alcance o por satélite.
Además una red debe ser:
Confiable: Estar disponible cuando se le requiera, poseer velocidad de respuesta adecuada.
Confidencial: Proteger los datos sobre los usuarios de ladrones de información.
Integra: En su manejo de información

Limkografia