TOPOLOGÍAS DE RED
El término topología se refiere a la forma en que está diseñada la red, bien físicamente (rigiéndose de algunas características en su hardware) o bien lógicamente (basándose en las características internas de su software).
La topología de red es la representación geométrica de la relación entre todos los enlaces y los dispositivos que los enlazan entre sí (habitualmente denominados nodos).
Para el día de hoy, existen al menos cinco posibles topologías de red básicas: malla, estrella, árbol, bus y anillo
FACTORES QUE INFLUYEN EN VELOCIDAD ACCESO INTERNET
La velocidad es uno de los factores clave en la selección de la tecnología de acceso a Internet. Por ello, es muy importante conocer en detalle cuáles son los factores que influyen en ella, así como los que pueden ser controlados por el Operador de la Red, el PSI, etc. y aquellos que se escapan al control de unos y de otros. La velocidad de acceso no depende exclusivamente de la velocidad máxima que el módem permita.
Los siguientes aspectos explican en términos sencillos los principales aspectos que inciden en la percepción de la velocidad de navegación por Internet.
Tipos de velocidad en el ADSL
a) Velocidad máxima o de pico en ADSL
Usualmente se asocia la velocidad a la que se espera navegar en Internet con la velocidad "técnica" del módem, en este caso del ADSL. Los servicios ADSL actualmente disponibles especifican velocidades máximas de 256 kbs, 512 kbs y 2 Mbs en sentido descendente, que siempre será mayor que la velocidad a la que se navega.
b) Velocidad sostenida garantizada
En España, el servicio ADSL como acceso indirecto al bucle de abonado (línea del cliente) está regulado y dentro de la definición regulatoria, se definen las velocidades máximas y mínimas sostenidas, siempre en capa ATM. En las modalidades 512 Kbs y 2Mbs se garantiza un mínimo porcentual de la velocidad máxima o de pico y en la modalidad de 256 Kbs una concurrencia máxima que garantice un nivel de calidad. En la práctica es el nivel IP quien determina la velocidad, como se verá a lo largo del documento
c) Velocidad percibida
La realidad es que la velocidad que se percibe no es la máxima, sino otra que es algo menor debido a un número de factores que a continuación expondremos. Lo anterior no debe entenderse sin embargo como una debilidad del ADSL, o en general, de los accesos en banda ancha, sino el reflejo de la complejidad de Internet.
ADSL conceptos fundamentales
A continuación se detallan unos conceptos básicos para evaluar correctamente la velocidad ofrecida por el ADSL.
• La velocidad depende en cada momento del tráfico en Internet y de otros factores técnicos.
• Al contrario de lo que se pueda pensar, no es que el ADSL no alcance las velocidades que dice, sino que, es Internet, con sus especiales características, la que todavía no proporciona las velocidades que permite el ADSL.
• La infraestructura de Internet está siendo continuamente mejorada para soportar el uso creciente de Internet. Sin embargo, existen muchos servidores que operan todavía a 56 Kbs.
• No obstante, se pueden alcanzar velocidades hasta 30 veces más rápidas que con las líneas convencionales (ejemplo que compararía 64 Kbs con 2 Mbs).
• Además el conjunto de redes y subredes que se conectan a Internet (backbone) crece de forma no planificada y una conexión puede implicar una veintena de routers, creando retardos y "turbulencias" en la velocidad percibida. No obstante existe una continua mejora en estos aspectos tanto en la capacidad de los servidores como en la de las redes de Internet.
• Así mismo se están extendiendo técnicas como las de servidores proxy y caché que proporcionan un acceso local más rápido a las páginas más frecuentemente visitadas.
El ADSL con su mayor capacidad permite, en suma, el disfrute de la navegación por Internet en mucho mejores condiciones que con módem analógicos y además propicia, con su presencia en el mercado, la paulatina transformación de Internet hacia una red de considerable mayor capacidad
Conclusiones sobre velocidad y regla rápida de conexión de calidad
Se han revisado los diferentes factores que influyen o hay que tener en cuenta a la hora de comprender la velocidad percibida por un usuario que accede a Internet, en particular mediante ADSL.
Se ha visto que de la velocidad pico definitiva para cada servicio ADSL, un 13% se emplea en información de control del protocolo IP y, por tanto, como máximo, la información útil recibida en IP será el 87% de la velocidad pico ADSL. Otros factores relacionados con el tráfico IP en Internet pueden afectar de forma variable a la velocidad percibida por el usuario.
Una regla práctica y rápida para aplicar a lo que podría considerarse como una excelente conexión a Internet en banda ancha es la del 80% de la velocidad máxima. Con esta regla, las velocidades máximas de ADSL 256 Kbs, 512 Kbs y 2 Mbs se deben corresponder en condiciones óptimas de conexión con 205 Kbs, 410 Kbs y 1640 Kbs respectivamente
Nota importante: la garantía de velocidad sostenida en ATM no implica esa misma garantía en IP. La velocidad en IP depende del tráfico en Internet y de los factores técnicos descritos.
La especificación I.370 define los objetivos del control de congestión en FR, que son los siguientes:
Minimizar el descarte de tramas.
Mantener, con un alto grado de probabilidad y un mínimo de variación, una calidad de servicio acordada.
Minimizar la posibilidad que un usuario final pueda monopolizar los recursos de la red a expensas de los demás usuarios finales.
Ser simple de implementar, e introducir un mínimo overhead tanto en el usuario como en la red.
Distribuir los recursos de red equitativamente entre los usuarios finales.
Limitar la propagación de la congestión hacia elementos dentro de la red y hacia otras redes.
Operar de manera eficiente independientemente del flujo de tráfico en cualquier dirección entre los usuarios.
Minimizar la variación en la calidad de servicio ofrecido a las conexiones FR particulares bajo condiciones de congestión (por ejemplo, las conexiones lógicas individuales no deberán experimentar una repentina degradación cuando se avecina una congestión o cuando la misma ya se ha producido)
En una red FR, resulta difícil realizar el control de congestión debido a las limitadas herramientas que se encuentran disponibles en los switches FR (los nodos de conmutación de tramas). El protocolo FR ha sido ajustado para maximizar el throughput y la eficiencia. Una consecuencia de esto es que un switch FR no puede controlar el flujo de las tramas entrantes desde un suscriptor o un switch FR adyacente empleando el tradicional protocolo de control de flujo de ventana deslizante, tal como se hace en HDLC.
El control de congestión es una responsabilidad compartida por la red y los usuarios finales. La red (es decir, el conjunto de switches FR) está en la mejor posición para monitorear el grado de congestión, mientras que los usuarios finales están en la mejor posición para controlar la congestión limitando el flujo de tráfico que ingresa a la red.
Lo deseable es que esto se haga de la manera más equitativa para todos los usuarios.
Los procedimientos para evitar la congestión se emplean al comienzo de la congestión, a los fines de para minimizar su efecto sobre la red. En consecuencia, estos procedimientos se deberían comenzar a utilizar antes del punto A de la Figura 3, para prevenir que la congestión avance hacia el punto B. En la proximidad del punto A, los usuarios finales deberían detectar una ligera evidencia de que la congestión se está incrementando. Por lo tanto, deberá existir algún mecanismo de señalización explícita desde la red que desencadene los procedimientos para evitar la congestión.
Los procedimientos de recuperación de congestión se utilizan para evitar que la red colapse en la fase de congestión severa. Estos procedimientos generalmente se inician cuando la red ha comenzado a descartar tramas debido a la congestión. Las tramas descartadas han de ser reportadas por alguna capa superior de software (por ejemplo, el protocolo de control LAPF o TCP) y sirven como un mecanismo de señalización implícita. Los procedimientos de recuperación de congestión operan en torno al punto B y dentro de la región de congestión severa como se muestra en la Figura. 3.
Desempeño de una Red
El desempeño de una de red, o network performance, se refiere al nivel de calidad de servicio de un producto de telecomunicaciones desde el punto de vista del cliente de la misma.
Al igual que cualquier otro sistema basado en computador, las redes de ordenadores deben tener un alto desempeño. Los procesos distribuidos que se realizan sobre múltiples máquinas utilizan redes para intercambiar mensajes y datos, y la efectividad de estos procesos dependen en gran medida de la eficiencia con la cual la red entrega dichos mensajes y datos.
El desempeño de una red se mide mediante tres parámetros:
- El throughput,
- La latencia (también llamada delay) y
- El porcentaje de paquetes perdidos.
1. El throughput o rendimiento de una red de datos está dado por el número de bits que pueden ser transmitidos sobre la red en cierto periodo de tiempo.
El throughput es un término comúnmente utilizado en Ámbitos de telecomunicaciones aunque recibe múltiples definiciones según el entorno o aplicación. Típicamente se define como medida de la tasa de transferencia de datos a través de un sistema de comunicaciones. Por lo tanto, las unidades del throughput son bits/s o bytes/s.
En sistemas de comunicaciones donde el canal debe ser compartido por diversos usuarios, el throughput es uno de los parámetros más relevantes en la medida de la eficiencia de un sistema. En un entorno WLAN con, la eficiencia global del sistema en términos de throughput dependerá¡ de la relación entre los intervalos destinados a la transmisión de datos (slot de datos) y los destinados a tráfico de control (principalmente, períodos de contención y paquete de downlink). Por lo tanto, cuanto mayor sean los paquetes transmitidos en el slot de datos y menor sean los intervalos destinados a tráfico de control, mayor será¡ el throughput.
. La segunda métrica de desempeño, la latencia, corresponde al tiempo que le toma a un mensaje viajar de un extremo de la red al otro. La latencia es medida estrictamente en términos de tiempo. Existen muchas situaciones donde es más importante saber cuánto tiempo se gasta enviando un mensaje desde un extremo de la red al otro y que regrese (tiempo del viaje de ida y vuelta). Este tiempo se denomina RTT (round-trip time) de la red.
Se define entonces la latencia, o el retardo de un mensaje, como el intervalo de tiempo transcurrido desde que un mensaje es generado por un nodo hasta que es recibido correctamente por el otro.
El porcentaje de paquetes perdidos o perdida de paquetes, es la cantidad (porcentaje) de paquetes que se pierden en la transmisión de los mismos, desde una estación origen hasta la estación destino.
SITUACIONES ANALOGAS AL CANAL DE SUEZ Y CANADA
Canal de Suez - Características Físicas
Definición:
Es una vía fluvial artificial que corre de norte a sur a través del istmo de Suez, en el noreste de Egipto, esta que une el Mar Mediterráneo con el Mar Rojo, entre África y Asia, a través del Istmo de Suez.
Longitud:
163 km entre Port Said y Suez.
Objetivo:
Acortar la ruta del comercio marítimo entre Europa y el sur de Asia, evitaba tener que rodear a África.
Dimensiones
22 m de anchura máxima en el fondo y de 8 m de profundidad. Anchura media de 3465 m, de los cuales 100 m no son navegables. Al principio, sin embargo, estos valores eran de 52 y 44 m respectivamente.
Longitud y fondo
195 km, 13 m respectivamente
Calado:
se permite el paso de buques de hasta 15 m de calado, existen proyectos hacia el 2010 en marcha par permitir el paso de los superpetroleros cuyo calados oscilan a los 22 m. Actualmente, este tipo de barcos deben descargar parte de su mercancía en un barco perteneciente al canal con el fin de disminuir su calado y poder pasar.
Duración de la travesía:
dura entre2 y 3 semanas.
Tráfico por año:
15,000 naves, representa un 45% del transporte mundial de mercancías
Redes de Comunicaciones
Así como el mundo está cambiando muy rápidamente: algunas personas dirían además que se hace cada vez más pequeño. Este fenómeno está íntimamente relacionado con el impacto de la tecnología: el automóvil incrementó en un factor de 100 la velocidad de desplazamiento de los seres humanos. De esta manera las autopistas transformaron completa e irremediablemente el aspecto de las regiones y los piases a lo largo de este siglo. Sin embargo una nueva revolución tomó lugar de manera menos física (o más virtual) pero aún más impactante: la revolución de las redes de computadoras. Internet ha supuesto una revolución sin precedentes en el mundo de la informática y las telecomunicaciones. El telégrafo, teléfono, radio, televisión y la computadora sentaron las bases para integrar capacidades nunca antes vistas. Internet constituye al mismo tiempo un mecanismo de difusión mundial, de propagación, interacción, y colaboración entre individuos y computadoras, independiente de su localización geográfica.
La red internet ha llegado a un punto de saturación en sus servicios. La comunidad académica ha reaccionado con una nueva propuesta de redes de comunicaciones, con más capacidades y servicios para satisfacer la creciente demanda de información.
La ingeniería en Internet 2 tiene como objetivo el minimizar los costos de acceso a las universidades participantes, proporcionando circuitos de conexión de lata velocidad. Además, mediante una arquitectura flexible es posible una interconexión de otros servicios regionales. Para servicios de áreas extensas un solo servicio será necesario: el gigaPoP (gigabits Point of Presence), que es un punto de interconexión de tecnología avanzada y alta capacidad donde todos los participantes de Internet 2 pueden intercambiar tráfico de servicios avanzados entre si. Las universidades de una región geográfica se pueden unir en un gigaPoP regional para conseguir los servicios de Internet 2
EVOLUCIÓN HISTÓRICA DE LAS TELECOMUNICACIONES
Aparición de las redes de telecomunicación
Podríamos considerar el origen de las telecomunicaciones en tiempos muy remotos, cuando la información a transmitir se enviaba a través de mensajeros, que a pie o a caballo recorrían grandes distancias. El uso de mensajero es poco eficiente pues los mensajes pueden perderse, ser interceptados, y, en cualquier caso, el retraso que sufren los hace poco válidos en ciertas situaciones.
La telegrafía eléctrica
El telégrafo eléctrico fue uno de los primeros inventos que surgieron como aplicación de los descubrimientos de Ampere y Faraday. Consiste en un aparato que transmite mensajes codificados a larga distancia mediante impulsos eléctricos que circulan a través de un cable conductor. Fue Joseph Henry quién, en 1829, construyó el primer telégrafo eléctrico. Sin embargo, la persona que le dio el gran impulso fue el estadounidense Samuel Morse, quién el 1844 llevó a cabo la primera transmisión telegráfica entre Washinton y Baltimore.
En 1866 se instaló el primer cable trasatlántico que unía América con Europa,
permitiendo así la interconexión de ambas redes telegráficas. La telegrafía eléctrica se había impuesto ya por esta época en otros países de Europa desarrollada al amparo del ferrocarril, donde las compañías tenían su propia red que coincidía con el trazado de la línea. En España la primera línea ferroviaria en funcionamiento, de Mataró a Barcelona, contó sorprendentemente con un servicio de telegrafía óptica, lo que constituyó una excepción pues las posteriores líneas se sirvieron de la telegrafía eléctrica para sus comunicaciones.
El invento del teléfono y las redes de telefonía
En febrero de 1876, Alexander Graham Bell registra la patente de su teléfono basado en el principio de la resistencia variable. En principio se podía hablar y escuchar por un solo tubo, pero para mayor comodidad se separó en dos piezas.
El teléfono pasó a evolucionar rápidamente, lo que permitió incrementar la calidad de la voz transmitida y la distancia de alcance. En 1877, año en que se crea la empresa Bell, Thomas Edison patenta un transmisor mejorado que se basa en un bloque con un granulado de carbón que varía su densidad y conductividad en función de la presión de la onda sonora incidente.
Para disminuir costes, y teniendo en cuenta que en un instante determinado sólo se está hablando con una persona, es posible tener un dispositivo (conmutador) que permita seleccionar la línea que se pretende utilizar, por lo que tan sólo hará falta un teléfono y un conmutador por usuario, aunque continuamos necesitando aproximadamente N2 líneas telefónicas.
La radiodifusión
En 1821 Michael Faraday descubrió la inducción eléctrica, logrando corriente eléctrica a través del movimiento de un conductor alrededor de un imán permanente. Así pues, consiguió realizar el primer generador de corriente eléctrica a partir de la energía mecánica. En 1864 Maxwell publica su teoría dinámica sobre campos electromagnéticos, donde establece sus ecuaciones que demuestran que la radiación electromagnética se incrementa rápidamente con la frecuencia.
Podemos definir radio como la transmisión y recepción de señales electromagnéticas de alta frecuencia sin medio conductor. Las primeras transmisiones vía radio eran señales de morse, por lo que la información se basaba en la presencia o no de señal en el receptor.
EVOLUCIÓN DE LA INFORMÁTICA EN EL DESARROLLO SOCIAL
Las tecnologías de la información, actualmente son elementos fundamentales para la superación y desarrollo de un país. Por eso, los países desarrollados basan su crecimiento en la aplicación y la programación estratégica de las herramientas computacionales y han definido políticas que los inducirán a su permanencia en el dinamismo mundial de los próximos años.
Ante el nuevo entorno económico mundial los países emergentes están obligados a preparar profesionales en áreas de la informática y las telecomunicaciones, capaces de enfrentar los retos que se tienen hoy en día. Asimismo, la presencia de la computación en los sectores productivos es un factor determinante para su funcionamiento.
En tal sentido, las instituciones educativas deberán aportar a la sociedad recursos humanos que formen la estructura sólida en informática, acorde con los países del primer mundo, sobre la que crecerá la economía nacional.
UTILIDAD DEL USO DE ESTÁNDARES DE COMUNICACIÓN
Protocolo
Los protocolos de red son estándares que permiten a las computadoras comunicarse. Un protocolo define:
• Cómo las computadoras se identificarán unas a otras sobre una red.
• La forma que los datos deben tomar para ser transmitidos.
• Cómo esta información deberá ser procesada una vez que llegue a destino.
Los protocolos también definen los procedimientos para el manejo de transmisiones o “paquetes” dañados o perdidos totalmente. Algunos de los tipos principales de protocolos de redes en uso, en orden de mayor a menor popularidad, son:
• TCP/IP (para UNIX, Windows Server 2003, 2000, NT, Windows cliente XP, 9x y otras plataformas).
• NetBIOS/NetBEUI (para redes LAN Manager y Windows): NetBIOS, Sistema de Entrada Salida Básica de Red, es un protocolo estándar de IBM que permite que las aplicaciones sobre diferentes computadoras se comuniquen dentro de una red de área local (LAN).
NetBIOS provee los servicios de sesión descriptos en la capa 5 del modelo OSI. Es un protocolo de aplicación para compartir recursos en red. Se encarga de establecer la sesión y mantener las conexiones. Pero este protocolo debe transportarse entre máquinas a través de otros protocolos; debido a que por sí mismo no es suficiente para transportar los datos en redes LAN o WAN, para lo cual debe usar otro mecanismo de transporte (por ej.: en redes LAN, protocolo NetBEUI; en redes WAN, protocolo TCP/IP). Los protocolos que pueden prestar el servicio de transporte a NetBIOS son:
• IPC/IPX
• NetBEUI
• TCP/IP
NetBEUI, Interfaz Extendida de Usuarios de NetBIOS, es, como su nombre lo indica, una versión extendida de NetBIOS, que fue introducida por IBM en 1985. Es un protocolo eficiente y rápido que permite que las computadoras se comuniquen en un ambiente LAN; otorga una alta performance cuando es usado en una LAN departamental de 20 a 200 estaciones de trabajo o en un segmento de LAN.
En el ambiente Microsoft es más conocido por NBF.
NetBEUI provee los servicios de transporte de datos descriptos en las capas 3 y 4 del modelo OSI. Este protocolo emplea la interfaz NetBIOS como una interfaz de nivel superior y, a su vez, proporciona a éste el formato necesario para la transmisión de los datos.
El inconveniente que posee este protocolo es que no es ruteable. Esto significa que los datos sólo son transportados en el ambiente de la LAN; pero si los paquetes deben ser transportados a otras partes de una WAN, ofrece una performance pobre.
• IPX (para Novell NetWare).
DECnet (para redes de computadoras DEC de Digital Equipment Corp., casi obsoleta).
AppleTalk (para computadoras Macintosh).
Aunque cada protocolo de red es diferente de los demás, todos ellos son capaces de compartir un mismo cableado físico. Este método común de acceso a la red física permite a múltiples protocolos coexistir pacíficamente en el medio de red, y posibilita al constructor de la red el uso de equipamiento común para una variedad de protocolos.
Este concepto es conocido como independencia del protocolo o “protocol independence”, lo cual significa que los dispositivos son compatibles en las capas o niveles físicos, “physical layer”, y de vínculo de datos, “data link layer”, lo que le permite al usuario correr muchos protocolos diferentes sobre el mismo medio.
• EIA (Electronic Industries Association): Asociación vinculada al ámbito de la electrónica. Es miembro de ANSI. Sus estándares se encuadran dentro del nivel 1 del modelo de referencia OSI.
• ANSI (American National Standard Institute): Asociación con fines no lucrativos, formada por fabricantes, usuarios, compañías que ofrecen servicios públicos de comunicaciones y otras organizaciones interesadas en temas de comunicación. Es el representante estadounidense en ISO. Que adopta con frecuencia los estándares ANSI como estándares internacionales.
La aceptación mayoritaria de los diferentes estándares ha supuesto un crecimiento de la oferta de equipos compatibles de diversos fabricantes, proporcionando a los usuarios una mayor libertad de elección, favoreciendo la competencia entre fabricantes e incrementando la demanda de equipos compatibles.
Sin embargo los estándares llevan también aparejados ciertos inconvenientes, como puede ser la introducción de retraso tecnológico, que ralentiza nuevos desarrollos y la multiplicidad de estándares no compatibles
TÉCNICAS DE LA MULTIPLEXACIÓN TIENE MÚLTIPLES CAMINOS
MEDIOS GUIADOS Y MEDIOS NO GUIADOS
El medio de transmisión constituye el soporte por el cual a través de ellos el emisor y receptor pueden comunicarse en un sistema de transmisión de datos. Existen dos tipos de medios: guiados y no guiados. En ambos casos la transmisión se realiza por medio de ondas electromagnéticas.
Los medios guiados conducen (guían) las ondas a través de un camino físico, ejemplos de estos medios son:
Los medios no guiados proporcionan un soporte para que las ondas se transmitan, pero no las dirigen; como ejemplo el aire y el vacío. Radio enlaces de VHF y UHF
Microondas