You are on page 1of 7

CARRERA: INGENIERIA DE SISTEMAS

CICLO: VII

CURSO: TELECOMUNICACIONES

PROFESOR: BERNARDO CASTRO PULCHA

INTEGRANTES: MANRIQUE PUCLLA JORGE


HUAYCHO SANCHEZ ANDRES

2018
La Neutralidad de Red es un principio regulatorio, adoptado por el Perú mediante la
Ley Nº 29904 y su reglamento (Decreto Supremo N° 014-2013-MTC), por el cual se
busca proteger el derecho a la libre elección de los usuarios del servicio de acceso a
Internet, es decir, el derecho de acceder, de manera legal, a cualquier aplicación,
protocolo, servicio o tráfico disponible en su servicio de acceso a Internet.

La neutralidad de la red es un principio que determina que todo el tráfico de


Internet que transita por las redes de telecomunicaciones ha de ser gestionado de igual
manera. De esta forma, se pretende asegurar la apertura de Internet y que, por tanto,
los operadores de las redes de telecomunicaciones, como dueños de dichas redes, no
pueden determinar qué servicios utilizamos en Internet, favoreciendo o discriminando
a unos en detrimento de otros.

En un mercado competitivo todos los que participan, ya sean operadores de red o las
llamadas “empresas de internet”, tienen el incentivo de ofrecer la mejor experiencia de
usuario y la responsabilidad de no abusar de eventuales posiciones de dominio.
Si el usuario no recibe un servicio que cumpla con sus expectativas, porque se bloquea
o degrada el acceso al servicio de su elección o porque no se es transparente en cuanto
al valor que dicho usuario aporta, ya sea mediante pago o mediante los datos que se
obtienen del mismo, dicho usuario debe poder acudir a los servicios de otro proveedor
que cumpla sus expectativas.
Los operadores, ya sean de infraestructuras o de productos y servicios digitales, deben
estar sujetos a las normas de protección de la libre competencia y la protección de los
consumidores, incluida su privacidad.

Banda ancha
Se utiliza como sinónimo de transferencia de datos, la cantidad de datos que se puede
llevar de un punto a otro en un período de tiempo dado (generalmente un segundo).
Banda ancha de red generalmente se expresa en bits por segundo (bps); redes
modernas suelen tener velocidades medidas en los millones de bits por segundo
(megabits por segundo o Mbps) o miles de millones de bits por segundo (gigabits por
segundo, o Gbps).

Latencia
Latencia: Tal y cómo vimos en el post "Cómo funciona Internet?", los datos se envían
por la red en paquetes que contienen una cabecera con la información de que camino
se debe seguir, entre muchas otras cosas. La lectura de esta cabecera y el
procesamiento de datos no es algo trivial y lleva algo de tiempo hacerlo. La latencia es
la suma de todos estos tiempos, es decir, el tiempo que pasa desde que se ha enviado
un paquete en el destino hasta que llega al receptor.
Jitter

Se denomina jitter o fluctuación del retardo a la variabilidad temporal durante el envío


de señales digitales, una ligera desviación de la exactitud de la señal de reloj. El jitter
suele considerarse como una señal de ruido no deseada. En general se denomina jitter
a un cambio indeseado y abrupto de la propiedad de una señal. Esto puede afectar tanto
a la amplitud como a la frecuencia y la situación de fase. El jitter es la primera
consecuencia de un retraso de la señal. La representación espectral de las variaciones
temporales se denomina ruido de fase.
En las telecomunicaciones también se denomina jitter a la variabilidad del tiempo de
ejecución de los paquetes. Este efecto es especialmente molesto en aplicaciones
multimedia en Internet como radio por Internet o telefonía IP, ya que provoca que
algunos paquetes lleguen demasiado pronto o tarde para poder entregarlos a tiempo.
El efecto puede reducirse con un búfer de jitter, un búfer de datos, pero a costa de un
tiempo de ejecución mayor. Este efecto también es de importancia en los
semiconductores de procesos. Informaciones críticas del proceso tienen que enviarse y
recibirse en un tiempo determinado. Si el jitter es demasiado grande, no puede
asegurarse que las informaciones críticas de proceso lleguen a tiempo.

El jitter es una modificación de la amplitud, la frecuencia y la fase de una señal


provocada por una desviación de la señal de reloj. Solo está presente en los dispositivos
digitales, que son los que requieren una señal de reloj, por lo que no afecta a los sistemas
de reproducción que trabajan en el dominio analógico, como los giradiscos. Su efecto
provoca que un equipo digital suene claramente peor de lo que podría sonar si no
estuviese presente, pero, afortunadamente, puede combatirse.
Preguntas pendientes:

1. ¿Son válidas las mediciones que nos muestran los aplicativos que miden la
velocidad de Internet?
Los tests de velocidad pueden ser unas buenas herramientas para medir el
rendimiento de una conexión, sin embargo, hay que tener mucho cuidado cuando
las utilicemos ya que a veces pueden darnos falsos resultados.
El funcionamiento de un test de velocidad es bastante sencillo. Por regla general se
mide primero la latencia de la conexión, para hacerlo se envía al servidor un paquete
con la hora y se espera a que éste lo devuelva. Cuando lo recibamos lo comparamos
con la hora actual para conocer el retraso.
Para calcular la velocidad de descarga se envía un archivo al usuario y se mide
la velocidad de la transferencia. Hay que tener en cuenta que cuando se inicia una
transferencia existe un periodo transitorio donde la conexión se va acelerando hasta
que alcanza una velocidad más o menos estable, que en teoría debería ser el máximo
de nuestra línea.

2. ¿Porque varían en gran porcentaje uno y otro aplicativo?


Factores que pueden afectar a la medida
Como todos sabemos, Internet es la unión de miles de redes. Esto hay que tenerlo
en cuenta cada vez que hagamos tanto un test de velocidad como una descarga. El
motivo es que mientras más lejos se encuentre de nosotros el servidor, más
probabilidad habrá de que la conexión atraviese un nodo congestionado. Veamos un
ejemplo:
Supongamos que un "usuario" quiere realizar un test de velocidad. Para hacerlo
la herramienta le da a elegir entre dos servidores, uno situado en Madrid
(Servidor A) y otro situado en su misma ciudad (Servidor B).
Nublado por el ansia por conocer la velocidad de su línea, el usuario elige
el Servidor A para realizar la medida. Si suponemos que el cable "A" no está
congestionado, la descarga se realizará sin problemas y el usuario verá en el test
una medida correcta, aunque una latencia algo mayor. Pero, ¿qué sucedería si el
cable "A" estuviera saturado? La transferencia entre Sevilla y Madrid se haría
más despacio, por lo tanto el test de velocidad devolvería una medida inferior a
la que debería.

3. ¿Qué debo considerar para poder hacer una correcta medición de mi conexión a
Internet?
Para evitar esto, debemos elegir un servidor que se encuentre lo más próximo
posible a nosotros, de modo que los datos tengan que atravesar el menor número
de "cables" posible.

¿Cómo realizamos una buena medida de nuestra conexión?

Lo primero que debemos hacer es apagar todos los equipos de nuestra red salvo aquel en
el que vayamos a hacer el test. Conectamos el equipo mediante cable ya que, como vimos
en un post anterior, los enlaces WiFi poseen una serie de factores que pueden limitar
nuestro ancho de banda.

Como mencionamos, lo mejor es elegir un servicio cuyo servidor esté lo más próximo a
nosotros. Sin embargo, hay veces que no disponemos de ninguno cerca; en ese caso
tendremos que recurrir a un método más rudimentario.
Localizar varios archivos pesados, como por ejemplo distribuciones de Linux y poner a
descargar varias en paralelo. Cuando veamos que las velocidades de cada descarga más o
menos se estabilizan sumamos las velocidades de todas, si no lo hace ya nuestro gestor de
descargas.

Cuando necesito realizar un test suelo recurrir a Speedtest, un servicio con servidores
repartidos por varios puntos del país y que suele dar buenos resultados.

You might also like