Resumen Clases 1 Semana.

MODELO DE SISTEMAS DE COMUNICACION

Busca una transmision segura y eficaz con el minimo de errores.


Definiciones:

RUIDO: Es una fuente que afecta negativamente el modelo, provoca distorsion y atenuacion.

TRANSMISOR: Tranforma la señal para adaptarla al canal.

MENSAJE: Digitaliza los fenómenos de la naturaleza, en ceros y en unos.

CANAL: Incorpora ruido y permite la distorsión en el mensaje.

RECEPTOR: Tiene que garantizar que la señal distorsionada que llega debe ser lo mas parecida a la inicial.

Es clave pues permite decodificar lo que el transmisor esta enviando.

MEDIO: Los hay de dos tipos:

-Guiados: Como lo son el cable de cobre(par trenzado), Cable coaxial, Fibra óptica.

*Cable de Cobre: Usado para señales de voz. Entre 0,3 y 0,4 KHz, este es el ancho de banda de un canal telefónico. La        velocidad de transferencia de un par trenzado es de 10 a 20 Mbits/seg.

*Cable Coaxial: la velocidad de transferencia es hasta los 500Mbits/seg.

*Fibra Óptica: la velocidad de transferencia es máximo 20 Terabits/seg, pero por la atenuación que se presenta cada 100km, es necesario colocar repetidores.

-No Guiados: Como lo son los enlaces de Radio, y Microondas.

Espectro de Frecuencias:

Se subdivide en bandas:

LF—-30 a 300KHz

MF—-0,3 a 3MHz

HF—-3 a 30MHz

VHF—-30 a 300MHz

UHF—-300MHz a 3GHz

SHF—-3 a 30GHz

EHF—-30 a 300GHz

Ultravioleta—-0,3 a 3THz

La Radio AM y FM se encuentran en el siguiente intervalo de frecuencias:

AM—-530Khz a 1600Khz

FM—-88Mhz a 108Mhz

Linea de Vista (Line of Sight)

La propagación de la línea de visión se refiere a la radiación electromagnética o a la propagación de ondas acústicas. La transmisión electromagnética incluye las emisiones de luz que se propagan en línea recta. Los rayos u ondas pueden ser difractados, refractados, reflejados o absorbidos por la atmósfera y los obstáculos con el material y, en general no pueden viajar sobre el horizonte o detrás de obstáculos.

Línea de visión es también un enlace de radio que debe tener visibilidad directa entre antenas, por lo que no debe haber obstáculo entre ambas. También se utiliza en ocasiones su denominación en inglésLine of Sight, o su acrónimo LOS.

Los radioenlaces de VHF (hasta 300 Mhz) y de UHF (hasta 900 MHZ) presentan mayor tolerancia a obstáculos de forma que pueden ser enlaces NLOS. En los radioenlaces demicroondas, que funcionan a frecuencias superiores a 900 MHz, no es posible tener un enlace estable y de buen comportamiento si existen obstáculos entre antena receptora y antena transmisora en su zona de Fresnel.

De forma general, puede decirse que la tolerancia a la presencia de obstáculos en la línea de vista, entre la antena emisora y receptora, disminuye con el aumento de la frecuencia del enlace de radio.

En una comunicación digital como Wifi, los enlaces deben transportar una gran cantidad de datos (kbps/s), por lo que necesitan un ancho de banda elevado, lo que supone una mayor frecuencia de la portadora de radio (2,4 GHz o 5,8Ghz). Por esto, en estas tecnologías es muy importante considerar la existencia de LOS.

Enlace de Referencia:

http://es.wikipedia.org/wiki/L%C3%ADnea_de_mira

Espacio Muestral

Es el conjunto de valores posibles de un experimento aleatorio.

S={1,2,3,4,5,6}   —–Es una fuente de informacion discreta.

Evento: Es un subconjunto del espacio muestral.

Proceso Aleatorio: Es impredecible conocer el valor. Es la relación de un elemento en su espacio muestral y su incertidumbre.

Variable Aleatoria: Es una función que asigna valores numéricos únicos, a todos los posibles resultados de un experimento aleatorio bajo condiciones establecidas.

Mapeo: Establecer una relacion entre un elemento y otro.

Mutuamente Excluyente: Nunca se pueden dar al tiempo, uno primero y luego el otro.

Alfabeto:          LET A={a1, a2, …an}

Pi=P(X=ai)       for i=1,2,3,…,N

Medida de la Información

Se mide por la incertidumbre. Entre menos información se transmite mas rápido.

Cuanto mas probable es el mensaje menos información posee.

Informacion Mutua:

Ia=F(Pa)                                0< Pa<1

Si los mensajes provienen de la misma fuente se sumaran.

C=A+B

Ia=log2(1/Pa)        (bit)

Ejemplo 1:

Calcular la información asociada a la caida de una moneda.

Ia=log2 (2)=1 bit

Ib=log2 (2)=1 bit

Ejemplo 2:

Supongamos que una fuente produce los simbolos A, B, C, D con probabilidades de 1/2, 1/4, 1/8, 1/8. Calcule la información de cada caso.

Ia=log2 (2)=1 bit

Ib=log2 (4)=2 bits

Ic=log2 (8)=3 bits

Id=log2 (8)=3 bits

Información Promedio [Entropia]

Medición de la información promedio.

m: longitud del alfabeto

j: Símbolo de la fuente

N: Muchos símbolos

Ij=log (1/Pj)      [Bits]

m

H =    ∑     N*Pj*Ij

j=1

Ejemplo 1:

Hallar la entropia para el lanzamiento de una moneda.

I1=log2 (2)=1 bit                       I2=log2 (2)=1 bit

H=N*Pj*Ij=(1)(0,5)(1)+(1)(0,5)(1)=1 Bpss

Bpss= bits por símbolo de la fuente.

Ejemplo 2:

Una fuente de DMS tiene un alfabeto de tamaño m, y las salidas de las fuentes son equiprobables. Encuentre la entropia de esta fuente.

H=m{(1/m)log2(m)}=log2 (m)

Tasa de Informacion

La tasa de información es una medida de la velocidad con el que la información se transfiere. Se define la Tasa de Información o velocidad de la fuente de información R como la relacin dada por:

R=H/σ   [Bits/seg]

donde H {X} es la entropía de la fuente, y T es el intervalo de tiempo por el cual la fuente transmite el evento o la serie de eventos.

El numero promedio de símbolos por unidad de tiempo es lo que se llama velocidad de señalización. Y la unidad es el Baudio.

Bit

Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario.

Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.

Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos estados:

apagada apagada o encendidaencendida

Es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de “apagado” (0), y el otro al estado de “encendido” (1).

Combinaciones de Bits

Hay 4 combinaciones posibles con dos bits
Bit 1 Bit 0
apagada 0 apagada 0
apagada 0 encendida 1
encendida 1 apagada 0
encendida 1 encendida 1

Con un bit podemos representar solamente dos valores, que suelen representarse como 0, 1. Para representar o codificar más información en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro combinaciones posibles:

  • 0 0 – Los dos están “apagados”
  • 0 1 – El primero (de derecha a izquierda) está “encendido” y el segundo “apagado”
  • 1 0 – El primero (de derecha a izquierda) está “apagado” y el segundo “encendido”
  • 1 1 – Los dos están “encendidos”

Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes, como por ejemplo, los colores rojo, verde, azul y magenta.

A través de secuencias de bits, se puede codificar cualquier valor discreto como números, palabras, e imágenes. Cuatro bits forman un nibble, y pueden representar hasta 24 = 16 valores diferentes; ocho bits forman un octeto, y se pueden representar hasta 28 = 256 valores diferentes. En general, con un número n de bits pueden representarse hasta 2n valores diferentes.

Enlace de Referencia:

http://es.wikipedia.org/wiki/Bit

Binit

Basicamente un BINIT es un dígito binario pero a diferencia de un BIT (unidad básica de información) un BINIT puede llevar más de un BIT de información. Todo depende de la probabilidad de ocurrencia. Osea que la información que representa un BINIT esta asociada a la probabilidad de que un símbolo ocurra en un sistema de información.

Antes de ver en detalle que es un BINIT debemos mencionar la definición de

Información o Información Mutua: la teoría de la información establece que la cantidad de información que lleva un símbolo es inversamente proporcional a su probabilidad de que ocurra)

Veamos un ejemplo:

Supongamos un tren de pulsos compuesto por pulsos o dígitos binarios unos o ceros, en donde la probabilidad de ocurrencia de un BINIT 1 es P1 y la probabilidad de ocurrencia de un BINIT 0 es P0.
Podemos calcular la información que trae un BINIT 1:

I1 = log2 1/P1 con P1=1/3 ===> I1= 1.58 bits

I0 = log2 1/P0 con P0=2/3 ===> I0= 0.58 bits
Ahora si la probabilidad de ocurrencia de BINIT1 es igual a la de BINIT 0, osea P1=Po = 1/2

entonces:

I1 = I0 = log2 2 = 1 bit.

Enlace de Referencia:

http://es.wikipedia.org/wiki/BINIT

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: