jueves, 23 de junio de 2011

Tema 1

TEMA 1: EL CONCEPTO DE INFORMACIÓN EN LA TEORÍA MATEMÁTICA DE LA INFORMACIÓN

Ø LA INFLUENCIA COMO DATO

TEORÍA MATEMÁTICA DE LA COMUNICACIÓN: MODELO DE SHANNON

Surge dentro de la ingeniería, de las telecomunicaciones, y responde a la necesidad de determinar con la máxima precisión los sistemas de comunicación para transmitir información.

Tiene en cuenta dos dimensiones: económica y eficacia.

Se preocupa por el estudio de la transmisión eficaz de los mensajes:

- hace pasar a través del canal la máxima información

- con las mínimas interferencias

- en el menor tiempo posible (separando las señales del ruido) y con el menor coste posible.

No se preocupa por el contenido del mensaje, lo importante es cuanta información abarca.

MODELO DE SHANNON

CANAL

FUENTE DE INFORMACIÓN

RECEPTOR

DESTINO

TRANSMISOR

MENSAJE SEÑAL ENVIADA SEÑAL RECIBIDA MENSAJE

FUENTE DE RUIDO

· FUENTE DE INFORMACIÓN: el proceso de comunicación se genera en la fuente de información, que va a seleccionar los mensajes que se van a comunicar.

· TRANSMISOR: es el que transforma ese mensaje en señales que puedan ser transmitidas a través del canal.

· CANAL: medio utilizado para transmitir esas señales.

Este modelo de Shannon incorpora la posibilidad de que se agreguen una

serie de elementos que no son proporcionados intencionalmente y que se

denominan ruidos.

· RECEPTOR: una vez que el receptor recibe las señales, reconstruye el mensaje.

· DESTINO: es a quien va dirigido ese mensaje.

Está pensado para ser un modelo universal, aunque se aplique a la comunicación, no es específico de la comunicación humana.


CONCEPTO DE INFORMACIÓN (Deriva del modelo de Shannon)

- La información es definida estrictamente por datos estadísticos y tiene que ver con la probabilidad de una ocurrencia, de una señal o de un mensaje. La información viene definida por lo que se podría decir.

- La función de la fuente de información es seleccionar las señales y transmitirlas al receptor, por tanto:

· El concepto de información se relaciona con el grado de libertad de una fuente para elegir un mensaje de un conjunto posible de mensajes.

· Supone la existencia de duda o incertidumbre que implica que existen diferentes alternativas que deberán ser elegidas, seleccionadas o discriminadas.

· Las alternativas se refieren a cualquier conjunto de signos construidos para comunicarse, sean estas letras, palabras, números, ondas, etc.

- El objetivo es el de transmitir la mayor cantidad de información con el menor ruido posible. Es decir, medir la cantidad de información que se puede transmitir a través de un canal, la cual puede ser calculada por la probabilidad de ser enviada.

Encontramos dos situaciones de elección:

1) FUENTES SIN MEMORIA: la ocurrencia de una señal determinada no influye sobre su posibilidad de ocurrencia en el futuro, escoge entre un número de mensajes concretos.

2) FUENTES CON MEMORIA: la probabilidad de elección de los símbolos que forman el mensaje dependerá de las elecciones anteriores. Por ejemplo: el lenguaje.

Ø LA MEDIDA DE LA INFORMACIÓN: VARIEDAD Y COMPLEJIDAD

PRINCIPIO DE MEDICIÓN DE LA INFORMACIÓN (Deriva del concepto de información)

CONCLUSIÓN: es la probabilidad que tiene un mensaje de ser enviado y no su contenido, lo que determina su valor informativo.

UNIDAD BÁSICA DE INFORMACIÓN

- Los mensajes seleccionados pueden transcribirse en códigos binarios: si y no; 0 y 1.

- La cantidad de información proporcionada por cada elección entre dos alternativas posibles constituye la unidad básica de información y se denomina dígito binario o abreviadamente bit.

Ø CONCEPTOS DE REDUNDANCIA Y RUIDO

RUIDO: perturbaciones o distorsiones intencionadas que afectan al canal

REDUNDANCIA: “reducción informativa”. Consiste en incluir señales que no nos aportan ninguna información. Es positiva porque nos permite reconstruir un mensaje si hay ruidos.

INTELEGIBILIDAD. PROBABILIDAD. ENTROPÍA

ENTROPÍA: el grado de desorden en la combinación de elementos dispares dentro de un sistema cerrado.

- Cuanto más desorden menos predecible

- La entropía = grado de improbabilidad

- Información opuesta a entropía. La información reduce la incertidumbre y genera una estructura y limita así las posibilidades de elección de algunos elementos.

No hay comentarios:

Publicar un comentario