TEMA 1: EL CONCEPTO DE INFORMACIÓN EN LA TEORÍA MATEMÁTICA DE LA INFORMACIÓN
Ø LA INFLUENCIA COMO DATO
TEORÍA MATEMÁTICA DE LA COMUNICACIÓN: MODELO DE SHANNON
Surge dentro de la ingeniería, de las telecomunicaciones, y responde a la necesidad de determinar con la máxima precisión los sistemas de comunicación para transmitir información.
Tiene en cuenta dos dimensiones: económica y eficacia.
Se preocupa por el estudio de la transmisión eficaz de los mensajes:
- hace pasar a través del canal la máxima información
- con las mínimas interferencias
- en el menor tiempo posible (separando las señales del ruido) y con el menor coste posible.
No se preocupa por el contenido del mensaje, lo importante es cuanta información abarca.
MODELO DE SHANNON
CANAL | |
FUENTE DE INFORMACIÓN | |
RECEPTOR | |
DESTINO | |
TRANSMISOR | |
MENSAJE SEÑAL ENVIADA ↓ SEÑAL RECIBIDA MENSAJE
FUENTE DE RUIDO | |
· FUENTE DE INFORMACIÓN: el proceso de comunicación se genera en la fuente de información, que va a seleccionar los mensajes que se van a comunicar.
· TRANSMISOR: es el que transforma ese mensaje en señales que puedan ser transmitidas a través del canal.
· CANAL: medio utilizado para transmitir esas señales.
Este modelo de Shannon incorpora la posibilidad de que se agreguen una
serie de elementos que no son proporcionados intencionalmente y que se
denominan ruidos.
· RECEPTOR: una vez que el receptor recibe las señales, reconstruye el mensaje.
· DESTINO: es a quien va dirigido ese mensaje.
Está pensado para ser un modelo universal, aunque se aplique a la comunicación, no es específico de la comunicación humana.
CONCEPTO DE INFORMACIÓN (Deriva del modelo de Shannon)
- La información es definida estrictamente por datos estadísticos y tiene que ver con la probabilidad de una ocurrencia, de una señal o de un mensaje. La información viene definida por lo que se podría decir.
- La función de la fuente de información es seleccionar las señales y transmitirlas al receptor, por tanto:
· El concepto de información se relaciona con el grado de libertad de una fuente para elegir un mensaje de un conjunto posible de mensajes.
· Supone la existencia de duda o incertidumbre que implica que existen diferentes alternativas que deberán ser elegidas, seleccionadas o discriminadas.
· Las alternativas se refieren a cualquier conjunto de signos construidos para comunicarse, sean estas letras, palabras, números, ondas, etc.
- El objetivo es el de transmitir la mayor cantidad de información con el menor ruido posible. Es decir, medir la cantidad de información que se puede transmitir a través de un canal, la cual puede ser calculada por la probabilidad de ser enviada.
Encontramos dos situaciones de elección:
1) FUENTES SIN MEMORIA: la ocurrencia de una señal determinada no influye sobre su posibilidad de ocurrencia en el futuro, escoge entre un número de mensajes concretos.
2) FUENTES CON MEMORIA: la probabilidad de elección de los símbolos que forman el mensaje dependerá de las elecciones anteriores. Por ejemplo: el lenguaje.
Ø LA MEDIDA DE LA INFORMACIÓN: VARIEDAD Y COMPLEJIDAD
PRINCIPIO DE MEDICIÓN DE LA INFORMACIÓN (Deriva del concepto de información)
CONCLUSIÓN: es la probabilidad que tiene un mensaje de ser enviado y no su contenido, lo que determina su valor informativo.
UNIDAD BÁSICA DE INFORMACIÓN
- Los mensajes seleccionados pueden transcribirse en códigos binarios: si y no; 0 y 1.
- La cantidad de información proporcionada por cada elección entre dos alternativas posibles constituye la unidad básica de información y se denomina dígito binario o abreviadamente bit.
Ø CONCEPTOS DE REDUNDANCIA Y RUIDO
RUIDO: perturbaciones o distorsiones intencionadas que afectan al canal
REDUNDANCIA: “reducción informativa”. Consiste en incluir señales que no nos aportan ninguna información. Es positiva porque nos permite reconstruir un mensaje si hay ruidos.
INTELEGIBILIDAD. PROBABILIDAD. ENTROPÍA
ENTROPÍA: el grado de desorden en la combinación de elementos dispares dentro de un sistema cerrado.
- Cuanto más desorden menos predecible
- La entropía = grado de improbabilidad
- Información opuesta a entropía. La información reduce la incertidumbre y genera una estructura y limita así las posibilidades de elección de algunos elementos.
No hay comentarios:
Publicar un comentario