Teoría de la información o teoría matemática de la información es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940.
www.asist.org
history.computer.org
La teoría de la información es una rama de la teoría matemática y de las ciencias de la computación que estudia la información y todo lo relacionado con ella: canales, compresión de datos
y criptograma, entre otros.Esta teoría esta relacionada con las leyes matemáticas que rigen la transmisión .
La teoría de la información es una disciplina que se ocupa de como almacenar y transmitir información entre dispositivos
es.wikipedia.org
Desarrollo de la teoría
Con el modelo de la teoría de la información lo que se busca es encontrar la forma mas económica, rápida y segura de codificar un mensaje, sin que la presencia de algún ruido complique su transmisión.
un aspecto es la resistencia a la distorsión que provoca el ruido, la facilidad de codificación y decodificación, así como la velocidad de transmisión. Es por esto que se dice que el mensaje tiene muchos sentidos, y el destinatario extrae el sentido que debe atribuirle al mensaje, siempre y cuando haya un mismo código en común. La teoría de la información tiene ciertas limitaciones, como lo es la acepción del concepto del código.
Teoría aplicada a la tecnología
Elementos de la teoría
Fuente : Es todo aquello que emite los mensajes,una fuente es en sí misma un conjunto finito de mensajes, todos los posibles mensajes que puede emitir dicha fuente.
Una fuente puede ser aleatoria o determinista y por la relación entre los mensajes emitidos, una fuente puede ser estructurada o no estructurada.para la teoría de la información interesan las fuentes aleatorias y las fuentes estructuradas.Una fuente es aleatoria cuando no es posible predecir cuál es el próximo mensaje a emitir por la misma,una fuente es estructurada cuando posee un cierto nivel de redundancia,una fuente no estructurada o de información pura es aquella en que todos los mensajes son absolutamente aleatorios sin relación alguna ni sentido aparente.
Mensaje :Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una red y cualquier cosa que tenga una representación binaria puede considerarse un mensaje. El concepto de mensaje se aplica también a alfabetos de más de dos símbolos, pero debido a que tratamos con información digital nos referiremos casi siempre a mensajes binarios.
Código:Un código es un conjunto de unos y ceros que se usan para representar un cierto mensaje de acuerdo a reglas o convenciones preestablecidas.
Información:La información contenida en un mensaje es proporcional a la cantidad de bits que se requieren como mínimo para representar al mensaje.
Entropía e información
La información es tratada como magnitud física, caracterizando la información de una secuencia de símbolos utilizando la entropía,en ciertas áreas de la física, extraer información del estado actual de
un sistema requiere reducir su entropía, de tal manera que la entropía del sistema y la cantidad de información extraíble.
Tomado de:
http://www.pa.gob.mx/eneda/documentos/12informatica/1.6_Masografia/3.1.1_Teoria.de.la.Informacion.pdf
No hay comentarios:
Publicar un comentario