
por Claude E. Shannon · 1948
Sinopsis
Un trabajo fundamental que establece las bases matemáticas de la teoría de la información, introduciendo conceptos como la entropía, la redundancia, la capacidad de un canal y la codificación de fuente y canal, sentando las bases para toda la era digital.
Sé el primero en valorar este libro.
Otras obras del mismo autor en el catálogo
Libros relacionados según distintos criterios de búsqueda