¿Alguna vez te has preguntado qué tan caótico es un conjunto de datos? La entropía de Shannon es una medida que te puede ayudar a responder esa pregunta. Con nuestro calculador de entropía de Shannon, podrás analizar la complejidad y el desorden de tus datos de manera fácil y rápida. ¡Descubre cómo utilizar esta herramienta para entender mejor tus conjuntos de información!
Bienvenido a la calculadora de entropía Shannon!
La entropía de un objeto o un sistema es una medida de la aleatoriedad dentro del sistema. En física, se determina por la energía no disponible para realizar trabajo. En este artículo, explicaremos la forma de entropía utilizada en estadísticas: entropía de información. Siga leyendo para descubrir cómo calcular la entropía utilizando la fórmula de entropía Shannon.
Fórmula de Entropía Shannon:
La fórmula de entropía de Shannon es:
H = p(1) * log2(1/p(1)) + p(0) * log2(1/p(0)) + p(3) * log2(1/p(3)) + p(5) * log2(1/p(5)) + p(8) * log2(1/p(8)) + p(7) * log2(1/p(7))
Ejemplo:
Tiene una secuencia de números: 1 0 3 5 8 3 0 7 0 1.
Cada carácter distinto tiene una probabilidad asociada de ocurrencia:
- p(1) = 2/10
- p(0) = 3/10
- p(3) = 2/10
- p(5) = 1/10
- p(8) = 1/10
- p(7) = 1/10
Resultado de la Entropía:
La entropía de Shannon es: H = 2.44644