Cotas de caso promedio
El Teorema de Shannon establece que, si los elementos de se presentan con probabilidad para (con ), entonces ningún compresor puede, en promedio, utilizar menos de
bits para codificar un elemento de . Este valor se llama la entropía del conjunto de probabilidades. La entropía nos da una herramienta para establecer cotas inferiores en el caso promedio, lo que no se da con la estrategia del adversario.
Note que, si todas las , entonces la entropía resulta ser , llegando a su valor máximo. Como esto coincide con el valor del peor caso, resulta que la cota inferior de peor caso de un algoritmo (demostrada con esta técnica) también es la cota inferior de caso promedio si los inputs se presentan todos con la misma probabilidad. En particular, de los ejemplos anteriores, tenemos que la cota de comparaciones para buscar en un arreglo ordenado o de para ordenar también se aplican al caso promedio del mejor algoritmo posible, si suponemos que los elementos de se buscan con la misma probabilidad o que todos los reordenamientos de entrada de son igualmente probables, respectivamente.
Por otro lado, si resulta que tenemos que buscar en un arreglo y ciertos elementos se buscan con mayor probabilidad que otros, entonces podemos romper la cota de comparaciones en promedio, y llegar a la entropía . Pero, ¿cómo hacerlo?