Monty hall y entropía

Cuando estamos ante una situación donde debemos elegir y no sabemos que puede pasar decimos que tenemos incertidumbre.

Esa falta de información hoy en día se puede medir con una magnitud llamada entropía de información. Más concretamente, esta magnitud te mide la desinformación.

Shannon fuel primero que dio una forma de medirla

H(X)=- \sum_{i}p(x_i) \log_2 p(x_i)

así puesta suena raro, pero la idea simplemente es sumar las probabilidades de cada caso que pueda pasar, multiplicadas por una cantidad que es el logarítmo en base 2 de esa misma probabilidad.

Para saber más sobre el tema os recomiendo seguir los enlaces de la wikipedia, veréis que hay más formas de medis la desinformación.

La idea de este post es ponerla a prueba y medir la desinformación en un juego, en concreto el juego de Monty Hall.

Éste consiste en tres puertas, una de ellas con un premio y las otras con nada (en algunas variantes con una cabra). El jugador escoge una. Hay un presentador que conoce donde está el premio y de las dos que no ha escogido abre una donde no lo está. Luego le pregunta al jugador si prefiere quedarse con la que ha elegido o cambiar por la que queda. ¿Le supone alguna ventaja cambiar?

Este problema ya lo traté en el post de Un acertijo sobre cajas

La idea ahora es medir la entropía de información antes de que el presentador abra la puerta)o caja= vacía y medirla después . ¿Aparecerá algun cambio en la entropía?

 Empecemos. Antes de que el presentador abra la puerta tenemos que la probabilidad de que el premio esté en la puerta que el jugador ha escogido es 1/3, y en las restantes que no ha escogido  es de 1/3 para cada una.

Como se puede comprobar la probabilidad que esté en alguna

$$1/3+1/3+1/3=3/3=1$$

Es decir seguro que está en alguna.
Y la entropía de información

$$H=-1/3*log_2 1/3-1/3*log_2 1/3-1/3*log_2 1/3$$
$$H=-3/3*log_2 1/3=-log_2 1/3=log_2 3$$

Y cuando el presentador abre la que está vacía tenemos que en la que el jugador ha escogido sigue siendo 1/3, en la abierta 0/3 que seguro que ahí no está y en la restante 2/3 ,véase el enlace del post anterior sobre este tema para entender porqué

La probabilidad que esté en alguna puerta sigue siendo de 1

$$1/3+0/3+2/3=3/3=1$$

Y veamos que pasa con la entropía


$$H=-1/3*log_2 1/3-0/3*log_2 0/3-2/3*log_2 2/3$$
$$H=-1/3*log_2 1/3-2/3*log_2 2/3$$
$$H=-1/3*log_2 1/3-2/3log_2 2 +2/3log_2 3$$
$$H= 1/3*log_2 3-2/3log_2 2 +2/3log_2 3$$
$$H=3/3log_2 3 -2/3log_2 2=log_2 3 -2/3log_2 2=log_2 3-2/3 $$

Como vemos la entropía de información es menor en este segundo caso ya que es la anterior menos 2/3. Es decir, la desinformación, nuestra incertidumbre disminuye o lo que es lo mismo la información aumenta.

¿Y de dónde ha salido este aumento de información? Pues del presentador que poseía una información y que al abrir la puerta que no era nos ha cedido parte de esa información.



Por tanto vemos que en este juego la entropía de información sirve para entender mejor como es nuestra incertidumbre de lo que puede pasar y como esta cambia al aportar datos.

Una vez probada aquí se puede buscar más aplicaciones en otros juegos que dejaré para más adelante

No hay comentarios:

Publicar un comentario en la entrada