Dado que esto no parece haberse hecho todavía, voy a sugerir una respuesta desde un punto de vista puramente teórico:
Sean X, Y dos variables aleatorias en {0,1} ^ n.
Sea f (x, y) = x XOR y
Ahora, H (X, Y) = H (X) + H (Y | X) = H (Y) + H (X | Y), y dado que la información de la entropía es siempre negativa, tenemos H (X , Y) > = H (X) y H (X, Y) > = H (Y). Así que la variable aleatoria de unión (X, Y) tiene al menos tanta entropía como cada variable aleatoria individual sola (la igualdad se produce cuando una variable aleatoria depende perfectamente de la otra).
Sin embargo, cuando aplica una función a una variable aleatoria, reduce su entropía (no hay reducción si f es biyectivo, pero esto no es cierto para nuestro caso), por lo que tenemos H (f (X, Y)) < H (X, Y). Una prueba es aquí (pregunta dos).
Ahora, la pregunta de OP es si es posible hacer que H (f (X, Y)) sea más grande que H (X) y H (Y). La respuesta es sí.
Escribimos X como (X_1, ..., X_n) e Y como (Y_1, ..., Y_n). Ahora considere un caso extremo donde X_1 es constante y el resto de los bits son iid Bernoulli con p = 0.5, y Y_1 es Bernoulli con p = 0.5 e independiente de X, mientras que los otros bits de Y son constantes, entonces H (X) = n-1, H (Y) = 1, y H (f (X, Y)) = n, mayor que H (X) y H (Y).
Puede que esta no sea una respuesta muy interesante, pero creo que responde exactamente a lo que pregunta el OP.
EDIT:
Creo que una pregunta que también tiene en mente el OP es: ¿es posible obtener un número aleatorio peor que ambas entradas cuando hacemos esto? La respuesta también es sí.
Considere X Bernoulli con p = 0.5. Y Y = NO X. Antes de combinar X e Y, obtenemos H (X) = H (Y) = 1. Pero, X XOR Y == 1, entonces H (f (X, Y)) = 0! Ups ...
Así que definitivamente no solo arbitrariamente XOR dos números aleatorios y esperamos obtener uno mejor.
EDIT 2:
Una discusión interesante a continuación trajo una pregunta importante: si X e Y son independientes, ¿es X XOR Y al menos tan aleatorio como X e Y? Mark tiene toda la razón: la respuesta es sí.
Aquí es por qué:
Primero, note que para cualquiera de las dos variables aleatorias U y V, tenemos H (U) > = H (U | V). La igualdad se mantiene cuando U y V son independientes. Intuitivamente, esto significa que saber algo acerca de V nunca duele si estamos tratando de averiguar dónde está U. Una prueba formal reduce H (U) -H (U | V) a una divergencia KL, que siempre es no negativa.
Ahora, usando la misma notación que la anterior, tenemos:
H (f (X, Y), X) = H (f (X, Y) | X) + H (X) = H (X | f (X, Y)) + H (f (X) Y))
Ya que para cualquier x fija, tenemos H (f (x, Y)) = H (Y) (advertencia: no es cierto para f arbitraria, pero tenemos esto ya que definimos f (x, y) como x XOR y), tenemos H (f (X, Y) | X) = H (Y), y esto nos da:
H (X) + H (Y) = H (X | f (X, Y)) + H (f (X, Y))
Pero como H (X) > = H (X | f (X, Y)), tenemos:
H (Y) < = H (f (X, Y))
y por simetría:
H (X) < = H (f (X, Y))
Así que esa es la buena noticia. La mala noticia es que: probar la independencia probablemente no sea más fácil que probar la aleatoriedad, si no más difícil. Así que no nos ayuda tanto como parece.
por cierto, ¿cómo se sienten todos al pedirle a SE que habilite MathJax aquí para que podamos hacer algunos cálculos serios cuando sea necesario?