Supongamos que tenemos un proceso que genera contraseñas con entropía E .
Me gustaría calcular el tiempo promedio que tomaría un ataque de fuerza bruta para descifrar una instancia con un hash MD5 de dicha contraseña.
Desde la entropía E (en bits), puedo calcular el número total N = 2 E de contraseñas candidatas en el universo a partir del cual se eligió una contraseña determinada. En promedio, un ataque de fuerza bruta tendría que usar las contraseñas candidatas de MD5-hash N / 2 para romper una instancia específica.
Pero este cálculo no me da la cantidad de tiempo que esto llevaría. Para esto necesito un multiplicador para el rendimiento computacional, algo de la forma " x contraseñas candidatas / segundo".
Me imagino que los expertos en seguridad informática tienen un número de regla de oro para conectar dicho multiplicador x . Si es así, ¿qué es?
(Por supuesto, si el multiplicador x no tiene en cuenta la posibilidad de que múltiples procesadores funcionen en paralelo, entonces cualquier tiempo que se calcule utilizando dicho multiplicador deberá dividirse por el número < em> P de los procesadores que el atacante puede ejecutar en paralelo. Si hay un valor de regla de pulgar estándar para P , eso también me interesa.