Pregunta simple: tanto MD5 como SHA1 son susceptibles a un ataque de colisión. Es razonable suponer que SHA256, el siguiente algoritmo al que estamos cambiando, también tiene un problema de este tipo, pero que está oculto debido a los requisitos para encontrar tal colisión.
La cuestión es, ¿por qué no usamos múltiples algoritmos para verificar la integridad de los archivos? como, calcular múltiples sumas de comprobación utilizando múltiples algoritmos para el mismo archivo y declararlo solo aceptable si todos coinciden? Quiero decir, encontrar una colisión para MD5 en este momento es factible en los teléfonos inteligentes, y encontrar una para SHA1 ha sido factible con el ataque SHAttered. sin embargo, si tuviera que encontrar una colisión tanto para MD5 Y SHA1, ¿no aumentaría eso también el tiempo necesario?
Aclaración: si bien esta sugerencia en particular puede estar en uso en algunos lugares, a lo que me refiero es: ¿por qué no se propone esta técnica como una alternativa a la actualización a SHA256 ?