Leí aquí en ¿Qué algoritmos se pueden descifrar mejor? ¿GPU? que, los algoritmos de hash como SHA1, SHA224, SHA256 que realizan operaciones aritméticas y lógicas de enteros de 32 bits se implementan mejor en GPU que los algoritmos de hashing SHA512 que funcionan en enteros de 64 bits.
¿Cuál es la razón detrás de esto? ¿Las GPU no proporcionan un buen soporte para el desarrollo utilizando enteros de 64 bits?
Leí en la Preguntas frecuentes del desarrollador de CUDA de Nvidia la pregunta: ¿CUDA admite números enteros largos?
Y la respuesta es Sí, sin embargo, dice que las operaciones en enteros de 64 bits de longitud compilan en múltiples secuencias de instrucciones. ¿Es esa la razón por la que las GPU pueden manejar enteros de 32 bits mucho mejor que los enteros de 64 bits?
Más información sobre esto sería útil. Además, si hay alguna referencia que discuta esto más a fondo, me gustaría saberlo.