¿Por qué usar valores aleatorios al sobrescribir archivos?

3

A menudo, cuando veo que las personas hablan de una eliminación segura, veo muchos consejos que debes usar valores aleatorios para sobrescribir. Mi pregunta es ¿por qué es mejor o más eficiente que llenar todos los bytes con 0xFF que ponen todos los bits?

    
pregunta vakus 21.06.2016 - 21:10
fuente

3 respuestas

3

Se recomendaron múltiples pases de sobrescritura con valores aleatorios en los años 1980 y 1990, como se describe en la historia contada por @FlorianBidabe. Cuando los datos se codificaron en discos que tenían cabezas de lectura / escritura físicamente amplias y espacio entre las pistas para garantizar el aislamiento de los datos, una cabeza de escritura podría borrar el 80% de los medios magnéticos que contienen la broca, lo que garantiza que la electrónica bruta de la unidad no pueda leer eso. Pero estas tolerancias sueltas dejaron atrás el 20% del dominio magnético, que era explotable por alguien que buscaba recuperar datos de un disco. Escribir datos aleatorios en lugar de todos los ceros ayudó a enmascarar el valor original del bit. Se descubrió que los pases múltiples de escrituras aumentaban las posibilidades de que se sobrescribiera más del 20% restante, lo que daba a las personas más confianza en que sus datos eran realmente irrecuperables.

Esta recomendación ya no se aplica al hardware de disco moderno. La razón es que los fabricantes de discos duros han mejorado las tolerancias de fabricación para aumentar la densidad de datos en las unidades de disco. Ese 80% del cabezal de escritura descuidado de ayer fue reemplazado por motores más precisos, cabezales de lectura / escritura más pequeños y una tecnología completamente nueva, como la grabación vertical de campos magnéticos. Hoy en día, un campo codificado ocupa un pequeño espacio de solo unos pocos átomos en el disco, que es como los fabricantes pueden obtener densidades de datos en el rango de 2.5 TB / pulgada cuadrada o más.

Pero no importa lo pequeños que se hayan vuelto los campos magnéticos en los platos, los fabricantes de unidades han incorporado técnicas de computación sofisticadas para mejorar el rendimiento y la confiabilidad de la unidad. Estas técnicas están destinadas a preservar los datos y, de hecho, pueden evitar la eliminación segura de los datos utilizando técnicas de sobrescritura. Por ejemplo, una unidad reservará una fracción no utilizada de bloques en caso de que una parte del disco no sea confiable, y en caso de falla, migrará automáticamente los datos de la parte mala del disco a la parte buena. Eso significa que ya no importa si sobrescribe el disco con ceros, 0xFFs o números aleatorios. Si el sector que salió mal solía guardar un secreto, ese secreto nunca se sobrescribiría con ningún patrón de borrado.

Estas mejoras continuas de las tecnologías de disco duro han creado la necesidad de técnicas más confiables para desinfectar las unidades de disco. Hoy en día, se recomienda la limpieza criptográfica. Los datos en la unidad se pueden cifrar con una clave aleatoria almacenada solo en un chip flash en la unidad. Para destruir los datos, la memoria flash se borra y la única copia de la clave se elimina de la existencia. Sin una clave de descifrado disponible, los datos cifrados se destruyen de forma segura e instantánea.

Para obtener más información sobre las técnicas aceptables de desinfección del disco, recomiendo leer estándar NIST 800- 88, rev 1 .

    
respondido por el John Deters 22.06.2016 - 00:35
fuente
1

La remanencia de datos es la representación residual de los datos digitales que permanece incluso después de los intentos de eliminar o borrar los datos. Este residuo puede deberse a que los datos queden intactos por una operación de eliminación nominal de archivos, al reformatear los medios de almacenamiento que no eliminan los datos escritos previamente en los medios, oa través de las propiedades físicas de los medios de almacenamiento que permiten recuperar los datos escritos previamente.

La técnica de sobrescritura más simple escribe los mismos datos en todas partes, a menudo solo un patrón de todos los ceros. Como mínimo, esto evitará que los datos se recuperen simplemente leyendo de los medios nuevamente usando las funciones estándar del sistema.

En un intento de contrarrestar técnicas de recuperación de datos más avanzadas, a menudo se han prescrito patrones de sobrescritura específicos y pases múltiples. Estos pueden ser patrones genéricos destinados a erradicar las firmas de rastreo, por ejemplo, el patrón de siete pasos: 0xF6, 0x00, 0xFF, random, 0x00, 0xFF, random; a veces, erróneamente [se necesita una aclaración] atribuida a la norma estadounidense DOD 5220.22-M.

Viabilidad de recuperar datos sobrescritos

Peter Gutmann investigó la recuperación de datos de medios sobrescritos nominalmente a mediados de los años noventa. Sugirió que la microscopía de fuerza magnética podría recuperar dichos datos y desarrolló patrones específicos para tecnologías de impulsión específicas, diseñados para contrarrestarlos. [2] Estos patrones se conocen como el método de Gutmann.

Daniel Feenberg, economista de la Oficina Nacional de Investigación Económica privada, afirma que las posibilidades de que los datos sobrescritos se recuperen de un disco duro moderno ascienden a "leyenda urbana". [3] También señala la "brecha de 18 minutos y medio" que Rose Mary Woods creó en una cinta de Richard Nixon sobre el robo de Watergate. La información borrada en la brecha no se ha recuperado, y Feenberg afirma que hacerlo sería una tarea fácil en comparación con la recuperación de una señal digital moderna de alta densidad.

A partir de noviembre de 2007, el Departamento de Defensa de los Estados Unidos considera que la sobrescritura es aceptable para limpiar medios magnéticos dentro de la misma área / zona de seguridad, pero no como un método de desinfección. Solo la desmagnetización o la destrucción física son aceptables para este último. [4]

Por otra parte, de acuerdo con la Publicación especial 800-88 del NIST de 2006 (pág. 7): "Los estudios han demostrado que la mayoría de los medios de hoy en día se pueden borrar de forma efectiva con una sobrescritura" y "para unidades de disco ATA fabricadas después de 2001 (más de 15 GB) los términos limpieza y depuración han convergido ". [5] Un análisis de Wright et al. De las técnicas de recuperación, incluida la microscopía de fuerza magnética, también se concluye que una limpieza simple es todo lo que se requiere para las unidades modernas. Señalan que el largo tiempo requerido para múltiples borrados "ha creado una situación en la que muchas organizaciones ignoran el problema por completo, lo que genera pérdidas y fugas de datos". [6]

Fuente: enlace

    
respondido por el Florian Bidabe 21.06.2016 - 23:16
fuente
1

No hace mucho, esto solía ser una recomendación. La razón fue que Peter Gutmann ideó una manera de recuperar (con > 50% de probabilidades) el estado anterior de un bit. Escribir todos los mismos valores permitiría esencialmente revertir la escritura. La respuesta aceptada en esta pregunta tiene más detalles.

  

El origen se encuentra en el trabajo de Peter Gutmann, quien demostró que hay algo de memoria en un bit de disco: un cero que se ha sobrescrito con un cero se puede distinguir de uno que se ha sobrescrito con un cero, con una probabilidad mayor que 1/2. Sin embargo, el trabajo de Gutmann ha sido un poco exagerado y no se extiende a los discos modernos.

Es una preocupación menor en estos días.

    
respondido por el HashHazard 21.06.2016 - 23:53
fuente

Lea otras preguntas en las etiquetas