Recientemente revisé mis registros y encontré algunas solicitudes extrañas a mi servidor. por ejemplo,
GET /path/Microsoft.XMLHTTP HTTP/1.0
GET /path2/Scripting.FileSystemObject HTTP/1.0
Una nueva comprobación parece apuntar a algún robot que realiza el archivado del sitio web. ¿Un robot de archivado web ejecutaría dichas solicitudes en forma de comandos para archivar nuestro sitio?
Por ejemplo, si es de Internet Archive o de alguna biblioteca que realiza el archivado, estos bots de archivado realmente realizarían tal peticiones ? Pensé que solo harían arañas o capturarían todo el sitio web, y no invocarían tales comandos.
Actualización:
Tras una investigación adicional, descubrí que el robot de archivo probablemente profundizó en analizar un javascript en esa página y en capturar aquellas afirmaciones que contienen Scripting.FileSystem
, por ejemplo,
var FSO = new ActiveXObject("Scripting.FileSystemObject");
Probablemente la razón es que el bot necesita obtener todo lo que pueda encontrar, por lo que incluso ActiveXobjects. ¿Es lógico pensar de esta manera?