la mayoría de los robots están analizando el servidor y el sitio web está expuesto a este tipo de ataques, la mayoría de las veces las soluciones son simples:
- usando una contraseña compleja (lo mejor es usar caracteres especiales como ¥, §, À, ±, ..)
- tener un sistema actualizado (y CMS también)
- tratando de evitar el tercer componente
- usando un firewall para abrir solo el puerto entrante utilizado
- cierre de acceso de base de datos a internet
- usando la restricción de ip para la herramienta de administración sensible
- utilizando una herramienta de registro
Esos son ataques de bots comunes:
fuerza bruta
este es un método que intenta encontrar el acceso de inicio de sesión mediante el envío de una solicitud de inicio de sesión y luego prueba el resultado, siempre que el resultado no haya iniciado sesión, vuelve a intentar otra combinación de inicio de sesión / contraseña hasta que se otorgue el acceso
dirigido principalmente a internet:
- FTP (normalmente el puerto 21)
- SSH (normalmente puerto 22)
- TS (normalmente puerto 3389)
- páginas de inicio de sesión en el sitio web (generalmente, puerto 80 y 443)
para evitar este tipo de ataques:
- (si es posible) cambiando el puerto predeterminado
- tener una contraseña compleja
- intentando evitar el uso del nombre de inicio de sesión básico (admin / root / administrator, ...)
- tener un temporizador de "intento fallido", por lo que tomará demasiado tiempo encontrar la combinación adecuada de contraseña / inicio de sesión.
lo que necesita saber es que la primera fase de este tipo de ataques en el sitio web es encontrar qué herramientas web utiliza (nombre del CMS, phpmyadmin, ...), una vez que se encuentre la fuerza bruta puede comenzar. Para la aplicación, es más fácil encontrar un simple escaneo de puertos que herramienta del sistema se utiliza.
Hoy en día, la mayoría de las herramientas del sistema están lo suficientemente seguras contra este tipo de ataques, es por eso que hoy en día se enfocan en el sitio web.
infracción de seguridad conocida
muchas personas están usando CMS de código abierto, ya que es un código de código abierto que puede ser explotado. Todo el tiempo se encuentra y está asegurado por el desarrollador, pero no todos los administradores del servidor hacen actualizaciones.
Así que una vez que se arregla una brecha, ésta se conoce al público (como Heartbleed, Poodler, ...).
Cada vez que los Bots se actualizan con las nuevas informaciones, busque el sitio expuesto a la vulnerabilidad.
para evitar este tipo de ataques:
- tener un (bien) sitio hecho por sí mismo
- actualizar su sistema (y herramientas web)
- no utiliza nombres de carpeta predeterminados
- documento de lectura sobre cómo proteger su CMS, su contenido expuesto y su código
- bloqueando solicitudes extrañas para evitar ataques antes de intentar con la configuración de su servidor.
este es un ejemplo de reglas de bloqueo para el servidor apache:
<Directory />
#Block user agent empty or with suspicious values
RewriteCond %{HTTP_USER_AGENT} ^-?$|\x.*?\x|perl|python [NC,OR]
#Block default folders (optional, but prevent 404 logs)
RewriteCond %{REQUEST_URI} MyAdmin|\/pma\/|\/phpmyadmin| [NC,OR]
#Limit request to thoose requiered
RewriteCond %{REQUEST_METHOD} !^(GET|HEAD|POST)$ [OR]
#blocking request who not start by /
RewriteCond %{REQUEST_URI} !^/
#all thoose redirect to the error code you want, i like to use 406 in my case
RewriteRule .* - [END,R=406]
</Directory>
A
le gusta que la mayoría de los bots estén bloqueados antes de poder probar el incumplimiento de su sitio web.
Por cierto, si vigila los registros y la contratación de seguridad, puede actualizar las reglas para aumentar las protecciones de los robots.
Bono para programadores
no teman a los bots o hackers, la mayoría de las veces solo hay 4 cosas principales que proteger:
- páginas de inicio de sesión
- inyección de código
- subir páginas
- servidor cruzado
no olvide las copias de seguridad, puede ser útil!