¿Hay una manera de tener básicamente una política de permitir todo en su dominio de nivel superior, y cualquier subdominio no lo permite todo? Preferiría que mis servidores de aplicaciones públicas no se indexen, pero por lo que puedo decir, ningún robot está encuestando por robots.txt cuando salta de nuestro dominio de nivel superior a un subdominio a través de un enlace.
Siempre he sentido que hacer un mapa de todos los lugares prohibidos para robots.txt está regalando una hoja de ruta a cualquiera que quiera saber dónde están las cosas buenas.
¿Qué tipo de estrategias de seguridad de Robots.txt serían las mejores para un entorno de aplicación web?