Hace ya algún tiempo hablé de cómo atacan nuestras webs en busca de vulnerabilidades y cómo esta misma web fue atacada.
Hoy toca hablar de otra lacra a la que hay que enfrentarse a diario, el Spam, pero no del email (del que soporto más de 200 correos al día) sino del spam en Foros, blogs…
Desde hace ya un tiempo vengo observando las estrategias de los spamers. La mayoría de ellos buscan un Foro en phpBB (la mayoría de los foros están basados en ese CMS) que permita la publicación de mensajes anónimos (yo me cansé y ya tuve que poner registro en todos los foros). Hay algunos incluso que se llegan a registrar para que en el listado de miembros aparezca la URL con la que quieren spamear, sin llegar a publicar un mensaje nunca, otros sin embargo se registran y publican cientos de mensajes (casi siempre respuestas a mensajes ya existentes con cientos de links a páginas de viagra, casinos, porno o lo que se les ponga delante.
Pero lo más curioso es el sistema que utilizan para detectar foros, que no es nada más que probar los directorios típicos donde se ponen los foros (estos datos están sacados de los logs de las webs, es decir, que son intentos reales de acceso):
/phpbb2/index.php
/phpbb/index.php
/forums/index.php
/forum/index.php
/board/index.php
Otro CMS que conozco bien y que ya he sufrido (y sigo sufriendo) cientos de mensajes de spam son los Blogs (y su archiconocido CMS: WordPress).
Cuando el spammer ha publicado su mensaje de spam comprueban a ver si salio publicado habiendo errores del tipo urlDeLaEntrada/#comment-123 (donde 123 es el numero que le corresponderia al mensaje de spam que no sale publicado hasta que sea aprovado).
Esta comprobación la hacen para saber si el blog atacado publica los comentarios sin moderarlos antes, o publica sus mensajes, aún siendo spam.
Gracias a que WordPress tiene muy buenos plugins es muy raro que se cuele algún mensaje de spam entre los comentarios reales, pero te hacen perder el tiempo en comprobar si algún comentario real se coló hacia el spam, además de la carga de trabajo que le añaden al servidor.
Uno de los problemas que tienen estos robots (además del consumo que hacen de recursos y de tiempo) es que estos robots, a veces, no funcionan bien y cometen fallos y como ya pasó alguna vez generan cientos de errores 404 al intentar acceder a la url de la entrada, pero con el mensaje que querían introducir como parte de la URL, llenando los logs de errores.