spam welle

Was den Zeitraum betrifft werdet ihr euch sicherlich besser auskennen. ;)
War halt ein Vorschlag wie man einer Spam Welle begegnen könnte um den Schaden einzugrenzen.
 
verstehe das richtig da ein mensch ein acc erstelt und dan als boot los sendet ???
Es ist billiger, einem Inder oder Chinesen ein paar Dollar zukommen zu lassen, damit der Tag und Nacht sämtliche Foren mit Müll überzieht, als ein passendes Programm zu erstellen, was das automatisch macht und dann an diversen Captchas scheitert.
Ich versteh nur nicht, wie man mit diesem Müll jemals Kundschaft anlocken will. Wer so doof ist, den Scheiß ernst zu nehmen, kann doch eh kein Englisch.
Sowas ergibt vielleicht Sinn in einem unmoderierten, längst toten Forum, wo der Dreck dann ewig stehen bleibt und wo sich mal Jemand über Google hin verirrt.
 
Zuletzt bearbeitet:
wie wehre eine art geo sperre den lessen welt weit ja,
reg welt weit nein.*noahnung*
 
Zumindest IPs aus Fern- und Nahost könnte man ja auf manuell freizuschalten stellen.
 
Ich habe Neuregistrierungen erstmal deaktiviert.
 
Grad als ich schreibem wollte es geht weiter, zack alles aufgeräumt *great*

Grade zur Penta zeit sowas echt unschön, aber zumglück sind die Admins/Mods hier fleißige Bienchen
 
Ich habe mal eine Frage: Intern: Planet 3DNow! Forum wieder für Neuregistrierungen offen Von Nero24 am 17.07.2018 um 16:26 Uhr
Ist damit gemeint, dass man bei neuen Nutzern immer die ersten Beiträge freischalten lassen muss von euch oder allgemein die neuen Beiträge in einem Thread/Thema?

Ansonsten Daumen hoch für die immer gute und immer nachvollziehbaren Aktionen.
 
Ist damit gemeint, dass man bei neuen Nutzern immer die ersten Beiträge freischalten lassen muss von euch oder allgemein die neuen Beiträge in einem Thread/Thema?
Ne, nur die ersten Beiträge von neu registrierten Benutzern; eben, um sicherzustellen, dass es wirklich Benutzer sind und keine Spambots.
 
@Nero24.
Vielen Dank für die Rückmeldung und dann ist es doch so wie ich mir das später auch dachte.
 
ich hatte es zwar schonmal irgendwo gefragt , aber ist wohl untergegangen.
könnt ihr die suchmaschinenbots nicht aussperren, also badbots und spider ?

wenn man sich mal anschaut wer gerade unterwegs ist im forum dann dominiert anscheinend dieses ahref aus ukraine/singapore. angeblich lassen sie sich ja (nach eigener aussage) mit der robots.txt aussperren, aber irgendwo stand das es doch nicht so einfach ist.

werden die suchmaschinen insgesamt zu denen dazugezählt die online sind ? mich würde mal interessieren wieviele "reale" personen noch den planet so nutzen.
 
Natürlich könnte man diese Bots und Suchmaschinen aussperren. Ich gehe sogar davon aus, dass "richtige" Badbots schon ausgesperrt sind.
Das bringt aber nicht viel oder ist sogar Kontraproduktiv Suchmaschinen auszusperren, wir wollen ja schließlich in Suchmaschinen gefunden werden. ;)

Und real...

Aktuell sind z.B. ca. 40 registrierte Benutzer online, der Rest sind rund 800 Gäste, davon sind über den Daumen gepeilt die Hälfte klar als Suchmaschinen gekennzeichnet, bei der anderen Häfte kann man ohne genauere Auswertung nicht viel sagen.

Achja. Die robots.txt ist auch so eine Sache, das ist richtig, viele Bots lassen sich nur mit Regeln aussperren die Explizit sie betreffen, ziemlicher Aufwand teilweise.
Und dann sind noch "offene" Bots im Umlauf wie z.B. MJ12 - der selber auch grenzwertig ist IMHO und auch recht aggressiv -, da kann im Endeffekt jeder seinen eigenen Crawler basteln der dann die robots.txt ignoriert aber die selbe ID benutzt wie der "echte".
 
Zuletzt bearbeitet:
Also bei der Anzahl Einträge würde ich auf jeden Fall mal ein zusätzliches

Code:
User-agent: AhrefsBot
Disallow:/

in Betracht ziehen. Wenn es nicht zieht, dann hat man durch die paar Sekunden Arbeit nichts verloren.
 
Mal ganz offen gefragt: Meinst du nicht das wäre bereits gemacht worden, wenn man damit ein Problem hätte, dass diese Bots da sind? :]
 
Zuletzt bearbeitet:
Sie bringen keinen Vorteil in irgendeiner Weise, stehlen Traffic, und belasten den Server unnötig (und wenn es auch nur ein Cent am Ende mehr an Stromkosten pro Tag ist). Und das könnte sogar noch Forenspammer abhalten, welche den "Service" dieses Bots vermutlich nutzen. Alleine aus der reinen Effizienzbetrachtung sind die zwei Minuten Arbeit es wert.
 
Ich denke die Verantwortlichen wissen was Sie tun, vielen Dank.
 
Keine Panik, wir sind eh momentan dabei bestimmte Einstellungen rund um die robots.txt usw. vorzunehmen.

Mir ist aber so, als ob der Ahrefsbot erst in den letzten Tagen so zuschlägt.
 
Hab ihn in das robots.txt reingegeben, greift aber trotzdem dauernd zu laut access.log
 
@pipin

ist schon seit längerer zeit so ...oder anders gesagt ich hatte irgendwann nach dem 3.0 start nachgeschaut und das gesehn.


hab sowieso kein plan von der geschichte. hatte nur beispielsweise hier das gelesen zu arefs bot (ab bad bots deny) https://www.mediaevent.de/bad-bots-oder-wie-man-bots-fern-haelt/


tomturbo wird das schon hinbekommen ;) vielleicht jetzt erstmal abwarten so wie dort gesagt und dann dort mit den weiteren möglichkeiten über browser strings bzw der nginx.conf weitermachen ? ......bömische dörfer für mich*buck*.


und wenns nicht geht naja ..... kann man es halt auch nicht ändern. ahref scheint zumindest in keinster weise nützlich zu sein (oder doch ?). das google, bing usw zugreifen ist ok, sonst wäre man ja abgeschnitten.
 
es hat tatsächlich gewirkt coole sache :)
 
Zurück
Oben Unten