Vielen wird schon aufgefallen sein, dass in der Analyse von Website-Daten immer wieder Aufrufe in grossem Volumen von kryptischen Webseiten aus dem Ausland vorhanden sind. Hinter dem Begriff «Bot-traffic» verstecken sich jene Zugriffe auf eine Website, welche nicht direkt durch einen Menschen ausgelöst wurden. Es sind kleine website-externe Programme, welche automatisch einprogrammierte Aufgaben ausführen. Studien gehen davon aus, dass 40 % des gesamten Internet-Traffics auf diese Bots zurückgeht.

Welche Bots gibt es?

Bots lassen sich in zwei Kategorien unterteilen. Es gibt jene Bots, von deren Arbeit wir als Konsumenten profitieren. Dies sind vor allem Crawler von Suchmaschinen oder Sprachassistenten. Sie durchsuchen das Internet automatisch nach neuen Inhalten und indexieren sie so, dass sie uns als Nutzer schneller die gewünschten Suchresultate anzeigen können. Diese Bots deklarieren in einer .txt-Datei oftmals ihren Zweck. So kann Google Analytics diese Bots erkennen und schliesst sie automatisch von den Analysedaten aus. Die Website-Analyse-Daten werden also durch gutartige Bots in der Regel nicht verfälscht.

Es gibt aber auch Bots, welche Websites mit schlechten Absichten aufsuchen. Beispielsweise um Web Scraping zu betreiben. Dabei werden gezielt Informationen von einer Website abgegriffen, welche dann im Interesse der Bot-Sender weiterverwendet werden. Eine Anwendung könnte sein, um gleiche Produkte im eignen Webshop automatisch günstiger anzubieten. Gut entwickelten Bots ist es ausserdem möglich mit Hilfe von Captcha-farms ebendiese Sicherheitsbarriere «Captchas» zu umgehen. Eine weitere Anwendung von bösartigen Bots ist, dass mit ihnen eine DDoS-Attacke ausgeführt werden kann. Dadurch wird eine Server-Überlastung mit dem Ziel provoziert, dass dieser zum Absturz gebracht wird und die darauf gespeicherten Websites nicht mehr aufrufbar sind oder zumindest deren Ladezeit massiv erhöht wird.

Wie können Bots mit schlechten Absichten erkannt werden?

Schadhafte Bots sind schwer zu erkennen, was auch deren Absicht ist. Sie tarnen sich als menschliche Nutzer. Hinweise, dass es sich bei einem Nutzer tatsächlich um einen Bot handelt sind unteranderem spezifische Peaks im Website-Traffic, welche sich keiner anderen Ursache zuordnen lassen. Auch kann die Herkunft zweifelhaft sein oder eine aussergewöhnlich hohe Bounce-Rate (Nutzer die eine Website wieder verlassen, ohne auf ihr aktiv zu sein) ist ein Indiz. Typischerweise bricht durch ein solches Verhalten die durchschnittliche Verweildauer auf einer Website massiv ein.

Was kann man gegen Bots mit bösen Absichten tun?

Diese Bots entwickeln sich laufend weiter, durch die Tarnung und Imitation des Verhaltens eines menschlichen Nutzers ist es für die Sicherheitsmechanismen einer Website sehr schwer, diese zu erkennen. Wenn es aber um die Auswertung von Website-Daten geht, bietet Google Analytics einen automatischen Filter an, welcher diese Zugriffe herausfiltert, damit sie die Website-Analyse nicht mehr beeinträchtigen.

Du hast das Gefühl, die Performance deiner Website wird durch verschiedene Faktoren beeinträchtigt oder könnte besser sein? Gerne helfen wir dir weiter deine Website zu Optimieren und zu Messen, wie deine Website performt.