Sie könnten Ihre Website oder Ihren Blog durch einen Accountzugang schützen. Nutzer müssten sich dann zunächst anmelden, um Ihre Beiträge lesen zu können. Das ist für die aber natürlich weniger komfortabel. Aber auch dazu könnte man einen Bot programmieren, der sich zuerst automatisiert registriert und danach einloggt, um die Texte von Ihrer Site abzugreifen.
Sie merken schon: Keine dieser Schutzmaßnahmen ist unüberbrückbar.
Eine dritte Schutzmöglichkeit wäre die robots.txt. Das ist eine Datei, die im Hauptverzeichnis Ihrer Website liegt und die – Achtung Wording! – fairerweise jeder Robot, der Ihre Site besucht, zunächst lesen sollte, um zu lernen, was er auf Ihrer Website tun darf und was nicht. Dort formuliere ich Nutzungsregeln für den Bot, wie z.B. „diese Seite darfst du lesen, diese Seite nicht“.
Das ist aber nicht mehr als eine freiwillige Selbstverpflichtung. Man kann sich an diese Regeln halten, oder es auch bleiben lassen. Ob eine Missachtung solcher Regeln justiziabel ist, müsste man einen Fachjuristen fragen.
Gunter Becker, M(verdi), 09.07.2024 (online)