Entfernen aus der Suchmaschinen-Ergebnisliste
Was ist zu tun, wenn personenbezogene Daten im eigenen Webangebot unerwünscht über Suchmaschinen auffindbar sind?
Was ist nun aber zu tun, wenn “das Kind bereits in den Brunnen gefallen” ist und Suchmaschinen bei der Suche nach bestimmten Namen die Webseite als Treffer ausliefern?
Die erste Maßnahme muss sein, das Webangebot so zu verändern, dass die personenbezogenen Daten nicht mehr für Suchmaschinen zugänglich sind. Sinnvoll ist es, wie im letzten Abschnitt beschrieben, eine “robots.txt” Datei anzulegen und erst einmal sämtliche Unterseiten für Suchmaschinen zu sperren, die die zu entfernenden personenbezogenen Daten enthalten. Zudem sollten die personenbezogenen Daten entfernt werden – es sei denn, dies ist nicht gewünscht, sondern es soll nur das Finden der Daten über die Suchmaschinen verhindert werden.
Sollen die nun für Suchmaschinen gesperrten Unterseiten – nun ohne die personenbezogenen Daten – indiziert werden, so sind diese unter einem neuen Namen/Pfad neu anzulegen und sämtliche Links zu verändern. Die Sperre in der Datei “robots.txt” auf die bisherigen Unterseiten, muss unbedingt erhalten bleiben, selbst wenn die Dateien gelöscht werden.
Das eben beschriebene Vorgehen (Sperren der bisherigen Links, Neuanlegen der Dateien unter einem neuen Link) hat folgenden Grund: Ein Spider einer Suchmaschine liest zuerst die Datei “robots.txt” und wird die aufgeführten Verbote umsetzen, indem einerseits den entsprechenden Links nicht mehr gefolgt wird und andererseits die Links aus dem Index der Suchmaschine entfernt werden. Wird die Datei hingegen nur gelöscht, so nimmt der Spider u.U. an, dass der Link temporär nicht erreichbar ist und behält den bisherigen Index bei. Wird die Datei nur verändert, d.h. die personenbezogenen Daten entfernt, ist nicht sichergestellt, dass der Spider den Link bei seinem nächsten Besuch untersucht – möglicherweise haben sich bei den letzten Besuchen des Spiders die Webseiten hinter dem Link nur selten verändert.
Durch das Hinzufügen eines Verbots-Eintrages in die Datei “robots.txt” wird sichergestellt, dass jede Suchmaschine bzw. jedes Webarchiv, welche das Robots-Protokoll beachten, die personenbezogenen Daten beim nächsten Besuch des Spiders aus dem Index entfernen.
Bei Webseiten die sich nur selten verändern erfolgen die Besuche der Spider jedoch nur im größeren Abstand. Daher sollte man zumindest den großen Suchmaschinen mitteilen, dass sich der Inhalt der Webseite geändert hat. Vielen Suchmaschinen und Webarchiven bieten dafür ein Formular, welches oft als “Anmelden einer Webseiten” bezeichnet wird. Die Suchmaschine “Google” bietet zudem explizit das Entfernen von (Unter-)Webseiten aus dem Index und dem Google-Cache an. Dazu muss man jedoch zuerst einen GMail-Account anlegen.
Das Entfernen von bereits existierenden Indizierungen in Suchmaschinen ist zeitaufwendig und nur begrenzt erfolgreich. Trotzdem sollten die Möglichkeiten zumindest gegenüber den bekanntesten Suchmaschinen genutzt werden, nachdem das Webangebot datenschutzgerecht überarbeitet wurde.


