 | Über die Such- maschinen News | Suchmaschinen News ist ein Service der Suchfibel. Die News werden mit dem Content Management System Tauceti erstellt und aktuell gehalten. |
|  |  | 11.03.2002 | Google durchsuchte geheime Dateien | Ein Fehler in der Software brachte Google dazu, auch solche Dokumente auf gesicherten Servern zu durchsuchen, die eigentlich gar nicht durchsucht werden sollten. Solche gesicherten Server enthalten teilweise Inhalte, auf die nur gegen Bezahlung zugegriffen werden darf oder sogar sensible interne Informationen.
Normalerweise kann der Webmaster jedoch mit der Datei robots.txt den Suchmaschinenrobotern untersagen, in bestimmte Bereiche vorzudringen, zum Beispiel eben in solche mit Dateien, die nur mit dem verschlüsselten Übertragungsprotokoll https übertragen werden. Mehrere Wochen lang war der Google Robot unterwegs und missachtete für über https erreichbare Seiten die robots.txt. Etwa 3,8 Millionen Seiten wurden eingesammelt und indexiert.
Google meint, dass grundsätzlich auch die mit dem sicheren Übertragungsprotokoll https zugänglichen Dokumente einer Indexierung wert seien, musste jedoch auf Protest vieler Webmaster schleunigst nachbessern. Jetzt werten die Google Roboter mit dem Namen BackRub die robots.txt für alle übertragungsprotokolle aus.
Google brachte schon einmal Webmaster in Verlegenheit, die leichtsinnig vertrauliche Office Dokumente auf ihren Servern herumliegen ließen. Die werden prompt auch durchsucht. In dem Falle war aber Google unschuldig; wer Dokumente auf einen öffentlichen Server legt, die da nicht hin gehören, ist selber schuld.
|
Quelle: Heise Ticker |
Kontext: Passwörter finden |
|  |
 |
Aktuelle Meldungen
|
|
|