WWW: Unterschied zwischen den Versionen

Aus Hostsharing Wiki
Zur Navigation springen Zur Suche springen
Zeile 57: Zeile 57:


Die optionale Datei robots.txt dient der Steuerung der Indizierung der Webseiten einer Domain durch Suchmaschinen. Die Datei kann Steuerbefehle für die Robots enthalten, mit denen die Suchmaschinen Webseiten nach Informationen "abgrasen".
Die optionale Datei robots.txt dient der Steuerung der Indizierung der Webseiten einer Domain durch Suchmaschinen. Die Datei kann Steuerbefehle für die Robots enthalten, mit denen die Suchmaschinen Webseiten nach Informationen "abgrasen".
'''Achtung: Fehlerhafte oder so nicht gewollte Einträge können dafür sorgen, dass die Webseiten von den Suchmaschinen nicht mehr indiziert werden, also auch nicht mehr mit Suchmaschinen gefunden werden können!'''


Eine [http://http://www.robotstxt.org/ robots.txt]-Datei muss um Wurzelverzeichnis der veröffentlichten Website
Eine [http://http://www.robotstxt.org/ robots.txt]-Datei muss um Wurzelverzeichnis der veröffentlichten Website

Version vom 29. Juni 2017, 18:25 Uhr

Konfiguration des Webservers

Auf dieser Seite sind Einstellungen und Einstellungsorte genannt, die typischerweise an eigene Bedürfnisse angepasst werden.


Einstellungen zum HTTP Zugriff

Mit .htaccess Dateien können innerhalb der Domainverzeichnisse z.B. Verzeichnisschutz, Filelistings und Umleitungen (Redirects/Rewrites) des Apache Webservers eingestellt werden. Die Konfiguration wird auf der Seite .htaccess beschrieben.

Abbildung von http(s)-Requests auf das Dateisystem

  • http(s)-Requests auf example.com werden auf das Verzeichnis

~/doms/example.com/htdocs(-ssl) geroutet. Standardmäßig ist im Verzeichnis ~/doms/example.com/htdocs(-ssl) eine .htaccess-Datei hinterlegt, welche eine externe Weiterleitung auf http(s)://www.example.com auslöst.

  • http(s)-Requests auf www.example.com werden auf der Verzeichnis

~/doms/example.com/subs(-ssl)/www geroutet, sofern dieses existiert. Ansonsten werden diese Requests ebenfalls auf das Verzeichnis ~/doms/example.com/htdocs(-ssl) geroutet. Hierbei gilt www lediglich als Standardbeispiel, es sind beliebige Subdomainnamen verwendbar. Dies sind sogenannte leichtgewichtige Subdomains.

Für aufgeschaltete Subdomains gilt dies analog. Die Subdomain tritt dann in die Stelle von example.com.

Anwendungsbeispiel

Alle Requests Subdomains, für die kein passendes Verzeichnis unterhalb von subs(-ssl) existiert, werden auf htdocs(-ssl) geroutet. Löscht man nun die Weiterleitung aus dem Verzeichnis htdocs(-ssl) und installiert eine subdomainfähige Webanwendung, etwa gängige Content Management Systeme oder Blogs, in htdocs(-ssl) und löscht zudem subs(-ssl)/www, so kann die Webanwendung die Subdomains selbstständig verwalten. Das Einrichten neuer Subdomains innerhalb der Webanwendung erfordert dann keinen Eingriff in die Verzeichnisstrukturen mehr.

PHP Ausführung

PHP Skripte (.php Dateien) werden beim http Zugriff standardmäßig ausgeführt. PHP kann jedoch (und muss oft) an individuelle Bedürfnisse angepasst werden. Die Konfiguration wird auf der Seite PHP beschrieben.

Einstellen des im HTTP Header angegebenen Zeichensatzes

Die HS Systeme bieten volle Unterstützung für den universellen UTF Zeichensatz. Der Standard Zeichensatz, den der Apache Webserver im Header angibt, ist jedoch auf iso-8859-1 eingestellt. So funktionieren bestehende Webseiten, die im ISO Zeichensatz erstellt wurden, auch weiterhin ohne Modifikation.

Bei neuen Webseiten empfiehlt es sich, diese im UTF-8 Zeichensatz zu speichern, bzw. ist UTF-8 auf modernen Systemen ohnehin der Standardzeichensatz. Damit Webbrowser beim Abbruf von UTF-8-Seiten vom HS Server auch den korrekten UTF-8 Zeichensatz verwenden, muss jedoch entsprechend die Zeichensatzangabe im Header des Apache Webservers auf UTF-8 gestellt werden.

Für .htm(l) und .php Dateien kann dies in der .htaccess Datei mit Kombination in der php.ini siehe PHP Konfiguration eingestellt werden.

https / SSL / TLS

"Secure Socket Layer": Die Nutzung von verschlüsselten https:// Verbindungen und Sicherheitszertifikaten wird auf der Seite SSL beschrieben.

CGI

"Common Gateway Interface": Was CGI Scripte sind und wie man sie auf unserem Server ausführen kann steht auf der Seite CGI.

Überwachung der HS-Dienste

Der Status der HS-Server, und damit auch der Status der eigenen Webseiten, wird von außen überwacht und ist unter Überwachung der HS-Dienste beschrieben.

robots.txt

Die optionale Datei robots.txt dient der Steuerung der Indizierung der Webseiten einer Domain durch Suchmaschinen. Die Datei kann Steuerbefehle für die Robots enthalten, mit denen die Suchmaschinen Webseiten nach Informationen "abgrasen".

Achtung: Fehlerhafte oder so nicht gewollte Einträge können dafür sorgen, dass die Webseiten von den Suchmaschinen nicht mehr indiziert werden, also auch nicht mehr mit Suchmaschinen gefunden werden können!

Eine robots.txt-Datei muss um Wurzelverzeichnis der veröffentlichten Website abrufbar sein. Wenn die Website unter http://www.example.com erreichbar ist, muss der Aufruf von http://www.example.com/robots.txt den Inhalt eben dieser Datei liefern.

Bei Hostsharing muss man sie also in den obersten Ordner der jeweiligen Website legen, in unserem Beispiel als DomainAdmin in den Ordner ~/doms/example.com/subs/www, wenn die Standardeinstellungen verwendet werden.