Het is niet [span class=”hue”]nodig[/span] om iets te doen met deze functie. U kunbt het simpelweg laten zoals het is na de installatie van kiwitrees. Het is ontworpen zodat kiwitrees perfect zal werken als u het negeert..
De pagina bestaat uit 2 delen:
- De bovenste helft van de pagina zijn de regels die worden toegepast. In deze afbeelding(rechts) zijn ze standaard in kiwitrees en geven “normale” browsers toegang tot de website. Elk deel van elke regel kan bewerkt worden en de hele regel kan verwijderd worden.
- [span class=”hue”]Verwijder de standaard standaardbrowser toegangsregels niet[/span] Dan kunt u de toegang tot de website ontzeggen van de standaardbrowsers, inclusief uzelf!
- Onderaan de tabel is een “Reset” button. Deze zal ALLE regels verwijderen die u veranderd heeft en vervangen door de standaardregels, zoals die zijn bij een nieuwe kiwitrees installatie.
- De onderste helft zijn de “onbekende” bezoekers die [span class=”hue”]kunnen[/span] nodig hebben dat er een regel gemaakt wordt om hun toegang te beheren. U converteert deze naar een regel door in de onderste helft te klikken op een van de drie groene vinkjes aan de rechterkant om een regel in te stellen voor toestemming, weigering of een gelimiteerde(robots) toegang voor dat IP adres of adresreeks.
Wat u precies wilt doen met deze informatie, is hoe agressief u de toegang wil beperken tot de website.
Als u dit actief wil beheren zult u meer informatie moeten vinden over elke “onbekende bezoeker”:
- Gebruik whois.net om uit te vinden wiens IP adres het is.
- Gebruik user-agent-string.info om iets meer te vinden over de user-agent string.
- Check uw webserver logs om te zien of het te vaak bezocht wordt en welker verzoeken het krijgt.
Merkop dat user-agent strings makkelijk zijn na te maken. Iedereen kan een verzoek versturen met een UA string van: Mozilla/5.0 (compatible; Googlebot/2.1; +www.google.com/bot.html)
[small_full]Robots.txt bestand [/small_full]
De meest robots zijn onschadelijk. Ze leiden alleen tot problemen als ze te vaak langskomen en teveel server resources gebruiken. Maar het is belangrijk om ze te identificeren. Bijvoorbeeld, u wil niet dat ze toegang hebben tot de kalender pagina. Door de links te volgen van deze pagina zullen ze eindigen met een ontelbaar aantal pagina’s. De “Website toegangsregels” pagina helpt om de toegang te controleren door universele toestemming, weigering of gelimiteerde toegang voor IP adres reeksen, maar u heeft ook een “robots.txt” bestand nodig om meer specifieke controle te hebben over welke pagina’s de robots de toegang wordt ontzegd.
[span class=”hue”]Als u een robots.txt bestand al een tijdje in gebruik heeft zult u het moeten herzien. De laatste versie van kiwitrees (3.1) heeft een nieuw voorbeeld bestand robots.txt (robots-example.txt) ingesloten in de installatie bestanden.[/span] Deze draait de vorige bestanden “white-list” regels om ten faveure van een simpele “black-list benadering. Dit verzekerd zoekmachines zoals Google toegang te kunnen hebben tot alle website resources voor accuratere beoordeling voor de SEO rankings; terwijl u ze wel de toegang ontzegd tot pagina’s die ze niet nodig hebben en die excessief de server resources belasten, als ze herhaaldelijk door robots worden bezocht. Dit zijn voornamelijk pagina’s met een groot aantal links, bijvoorbeeld, honderden persoonspagina’s die de robot sowieso zal vinden.
Dit bestand moet gekopieerd worden, hernoemd en geplaatst worden in uw website domein rootdirectory, zoals “www.example.com/robots.txt”. Het werkt niet in een subdirectory, zoalss “www.example.com/webtrees/robots.txt”. Als u het moet verplaatsen, pas dan ook de paden aan, b.v. “Disallow: /login.php” becomes “Disallow: /kiwitrees/login.php”.