Publiekstrekkers. Zo krijgt u uw site bovenaan de lijst

Maandenlang bent u bezig geweest en nu is hij eindelijk af: uw site! Flashanimaties, javascripts en dynamische koppelingen naar een database: uw site heeft het allemaal. Maar...u wilt natuurlijk wel dat er iemand naar kijkt. Om te voorkomen dat alleen uw vrienden en kennissen af en toe uw site bezoeken, moet u er voor zorgen dat zoekmachines en webgidsen u bovenaan hun lijst met treffers zetten. Hoe? U leest het hier.

Wie schrijft, wil gelezen worden. Dat geldt ook voor de maker van een website. Nu kunnen mensen op twee manieren op uw website terecht komen: óf ze kennen het webadres en bezoeken uw site dus bewust, óf het gaat om indirecte bezoekers die (toevallig) een link naar uw site aanklikken. Seo Houdt u bezoekersstatistieken van uw website bij (bijvoorbeeld via een gratis service als Nedstat Basic, www.nedstat.com), dan kunt u hier aardig wat te weten komen over uw bezoekers. Bijvoorbeeld hoeveel mensen uw site hebben bezocht, wanneer dat is gebeurd en uit welk land ze komen. Vooral de zogenoemde referlogs leveren interessante informatie op: u ziet hier niet alleen of de bezoekers via een andere site bij de uwe terecht zijn gekomen, maar ook via wélke site en – als ze uw site via een zoekpagina hebben gevonden – welke zoektermen ze hebben gebruikt. In dit artikel leest u alles over technieken en tools die ervoor zorgen dat webgidsen en zoekmachines uw site kunnen vinden, ofwel seo: search engine optimalisation (ook wel search engine positioning). Yahoo!: misschien wel de bekendste webgids. Webgidsen Er zijn ruwweg twee soorten zoekmachines: webgidsen (webindexen) en zoekrobots. Wilt u door beide gevonden worden, dan hebt u voor elk een andere aanpak nodig. Een webgids – Yahoo! bijvoorbeeld – wordt samengesteld door een groep mensen die elke website bekijkt en vervolgens categoriseert (thematisch en hiërarchisch). Om dit te kunnen doen, moeten zij wel de url van uw site kennen. Deze moet u zelf bij hen bekend maken. Meestal kunt u uw site aanmelden via de Submit-knop van de webgids (bij Yahoo! bijvoorbeeld gaat dat via How to Suggest a Site), maar ga wel goed voorbereid te werk. Kies allereerst de voor uw site meest geschikte categorie binnen de catalogus. Een te algemene categorie is geen goede optie, omdat de concurrentie met andere sites daar veel groter is. Daarnaast is het belangrijk dat u uw site een goede omschrijving meegeeft – let op: vaak krijgt u hier maar vijfentwintig woorden voor. Neem in deze omschrijving beslist een aantal termen op waarmee u via de zoekmachine(s) gevonden wil worden. Bovendien moeten die termen een correcte weergave zijn van de inhoud van uw site én ze moeten in (de homepage van) uw site zelf voorkomen. Vergeet niet om na een paar weken te controleren of de webgids uw site inderdaad heeft opgenomen en herhaal de aanmeldprocedure indien nodig. Veel meer kunt u bij een webgids niet doen, of u moet kiezen voor een betaalformule. Zo biedt Yahoo! bijvoorbeeld Yahoo!Express aan (zo'n € 243): de Yahoo!-medewerkers bekijken uw site dan gegarandeerd binnen een week, maar dan nog bent u er niet zeker van dat ze uw site ook daadwerkelijk in de webgids zullen opnemen. Automatish aanmelden kan ook: zie verderop onder Autosubmitters. Zoekrobots Onderschat niet hoe belangrijk het is om te worden opgenomen in de belangrijkste internationale webgidsen (denk aan Yahoo!, Open Directory en LookSmart). Immers, de bekendste zoekrobots raadplegen deze databanken. Zo'n vermelding in een webgids kan er dus ook voor zorgen dat uw site binnen een zoekrobot beter wordt gepositioneerd. Hoe werken deze zoekrobots nu precies? Deze bots speuren zelfstandig het hele web af, waarbij ze supersnel de ene na de andere link volgen. Daarom heten ze ook wel spiders of crawlers. Deze spiders leveren vervolgens de grondstof waarmee de zoekrobots hun databanken vullen en indexeren. Tot slot kan een gebruiker via een webinterface die databanken raadplegen, waarna de zoekrobot de hits volgens complexe rangschikkingsalgoritmes aan die gebruiker toont. Een geautomatiseerd proces dus, dat per zoekrobot behoorlijk kan verschillen. Hoe verschillend blijkt al uit de tabel waarin we drie bekende bots hebben opgenomen: AltaVista, AlltheWeb en Google. De belangrijkste begrippen uit deze tabel komen verder in dit artikel nog uitgebreid aan bod. Het lijkt dus of u voor een optimale aanmelding uw webpagina's voor elke zoekrobot anders zou moeten opbouwen. Uiteraard kan dit wel (via brugpagina's, zie verderop), zijn er veel gemeenschappelijke elementen die voor vrijwel elke zoekrobot gelden. Metatags: ik zie, ik zie, wat jij niet ziet. Spam Alle zoekrobots hebben in ieder geval gemeen dat gebruikers hun databases kunnen raadplegen via trefwoorden in een zoekbalk. Nu is het niet zo dat u uw site vol moet stoppen met populaire zoektermen (sex, free en mp3) om bezoekers aan te trekken. Hebt u een site over postzegels verzamelen, dan is het maar de vraag of u er überhaupt iets aan hebt dat mensen die eerdergenoemde zoektermen intikken, uw site bezoeken. Nu zijn er allerlei manieren om zoektermen onzichtbaar op uw site te plaatsen – bijvoorbeeld door ze onder te brengen in metatag keywords (alleen zoekrobots zien ze dan, menselijke bezoekers niet) of u tikt ze onzichtbaar in (bijvoorbeeld in dezelfde kleur als de achtergrond). Echter...zoekrobots kennen deze trucjes en als ze u erop betrappen, kon u wel eens op een minder gunstige plek op de ranglijst terechtkomen. Bush, blijkbaar niet erg populair in het Witte Huis... Dichtheid Hoe zorgt u er dan wel voor dat u gevonden wordt? Door te kiezen voor slimme trefwoorden. Dat roept wel direct twee vragen op: waar en hoe plaatst u de trefwoorden het best en wat zijn de meest geschikte trefwoorden? Wat de eerste vraag betreft: zoekrobots hebben een voorkeur voor een optimale dichtheid van de trefwoorden. In de praktijk ligt die dichtheid rond de 7 procent. Anders gezegd: 7 procent van alle woorden op uw webpagina moet uit trefwoorden bestaan. Bevat uw pagina dus tweehonderd woorden, dan komt uw trefwoord daar veertien keer in voor. U rekent de dichtheid van uw webpagina's snel uit via de gratis online tool op www. keyworddensity.com: tik de url in en de trefwoorden en even later leest u het percentage af. Dichtheid heeft echter niet alleen te maken met frequentie. Vrijwel alle zoekrobots houden bij hun rangschikking namelijk ook rekening met de 'hot spots' op uw webpagina. Trefwoorden in de domeinnaam, paginatitel of header tags wegen zwaarder dan trefwoorden in alt-tags of metatags. Zoekrobot AlltheWeb indexeert alt-tags niet eens en er is eigenlijk geen enkele zoekrobot die bij de rangschikking van uw site in de hitlist nog rekening houdt met metatags. Ook belangrijk: de meeste zoekrobots hebben een voorkeur voor de bovenste helft van uw pagina: de trefwoorden hier wegen zwaarder. Dat heeft overigens behoorlijk wat consequenties voor de opbouw van uw pagina's (zie Struikelblokken). Hoe populair is de zoekterm 'postzegels (verkopen)'? (Links ziet u digitalpoint.com, rechts de kei-analyse van wordtracker.com) 'Kei'-goed trefwoord Staan uw trefwoorden op de hot spots op uw webpagina én hebben ze een dichtheid van rond de 7 procent, dan gaat het de goede kant op, maar u bent er nog niet, want gebruikt u wel de juiste trefwoorden? Een goed trefwoord is tegelijk populair én kent weinig concurrentie. Met andere woorden: u hebt trefwoorden nodig die eindeloos vaak worden ingetikt in zoekmachines, maar die nauwelijks hits opleveren. Seo-specialisten brengen deze verhouding onder in een zogeheten kei-waardering (keyword effectiveness index). Populaire trefwoorden met weinig hits leveren de hoogste kei-waardering op. Wilt u weten of u met uw trefwoorden veel concurrentie kunt verwachten, dan kunt u daar snel achter komen door ze bij een aantal zoekrobots in te tikken en na te gaan hoeveel hits ze opleveren. Zo blijkt al snel dat enkelvoudige trefwoorden een gigantische hoeveelheid hits geeft, maar dat combinaties van trefwoorden al een stuk gunstiger uitpakken. Ter illustratie: tikt u in Google 'postzegels' in, dan krijgt u maar liefst 353000 hits te verwerken – probeer daar uw eigen site maar bij de eerste tien te krijgen. Daarentegen is de combinatie 'postzegels verzamelen' of 'postzegels ruilen' al een stuk gunstiger, namelijk 1670 en 153 hits! Niettemin blijft het gissen naar de populariteit van trefwoordcombinaties. Immers, hoeveel mensen tikken die combinaties in een zoekmachine in? Nu zijn er diverse online tools die u laten zien welke zoektermen op dat moment zoal worden ingetikt (http://searchenginez.com/spy.html), maar daar schiet u weinig mee op. Iets interessanter zijn tools die alle ingetikte zoektermen bij bekende zoekrobots in een database verzamelen. Zo kunt u makkelijk nagaan hoeveel keer bijvoorbeeld de term 'postzegels' over een gegeven periode bij een zoekrobot is ingetikt. Voorbeelden zijn www.digitalpoint.com/tools/suggestion, en verder Netmechanic (www.netmechanic.com) en Keyword Wizard (www.pwqsoft.com) die hun diensten echter enkel tegen betaling leveren. WordTracker (www.wordtracker.com) behoort hier ook toe, maar deze tool kunt u eerst even uitproberen. Delorie.com laat u zien hoe een website er uit ziet in de ogen van een zoekrobot. Rechts: frameset weg... navigatie weg! Struikelblokken Hebt u inmiddels de juiste trefwoorden met een hoge kei-waardering, de juiste dichtheid en staan ze ook nog eens op hot spots, dan kan het niet meer stuk! Hoewel...hebt u geen valkuilen gegraven voor de zoekrobots? Zoekrobots lezen een webpagina namelijk anders dan mensen, die het resultaat netjes voorgeschoteld krijgen door hun browser. Een robot ziet de pagina ongeveer zoals u de broncode van de pagina bekijkt. Www.delorie.com/web/ses.cgi geeft daar een aardige indicatie van: tik het adres van uw webpagina in en even ziet u hoe de doorsnee zoekrobot de pagina ziet – en dat is vaak heel anders dan wat uw browser u laat zien. Hoe komt dat? Om te beginnen is een webpagina vaak doorspekt met allerlei overtollige html- en xml-code, vooral als u webpagina's creëert met een pakket als MS Word (Opslaan als webpagina). Ook webeditors hebben hier soms een handje van: Macromedia Dreamweaver houdt het nog vrij sober, maar (vooral oudere versies van) Microsoft Frontpage is niet vies van overtollige coderegels. Het gevolg daarvan is dat uw pagina meer woorden bevat dan nodig, waardoor u ook meer trefwoorden – niet in een geforceerde context – nodig hebt voor een optimale densiteit. Tabellen en frames Naast overtollige code kunnen ook html-tabellen en frames een goede positionering van uw site in de weg staan. Maakt u hier regelmatig gebruik van, dan is een blik op de broncode (of een bezoek aan delorie.com) zeker verstandig: het is namelijk heel goed mogelijk dat de belangrijkste tabel – die uw eigenlijke tekst bevat – in de broncode helemaal onderaan verschijnt. Dat heeft direct tot gevolg dat de trefwoorden uit die tabel een minder gunstige plek op uw webpagina krijgen. Frames kunnen nog problematischer zijn; heel wat zoekrobots kijken namelijk niet verder dan framesetpagina, waardoor ze uw eigenlijke framepagina's niet eens bereiken voor indexering. Kunt u niet buiten frames, zorg er dan voor dat u binnen het-gedeelte van de frameset een tekst met een aantal trefwoorden opneemt en bij voorkeur ook een paar links naar de belangrijkste pagina's van uw site (waaronder de sitemap). Er kleeft echter nog een nadeel aan frames. Dat geldt met name voor zoekrobots die er wél mee overweg kunnen (zoals Google). Die nemen namelijk ook de afzonderlijke framepagina's in hun index op. Klikt een bezoeker die link in de hitlijst aan, dan komt hij direct op die pagina terechtkomt, zonder de omkaderende framesetpagina te zien. Dat kunt u wel tegengaan door onderaan elke framepagina een link op te nemen naar de bijhorende frameset inclusief de parameter TARGET='_top', maar het kan eventueel ook via een klein stukje javascript. Dat zorgt ervoor dat de bezoeker automatisch naar de frameset wordt omgeleid: Dynamische pagina's Het grootste struikelblok voor zoekrobots blijken echter dynamische pagina's te zijn: pagina's die on the fly worden samengesteld op grond van inhoud in databases. U herkent dergelijke pagina's doordat hun url meestal een vraagteken of ampersant (&) bevat. Hiervoor bestaan echter wel (vaak behoorlijk technische en dure) oplossingen: deze tools zetten uw dynamische pagina's automatisch om in een statische, waarbij ze meteen ook de lastige tekens uit de url halen. Een voorbeeld is de sharewaretool ASPSpiderBait (www.webanalyst.com.au), die zich aandient als een isapi-filter (isapi koppelt toepassingen aan internetvoorzieningen) en bruikbaar is voor asp-pagina's op een iis-server. Soortgelijke oplossingen vindt u ook voor Apache- en ColdFusion-omgevingen. Eén van de (gratis) cloakingscripts op spiderhunter.com. Cloaking Samenvattend kunnen we wel stellen dat zoekrobots moeite hebben met zaken als javascript, tabellen en frames) en dat ze allemaal min of meer hun eigen methodes hanteren voor het zoeken (crawlen), indexeren en rangschikken van sites. Een brugpagina kan dan handig zijn. Dat zijn webpagina's zonder overbodige franje, die u nauwkeurig optimaliseert voor goedgekozen trefwoorden. Deze brugpagina's meldt u dan (handmatig) aan bij alle belangrijke zoekrobots en als het moet, maakt u zelfs voor elke zoekrobot verschillende brugpagina's aan. Uiteraard bevatten die pagina's dan wel een link naar de 'echte' openingspagina van uw site. Nadeel is wel dat zulke zuivere html-pagina's er vaak niet erg aantrekkelijk uitzien voor menselijke bezoekers: het risico is groot dat zij niet de moeite nemen de link op die brugpagina aan te klikken. Een slimme webbouwer maakt daarom gebruik van cloaking-technieken. Het komt er dan op neer dat alleen zoekrobots die brugpagina's zien (en indexeren), maar zodra iemand die pagina aanklikt, komt hij tóch terecht op uw echte openingspagina. Hoe het werkt? De eenvoudigste oplossing is 'bait-and-switch': zodra u merkt dat de zoekrobot uw brugpagina heeft opgenomen, verwisselt u die met uw echte pagina. Dat werkt natuurlijk slechts totdat de zoekrobot uw website opnieuw bezoekt! Een alternatief is dat u die brugpagina van een heel snelle meta-refresh voorziet (: de bezoeker krijgt dan maar heel even de brugpagina te zien, waarna die automatisch naar de andere pagina springt. Handig, maar toch niet zo'n goed idee: de meeste zoekrobots interpreteren dat namelijk als spam, zodat u helemaal buiten de boot dreigt te vallen. Iets geavanceerder is een script dat op uw webserver draait en dat nagaat met welke user-agent de bezoeker zich aandient: alleen als dat een zoekrobot blijkt te zijn (met een user-agent als Googlebot of Msnbot), diept uw webserver de brugpagina op. Robots veranderen echter wel eens van naam en daarom is het veiliger het ip-adres van de bezoeker te checken, om zo na te gaan of het al dan niet om een robot gaat. Voorwaarde is wel dat uw script de lijst met de ip-adressen van bekende robots up-to-date houdt, want ook die wijzigen wel eens. Voor dergelijke lijsten kunt u onder meer terecht op www.ip-delivery.com. Op www.spiderhunter.com vindt u een gevarieerde lijst waar met onder meer cloakingscripts worden aangeboden. Wees echter voorzichtig met dergelijke technieken: zoekrobots hebben het niet zo op cloakers... Hoe populair bent u eigenlijk? 'Off page' factoren Het is veel zoekrobots een doorn in het oog dat websitebouwers de ranking van hun webpagina's op allerlei slinkse manieren weten te manipuleren. Juist daarom zoeken meer en meer zoekrobots hun heil in 'off page' factoren. Deze factoren bepalen mede de ranking van een site, maar zijn niet door trucjes met de webpagina zelf te beïnvloeden. Denk bijvoorbeeld aan linkpopulariteit. Met name Google houdt hier sterk rekening mee. Dus: hoe meer pagina's (van andere sites) naar uw eigen pagina linken, hoe beter de positionering van uw pagina. Hoe krijgt u dit nu voor elkaar? U kunt andere sites naar de uwe laten linken via aanmeldingen bij webgidsen bijvoorbeeld, door deelname aan webrings, met behulp van blogs of maak onderlinge afspraken met webbeheerders van gelijksoortige sites om wederzijdse links op te nemen. Het heeft geen zin zelf een hele serie pagina's (vol met links naar uw site) aan te maken bij hosts als Geocities; zoekrobots houden namelijk ook rekening met de kwaliteit en de context van de linksites en gratis hosts staan niet bepaald in hoog aanzien. Snel weten hoe populair uw site nu is? Ga naar een gratis service als www.linkpopularity.com. U kunt dat echter ook te weten komen via de zoekrobots zelf (bij Google en AltaVista met link:www.uwsite.com en bij Hotbot met linkdomain:www.uwsite.com). Naast de linkpopulariteit houden steeds meer zoekrobots ook rekening met de klikpopulariteit: hoe meer mensen (met verschillend ip-adres) uw link in de hitlist aanklikken, hoe hoger uw pagina scoort. Autosubmitters bij de vleet Autosubmitters Hebt u alle adviezen opgevolgd, dan moet u de pagina's alleen nog aanmelden. Uiteraard meldt u de homepage (of brugpagina's?) van uw website aan, maar het kan geen kwaad nog een paar extra pagina's mee aan te melden. Overdrijf echter niet en meld vooral de belangrijkste pagina's én die met de meeste links naar andere pagina's van uw site (zoals de sitemap). Zoals gezegd kunt u hiervoor de aanmeldprocedure van de zoekrobot volgen (meestal via een Submit-knop), maar er bestaan ook diensten en tools die dergelijke aanmeldingen automatiseren. Gratis autosubmitters vindt u bijvoorbeeld op http://submitexpress.com/submit.hmtl. Verwacht overigens niet teveel van dergelijke (gratis) diensten. Heel vaak is het aantal zoekrobots dat ze aandoen beperkt en een aantal zoekrobots bemoeilijkt zelfs aanmelding via een autosubmitter. Sommige diensten melden uw site ook aan bij minder fatsoenlijke zoekrobots en het is maar de vraag of u uw site daar wel wilt zien opduiken. Een van de betere tools is ongetwijfeld WebPosition Gold 2 (gratis beperkte proefversie op www.webposition.com). Deze tool profileert zich als een alomvattende seo-tool: de autosubmitter heeft namelijk ook een taakplanner ingebouwd waarmee hij geregeld controleert wat de ranking van uw webpagina bij verschillende zoekrobots is. U krijgt dan automatisch een melding als uw pagina onder een bepaalde positie zakt, zodat u alsnog uw seo-strategie kunt bijsturen. Conclusie Voor een goede ranking bij de belangrijkste zoekmachines hoeft u geen technische hoogstandjes uit te halen, en het hangt ook niet van geluk. De belangrijkste succesfactoren hebt u namelijk grotendeels zelf in hand: niet al te complexe webpagina's, met goed doordachte trefwoorden met een optimale dichtheid. Is de content van uw site dan ook nog eens interessant en zit het wel goed met de link- en klikpopulariteit, dan wordt uw site vanzelf een publiekstrekker. Dat neemt echter niet weg dat u de ranking van uw webpagina's bij de diverse zoekmachines regelmatig moet controleren en, waar nodig, moet bijsturen (bijvoorbeeld door de pagina of de trefwoorden aan te passen, eventueel gevolgd door een vernieuwde aanmelding). Veel succes!

Deel dit artikel
Voeg toe aan favorieten