11/29/2005

In de toekomst van google kijken

In deze blog ga ik uitleggen dat je in de toekomst van google kan kijken als je gewoon logisch nadenkt.

De beginselen
Stel: je bent een zoekmachine en je hebt 5 webpagina's over hetzelfde onderwerp, hoe ga je ze ordenen zodat de beste bovenaan staat?
Antw: Door te kijken naar hoe vaak je het keyword tegen komt op de pagina.
Maar dan krijg je sites die gaan spammen door veel keywords te herhalen en achter elkaar te plaatsen. --> Dus ga je een filter instellen die alle sites met een bepaald percentage keyword density een spampenalty krijgen. Je gaat ook een filter instellen die zoekt naar teksten die niet logisch opgebouwd zijn (woordherhaling, opsommingen e.d).
Maar bij dit alles heb je als gevolg dat als een webmaster gewoon lange pagina's maakt met veel content ze vanzelf op 1 komen met dat keyword. Dus wat doe je? Je gaat een andere manier verzinnen die webmasters niet of nauwelijks kunnen beïnvloeden. --> Links!!! Je kijkt naar het aantal links dat van andere sites komen en zo geef je de site met de meeste links de hoogste ranking. Maar je krijgt dan een hoop webmasters die dan links gaan uitwisselen. Je gaat tweezijdige links dus een lagere waarde geven. Dan zijn er webmasters die links gaan aanleggen vanaf sites die niets met een bepaalde site te maken hebben. Dus ga je ook naar de kwaliteit kijken van een link...

Nou zo kan ik nog wel even doorgaan maar het is natuurlijk de bedoeling dat je op deze manier vanzelf erachter komt hoe google er in de toekomst uit komt te zien. Je kan wat verder op deze manier inkijken door je af te vragen hoe google bepaalde filters kan toepassen. Zo heb ik namelijk als theorie over de title tag:
Je krijgt een aantal punten voor ieder woord in de title tag. Er worden bijvoorbeeld 100 punten weggegeven over alle woorden in de tag. Ook zijn de woorden in het begin van de title tag het belangrijkst, anders staan ze niet aan het begin. Dus ik geef het eerste woord er nog eens 50 punten bovenop de tweede 48 en ga zo aftellen tot ik bij 0 aankom.

Wat heb ik met deze filter opgelost? Title spamming en tegelijkertijd het topic van bepaalde pagina's achterhalen. Stel: ik kom als zoekmachine een pagina tegen met als title tag: ringtones, realtones, polyfone ringtones, monofone ringtones, wallpapers, truetones, logos, ringtone enz. Zo staan er in totaal 50 woorden in de title tag. Als ik 100 punten verdeel over die 50 woorden krijgt ieder woord 2 punten, maar als er nou eens 10 woorden in de title tag stonden kreeg ieder woord 10 punten. Het heeft op deze manier dus geen zin meer om te veel woorden in je title tag te zetten.
Ook zet ik als zoekmachine ook een filter op de title tag die een eindje hierboven beschreven is over opsomming van woorden --> als ik een opsomming tegenkom halveer ik de punten die ieder woord krijgt (of ik negeer de hele title tag o.i.d.). Ook heb ik een nieuw probleem veroorzaakt, ik heb namelijk IEDER woord bepaalde punten gegeven, dus ook de woorden die niets met de pagina te maken hebben (en, of, maar, nu, gaan enz.) dus die geef ik totaal punten.

Nu kun je nog wel even door gaan denken over de title tag/h1/meta/links enz. Maar je kunt er nooit achterkomen welke hoeveelheden google nou precies gebruikt, is het verschil in relevantie tussen woord 1 van de title tag en woord 2 een punt of 10 punten. En hoeveel is zo'n punt waard in het geheel? Daar kun je nooit achterkomen, en dit is dus ook meteen het geheim achter google. Maar je kunt wel voor lopen op google, je kunt kijken naar de problemen van nu en zo kijken wat er gaat gebeuren in de toekomst en je site daar voor aanpassen. Ik kan je namelijk nu al vertellen dat irrelevante links steeds onbelangrijker worden omdat een link van een irrelevante site makkelijker te verkrijgen is dan van een relevante site. Immers niet alle sites zijn gerelateerd aan jouw site. Ook kan ik je nu al vertellen dat tweezijdige links veel minder waarde doorgeven aangezien het makkelijk te manipuleren is. Wat wel belangrijker gaat worden is leeftijd van de site/IBL's, dit is het enige wat een webmaster niet kan manipuleren. Er gaan dus meer tijdfilters komen zoals bijv. de sandbox.

Succes!

11/27/2005

Billboards, een cure voor de sandbox?

Ik heb de afgelopen maand een onderzoekje gedaan naar billboards. Maar tegelijkertijd is het meteen een onderzoek geworden naar het sandbox effect in google. Ik heb namelijk de veranderingen in ranking, geïndexeerde pagina's en ibl's van een nieuwe site van mij bijgehouden.

Even kort wat ik gedaan heb:
Ik heb een billboard gemaakt, dit is een zwaar on page geoptimaliseerde pagina met een link naar een andere site van mij. Tegelijkertijd heb ik ook een link op iedere pagina van het nederlandse gedeelte van mijn site geplaatst naar coolerealtones.com met de linktekst realtones. Omdat mijn hoofdsite cooleringtones.net op nummer 1 staat in google (internationale google.com) met het keyword realtones is deze link heel veel waard voor coolerealtones.com. En zal deze vast wel stijgen en misschien de sandbox ontwijken. En dat is gelukt als je het mij vraagt. Ik rank niet hoog maar ik rank nog in de top 200. Hier zijn de resultaten.

Ik heb dus het idee dat ik de sandbox heb ontweken door relevante links naar mijn site aan te leggen. weinig (3-4) directories, geen linkexchanges maar wel een billboard link van de relevantste site die er is (#1). Ik ga nog even verder kijken of ik dit ook van de grond kan krijgen met coolerealtones.nl. I'll keep you informed.

Links

Links

11/26/2005

Jagger

De algo update Jagger is al een poos bezig in google en heeft veel sites hard geraakt. Jagger heeft drie fases:

Jagger 1 was de beginfase, er zijn veel sites toen uit de resultaten gevallen. Volgens Search Engine Journal was de reden van Jagger 1 om zoekmachines spam tegen te gaan:
The first was to deal with manipulative link-network schemes, sites generated with scraped content and other forms of SE-Spam.
Jagger 2 kwam daarna, veel sites waren weer een beetje terug gekomen maar waren nog niet terug op de positie waar ze voor Jagger waren. De reden van Jagger 2 was volgens Search engine journal om meer verschillende soorten bestandsformaten toe te staan in de google index:
The second was to allow and account for the inclusion a greater number of spiderable documents and file types.
Jagger 3 is nog steeds bezig als je het mij vraagt. Ik heb met mijn site cooleringtones.net een zware allinanchor drop gehad, mijn gewone positie is gestegen maar dat kwam alleen omdat mijn site voor Jagger nog in de sandbox zat. Volgens Search engine journal was Jagger 3:
The third was to allow and account for new methods of site acquisition beyond the use of the spider Googlebot.
Ook nieuw aan de Jagger updates was dat Matt Cutts (een insider van google) op zijn blog vroeg of mensen die spam in google vonden dit wilden melden en erbij vermelden dat het met Jagger 1/2/3/ te maken had, dit is nog nooit eerder gebeurd dat een google persoonlijk aan webmasters om hulp vroeg.

Plaats even in een reactie wat jouw ervaring is met Jagger.

11/25/2005

Inkomende links verkrijgen

Er zijn verschillende manieren om inkomende links te krijgen. Je kunt links ruilen met andere sites, artikelen schrijven, en je link aanmelden in directories en startpagina's.

Links ruilen
Dit is een veel gebruikte manier, maar het heeft nauwelijks nut voor je ranking in google. Google begint namelijk steeds minder waarde te hechten aan dit soort links.

Artikelen
Artikelen zijn de beste manier die ik ken. Je maakt een artikel over jouw produkt en brengt het uit met een link naar jouw site erin. Je voegt het toe aan een article submission site, waar mensen gratis artikelen kunnen downloaden en op hun site zetten. Waardoor ze meer content krijgen en dus hoger komen in google. Maar omdat zij dat doen krijg jij ook meteen een backlinks van een optimale pagina die nog lang zal blijven staan ook.

Directories en startpagina's
Deze manieren van backlinks krijgen kan geen kwaad, het heeft minder waarde dan artikelen maar het heeft wel iets aan waarde. En aangezien er veel directories en startpagina's zijn is het ook niet zo moeilijk om je gelijk bij veel van die sites aan te melden.
Bij veel directories en startpagina's moet je een link terug plaatsen, dan wordt het eigenlijk een linkruil, en dat heeft minder waarde. Dus probeer je bij zoveel mogelijk directories en startpagina's aan te melden die geen link terug hoeven.

Natuurlijke links
Veel mensen zeggen dat dit de beste links zijn omdat ze door andere webmasters gratis en voor niets zijn gegplaatst, dit kan ook wel kloppen want waarom zou ik zoals hierboven een link naar een lijst met directories plaatsen als het niet over directories ging? Precies de tekst hierboven gaat over directories, en de link geeft meer informatie over het onderwerp, waardoor die link een grote waarde doorgeeft aan die site. Voor meer info hierover moet je even bij off page optimalisatie kijken.

Sandbox

In dit artikel ga ik het hebben over de sandbox. Tot voor kort werd door google gezegd dat ze niets over een zogenaamde sandbox filter wisten. Maar een poosje terug heeft GoogleGuy op Webmasterworld gezegd dat er wel een sandbox bestaat voor sommige zoekwoorden.

De sandbox is een filter die ervoor zorgd dat nieuwe sites vertraagd in de zoekresultaten komen. Je kan het vergelijken met een zandloper. Jouw site zit bovenin met de andere sites te wachten tot je naar de grote zandbak mag. Als je in de sandbox zit ben je niet te vinden in de zoekresultaten.

Is mijn site gesandboxed?
De enige die dat kan zeggen is google zelf, maar je kan er zelf ook wel min of meer achter komen. Jij bent hoogstwaarschijnlijk gesandboxed als jouw site nieuw is (minder oud dan een jaar). Als je zoekt op jouw bedrijfsnaam of domeinnaam (zonder extentie) en jij staat niet op #1, dan heb je kans om gesandboxed te zijn. Kijk ook even op google naar jouw allinanchor positie. Als die overeenkomt met jouw echte positie (als dat nog binnen de top 1000 ligt) dan ben je niet gesandboxed, maar als jij op een heel hoge plek staat in vergelijking met jouw echte ranking ben je hoogstwaarschijnlijk gesandboxed.

Theoriën over de sandbox
Er zijn verschillende theoriën over de sandbox, de een zegt dat te veel links in een te korte tijd voor een te jong domein kan leiden tot de sandbox. Die zeggen ook dat je de sandbox kan ontwijken door niet te veel SEO te doen, maarja... dan verdien je evenveel als dat je in de sandbox zit dus dat maakt eigenlijk niet uit.
Er zijn ook mensen die zeggen dat alle nieuwe sites in de sandbox komen. Google (googleguy) zegt zelf dat slechts sites in bepaalde sectoren in de sandbox geraken.
Ik zelf denk uit ervaring dat je in de sandbox zit als je spammy overkomt op google. Dus als je opeens veel links naar je site hebt gekregen kom je in de sandbox. Dit kan ook toeval zijn dat dat gebeurde bij mij, aangezien het ook kan zijn dat ik in de sandbox kwam omdat ik een nieuwe site had, maar dat weet ik niet zeker. Wel weet ik zeker dat er niet één sandbox is voor jouw site. Als jij meerdere keywords hebt voor je site kan je eerder uit de sandbox zijn voor een bepaald keyword en later voor een ander keyword. Ook is de concurrentie voor de keywords belangrijk. Als er op jouw keywords nog 100.000 andere resultaten zijn, is de kans groot dat je niet lang in de sandbox zal zitten. Als er een concurrentie is van 15.000.000 andere pagina's is de kans groot dat je lang in de sandbox komt te zitten.

Er wordt vaak gezegd dat een site gemiddeld 3 maanden in de sandbox zit. Ik geloof hier geen moer van aangezien ik 10 maanden in de sandbox heb gezeten en van andere sites heb gehoord dat ze 2 jaar in de sandbox zaten.

Reden van de sandbox
De reden is heel simpel, google wil geen spam sites. Spam sites zijn sites die gebruik maken van 'Blackhat SEO'. Dit zijn manieren om in korte tijd hoog te komen in google door truuks die gebruikt worden om zoekmachines om de tuin te leiden en daardoor hoog te scoren. Veel manieren die gebruikt worden zijn: automatic linkbuilding, kopen van links voor een hoge pagerank, cloaking, hidden keywords/links en doorway pages. Voorheen kon google deze sites er binnen korte tijd uitpikken en ze bannen. Maar voordat die sites gebanned waren hadden ze al zoveel verdiend dat ze gewoon weer een nieuw domein maakten en weer hetzelfde gingen doen. Daardoor is de sandbox ingevoerd. Dan kan google binnen een bepaalde tijd een site 'keuren' voordat deze in de resultaten beland.

Hoe kom ik weer uit de sandbox?
Wachten... lang wachten. Of een domein overkopen van een bestaande site die al in de sandbox geweest is.

Je kan wel je sandbox tijd verkorten door niet te veel inkomende links in een te korte periode te werven, of door niet te hoog concurrerende zoekwoorden te gebruiken.

Ook is bekend dat .edu, .mil en .gov domeinen niet gesandboxed worden omdat dit universiteiten en amerikaanse overheidsinstanties zijn.

Ook staat in een artikel op SEOmoz dit:
The Sandbox is known to affect websites primarily in the English language. While reports exist of sandbox-like factors affecting some other languages, it is noticeably absent particularly from Italian & Dutch language websites targeting searches at Google.it and Google.nl.
Dat is een goed punt aangezien veel lezers van dit artikel zich richten op de nederlandse google. Maar ik denk persoonlijk dat er wel degelijk een sandbox effect in google.nl zit.

Je kunt ook met deze tool kijken waar jouw site zou kunnen staan als er geen filters in google waren.

Hier meer over de sandbox.

11/21/2005

Leeftijd van de site

De leeftijd van de site is ook belang bij ranking in google. Want hoe ouder de site hoe meer waarde google hecht aan de site. Waarom? Leeftijd is het enige wat webmasters niet kunnen beïnvloeden. En een site die al 10 jaar bestaat zit een webmaster achter die gemotiveerd is en dus betrouwbaar is.

Er is een speciale filter actief in google, de sandbox filter. Hierover leg ik in een volgend artikel meer uit omdat de sandbox de meeste sites wel raakt en er veel over te vertellen is.

Verder is het ook voor off page optimalisatie het beste om links van oude sites te krijgen en om lang die links vast te houden, omdat google dan steeds meer waarde gaat geven aan langdurige links. Het is zelfs zo dat nieuwe links nauwelijks/helemaal niet meetellen aan je ranking!

11/20/2005

Off page optimalisatie

Off site optimalisatie is alles wat niet op de site staat wat er wel voor zorgt dat je stijgt in google. Het enige dat hier eigenlijk mee te maken heeft zijn IBL's. IBL's (inbound backlinks) zijn links die naar je site verwijzen vanaf andere websites. Hier spelen weer een hoop factoren een rol bij, ik ga voor het gemak de beste backlink die je je kan wensen beschrijven:

Stel: jij hebt een ringtone site en je wilt hoog scoren voor het keyword 'ringtones'.

De beste link die je dan kan krijgen is een link van de site die op plek 1 staat in google met het zoekwoord 'ringtones'. Ook is het het beste dat deze site al meer dan 100 jaar naar je linkt :). En dat de site ook nog eens heel oud is. Ook is van belang dat je de enige link bent op die site, en dat die site ook nog eens een hoge keyword density heeft voor het keyword ringtones, de site moet dus zwaar on page geoptimaliseerd zijn voor het keyword ringtones. De site moet ook linken met de anchor tekst ringtones, en je link moet bovenaan in de broncode staan. Ook is het handig om een title tag bij je link te krijgen met de tekst ringtones.

Let op: veel webmasters denken dat een goede link een hoge pr link is, dit is niet het geval: de pagerank is slechts een factor in het bepalen van je ranking, en dan spreken we over interne pagerank geen externe (degene die jij ziet).

On page optimalisatie

On page optimalisatie is alles wat op je site zelf staat. Veel mensen zeggen vaak "Maak een pagina voor je bezoekers niet voor zoekmachines". Maar tegelijkertijd geven ze toe dat zoekmachines geen bezoekers zijn. Hier ben ik het niet mee eens. De bots van de zoekmachines komen regelmatig langs op je site en zien jouw site zoals iedere bezoeker die ziet. Dus waarom zou je ze niet als bezoekers rekenen? Maar goed, je moet dus een site maken die leuk is om te lezen voor bezoekers, dan is die ook leuk om te lezen door zoekmachine bots. Een paar dingen om op te letten zijn:

Title tags: title tags zijn de titels van een pagina. Dus waar de pagina over gaat. Gebruik in de title niet meer dan 10 woorden en probeer geen woorden te herhalen. Probeer ook om geen opsomming te maken van wat je op je pagina hebt staan. Dit komt spammy over en zoekmachines zullen het daarom minder waarderen.
Verder is de volgorde van de woorden ook van belang. Zet altijd je hoofdkeyword aan het begin van je title tag en zet daarna je bedrijfsnaam o.i.d. De woorden die aan het begin van je title tag staan krijgen meer weight dan de woorden die aan het einde van de title tag staan. Ook denk ik dat er een bepaald aantal weight wordt uitgedeeld aan iedere title tag over het aantal woorden. Stel er wordt 100 weight uitgedeeld over 10 woorden, dan krijgt ieder woord 10 weight. Maar staan er maar 2 woorden in de title, dan krijgt ieder woord 50 weight. Op deze manier wordt title spamming ook meteen tegen gegaan aangezien de woorden nauwelijks weight meer krijgen als er 100 woorden in de title tag staan.

Meta tags: meta tags zijn dood... Maar dat wil niet zeggen dat ze niet meer gebruikt worden :). Ik heb het idee dat zoekmachines nog steeds naar meta tags kijken maar ze geen weight (meer) geven voor de ranking in de serps. Ik denk dat zoekmachines kijken naar de meta tags om te zien waar de pagina over gaat.
Even een paar tips:
- Geen overmatig gebruik maken van meta tags, niet meer dan 10 keywords en een niet te lange description
- Zet in je keyword tag geen woorden die niet op de pagina voorkomen, dit komt spammy over.
- Maak een pakkende description, de description komt in de meeste gevallen bij je listing in google te staan. Maar het werkt ook mee aan de ranking van jouw listing. Als er veel mensen op jouw listing klikken zal je stijgen!

Keyword rijke teksten: Dit is een hele belangrijke, zorg dat je keywords regelmatig in zinsverband voorkomen op je pagina's. Maak wel normale zinnen. En zorg dat je keywords verspreid staan over de pagina, en minstens in iedere paragraaf jouw keywords voorkomen.
Maak vooral geen verborgen teksten met veel keywords, want google komt hierachter en kickt je zonder pardon uit de zoekmachine, dit heb ik zelf meegemaakt.

Gebruik van HTML tags: Maak veel gebruik van de html tags waarvoor ze bedoeld zijn om de relevantie van je keywords te vergroten. Gebruik bijvoorbeeld [b], [i], [u], [strong] enz. om belangrijke keywords in teksten aan te geven. Gebruik ook H1 en H2 tags. Als je H1 en H2 gebruikt let dan wel op hoe je ze gebruikt. Gebruik de H1 maar 1 keer per pagina en zet in de H2 een toevoeging van H1. Bijvoorbeeld: [h1]ringtones[/h1] blabla [h2]Top 10 ringtones allertijden[/h2] blabla.
Verder is de tekst die bovenaan in de code staat het belangrijkst, dus probeer je teksten hoog in de code te plaatsen en niet bijvoorbeeld je menu daar neer te zetten.

Outbound links: Wat vaak vergeten wordt zijn links naar andere sites vanaf je pagina. Want google hecht er echt meer waarde aan als je de bezoekers naar meer informatie verwijst. Wat heel logisch is. Een nadeel is dat je je bezoekers kwijt raakt doordat ze naar een andere site gaan. Veel webmasters doen hier daarom ook niet aan.

Interne linkstruktuur: Zorg ervoor dat iedere pagina door minstens 1 link te vinden is op je site. Want zoekmachine spiders kunnen alleen pagina's opnemen als ze de pagina kunnen vinden door een link. Maar... zet niet alle links op de index pagina. Zet alleen de hoofd menu items op de index. Bijvoorbeeld: op de index staat een link naar de pagina "ringtones.html", als je naar ringtones.html gaat kom je in het submenu de links "top40.html" en "nieuweringtones.html" tegen. Zorg er wel voor dat vanaf iedere pagina een link terug staat naar de homepage. Dit kun je bijvoorbeeld doen in de copyright regel met als linktekst jouw hoofdkeyword.
Let op dat je niet meer dan 100 links op een pagina zet. Dit wordt door google zelf gezegd in hun guidelines.

Verhouding tekst/html: Dit is ook belangrijk. Als jij heel veel html op je pagina hebt staan waar de bots zich doorheen moeten worstelen zijn de bots daar minder blij mee dan als je weinig html hebt staan. Maak daarom ook gebruik van externe stylesheets en css. Gebruik dus geen tables meer omdat die veel onnodige code ontwikkelen. Verder houd google van lange teksten zoals deze :)

Introductie

Introductie in zoekmachine optimalisatie

Er zijn verschillende aspecten waar je op moet letten bij zoekmachine optimalisatie.

On page optimalisatie is alles wat op de pagina staat. Hierbij kun je denken aan title tags, linkstrukturen, outbound links, optimaal gebruik van keywords enz.

Off page optimalisatie is alles wat buiten het domein gebeurd. Hierbij kun je denken aan links die naar jouw site linken, en vooral ook de pagina's zelf van die sites die naar jouw linken. Hier wordt verder op in gegaan in het volgende artikel: off page optimalisatie

Leeftijd van je site houd in dat hoe ouder je site is hoe beter je scoort in google. Er zijn nog meer dingen die een rol spelen bij google die met de oudheid van een domein te maken hebben. Hierover kun je meer lezen in het artikel over de sandbox.