SEO bevindingen

Social hot or not

Iedereen heeft het er over; link building, inmiddels een ware professie (Zie bijvoorbeeld Backlinks kopen en Lease Je Linkbouwer . ) heeft zijn langste tijd gehad. Het 'like'-building à la FaceBook komt er aan. Webmasters kunnen een al tijden een like-knop (vind ik leuk) op hun website plaatsen. Andere kunnen zien hoeveel mensen de website leuk vinden of althans bereid waren op het link je te klikken. Deze bezoekers moeten dan wel lid zijn van het social netwerk van Facebook.

Dat willen de zoekmachines natuurlijk ook, want als veel mensen een website leuk / mooi / nuttig vinden, dan hoort deze toch ook hoog in de zoekresultaten? Juist. Koppelen van jouw zoekresultaten aan jouw netwerk zou het nog nauwkeuriger maken.  Als je vrienden het leuk vinden......

Bij linkbuilding bepalen de webmasters / makers van een website nog wat nuttig relevant of waardevol is. Wederzijdse hyperlinks zijn goed voor de pagerank en dus de zoekmachineranking in het algemeen. Koppeling met social networks laat de gebruiker zelf bepalen of iets nuttig, dan wel leuk is. Wat is hot (or not).

En google wil het ook .... tot op heden stelt Facebook haar database nog niet open. Google doet het zelf. Google heeft per 31 maart een nieuw sociaal element aan de zoekmachine toegevoegd. Gebruikers kunnen websites +1-en, vergelijkbaar met het ‘liken' of aanraden van iets via Facebook. zie ook: Google onthult eigen 'Facebookknop'

Zo'n 'like' button staat trouwens zo op je site, zie: Like Button - Facebook Developers

Meer sociale interactie voeg je ook gemakkelijk toe aan je website met diensten als addthis.com. Mensen delen jouw url / link / pagina via hun social netwerk. Wordt jouw link gedeeld door iemand met een groot netwerk, dan kan dat veel kliks / bezoekers opleveren. Ook mensen uit het netwerl kunnen jouw link weer verder sturen de zgn. 'viral lift'.

Door : Bass Op : 05-04-2011, 22:43

Gepost in de categorie : SEO bevindingen

Tags :  

Google Hulpprogramma's voor webmasters steeds nuttiger voor s.e.o.

Ondanks mijn twijfels (zie: Sitemaps vervolg) heb ik in de afgelopen periode mijn sitesmaps trouw geupload naar Google Hulpprogramma's voor webmasters. Doordat ik te maken kreeg met errors rondom het index-bestand (zie: Wel of geen indexbestand?) ben ik mij weer wat verder in dit hulpprogramma gaan verdiepen.

De google-bot bleek niet eenduidig om te gaan met het index-bestand. Een index.* in een subdirectory bleek te leiden tot redirects. Na een aanpassing van ons systeem (Opensourcecms.eu) bleken interne links, die nog een verwijzing naar index.htm bevatte te leiden tot 'duplicate content'.

Duplicate content
Via "Diagnose > Webcrawl" kan terug gevonden worden welke pagina's dezelfde metatags en / of title-tag gebruiken, wat voor Google 'duplicate content' is. Goed wat is 'duplicate content'? Duplicate content is gelijke informatie die gepubliceerd wordt onder verschillende url's. Denk aan nieuwsberichten die door diverse sites worden overgenomen. Voor zoekmachines is dit hinderlijk. De bezoeker / gebruiker van de zoekmachine raakt gefrustreerd als de eerste X hits steeds verwijzen naar dezelfde informatie.

Daarnaast kan gedacht worden aan artikelen, die ongewenst worden overgenomen. Schrijvers van websites zoals infonu.nl hebben hier last van. Ook overname van tekst / content van sites zoals wikipedia waar de licentie kopiëren toestaat, kan leiden tot 'duplicate content'.

'Duplicate content' kan ook voor komen op een website. Daarbij kan gedacht worden aan een verwijzing naar "Home" via /index.* in het menu. Menu's waarop de pagina die bekeken wordt klikbaar blijft. Ook links als "print deze pagina" kunnen duplicate content veroorzaken. In het laatste geval kan dit opgelost worden met een "nofollow"-attribuut in de a-tag. De Google Hulpprogramma's voor webmasters brengen dergelijke problemen binnen een website in kaart.

Metatags
Daarnaast maakt deze indicatie van google een eind aan de discussie over het opnemen van metatags op een website. Een vaak gebruikt argument is; "de zoekmachines doen er toch niets mee.....". Al zouden de zoekmachines de metatags, zoals keywords of description niet gebruiken, ook de w3c-richtlijnen zien deze tags als 'verplicht'. Bovendien uiteindelijk wordt een website toch gemaakt voor de bezoeker en niet voor de zoekmachine?
Zelf zie ik de meta-tags als een element wat niet mag ontbreken aan een webpagina. Metatags dienen dan omschrijvend en uniek te zijn. Met maken van unieke metatags per pagina voor omvangrijke websites kan soms complex en /of arbeidsintensief zijn. Voor opensourcecms.eu is daarom bijvoorbeeld gekozen, de metatags automatisch te genereren. Deze automatische generatie blijkt zeer succesvol, toch kan het voor waardevolle keywords verstandig zijn handmatig de metatags te controleren. Zoekmachines zullen steeds vaker te maken krijgen met 'duplicate content' en daarom zullen de metatags ook (weer) een grote(re) rol gaan spelen. Voor wie nog steeds twijfelt, google zelf schrijft hierover letterlijk: "Wanneer we uw site crawlen, controleren we ook of er mogelijke problemen zijn met de inhoud op uw pagina's, zoals dubbele, ontbrekende of problematische title-tags of metabeschrijvingen. Bij dergelijke problemen wordt uw site gewoon weergegeven in de Google-zoekresultaten, maar als ze worden verholpen, ontvangt Google meer informatie en kan zelfs extra verkeer naar uw site worden gegenereerd. De titel en de metabeschrijving kunnen bijvoorbeeld worden weergegeven in de zoekresultaten. Als dit nuttige, beschrijvende tekst is, heeft u meer kans dat gebruikers erop klikken."
En de vraag is natuurlijk, is dit laatste citaat 'duplicate content' of niet?

Door : Op : 26-03-2009, 02:04

Gepost in de categorie : SEO bevindingen

Tags : google hulpprogramma's sitemaps 

SEO en virtual hosting

De vraag wat zoekmachines vinden van websites, die hetzelfde ip-adres hebben is al zo oud als de zoekmachines zelf. Toch komt deze vraag de laatste tijd weer steeds vaker naar voren.

Veruit de meeste websites zullen geen eigen ip-adres hebben, maar een ip-adres delen. Virtual hosting drukt de kosten en voor de ISP's is het dan makkelijker ook maar 1 ip-adres te gebruiken.

Welke effect heeft dat? Wat gebeurd er als websites op hetzelfde ip-adres elkaar gaan linken? En stel dat een website, die toevallig op hetzelfde ip-adres als jouw website staat een penalty krijgt?

De zoekmachines zullen altijd proberen oneerlijke gedrag te bestraffen. Aan de andere kant, zal de zoekmachine je niet straffen voor overtredingen, die buiten je macht liggen. Gezien de meeste websites geen delicated ip-adres (uniek) hebben denk ik dat het effect van virtual hosting geen effect zal hebben. Dan ga ik er wel vanuit dat je een goede website hebt gemaakt. De SEO-regels correct hebt toegepast en eerlijke link-building hebt toegepast. Twee website die elkaar linken, omdat ze over hetzelfde ontwerp gaan zullen even hoog scoren op delicated ip-adres als op een shared ip-adres.

Mensen die het eens zijn met de bovenstaande stelling beroepen zich meestal op een uitspraak van de Google's CTO Craig Silverstein uit 2003:

"Actually, Google handles virtually hosted domains and their links just the same as domains on unique IP addresses. If your ISP does virtual hosting correctly, you’ll never see a difference between the two cases. We do see a small percentage of ISPs every month that misconfigure their virtual hosting, which might account for this persistent misperception–thanks for giving me the chance to dispel a myth!"

Een duidelijke uitspraak, die toch nog vraagtekens oproept. Want hoe kun je nu bepalen of jouw ISP de virutal hosting correct uitvoert? In de meeste discussies hierover zien we twee dingen naar voren komen.

In de eerste plaats komt de reverse lookup van de domeinnaam vaak genoemd. Dit lijkt vreemd, omdat het probleem juist is dat verschillende domeinnamen naar hetzelfde ip-adres verwijzen. Logisch lijkt dan te denken dat men hier een reverse DNS lookup bedoelt. De domeinnaam moet in de DNS dus verwijzen naar het juist PTR-record.

Je kunt nu natuurlijk het zekere voor het onzekere nemen en voor al je websites een uniek ip-adres aanvragen. Vraag je die unieke ip-adressen bij een en dezelfde ISP dan zullen die ip-adressen waarschijnlijk dezelfde C-class hebben. Dan heb je een nieuw probleem, want als zoekmachines moeite hebben met hezelfde ip-adres en cross-linking, dan zullen ze dat vast ook hebben voor websites met ip-adressen binnen dezelfde C-class.

Over het algemeen zullen ip-adressen binnen dezelfde C-class ook een kleinere geografische afstand hebben. De kans dat twee website aan elkaar verwant zijn en dus terecht cross-linken is groter wanneer de geografische afstand kleiner is. En misschien is die kans ook wel groter als twee website een ip-adres delen. Zoekmachines zullen dus (ook) andere technieken gebruiken om de relevantie van een website en cross-links te bepalen.

Een beetje 'slimme' zoekmachine zal ook naar de WHOIS-records van een domeinnaam kijken. Op die manier valt ook te achterhalen welke websites van dezelfde eigenaar zijn.

Zolang je link-building op een eerlijke en goed doordachte manier wordt gedaan, zal dat een positief effect op je ranking hebben ongeacht je ip-adres.

Door : Bas Jobsen Op : 26-10-2008, 00:22

Gepost in de categorie : SEO bevindingen

Tags : link-building cross-linking virtual hosting 

Kies het juiste internet casino en de juiste casino spelen om het meeste plezier te ondervinden. GamblingCity.net is hiervoor je beste gids. Speel online blackjack of slots of een van de vele andere spellen die Gambling City voor je heeft.

Deze pagina is onderdeel van W3masters