Tot nu toe hebben we verschillende SEO-gerelateerde vragen in deze sessie beantwoord. Toch is het een goed idee om een aantal belangrijke vragen te bundelen, enkele nieuwe toe te voegen en een veelgestelde vraag over SEO te maken. Kunt u het antwoord op uw vragen niet vinden? Plaats een reactie en we zullen proberen u te helpen.
Zoekmachines zijn gericht op het bouwen van een index van alle webpagina's via crawlers. Deze bots volgen links (href
en src
) en indexeer de bestanden die ze tegenkomen. Wanneer u een zoekopdracht invoert, halen zoekmachines de meest relevante webpagina's uit hun index en sorteren ze op basis van verschillende factoren.
White-hat SEO verwijst naar technieken die zoekmachines aanbevelen als onderdeel van een goed ontwerp. Ze produceren resultaten op de lange termijn. Black-hat SEO omvat technieken die worden afgekeurd door zoekmachines. Hierdoor kan uw site worden gestraft of uiteindelijk worden uitgesloten van de index.
Er zijn verschillende technieken die als black-hat worden beschouwd, zoals:
Er zijn meer dan 200 factoren die worden gebruikt om de relevantie van uw pagina's te bepalen. We kennen ze niet allemaal, maar onderzoek heeft verschillende belangrijke elementen geïdentificeerd:
Google Panda en Penguin zijn updates van het Google-algoritme voor zoekmachine ranking. De Panda-update werd voor het eerst uitgebracht in 2011 om de zichtbaarheid van sites van hoge kwaliteit te verbeteren. Google Penguin werd in april 2012 aangekondigd en bestrafte websites die Black-hat SEO-technieken gebruikten.
Dit is waarschijnlijk een van de meest voorkomende SEO-gerelateerde vragen. Er zijn verschillende oorzaken die kunnen voorkomen dat uw site wordt weergegeven in de zoekresultaten.
Eerst en vooral zou u een a moeten uitvoeren website:
zoek in Google (bijvoorbeeld: site: webdesign.tutsplus.com) om te zien of het al is geïndexeerd. Als u een lijst met pagina's ziet, is uw site gecrawld en geïndexeerd door Google. Als u het volgende bericht ziet, is dit nog niet geïndexeerd of is het mogelijk uit de index verwijderd door de richtlijnen van Google te schenden.
Als uw site is weergegeven, moet u waarschijnlijk werken aan de machtiging van uw site. Publiceer unieke inhoud die de behoeften van bezoekers oplost en probeer links te genereren van relevante, gezaghebbende domeinen.
U kunt voorkomen dat een pagina wordt geïndexeerd door Google met behulp van het robots.txt-bestand of de robots-metatag. Als u een pagina wilt verwijderen die al is geïndexeerd, kunt u dit doen via Webmasterhulpprogramma's> Optimalisatie> URL's verwijderen.
Nee, zoekmachines kunnen de inhoud niet crawlen op pagina's die met een wachtwoord zijn beveiligd, daarom kunnen ze niet worden geïndexeerd.
Google kan https-pagina's indexeren (de homepage van PayPal wordt bijvoorbeeld geïndexeerd als een https-versie).
Waarschuwing: dit kan soms de oorzaak zijn van dubbele inhoud als zowel http- als https-versies worden geïndexeerd.
Kort antwoord: nee.
Waarom niet? Omdat de hoeveelheid verkeer die een pagina ontvangt, geen rangordefactor is. Ja, websites met veel verkeer zijn meestal gecorreleerd aan hoge rankings, maar de hoge ranking is geen direct gevolg van verkeer. Zoekmachines weten niet hoeveel verkeer een website krijgt. Ze weten hoeveel ze naar een website hebben gestuurd, maar ze weten niet hoeveel direct of verwijzingsverkeer het kan krijgen, dus ze hebben onvolledige gegevens. En als u Google Analytics op uw site gebruikt, kan Google deze gegevens niet gebruiken vanwege privacykwesties.
Dus verkeer heeft geen invloed op je ranking. Je linkprofiel, inhoud, domeinautoriteit, etc. hebben invloed op je ranking. Dit zal op zijn beurt het aantal bezoekers dat u krijgt verbeteren.
Soms zie je verschillende zoekresultaten dan iemand anders. Dit is het gevolg van het zoeken naar personalisatie. Zoekpersonalisatie is gebaseerd op uw zoekgeschiedenis en wordt bijgehouden via uw Google+ profiel of cookies. Om deze reden kunnen SERP's er soms een beetje anders uitzien.
Maak je geen zorgen, personalisatie van zoekopdrachten kan worden uitgeschakeld.
Het is onmogelijk om in de zoekresultaten te verschijnen als zoekmachines niet weten dat uw site bestaat. Daarom vragen veel mensen hoe ze hun nieuwe site kunnen laten crawlen en indexeren. Er zijn verschillende dingen die je kunt doen:
Dit is een nogal moeilijke vraag om te beantwoorden. Verbeteringen kunnen na enkele dagen, weken of zelfs maanden worden waargenomen. Er zijn verschillende factoren waarmee u rekening moet houden, zoals de vorige staat van de website, het aantal en type wijzigingen, crawlsnelheid, zoekwoordconcurrentievermogen, enzovoort. SEO is meestal een langetermijnstrategie die enkele maanden in beslag kan nemen.
U moet auteurschapgegevens implementeren om uw profielafbeelding weer te geven (via Google+). Dit artikel beschrijft hoe u dit moet doen.
Dit worden rich snippets genoemd. Ze worden automatisch gegenereerd door zoekmachines wanneer u gestructureerde gegevens implementeert, zoals Microdata, Microformats of RFDa. Meer info is te vinden in een eerder artikel.
Ja, maar slechts marginaal. Omdat +1 een relatief nieuw positiesignaal is, leert Google nog steeds hoe het de zoekkwaliteit beïnvloedt.
Landspecifieke domeinextensies (.de, .fr, .it ...) kunnen u helpen bij het zoeken naar lokale zoekopdrachten in uw land. Er is geen ranking voordeel van het kiezen van een bepaalde generieke domeinextensies (.com, .net, .org ...).
Exact-match-domeinen zijn, zoals de naam al doet vermoeden, domeinnamen die overeenkomen met een bepaald zoekwoord of een bepaalde zin. Bijvoorbeeld: als u wilt rangschikken voor de term 'zeldzame honkbalkaarten', kunt u het domein rarebaseballcards.com (exact overeenkomend domein) kopen.
Dit type domein was vroeger erg krachtig. In september vorig jaar is er echter een algoritme-update uitgebracht die lage-kwaliteit exact-overeenkomende domeinen in zoekresultaten vermindert. Ik stel voor een korte domeinnaam te kiezen die gemakkelijk te onthouden is.
Het belangrijkste aspect van een sitemigratie is URL-omleiding. Gebruik een 301-redirect om bezoekers van de oude pagina's naar de nieuwe te sturen. U kunt Google op de hoogte stellen van een sitemigratie via Webmasterhulpprogramma's (configuratie> adreswijziging).
Als u van nature schrijft, gebruikt u beide formulieren automatisch in uw tekst. Vergeet niet dat het belangrijk is om uw lezers kwaliteitsinhoud te bieden. Tekst die te veel is geoptimaliseerd voor een enkel zoekwoord (zonder variaties, synoniemen, enz.), Zal niet prettig zijn om te lezen. Bezoekers komen als eerste, zoekmachines als tweede!
Lang staartverkeer komt van zeer specifieke zoekwoorden. Dus in plaats van 'photoshop tutorial' (kort sleutelwoord), krijg je verkeer van 'photoshop-zelfstudie voor fotomanipulatie' (lange staart). Lang staartverkeer heeft minder concurrentie dan verkeer van korte staartwoorden.
De tag meta-zoekwoorden is overbodig geworden, dus u hoeft deze niet toe te voegen. De metabeschrijvingstag aan de andere kant is nog steeds nuttig om mensen te overtuigen een pagina te bezoeken.
Zoekmachines hebben moeite met het lezen van bepaalde inhoudstypen (afbeeldingen, video's, flash ...). Een zoekmachine vriendelijk ontwerp is een website die gemakkelijk kan worden gecrawld en geïndexeerd.
Zoekmachines geven de voorkeur aan langere stukjes inhoud (meestal +300 woorden). Maar dat betekent niet dat kortere artikelen niet goed kunnen presteren. Het is beter om je te richten op de kwaliteit van je inhoud dan op de lengte van de inhoud.
Er zijn drie manieren om een afbeelding te optimaliseren:
Dubbele inhoud is precies wat u denkt dat het is: twee pagina's met identieke inhoud. In dit geval toont Google zelden beide pagina's in de zoekresultaten, dus dubbele inhoud kan problematisch zijn.
Dubbele inhoud kan opzettelijk worden gemaakt (bijvoorbeeld de afdrukversie van een pagina) of per ongeluk (vanwege URL-parameters, inconsistente koppelingen, enz.).
Bijvoorbeeld:
Absolute URL: http://website.com/blog/page.html
Relatieve URL: /blog/page.html
Relatieve URL's sluiten het hoofddomein van de site uit. Als het op SEO aankomt, is het het beste om absolute URL's te gebruiken.
Het is het beste om koppeltekens te gebruiken (-). Het gebruik van andere leestekens, zoals underscores (_) en plustekens (+), kan zoekmachines verwarren. Het gebruik van helemaal geen scheidingstekens zou ook moeten worden vermeden.
Het is het beste om submappen te gebruiken. Dit kan de juiste indexatie van uw pagina's door zoekmachines vergemakkelijken. Als u meerdere, niet-gerelateerde producten hebt, kunt u subdomeinen gebruiken.
Google heeft een lange weg afgelegd bij het verwerken van dynamische URL's. Meestal zullen ze de verschillende parameters correct interpreteren. U kunt Google echter helpen met deze taak via de Webmasterhulpprogramma's van Google.
Voor meer informatie over het maken van SEO-vriendelijke URL's, bekijk ons artikel over het onderwerp.
Nee, wederkerige links zijn niet slecht. Eenmalige inkomende links lijken echter waardevoller.
Een link-farm is een enorm netwerk van sites met één doel: linken naar andere websites. Dit soort links wordt beschouwd als een vorm van spam.
nofollow
is een linkkenmerk dat zoekmachines vertelt om geen PageRank door te geven aan de gekoppelde pagina. Dit betekent dat een nofollow-link je ranking niet zal verbeteren.
Het kopen van links om de positie van een pagina te verbeteren, druist in tegen de richtlijnen voor webmasters van Google. Dit is geen verrassing, omdat je in principe het algoritme van Google manipuleert. Daarom worden deze tactieken beschouwd als black-hat. Het scenario in het slechtste geval is een boete voor uw site. Maar in werkelijkheid is het voor Google vrij moeilijk om betaalde links te vinden. Toch is het het beste om voorzichtig te zijn.
Link-aas is inhoud die is gemaakt om op natuurlijke wijze links aan te trekken. Dit zijn meestal controversiële stukken content die automatisch een viraal effect genereren. Bijvoorbeeld 'The Inconvenient Truth About SEO' van Paul Boag, waar hij stelt dat SEO overbodig is. Het artikel trok een groot aantal links van populaire websites.
In theorie, concurrenten kan schade toebrengen aan uw website door een grote hoeveelheid links van lage kwaliteit aan te leggen, of links van kwaadwillende websites. Google ontwikkelde een tool om deze praktijken tegen te gaan, de Disavow Tool. Met de Disavow Tool kun je Google vertellen welke links naar 'negeren'.
Hetzelfde antwoord als hierboven: links van lage kwaliteit naar een site die de positie van een site beschadigt. Deze links hebben een schadelijk effect en hebben daarom de naam "negatieve SEO" verdiend.
Kun je het antwoord op een SEO-gerelateerde vraag in deze lijst niet vinden? Plaats een reactie en we zullen proberen het voor u te beantwoorden!