Det er altså overhovedet ikke det samme, selvom dette sprogsjusk er ret almindeligt. Lad os se på andre myter og misforståelser inden for SEO.
Mængden af fejlinformation på nettet er ret stor. Der findes tip og metoder på nettet, som ikke har virket i årevis. Årsagen er selvfølgelig, at Google kun udgiver retningslinier og ikke røber hele deres virkemåde i detaljer. En optimering beror derfor på skøn og erfaringer og en forståelse for Googles forretningsmodel og koncepter, samt almindelig logik.
Yde eller snyde? Skal du arbejde metodisk og støt i tråd med Googles anbefalinger eller finde hurtige genveje?
Hvis du skal have udført søgemaskineoptimering er du lidt på Herrens mark. For hvis du vil gøre det selv, hvor kan du så lære det? Hvis du vil hyre en ekspert, hvordan kan du så vide om han vrøvler eller direkte bringer dig i fedtefadet i forhold til Google? Hvad kan du stole på?
En ting du kan holde øje med er, om din ekspert (webside, bog, hæfte eller levende person), bilder dig ind, at nogen af metoderne herunder er alt, der skal til, for at gøre dit websted super SEO optimeret.
En gang (indtil 2003/2004) kunne man få høj placering efter hvor mange gange, man nævnte et nøgleord både på selve siden, men også i teksten. Man talte om den optimale nøgleordstæthed og nøgleordsfrekvens. Det var trættende for brugerne at læse alle de gentagelser, så mange teknikker blev taget i brug for, at kun Googles indekseringsrobot så disse ord og ikke de stakkels kunder.
Denne spamming af Google virker i bedste fald ikke. I værste fald råber du til Google, at du ikke har tænkt dig at overholde deres anbefalinger - dvs. du signalerer, at der skal holdes øje med dine metoder. De andre søgemaskiner blev immune for søgemaskinespam lidt senere, men det er bragt i orden nu.
Dine nøgleord skal selvfølgelig fortælle søgerobotterne, hvad din side handler om, så de skal bruges med en naturlig hyppighed. Men spild ikke din egen og kundernes tid med at overdrive.
Her skal vi lige være spids på stavemåden. PageRank med stort R er et tal fra 1 til 10, som du kan se i Googlebar - et værktøj du kan installere i din browser, så du kan blive overvåget af Google - og gennem diverse plug-ins i f.eks. i Firefox. Tallet opdateres et par gange årligt og er dermed overhovedet ikke aktuelt 363 gange om året.
Stavemåden med det lille r henfører til et matematisk mål for, hvor populær en given side er, målt som de links, der peger ind på siden kombineret med de links, der igen peger til de sider, der peger ind på disse sider igen samt deres egen pagerank... osv. Det er voldsomt kompliceret, men er faktisk det geniale koncept Googles grundlæggere gjorde deres søgemaskine så populær med. Denne pagerank beregnes konstant og dækker formodentligt tal over flere størrelsesordner (1 til milliarder). Men det er Googles forretningshemmelighed.
Med pagerank placeres en side ikke udelukkende på baggrund af dens eget indhold, men ud fra om andre kan stå sp meget inde for dens indhold, at de linker til den. Altså sender tilhængere eller kunder derhen. Senere har Google indført flere dimensioner til formlen, så sider, der er særligt gode (wikipedia f.eks.), aviser og sider, der er gode til at henvise til andre inden for et givet område, får mere pagerank selv og derfor kan give mere pagerank videre til andre. Dette system omtales som Trustrank.
Nej, det gælder om at få link ind. Du bliver ikke et Trusted sted bare ved at linke til højre og venstre. Du kan ydermere få problemer, hvis du linker til steder, der deltager i linkspam, linkfarming og andre måder at snyde Google på.
Men at linke ud kan være en legal business. Annoncer for eksempel. Det er bare vigtigt, at disse links tydeligt optræder som annoncer og ikke som købte links, der skal hjælpe køberen op i søgeresultaterne. Det kan gøres ved at afmærke dem på en særlig måde.
Vær også opmærksom på at et link, som står alene på en side, sender 100 % af sin linkkraft videre til den side linket går til. Fire links på siden sender kun 25 % videre hver! At få et link fra en side med 100 menulinks og 20 - 30 normale links kan være en god trafikskaber, men det hjælper ikke i resultatlisten.
Indtil for nylig læste Google kun de første cirka hundrede links på en side. En side med et stort menusystem gav derfor ikke alle sine links videre til indeksering af Googlebot og derfor heller ikke linkkraft. Det forlyder nu, at der ikke længere er en grænse for antallet af links. I stedet er der grænse for, hvor længe robotten gider hænge ud på dine sider. En side med lange svartider giver altså ikke meget videre i forhold til en hurtig side.
Hvis du ringes op af en gut, der vil sælge dig hundredvis eller tusindvis af tilmeldinger til søgemaskiner, så bed ham melde sig selv for bedrageri. Du har ikke selv tid til det.
Links til dine sider og så mange af dem som muligt, skulle i teorien være det bedste. Men links er aldeles ikke skabt lige. Nogle få med baggrund i god pagerank og et enkelt med høj Trustrank er mere værd end tusindvis af falske søgemaskiner og linkfarme. Google leder efter disse fup-websteder og annulerer al værdi fra dem.
Det siges, at i grove tilfælde kan du selv kan blivet taget ud af resultaterne. Jeg tvivler nupersonligt på den påstand, for det ville da være et godt værktøj til at fjerne konkurrenter fra listen med. Noget Google ikke kan være interersseret i. Men det fremføres til stadighed som en mulighed af selv anerkendte SEO'er.
SEO handler ikke om programmeringsteknik. Det handler om struktur og menneskesprog. Hvis en programmør hævder, at han kan bringe dine sider højere end andres, kan du godt regne med, at han er eller kommer på kan med Google.
Der er dog lidt sandhed i at teknik betyder noget. Dårlig teknik kan nemlig trække ned. Hvis Googlebot ikke kan komme ind til dine sider, er du ilde faren i sagens natur. Et CMS mærket som søgemaskinevenligt skulle gerne kunne levere i forhold til søgemaskinekrav.
Viser du forskelligt indhold til Googlebot og til levende personer, kan du få smæk. Hvis dit CMS videresender brugere, efter de er kommet til din side, kan du blive opfattet som upålidelig osv. osv.
I løbet ad 2010 begyndte et websteds svartid at spille ind. Google er klar over, at brugere nu om dage ikke gider vente i flere sekunder på at en webside loader. Din host og dit valg af CMS har altså fået betydning. Men det er ikke hastigheden du vinder på - det er langsomhed du taber på.
Det er sandt i AdWords - men ikke i de gratis (organiske) resultater. Det ville give en selvforstærkende effekt, der ikke falder i tråd med Googles mission om at bringe relevante og kvalitetsbetonede resultater. Husk at en sides evne til at lokke dig til at trykke på dens link ikke behøver at være koblet med kvaliteten af indholdet.
Når det er sagt, så er der tydelige tegn på, at Google både kan og også nogle gange praktiserer at måle klikraten på de enkelte resultater. Hvorfor gør de så det? Det mest sandsynlige er, at Google måler den såkaldte bounce rate. Den er et mål for hvor mange, der ankommer til en given side for straks at forlade den igen. Google kan notere i en cookie, hvornår du klikker, og de kan sammenligne med, hvornår du er tilbage i resultatlisten igen, eller du foretager en ny søgning. En stor bounce rate (afvisningsfrekvens) kan være tegn på problemer med kvaliteten.
Endnu en grund til ikke kun at koncentrere sig om trafik, men også at holde på kunderne!
I følge Google selv er der ingen sammenhæng mellem placering i de gratis resultater og køb eller placering i Adwords. Det ville heller ikke være i deres interesse. Da sandsynligheden for klik i de organiske resultater er større end i annoncerne, ville Google jo gå glip af indtægter på klik i annoncerne, hvis de fremmer de gratis optag fra samme websted. Om de tænker sådan skal være usagt. Men stol på at de tænker hos Google.
Hvad der kan konstateres er, at klikraten på et gratis optag øges, hvis der er andre links til den givne side herunder PPC annoncer. Søgerne vil ubevidst drage den konklussion, at det gentagne websted må være meget relevant, siden Google viser så meget frem af det.
En gang var det et fedt tip, at kommentere på så mange blogs som muligt og smide et link til sin side med ind i kommentarerne. Der blev ligefrem fremstillet software, der fræsede rundt på nettet, fandt blogs og automatisk fyldte blogkommentarer ud.
Den slags er hverken blogejere eller søgemaskinerne interesseret i mildt sagt. Derfor har de fleste blogs afmærket links efter en standard i deres kommentarer, så links virker normalt, men ikke sender link-kraft videre til søgemaskinerne. Derfor er fidusen ikke valid længere. Dog findes der altså stadig blogs og fora, der ikke bruger denne teknik såeh...
Husk: Links i kommentarer på fora og blogs, links i twitter og Facebook er meget vigtige. De skaber nemlig trafik og skal derfor hellere ses som et tilskud til SEO - men ikke SEO i sig selv.
Den bedste vej ind i Google er ved at nogen linker til dit websted. Basta. Slut.
Nogle eksperter hævder ligefrem, at hver gang du tilmelder et allerede tilmeldt websted, så ryger du automatisk bag i køen. Jeg er ikke så sikker pårigtigheden af den påstand. Men på den anden side kan jeg ikke se hvorfor Google skulle præmiere hyppige tilmeldinger. Din utålmodighed har intet med relevansen af dine sider at gøre. Tror du også at knappen ved elevatoren får den til at køre hurtigere, hvis du trykker flere gange hurtigt efter hinanden? Hvorfor skulle nogen dog designe det sådan?
SEO: Search Engine Optimization
Den del af søgemaskine optimeringen, der tager sig af optimeringen af de gratis søgeresultater også kaldet organiske søgeresultater i for eksempel Google søgninger.
Google citeres for at sige, at de måler på et par hundrede parametre på en side, for at beregne dens position eller placering i forhold til andre.
Det er fjollet at tro, at alle parametre er lige vigtige og lige så fjollet at tro, at et af dem kan pilles ud og overoptimeres med held.
Desværre optimerer mange ikke på det væsentlige ii forhold til tid og penge.