Studerende, Systemudvikling og systemer

Søgemaskine-optimering

Hvis ikke backend-koden af en webside er lavet korrekt, kan det være så godt som umuligt for søgemaskinerne at læse og indeksere siden.

Hvad er søgemaskineoptimering?
Søgemaskineoptimering bliver ofte forkortet SEO, som kommer af det engelske ord Search Engine Optimization.
Kort fortalt går søgemaskineoptimering ud på at få en hjemmeside til at få nogle gode placeringer i søgemaskinerne på forskellige relevante søgeord, der i sidste ende vil give en masse gratis trafik.
Folk Googler uafbrudt – skal vi have ny tandlæge, købe hus eller ud at rejse, researcher vi på nettet for at finde informationer om produktet eller de forskellige udbydere. Op imod 92 procent bruger en søgetjeneste til at finde en webshop, og der er cirka 68 procent, der tjekker priserne på nettet, før de går ned i en fysisk butik og køber produktet.
I Danmark har Google 90-95 procent af søgemarkedet, derfor skal man mest af alt koncentrere sig om denne verdensomspændende søgemaskine. Hvis man har et internationalt site, vil det måske være en god idé at kigge på fx Yahoo og nogle af de andre, da Google ’kun’ har omkring 70 procent af søgemarkedet i resten af verden.

Hvem skal varetage SEO?
Søgemaskineoptimering er ikke kun én persons opgave. Der skal flere indover for at få det mest effektive ud af søgemaskinerne. Derfor kan en udvikler ikke sidde alene med opgaven. Typisk vil der i en mellemstor virksomhed både være marketing- og it-folk indover sammen med ledelsen og andet personale, der har kundekontakt, da de sammen skaber den nødvendige synergi, der gør, at man kan udvælge den rette strategi og søgeord.
Når mange virksomheder opdager vigtigheden i søgemaskineoptimering, får de deres it-afdeling til at varetage denne opgave, da der jo ofte skal laves en masse tekniske ting. Men faktisk skal søgemaskineoptimering være på lige fod med alle andre discipliner inden for marketing.

Udviklerens udfordringer
Mange gange har søgemaskinen en række begrænsninger, der gør, at en given hjemmeside har en række indekseringsbarrierer.

TIP: Tjek, om en webside er indekseret ved at skrive site:domæne.dk i Google.

Hvis du har problemer med at få dit website indekseret eller bare gerne vil se, hvordan søgerobotterne ser din hjemmeside, så benyt tekstbrowseren Lynx – hvis du ikke kan se alt indholdet igennem en tekstbrowser, er der meget stor sandsynlighed for, at søgemaskinerne heller ikke kan se det. Søgemaskinerobotterne ser helt grundlæggende kun på kode, og den bliver derfor ikke eksekveret.
 
Javascript
Som udvikler er det ofte nødvendigt at benytte Javascript for at lave nogle lækre detaljer på hjemmesiden. Søgemaskinerne læser Javascript-koden og forsøger at få noget meningsfyldt ud af koden. Så selv om der er tekst inde i et script, kan søgemaskinerne ofte godt forstå det, men for det meste bliver det ikke vægtet lige så højt som html-formateret tekst, og så er der også risiko for, at søgemaskinernes robotter ikke får alt relevant indhold med. Der opstår ofte problemer, hvis navigationen på hjemmesiden er lavet i Javacript-kode. Her vil søgerobotterne højst sandsynligt have problemer med at følge disse links og indeksere andre sider end forsiden. Dette problem kan relativt let kommes til livs ved at lave en menu mere i bunden, hvor linksene er helt almindelige.

TIP: Den samme teknik med en ekstra HTML-menu i bunden kan du også bruge, hvis du har en menu, der er bygget i Flash.

Cookies
Google og mange andre søgermaskiner understøtter ikke cookies. Derfor skal din hjemmeside ikke kræve, at brugerne understøtter cookies for at benytte og se websiden.
Hvis du søger på Google efter ’Cookies er påkrævet’, finder du i skrivende stund sydjob.dk som nr. 1. Hjemmesiden er placeret der, fordi de har lavet en webside, der kræver cookies. Søgerobotten møder altså, som det eneste, en kort tekst om, at cookies er påkrævet for at se hjemmesiden.

Her kan man se de to forskellige sider, som man bliver præsenteret for, om man har cookies slået til eller ej:

Slået til:

 

Ikke slået til:

 

Hvis du vil tjekke, om man kan se en webside uden cookies, kan du slå det fra i din browser under indstillinger.

Robots.txt
Når du er i gang med at udvikle en hjemmeside, er det en rigtig god idé at udelukke søgemaskinerne fra at indeksere siden. Det gør man i en fil ved navn Robots.txt, som ligger i roden på ens hjemmeside. Der er dog set eksempler på, at webmasteren har glemt at fjerne disse to linjer, efter websitet officielt er åbnet.

Eksempel på udelukkelse af alle søgemaskiner: User-agent: *Disallow: /

Duplicate content
Hvis brugerne eller søgemaskinerne kan komme ind på det samme indhold via flere URL’s, vil der ofte være problemer med duplicate content. Grunden til, at duplicate conent er et problem, er, at Google ikke vil præsentere 10 søgeresultater med det samme indhold for brugeren. Derfor bestemmer søgemaskinen selv, hvilken URL der skal vises i søgemaskinen, og dette kan give store problemer i ens søgemaskineoptimering. Der kan være mange grunde til, at det er opstået – har du kopieret en længere tekst fra et andet website, bliver du straffet, men det kan også ske helt uskyldigt, hvis CMS-systemet ikke er lavet korrekt.
Kort sagt: Det må ikke være muligt at kunne gå til en unik side via flere forskellige URL’s.
 
Tjek, om du er ramt
Der findes flere metoder til at tjekke, om man selv er ramt af duplicate content. En af de letteste metoder er, at man kopierer en unik sætning på en hjemmeside, går ind på Google og indsætter sætningen i søgefeltet med gåseøjne (””) omkring.
Det viser sig faktisk, at Prosa.dk desværre er ramt (8. november 2009). Hvis du går ind på forsiden og finder teksten nederst på siden ’PROSAs Lønsikring’.

 

 

Prøv at kopiere lidt af teksten og indsæt i Google med gåseøjne:
”Få sikkerhedsnet under din økonomi. Med PROSA’s Lønsikring”

Så kommer en af de værste beskeder, Google kan give dig:

Som du kan læse ud fra teksten, har Google fundet sider, der i meget høj grad ligner de andre. Hvis du trykker på linket, finder du ud af, at det er følgende sider, som alle viser forsidens indhold:
www.prosa.dk/

<link browse>www.prosa.dk/browse/3/

<link browse>www.prosa.dk/browse/2/

<link browse>www.prosa.dk/browse/1/

www.prosa.dk/?id=

www.prosa.dk/index.php

Det viser sig, at et af problemerne er, at funktionen, hvor man kan bladre frem og tilbage i prosa-bloggen, skaber en ny URL (/browse/1).

Denne fejl er der også mange kalendersystemer, som lider under – problemet med de fleste online kalendere er dog, at de har uendelige løkker, men fælles for begge problemer er, at hvis man anvender en post-form, så URL’en ikke skifter, er man ude af dette problem.
Hvis du har skrevet nogle rigtig gode, spændende - og bedst af alt unikke – tekster, er der desværre stor sandsynlighed for, at flere dovne konkurrenter vil kopiere dine tekster, og hvis de er så heldige, at Googles robotter besøger deres hjemmeside først, så tror søgemaskinen højst sandsynligt, at du har kopieret teksten fra konkurrenten.
Hvis du vil holde øje med dine tekster, kan du bruge hjemmesiden Copyscape.com, her kan du søge efter kopier.
Da jeg skulle skrive artiklen her, prøvede jeg for sjov med min egen hjemmeside (www.jau.dk), og det viste sig faktisk, at en konkurrent direkte havde stjålet flere af mine tekster. Der bliver stjålet med arme og ben på nettet, og derfor bliver man nødt til at holde øje med sine ting.

Printervenlige sider
Ofte tilbyder websider at præsentere en fin printervenlig side, uden alt for meget overflødig grafik. På mange websider kommer man ind på en ny side, når man trykker på ”printervenlig side”. Hvis man fx var på domæne.dk/nyheder.php?id=20, og når man så trykker på printknappen, kommer man ind på fx domæne.dk/print.php?id=20. Her har vi allerede problemet med duplicate content, da søgemaskinerne bliver præsenteret for to sider med samme indhold. Man kunne benytte META-robots for at udelukke søgemaskinerne, men en bedre idé vil være at løse det med CSS, hvor man laver et specifikt CSS dokument til print og linker til det vha. atributten ”media”.

Eksempel med et link til et css-dokument til skærm og et til print:
<link rel=”stylesheet” href=”style.css” type=”text/css” media=”screen”>

<link rel=”stylesheet” href=”print.css” type=”text/css” media=”print”>

Udviklingsdomæne
En af de største klassikere, som jeg desværre alt for tit støder på, er, når CMS-huse eller programmører laver et udviklingsdomæne, som søgemaskinerne får lov at indeksere. Problemet er, at hvis søgemaskinerne først har indekseret udviklingssiden, og når den så kommer online på sit rigtige domæne, tror søgemaskinerne, at det rigtige domæne har stjålet teksten fra udviklingsdomænet.
I september fik Folketinget en ny hjemmeside, og det webbureau, der lavede siden, lavede samme fejl, som så mange andre gør. De præsterede at få 6.350 sider indekseret fra udviklingsdomænet, inden den nye hjemmeside kom på det rigtige domæne. Det er dog ikke den eneste fejl, de har lavet. Et hurtigt tjek viser, at søgemaskinerne har indekseret de printervenlige sider, og ved flere sider har Google valgt at prioritere den printervenlige side højere end den oprindelige.

Eksempel:
www.ft.dk/Om.aspx (den korrekte)
www.ft.dk/Om.aspx?p=1 (printervenlig)

Brødkrummer
Brødkrummer, også kaldt bread-crumb navigering, kan skabe duplicate content, hvis det ikke er lavet rigtigt. Men hvis det er lavet korrekt, er det en super god funktion at have på sin webside for brugerens og søgemaskinernes skyld.
Eksempel på brødkrumme-navigering på Prosa.dk:

Jeg har oplevet et webshop-system, der lavede disse URL’s, hvis man klikkede igennem produkt-kataloget:
domæne.dk/Shop/info.htm?catid=180&articleid=063237
Når man gik ind på denne side, fulgte der brødkrummer med, men problemet var, at man også kunne tilgå samme produkt via denne URL, hvor der ingen brødkrummer bliver vist:
domæne.dk/Shop/info.htm?articleid=063237
På den måde opstår der igen to URL’s med identisk indhold.

Flytning af webside eller nyt system
Når en webside skal have nyt system, skifte domænenavn eller af anden grund skifter URL’s, er det vigtigt, at de gamle stier ikke bare bliver glemt. Hvis du laver 301 redirects, videresender du både brugerne og søgerobotterne til de nye URL’s. Det gør, at du næsten ikke mister noget af din værdi, du har hos søgemaskinerne, og brugerne ender ikke på en blank side.
Det er vigtigt, at du ikke bare lader alle de gamle sider redirecte direkte til forsiden, de skal derimod videresendes til de nye relevante undersider.