Tehnična optimizacija spletne strani je verjetno eden izmed najkompleksnejših procesov v optimizaciji spletnih strani za iskalnike, saj terja poglobljeno razumevanje delovanja iskalnikov in spletnih strani, razumevanje HTML, CSS in JavaScript kode, uporabo različnih orodij in predvsem interpretacijo napak ter iskanje rešitev.
Pregled celotne spletne strani, pri katerem se osredotočamo na njeno tehnično optimiziranost (za robote in za uporabnike) imenujemo tehnični SEO audit. Ta je praviloma izhodišče za začetek vsake tehnične optimizacije spletne strani.
V tokratnem blogu si bomo podrobneje pogledali:
Ključna orodja za tehnični SEO
3. Hitrost strani in uporabniška izkušnja
5. Meta podatki in HTML naslovi
Ko se lotite tehničnega SEO audita, lahko pri tem uporabite množico plačljivih in tudi brezplačnih orodij, ki podajo splošno oceno tehnične optimiziranosti vaše strani in sezname konkretnih napak. Primeri takšnih SEO orodij so:
Vendar pa izvedba tehničnega audita ne sme ostati zgolj pri izvozu napak iz orodij – ključni doprinos SEO strokovnjaka pri izvedbi tehnične SEO analize je njegova strokovna ocena, katere napake zares ključno vplivajo na delovanje strani, uporabniško izkušnjo in rangiranje, kako jih odpraviti in kar je še pomembnejše, kako preprečiti, da bi se v prihodnosti znova pojavljale.
Dejstvo je, da brez razvijalcev pri tehnični optimizaciji ne gre, saj so za odpravo napak potrebni posegi v frontend in pogosto tudi v backend strani. Ker pa ima večina podjetij omejene resurse za tehnične posege v spletno stran, mora SEO specialist znati presoditi tudi, katere napake se najbolj splača odpravljati, po sistemu ICE (impact, confidence, ease) ter opredeliti kratkoročne in dolgoročne prioritete.
Naloga SEO specialista je tudi, da ne odpravlja zgolj napak (simptomov težav), ampak ugotavlja in rešuje tudi njihove vzroke, pri čemer tesno sodeluje z razvijalci strani.
Preden se lotite tehnične SEO analize strani, priporočam, da si naredite seznam (checklist) napak, ki jih boste preverjali in ki so za vašo spletno stran najpomembnejše. Glede na to za kakšen tip strani gre (k analizi manjših spletišč boste pristopili drugače kot k analizi velikih eCommerce trgovin ali pa novičarskih portalov) in kaj je ključni problem vaše strani, določite prioritete.
V osnovi pa boste v okviru vsakega tehničnega SEO audita analizirali naslednjih 6 temeljev tehnične optimizacije strani:
Arhitektura spletne strani je eden od temeljnih aspektov optimizacije spletne strani, ker Googlu sporoča, katere strani so najpomembnejše in kako so kontekstualno povezane z drugimi. Struktura strani je povezana s tem, kako organizirate vsebino svojega spletišča.
Vsaka spletna stran je sestavljena iz različnih, med seboj povezanih vsebin v obliki objav in pristajalnih strani. Struktura spletne strani se ukvarja s tem, kako so posamezne strani na spletišču povezane v manjše tematske celote ter kako so predstavljene uporabnikom.
Poznamo več različnih vzorcev ali struktur:
Linearno strukturo, kjer imamo poleg domače strani samo še en nivo strani.
Piramidno ali hierarhično strukturo, kjer so strani urejene po pomembnosti, od domače strani, do kategorijskih strani, podkategorij, do posameznih pristajalnih strani (največkrat strani izdelkov). Ta struktura je najpogostejša pri eCommerce straneh.
Strukturo tematskih sklopov, pri kateri je vsebina organizirana glede na tematike. Tu ne gre za klasično hierarhično strukturo, ampak je v središču vsake tematike ena temeljna stran (t. i. pillar page), ki jo podpira večje število podpornih strani. Temeljna stran pokriva neko tematiko širše in bolj na splošno ter cilja splošne ključne besede, medtem ko so podporne strani posvečene bolj specifičnim temam znotraj tematike in ciljajo dolgorepe ključne besede.
Dobra struktura strani uporabnikom omogoča, da hitro najdejo vsebino, ki jo iščejo, Googlovim robotom pa, da bolj uspešno crawlajo in indeksirajo URL-je ter da lažje razumejo medsebojne odnose med posameznimi pristajalnimi stranmi.
Strukturo strani urejamo z URL direktoriji, internimi povezavami, interno navigacijo, drobtinicami, kategorijami in oznakami.
Pomemben del strukture strani so tudi poddomene (blog.spletnastran.si) in poddirektoriji (spletnastran.si/blog), pomembno pa je tudi, da vemo, kdaj je smiselno izbrati prvo in kdaj drugo.
S SEO vidika so poddomene obravnavane kot ločene enote, tako rekoč enako kot ločene spletne strani, saj signali, ki gradijo moč in avtoriteto poddomene, osnovni domeni ne prinašajo nobenih koristi in tudi obratno (če razmišljate o novi poddomeni, se pripravite na veliko dela, da bo ta rangirala).
Zato je z vidika optimizacije strani vso pomembno vsebino, ki služi krepitvi moči domene (kot je na primer blog), bolj smiselno umestiti v poddirektorij.
Če pa ima vaša blagovna znamka več kontekstualno nepovezanih dejavnosti, ki ne ciljajo istih uporabnikov in ključnih besed, potem se lahko odločite za poddomene, a ne pozabite, da boste morali vložiti v ločeno optimizacijo za vsako poddomeno.
Crawling in indeksacija sta izraza, s katerima označujemo način, s katerim Google odkriva nove spletne strani in jih dodaja v svoj indeks (tj. seznam URL-jev, ki jih lahko prikaže uporabnikom na iskalniku).
Google in drugi iskalniki po spletu pošiljajo t. i. crawlerje (tudi pajke ali robote), ki sledijo povezavam in odkrivajo nove strani. Edini način, da se bo vaša spletna stran prikazala na iskalniku je, če jo pajki lahko odkrijejo in poindeksirajo.
Seveda pa ima Google omejeno število resursov za odkrivanje in indeksiranje svetovnega spleta, zato ima tudi vsaka spletna stran določen crawl budget, oziroma število strani, ki jih pajki vsakokrat obiščejo.
Pomembnejše, visokoavtoritativne spletne strani imajo višji crawl budget, na to, koliko strani bodo pajki lahko odkrili ob obisku vaše strani pa vplivajo tudi:
Pri tehnični optimizaciji spletne strani si med drugim prizadevamo, da pajkom omogočimo čim hitrejše crawlanje strani in čim obsežnejšo indeksacijo. To je še zlasti pomembno pri velikih spletnih straneh, kot so eCommerce strani in novičarski portali.
Robots.txt datoteka je prvi dokument, ki ga pajki pregledajo, preden začnejo crawlati stran. Ta datoteka pajkom služi kot navodila za indeksiranje strani – z ukazi, ki jih zapišemo v robots.txt datoteko, lahko pajkom dovolimo oziroma prepovemo dostop do posameznih direktorijev ali celotne spletne strani (česar seveda ne smete storiti, če želite rangirati na Googlu), onemogočimo dostop samo določenim pajkom, nakažemo, kje lahko pajki odkrijejo Sitemap ipd.
Sitemap.xml datoteka je zemljevid vaše strani, v katerega vključite vse URL-je, ki so vam pomembni in želite, da jih Google odkrije in indeksira. Sitemap datotek mora biti na stran naložena v XML formatu, zelo priporočljivo pa je, da njeno lokacijo pajkom razkrijemo že v Robots.txt datoteki.
Naloga Sitemapa je, da robotom pomaga razumeti strukturo strani, da se po njej lažje orientirajo in lahko tako poindeksirajo več strani. Na posamezni spletni strani imamo lahko tudi več Sitemap datotek (npr. eno za vsebino strani, drugo za slike, tretjo za videe ipd.).
Pomembno pa je, da v Sitemap zapišemo samo tiste URL-je, ki naj jih Google uvrsti v svoj indeks in da zemljevid strani redno posodabljamo. Sitemap naj ne vsebuje podvojenih strani, redirectanih URL-jev, izbrisanih strani ipd.
Drobtinice so pomemben element interne navigacije in linkanja. Uporabnikom pomagajo pri bolj pregledni navigaciji po strani in s tem izboljšajo uporabniško izkušnjo – raziskave namreč kažejo, da drobtinice pozitivno vplivajo na trajanje sej in zmanjšujejo bounce rate.
Po drugi strani pa so drobtinice zelo koristne tudi za Google in njegove pajke, saj izboljšajo pretočnost strani, pomagajo Googlu pri navigaciji in kategorizaciji strani, Google pa jih prikazuje tudi v iskalnih rezultatih.
Duplicirana ali podvojena vsebina je trn v peti vsakega SEO strokovnjaka, še posebej pa to velja pri velikih eCommerce straneh, kjer se je podvojevanju vsebine tako rekoč nemogoče izogniti. Dejstvo pa je, da Google ne mara podvojene vsebine, ker mu povzroča cel kup preglavic.
Če bo vaša vsebina na različnih URL-jih enaka, se bo Google zelo težko odločil, kateri URL naj uporabnikom ponudi kot rezultat – lahko se bo odločil, da bo rangiral samo enega, lahko pa si bodo različni URLji z enako vsebino med seboj konkurirali in drug drugemu s tem onemogočali, da bi eden izmed njih rangiral zelo visoko. Podvojene strani se zažirajo tudi v vaš crawl budget.
Določen delež podvojene vsebine je normalen za vsako stran, vendar pa velja splošno priporočilo, da naj ne bo več kot 20 % teksta na posamezni strani podvojenega. V tistem delu besedila, ki je edinstven vsaki strani, pa si prizadevajte, da jasno nakažete namen posamezne strani in jo s tem vsebinsko, kontekstualno in pomensko ločite od drugih.
Kadar se podvojeni vsebini nikakor ne morete izogniti, pa uporabite Canonical oznake, da Googlu sporočite, katera od strani je original in katere strani so duplikati – tako bodo vsi SEO signali usmerjeni v originalno stran, ki bo zato tudi bolje rangirala.
Interne povezave so takoj za vsebino drugi najpomembnejši element vsake spletne strani, saj robotom omogočajo prehajanje med stranmi in odkrivanje nove vsebine, hkrati pa jim dajejo tudi kontekst – kako so posamezne strani povezane med seboj in kakšna je njihova vloga v celotnem spletišču.
Uporabnikom, na drugi strani, interne povezave pomagajo hitro in preprosto najti informacije, opraviti nakup, oddati povpraševanje itd.
Poleg osnovnih internih povezav, ki jih najdemo v glavnem meniju, nogi, na vstopni strani, v drobtinicah … je priporočljivo, da interne povezave uvrščate tudi na podstrani, znotraj vsebine. Z internimi povezavami pajkom omogočite hitrejše odkrivanje novih strani, obenem pa s tem med URL-ji prenašate tudi moč ali avtoriteto, ki Googlu sporoča, kako pomembna je posamezna stran.
Ker pa je vsaka spletna stran živ organizem, ki se konstantno spreminja in razvija, je treba tudi interne povezave redno pregledovati in posodabljati, odstranjevati nedelujoče, dodajati nove itd. S tem omogočite uspešnejše crawlanje in indeksacijo, ne zapravljate crawl budgeta in pa skrbite za boljšo uporabniško izkušnjo na strani.
Core Web Vitals je Googlova pobuda za izboljšanje prve uporabniške izkušnje s stranjo in se ukvarja s hitrostjo, stabilnostjo in funkcionalnostjo strani ob prvem nalaganju. Med junijem in avgustom 2021 bodo Core Web Vitals metrike postale tudi uraden Googlov rangirni signal, zato hitro preverite, kako se odrežete na testu.
Da stran uspešno opravi Core Web Vitals test, mora imeti:
Vir: web.dev
V zadnjem času se ogromno govori o Core Web Vitals rezultatu in celotna SEO industrija se fanatično osredotoča na izboljšanje omenjenih metrik, da bi zadostila Googlovim visokim standardom (ki so, če smo iskreni, pravzaprav standardi današnjih uporabnikov).
Nikar pa pri vsem tem ne pozabite na splošno optimizacijo hitrosti strani, ki je ravno tako zelo, če ne še bolj pomembna za uporabnike. Medtem ko se Core Web Vitals ukvarjajo s prvim nalaganjem strani, pa splošna hitrost strani vpliva na uporabniško izkušnjo ob čisto vsaki uporabnikovi interakciji s stranjo.
Z letošnjim letom je Google sprejel še eno veliko, a dolgo načrtovano spremembo – prešel je na mobile-first indeksiranje, ki mu lahko, zavoljo jasnosti, rečemo tudi mobile-only indeksiranje. Google namreč od letos opušča odkrivanje in indeksiranje strani prek desktop bota in spletne strani crawla in indeksira samo še s svojim Smartphone botom.
V praksi to pomeni, da Google pregleduje samo še vašo mobilno različico spletne strani. Zato poskrbite, da bo vsebina vaše mobilne strani enaka desktop verziji, da bo stran hitra na mobilnih napravah in dostopna robotom in da je vsebina strani strukturirana na način, ki je mobilnim napravam prijazen – torej da je pregledna in berljiva na mobilcih.
Več o tem, kako se kar najbolje prilagoditi mobile-first indeksiranju, pa si preberite v Tjašinem Vodiču za mobile-first indeksiranje.
Peti element tehnične optimizacije so meta podatki in HTML naslovi. Pri tehnični optimizaciji spletne strani se ne osredotočamo toliko na vsebino le-teh kot to, ali so implementirani pravilno.
Pri meta podatkih je pravilna implementacija povezana z njihovo dolžino – če meta podatki ne ustrezajo priporočeni dolžini, jih bo Google v najboljšem primeru skrajšal (odrezal in dodal tri pike), v najslabšem pa bo nadomestil z drugim besedilom, ki ga bo našel na strani – to pa vam odvzame moč, da vplivate na to, kaj se prikaže uporabnikom in je lahko pogubno za vaš CTR!
Splošna priporočila glede tehnične optimizacije meta podatkov so:
V svojem prejšnjem blogu pa vam razkrivam še nekaj nasvetov, kako izboljšati CTR.
HTML naslovi ali Headingi naj označujejo samo vsebinske elemente strani, torej naslove in podnaslove, ki naj si sledijo v hierarhičnem zaporedju (od H1 do H6, pri čemer je priporočljivo, da je na vsaki strani samo en H1, drugih pa je lahko več).
Ena od najpogostejših napak, ki se pojavlja pri večini spletnih strani, s katerimi se srečujem, je, da so HTML naslovi uporabljeni kot oblikovni/grafični element in tako označujejo tudi strukturne, nevsebinske elemente na strani (menije, ponavljajoče se elemente ipd.), kar Googlu zaplete razumevanje vsebine strani, še posebno v jezikih, kot je slovenščina, kjer Googlovo razumevanje še ni tako napredno kot denimo v angleščini.
Zadnji, a nikakor ne najmanj pomemben element tehnične optimizacije, ki bi ga rada omenila, je varnost vaše strani. Večina spletnih strani je danes že prešla na varni HTTPS protokol in ima veljaven SSL certifikat. Pri straneh, ki tem pogojem ne zadostijo, se uporabnikom na večini brskalnikov izpiše opozorilo, da povezava ni varna.
Kljub temu da večina resnih strani poskrbi za te osnovne varnostne pogoje, pa se neredko zgodi, da na strani ostajajo določeni resursi, interne povezave, slike in drugi elementi, ki niso zavarovani s HTTPS protokolom. Tudi na to bodo uporabniki večini brskalnikov opozorjeni in lahko negativno vpliva na njihovo izkušnjo.
Pa še nekaj napotkov, kako se temu izogniti:
Tokrat smo preleteli šest najosnovnejših elementov tehnične optimizacije, ki sicer nikakor ne zajemajo vsega, s čimer se ukvarjamo pri tehnični optimizaciji spletne strani, vam pa lahko služijo za dober temelj, na katerem lahko postavite močno in uporabnikom prijazno spletno stran, ki jo bo tudi Google rad uvrščal na prva mesta.
Če pa je tehnična optimizacija spletne strani za vas prevelik zalogaj, vam pri tem z veseljem pomagamo. Oglasite se nam!