SEO kurss #2: Kā uzlabot Google meklēšanu mājaslapā

SEO kursa pirmajā rakstā iepazināmies ar to, kā strādā Google meklētājs, kā tas atrod mājaslapas, tās sadaļas, kā tās tiek indeksētas un pēc tam attēlotas arī Google meklētājā. Minējām arī Google pārmeklēšanu jebk Crawling, ko paveic Google bots jeb speciāla programmatūra. Apskatījām arī dažus pamatvirzienus, faktorus, kam būtu jāpievērš uzmanība, lai uzlabotu mājaslapas draudzīgumu Google botam. Šajā rakstā apskatīsim detalizētāk vairākus faktorus, pie kā jāpiestrādā, lai vēl vairāk iepatiktos Google meklētājam un SEO optimizācijas process jau saknē būtu vienkāršāks.

Meta tegi un Robots.txt fails

Ne reizi vien ir gadījies sastapties ar situāciju, kad mājaslapas veidotāji paši ir lieguši Google meklētājprogrammai piekļūt mājaslapai, tāpēc, ja rodas aizdomas, ka mājaslapa netiek indeksēta meklētājā vispār vai tas notiek tikai daļēji, ir vērts sākumā pārbaudīt Meta tegus un Robots.txt failu. Ir vairākas komandas, kas var Meta tegos un Robots.txt failā liegt piekļūt mājaslapai vai tās sadaļām, tāpēc apskatīsim tos.

Mājaslapas izslēgšana no indeksācijas ar robots meta tegu

Ja Jums mājaslapā ir sekojošs tegs, tad nav nekādu iespēju, ka jebkādi roboti, ieskaitot Google botu spēs piekļūt Jūsu lapai un indeksēt tās saturu, tā ir komanda, kas gluži vienkārši jau sākumstadijā to liedz:

<meta name="robots" content="noindex" />

Nofollow saites

Ja saitēm mājaslapā ir pievienots zemāk redzamais tegs, Google bots redzēs saiti, bet nesekos tai, jo tāda komanda ir dota (“nofollow” no agļu valodas – “nesekot”).

Ir divu veidu nofollow komandas, visam mājaslapas saturam:

<meta name="robots" content="nofollow">

un konkrētai saitei:

href="pagename.html" rel="nofollow"/>

Var gadīties, ka šīs komandas ir jāizmanto, visbiežāk mājaslapu īpašnieki otro komandu izmanto tām no mājaslapām izejošās saitēm, pa kurām nav vēlmes nodot autoritāti lapām, uz kurām tiek veidota saite (vai nu lai pasargātu savas mājaslapas SEO spēku)

Mājaslapas bloķēšana ar Robots.txt faila palīdzību

Robots.txt fails ir pirmais, uz ko skatās roboti, kad piekļūst mājaslapai, tāpēc, ja tur uzreiz ir norādīti konkrēti liegumi robotiem, tie to ievēros un mājaslapu var neskatīt vai neindeksēt:

User-agent: *
Disallow: /

Šī komanda nozīmē, ka visiem robotiem (apzīmē ar *) tiek liegta piekļuve mājaslapas saturam, viss, kas ir aiz /, domēna galvenās lapas (Disallow: /)

User-agent: *
Disallow: /produkti/

Šajā gadījumā tiks bloķētas visas lapas, kas atrodas mapē /produkti/. Šo paņēmienu bieži vien izmanto, lai no meklētājiem noslēptu tādu saturu, kuru nav vēlmes izplatīt publiski, ko var atrast tikai ar speciālām saitēm (lietotāju profili, cita sensitīva informācija u.c.)

Iekšējo saišu problēmas

Ja iekšējās saites nedarbojas, tā jebkurā gadījumā ir problēma – vai nu jābūt pāradresācijai uz strādājošu lapu vai tāda saite ir jānoņem. Nestrādājošas saites traucē gan mājaslapas apmeklētājiem, gan arī ļoti nepatīk Google botam. Vēl viens arguments – Google botam ir ierobežots laiks katrai mājaslapai un ja tam jāpavada daļa laika, pārbaudot nestrādājošas saites, tad tiek lieki iztērēts laiks.

URL kļūdas

Bieži vien tās rodas, nepareizi ievadot URL adresi, noraujot kādu daļu, kopējot pazaudējot un citādi. Tāpēc vienmēr ir ieteicams pēc saites izveides pārbaudīt to, pašam uzklikšķinot uz jaunizveidotās saites.

Novecojuši URL

Ja saites tiek veidotas uz citām lapām, to saturs visbiežāk netiek kontrolēts, tāpēc to sadaļas var tikt mainītas, dzēstas, labotas, var tikt mainītas URL adreses. Visu šo gadījumu rezultātā var izveidoties situācija, ka saite mājaslapā nedarbojas, ja vien otras lapas īpašnieks nav izveidojis pāradresāciju. Vēlams ar SEO rīku palīdzību veikt regulāru saišu monitoringu, kas uzrādīs problēmas ar saitēm, ja tādas pēkšņi rastos.

Lapas ar ierobežotu piekļuvi

Var gadīties, ka saite atgriež 403 kļūdas rezultātu, kas nozīmē, ka lapa var būt ierobežota, piemēram, tikai reģistrētiem lietotājiem. Šīs saites labāk pārveidot par nofollow saitēm, lai netērētu liekus robotu resursus.

Ar serveri saistītas problēmas

Servera kļūdas

5xx sērijas kļūdas (piemēram, 503 kļūda) var liecināt par servera problēmām, kad mājaslapa vai sadaļa lēni ielādējas vai neielādējas vispār. Tādā gadījumā atliek lūgt web izstrādes (vai servera) kompāniju palīdzību, lai atrisina ar serveri radušās problēmas. Tās var būt gan mājaslapas tehniskas problēmas, gan servera uzstādījumu problēmas, uzbrukumi mājaslapai.

Ierobežota servera kapacitāte

Iespējams, ka brīdī, kad tika veidota mājaslapas, servera kapacitāte ļāva to lietot pilnā apjomā bez problēmām, bet laikam ejot, mājaslapa piepildījusies ar jaunu saturu, attēliem, failiem, kas piepildījusi mājaslapas servera kapacitāti. Tādos gadījumos jāveic servera pārkonfigurācija, jāpāriet uz lielāku maksājumu plānu vai jāmaina serveris pavisam. Arī te palīdzību sniegs servera serviss vai web izstrādes kompānija, kas atbild par mājaslapas uzturēšanu.

Web servera nepareizi uzstādījumi

Šis var būt arī sarežģītāks jautājums. Mājaslapa var būt lieliski redzama apmeklētājiem, bet tā izmet kļūdas robotiem, tādējādi visas sadaļas var kļūt nepieejamas pārmeklēšanai. Tas var notikt dažādu servera konfigurāciju dēļ: dažādi ugunsmūri (piemēram, Apache mod_security) pēc noklusējuma var bloķēt Google botu un citus meklēšanas botus. Īsāk sakot, šī problēma ar visiem saistītajiem aspektiem ir jārisina web izstrādes speciālistam.

Lapas kartes problēmas

Formatēšanas kļūdas

Pastāv vairāki formatēšanas kļūdu veidi, piemēram, nederīgs URL vai trūkstoši tegi (meklējiet visu sarakstu ar katras kļūdas risinājumu šeit).

Iespējams, esat arī sapratis (pie pirmās darbības), ka vietnes kartes failu bloķē robots.txt. Tas nozīmē, ka boti nevar piekļūt mājaslapas kartes saturam.

Nepreizas sadaļas lapas kartē

Nav jābūt web izstrādes speciālistam, lai pārbaudītu, cik korekta ir lapas karte (sitemap). Pārbaudiet, vai visas sadaļas tajā ir korektas, vai visi URL attainoti pareizi, vai ir jaunais saturs redzams, viss, ko vēlaties, lai meklētājs atrod. Bieži vien lapas kartes kļūdas izmet pati Google Search Console bezmaksas platformā, tāpēc ik pa laikam ir jāieskatās arī tur, vai nav kādas kļūdas.

Mājaslapas arhitektūras kļūdas

Šī ir vissarežģītākā sadaļa, ko risināt, tāpēc pie tās jāķeras tad, kad viss iepriekš minētais ir pārbaudīts uz izlabots.

Iekšējo saišu problēmas

Dažādas sekojošas problēmas var tikt konstatētas ar dažādu SEO rīku palīdzību:

  • sadaļa nav savienota ne ar vienu citu mājaslapas sadaļu, tāpēc arī neparādas indeksā
  • sadaļa atrodas pārāk tālu no galvenās lapas, tāpēc Google bots līdz tai nenokļūst. Ieteicams ir ne vairāk kā 4 līmeņu saites (piemēram, 4 līmeņu apakškategorijas)
  • pārāk daudz izejošo saišu sadaļā. Ja vienā lapā ir vairāki tūkstoši izejošo saišu, Google botam var rasties problēmas ar to visu nolasīšanu
  • saites ir paslēptas zem dažādiem risinājumiem – Java, Flash, tāpēc tās netiek nolasītas

Nepareizas pāradresācijas

Pāradresācijas kopumā ir vērtīgas, jo tad var no vienas mājaslapas sadaļas pārsūtīt apmeklētāju uz citu sadaļu. Sevišķi svarīgi tas ir gadījumos, kad saite uz sadaļu ir izvietota dažādos ārējos resursos un to izmainīt vairs nav iespēju. Attiecīgi, izveidojot pāradresāciju, lietotājs nemanāmi tiek pārvietots uz citu sadaļu, aktuālo.

Taču dažreiz pāradresācijas var nodarīt ļaunu mājaslapas SEO optimizācijai:

  • 302 vai 307 pāradresācijas liek Google robotam konkrēto lapu apmeklēt vēl un vēl, tas patērē resursus, tāpēc, ja ir skaidrs, ka esošā lapa tiek pāradresēta uz visiem laikiem, tad jāizmanto 301 pāradresācija, kas pasaka robotam, ka tā ir galēja pāradresācija un veco lapu vairs nav jāapmeklē. Minētās 302 vai 307 pāradresācijas var izmantot, ja pāradresācija ir uz laiku
  • pāradresāciju loks jeb redirect loop ir tad, kad viena lapa pāradresē uz citu un tā atkal atpakaļ, sanāk bezgalīga pāradresācija, kas nekad nebeidzas un lieki tērē robotu resursus. Diemžēl šādi loopi ir visai bieža parādība.

Lēns ielādes ātrums

Kā jau minēts iepriekš, mājaslapas un tās sadaļu ielādes ātrums tiešā mērā var noteikt to indeksācijas veiksmi. Mājaslapām un sadaļām jāielādējas ātri un to var pārbaudīt ar Google Page Speed rīku. Problēmas var būt daudz un dažādas – attēlu optimizācija, pārāk smags lapas kods, neoptimizēts dizains utt. Visticamāk paša spēkiem tikt galā ar to būs grūti, tāpēc jāsauc palīgā web izstrādes speciālists. Diemžēl daudzi web izstādes kantori piedāvā jau pamatā vāji optimizētas mājaslapas, uzmanīgi jāizvēlas savas mājaslapas attīstītājs un uzturētājs, jāmeklē atsauksmes, jājautā darbu portfolio un jāpārbauda izstrādātās lapas uz ātrumu.

Dubultais saturs

Bieži vien indeksācijas problēmas rodas dēļ dubultā satura. Mājaslapā ir vairākas sadaļas par vienu un to pašu tēmu, Google robots uzskata, ka par konkrēto tēmu jau ir viena lapa un īsto var neindeksēt vai indeksēt zemāk. Tāpēc uzmanīgi jāseko līdzi saturam mājaslapā. E-komercijas projektiem bieži šāda veida problēmas rodas dēļ tehniskiem risinājumiem – vairākas lapas produktu kategorijā (1, 2, 3, 4… 154 – pagination). Produktu lapas var tikt attēlotas ar dažādiem meklēšanas filtriem – lapa tā pati, bet URL jau cits, kas Google acīs būs dubultais saturs.

Lai no tā izvairītos:

  • jādzēš dubultās lapas – atkārtoti bloga raksti, jaunumi, nejauši duplicētas lapas
  • jāveic uzstādījumi robots.txt failā, lai netiktu indeksēts dubultais saturs
  • meta tegu uzstādījumi, kas neindeksē dubulto saturu
  • 301 pāradresācija
  • rel=canonical tega izmantošana (tas pasaka robotam priekšā, ka šī lapa ir galvenās lapas kopija)

Javascript un CSS nepareiza izmantošana

Vēl tālajā 2015. gadā Google oficiāli apgalvoja: “Kamēr nebloķējat Google botu no JavaScript vai CSS failu pārmeklēšanas, mēs kopumā spējam atveidot un izprast jūsu mājaslapas tāpat kā galvenās pārlūkprogrammas.” Tas gan neattiecas uz citām meklētājprogrammām (Yahoo, Bing, Yandex u.c.). Turklāt vārds “kopumā” nozīmē, ka dažos gadījumos pareiza indeksācija netiek garantēta.

Vecas web dizaina tehnoloģijas

Flash saturs

Flash ir novecojusi tehnoloģija un tā netiek atbalstīta dažās mobilās ierīcēs. Saites, kas iekļautas Flash saturā, netiek pakļautas indeksācijai un saturs netiek nolasīts, attiecīgi negatīvi ietekmē SEO optimizācijas procesu.

HTML freimi

Ja mājaslapā ir tā saucamie freimi, tā reizē ir laba un slikta ziņa. Tas ir labi, jo tas, iespējams, nozīmē, ka jūsu mājaslapa ir pietiekami nopietna. Tas ir slikti, jo HTML freimi ir ārkārtīgi novecojuši, tiek slikti indeksēti, un jums tie ir pēc iespējas ātrāk jāaizstāj ar mūsdienīgāku risinājumu.

Komentēt

Jūsu e-pasta adrese netiks publicēta.

Scroll to Top