🔥 Slechts 5 minuten om de weergave te wijzigen.

Log bestandsanalyse voor het web. Bedrijf: zoek naar SEO bij de Google Search Console.

Zo lang, wil je lezen?

Het echte probleem in het leven

Heb je je ooit zo gevoeld? Uw SEO -team werkt hard. Alle punten bewerken waar de Google Search Console (GSC) aanbeveelt om helemaal groen te zijn, maar ... de SEO -rang van de belangrijke pagina "is volledig stil", niet overal of erger is nieuwe inhoud die zojuist is vrijgegeven, het duurt lang dat Google gegevens zal verzamelen (index), hoewel het op "verzoek indexeren" zal ophalen.

Je zit misschien in de tempels en denkt: "Wat missen we?" "Waarom vecht de grote website van het bedrijf tegen een kleine website? Van de concurrenten in sommige zoekwoorden?" Het antwoord op deze frustratie staat misschien niet in het rapport dat we elke dag zien. Maar verborgen in de onbewerkte gegevensbestanden die u misschien nog nooit hebt geopend. Dat is het "logbestand" van de server.

Prompt om illustraties: het beeld van een marketeer of het SEO -team zit serieus te ontmoeten. Het computerscherm toont de SEO -grafiek die volledig kalm is en een Google Search Console -pictogram in het scherm heeft om de inspanning over te brengen om het probleem met de tools op te lossen. Maar heb de oplossing nog niet gevonden

Waarom is dat probleem opgetreden?

Dit probleem ontstaat omdat de Google -zoekconsole de "conclusie" is die Google aan ons meldt, maar niet alle "echt gedrag" dat zich voordoet. Voor grote organisaties met tienduizenden webpagina's heeft Google een beperkte bron om gegevens te verzamelen. Ook bekend als "kruipbudget"

Stel je GoogleBot voor als leveringspersoneel dat elke dag een beperkte tijd en olie heeft. Als uw website als een grote stad is met een klein steegje, een beetje SOI (zoals URL, die wordt veroorzaakt door een vreemd filter, parameter, dubbele plicht). In plaats van goederen te leveren aan het huis van de klant (belangrijke pagina) is dit probleem de sleutel tot het begrijpen van het beheer van het kruipbudget, wat GSC ons niet direct vertelt.

Prompt voor illustraties: Infographic -afbeeldingen Vergelijk het kruipbudget zoals de "olietank" van de GoogleBot -auto, met meerdere leidingen lekken uit de tank naar het pictogram die "geen belangrijke taken" overbrengt, zoals filters, foutpagina's of duplicaat die resulteert in de olie die "belangrijke pagina's" bereikt "(belangrijke pagina's)

Als het overgaat, hoe zal het dan beïnvloeden?

Waardoor GoogleBot verloren kan gaan en het gebruik van het crawlbudget meer dan alleen "de ranglijsten niet stijgt". De echte tastbare impact is:

  • Belangrijke pagina's worden gereduceerd tot het belang: nieuwe productpagina, de hoofdservicepagina of het artikel van het bedrijf kan mogelijk worden bezocht. Omdat het tijd kost met het afval waardoor deze pagina's niet vers zijn in de ogen van Google
  • Verlies van zakelijke kansen: wanneer de bestemmingspagina of een nieuwe promotiepagina traag is, betekent dit dat u de mogelijkheid verliest om elke dag te verkopen en te concurreren.
  • Het gebruik van een budget voor inhoud is het niet waard: uw team kan zich besteden aan het maken van inhoud van hoge kwaliteit, maar als GoogleBot zelden bijeenkomt of niet. Die inhoud levert bijna helemaal geen SEO -resultaten op.
  • Enorme risico's bij het verplaatsen van het web: als u het logbestand nooit hebt gecontroleerd en het web hebt verplaatst. Het verborgen probleem kan ernstig worden en het verkeer is moeilijk te herstellen. Het hebben van een checklist voor het verplaatsen van internet is erg belangrijk, maar de logbestandsanalyse maakt de checklist perfect.

Prompt voor illustraties: Afbeelding met een kalenderpagina met een nieuwe marketingcampagne, maar er is een spin op de webpagina, samen met de verkeersgrafiek, een goed voorbereid media -centrum dat is verlaten vanwege onzichtbare technische problemen.

Is er een oplossing? En waar moet het beginnen?

De meest directe oplossing is om "gok" te stoppen. Het gedrag van GoogleBot en draaien om naar de "waarheid" uit onbewerkte gegevens te kijken, dat wil zeggen "logbestandsanalyse".

Logbestandsanalyse is het proces van het gebruik van een serverlogboek om te analyseren om te zien welke zoekmachinebot (vooral GoogleBot) op onze website te doen. Het vertelt ons dat we gedetailleerd moeten worden op het tweede niveau van welke pagina. Hoe vaak, welke fout wordt gevonden en welk deel van de website is vooral?

Wat u krijgt van logbestandsanalyse:

  • Ontdek de functie van GoogleBot vaak, maar er is geen waarde. SEO: De plicht wordt bijvoorbeeld veroorzaakt door gefacetteerde navigatie (filtering) die miljoenen URL creëert. Om te worden beheerd in robots.txt
  • Op zoek naar belangrijke taken, maar GoogleBot is zelden: om de reden te vinden waarom BOT niet wordt bereikt, misschien omdat de interne link te klein is of de webstructuur te ingewikkeld is.
  • Controleer de echte statuscodes: zoek pagina 404 (niet gevonden) of 301 (omleiding) die verkeerd is. GSC mogen mogelijk niet compleet rapporteren.
  • Bevestig technische oplossingen: na het repareren van alles wat we uit het logbestand kunnen zien, of GoogleBot op de hoogte is van die wijziging tot nu toe.

U kunt beginnen met het gebruik van tools zoals Screaming Frog Log File Analyzer of Lumar (voorheen Deepcrawl) ontworpen voor dit evenement. En is ook een belangrijke basis voor diepere SEO's zoals Edge SEO .

Prompt voor illustraties: de detectivestijl gebruikt een verlengbril naar logbestand die een lange lettercode is. En in het vergrootglas verschijnt het als een eenvoudig pictogram -om te begrijpen, zoals GoogleBot -pictogrammen, 404 -pagina -pictogrammen, pictogrammen, frequenties. Om over te brengen dat de tools helpen om complexe informatie te verstrekken om te begrijpen

Voorbeelden van het echte ding dat vroeger succesvol was

Een groot e-commercebedrijf Er zijn meer dan 50.000 SKUS-producten. Ze ondervinden problemen die nieuwe collecties die zwaar investeren, helemaal niet gerangschikt. Verkeer van organisch zoeken voor jaren, hoewel het team zich volgens alle GSC heeft aangepast.

Om te doen: het team besloot voor het eerst bestandsanalyse te loggen en wat werd gevonden was erg schokkend. Ze ontdekten dat 70% van het kruipbudget werd gebruikt met kruip. De plicht is te wijten aan de gebruikers van "filters" -producten (zoals kleuren, maten, prijzen), die ontelbare URL creëren. Bovendien is het van het trefwoord kannibalisatieprobleem dat verborgen is tussen de categorie en deze filters

Resultaat: nadat het team de URL van deze filters in het Robots.txt -bestand heeft geblokkeerd en de nieuwe interne linkstructuur slechts 3 maanden later heeft beheerd. Het resultaat was:

  • GoogleBot is vaker terug naar Crawl, de hoofdproductpagina en de categoriepagina. 300%
  • De nieuwe collectie begint binnen enkele weken op pagina 1-2 te staan.
  • Het totale organische verkeer van de website steeg met 25% in een kwartaal.

Dit is de kracht van visie op wat concurrenten onzichtbaar zijn. Wat de enige manier is om uit de Google -zoekconsole te komen

VOORBEELD VOOR ILLUSTRATIES: Wissen vóór en na grafiek, de linker (eerder) is een kruipbudgetafbeelding op 70%, rood en 30%. Het recht (na), 80% van het aandeel is groen en 20% is rood (verspild), samen met de verkooplijnen die zijn geassembleerd.

Als je wilt volgen, wat te doen? (Kan onmiddellijk worden gebruikt)

U kunt zelf een logbestandsanalyse starten, de volgende stappen volgen:

  1. Vraag een logbestand aan bij het IT -team of de hosting -serviceprovider: vertel uw team dat u de "servertoegangslogboeken" van de website wilt, geef de gewenste periode op. (Aanbevelen om minimaal 30 dagen terug te gaan). De bestanden zijn meestal. Log of .gz
  2. Bereid Log File Analyzer voor: voor beginners een schreeuwende kikkerlogbestandanalysator een zeer goede optie. Omdat het gemakkelijk te gebruiken is en een gratis versie heeft om te proberen
  3. Logbestand importeren in het programma: volg de procedures van het programma om het logbestand te importeren en moet uw website kruipen met normale schreeuwende kikker om alle URL -gegevens te vergelijken.
  4. Begin met het analyseren van de schat:
    • Kijk naar het tabblad "URL's": vaak op zoek naar URL in GoogleBot (veel crawls), maar het is URL dat u niet wilt worden gerangschikt.
    • Bekijk het tabblad "Responscodes": controleer of er een 404 -pagina is (kan niet vinden) of 5xx (servercrash) die GoogleBot veel heeft gevonden of niet.
    • Vergeleken met gegevens van GSC: breng de GoogleBot -informatie vaak in vergelijking met de plicht. Impression/klik in GSC, in welke pagina zich vaak bevindt, maar krijgt nooit verkeer, het kan een teken van het probleem zijn.

Deze gegevensanalyse zal u helpen het algemene beeld te zien en kan de webstructuur rechtstreeks plannen. Als u wilt dat de structuur van de bedrijfswebsites klaar is om deze uitdagingen aan te gaan met gegevens uit het logbestand is de sterkste basis.

VOORBEELD VOOR ILLUSTRATIES: Stap voor stap 4 Stap 1) 1) Log 2) Pictogram. Schreeuwende mist 3) pictogram pijl import 4) dashboard-pictogram met grafiek en diepgaande informatie verschijnt. Laat zien dat het proces niet zo ingewikkeld is als verwacht

Vragen die mensen de neiging hebben zich af te vragen en de antwoorden die zijn gewist

Vraag: Hoe is de informatie in het logbestand anders dan in de Google Search Console (crawl -statistieken)?
Antwoord: GSC Crawl -statistieken is de informatie die Google "Samenvatting en sampling" komt te zien, maar Logbestand is de "100%onbewerkte gegevens" die daadwerkelijk op uw server is gebeurd. Het is veel gedetailleerder en completer. Veroorzaakt het probleem dat GSC over het hoofd kan zien

Vraag: Hoe vaak doen we een logbestandsanalyse?
ANTWOORD: Voor grote organisaties van de organisatie wordt aanbevolen om minstens eenmaal per kwartaal te doen, maar als er een grote verandering in de webstructuur is, daalt het web of het verkeersbedrag zonder te weten dat de reden onmiddellijk moet worden gedaan.

Vraag: Zien we naast GoogleBot ook andere bots?
Antwoord: Zie alles! U zult zowel Bingbot, Ahrefsbot, Semrushbot als andere bot zien, waarmee u kunt begrijpen dat iemand uw website heeft verzameld. Maar voor het SEO -doel richten we ons voornamelijk op GoogleBot.

Vraag: Is het een logbestandanalyse? Is het een programmeur?
Antwoord: Niet nodig. Schreeuwen foga- of lumar -tools, zodat mensen SEOS kunnen doen zonder de basis van de code te analyseren. Maar u moet een basiskennis van technische SEO hebben om informatie te interpreteren en te blijven gebruiken.

Prompt voor illustraties: beeldpictogrammen, mensen met een vraagteken dat boven het hoofd drijft en er is een pijl die wijst op een ander pictogram dat een heldere lamp is, brengt twijfels over in een duidelijk begrip

Samenvatting om gemakkelijk te begrijpen te zijn + willen proberen te doen

SEO voor grote websites is als het verzorgen van complexe machines. Afhankelijkheid van alleen de Google -zoekconsole kan ertoe leiden dat we de problemen met kleine versnelling over het hoofd zien, sommige werken verkeerd.

Logbestandsanalyse is om het motordeksel te openen om het werkelijke werk een voor een te zien. Het is een verandering van "gok" naar "echte kennis" hoe Google uw website kan zien en met interactie kunnen omgaan. Investering is effectief om deze informatie te begrijpen. Is om een duurzaam concurrentievoordeel te creëren en elk geld te helpen dat investeert met inhoud en SEO is het meest de moeite waard.

Laat uw website niet niet volledig werken. Laten we vanaf vandaag het gesprek met uw IT -team beginnen om toegangslogboeken aan te vragen en de nieuwe wereld van SEO te openen die diepgaand is en kan worden gemeten.

Als u klaar bent om uw organisatiewebsite naar een hoger niveau te upgraden, of u de website (website -renovatie) verbetert of een nieuwe organisatiewebsite maakt. Die op de lange termijn een sterke structuur klaar heeft voor SEO. Het Vision X Brain Team is klaar om advies te geven.

deel

Recente blog

Google EEAT voor de IR -website: hoe u een betrouwbaar signaal kunt maken voor beleggers om zelfverzekerd te zijn.

Eeat is niet alleen SEO! In -diepte hoe tekenen van ervaring, expertise, autorittiviteit en betrouwbaarheid op de IR -website te bouwen en te tonen om investeerders te winnen.

Creëer "digitale show" voor industriële bedrijven: producten presenteren, ingewikkeld, gemakkelijk te begrijpen en de moeite waard om te kopen.

Verander de saaie website in een digitale showroom! UX/UI -ontwerptechnieken en gebruik interactieve inhoud om een interessant industrieel product te presenteren en contact te stimuleren.

"Barnacle SEO" voor MKB -bedrijven: vasthouden aan de grote website om het verkeer te trekken en autoriteit te creëren.

Geen budget om een grote website te bestrijden? Gebruik de strategie van "Barnacle SEO" om een sterke identiteit op een sterk platform te creëren om kwaliteitsverkeer aan te trekken en geloofwaardigheid op te bouwen voor uw MKB -merk.