Varje Sökmotorrobot Behöver Validering
Din webbplats är klar. Dina artiklar är inställda, du har optimerat dina sidor. Vad är det sista du behöver göra innan du laddar upp din ansträngning? Bekräfta. Det är verkligen förvånande hur många som vanligtvis inte validerar grundkoden för dessa webbsidor innan de lägger dem online.
Sökmotorrobotar är automatiserade program som korsar nätet, indexering av sidinnehåll och följande länkar. Roboter är grundläggande och robotar är inte smarta. Roboter har funktionaliteten för webbläsare för tidig generation: de förstår inte riktigt ramar; De kan inte göra bildkartor på klientsidan; Olika typer av dynamiska sidor är bortom dem; De vet ingenting om JavaScript. Roboter kan inte riktigt ansluta till dina sidor: de kan inte välja knappar, plus att de inte kan ange lösenord. Egentligen kan de bara göra det enklaste av saker på din egen webbplats: titta på text och följa länkar. Dina mänskliga besökare behöver tydligt, lättförståeligt innehåll och navigering på dina egna sidor; Internet -sökmotorrobotar behöver samma typ av tydlighet.
När man tittar på vad dessa potentiella kunder och robotarna behöver är det enkelt att observera hur du gör din webbplats "Internet Sökmotorvänlig", också gör webbplatsens besökare vänlig.
Till exempel hade ett projekt jag gjorde många valideringsproblem. På grund av det stora antalet fel som genererats av problem i grundkoden kunde inte internet -sökmotorrobotarna indexera nätsidan, och specifikt en del text med nyckelord identifierade utformade för denna webbplats. Ironiskt nog hade mänskliga användare problem med sidan också. Eftersom människor är smarta kan de arbeta runt problemet, men robotarna kan inte. Att fixa grundkoden korrigerade problemet för mänskliga och automatiserade besökare.
Det finns flera verktyg öppna för att kontrollera din HTML -sida. Bland de enklaste att använda publiceras av W3C. Så länge du är där kan du till och med validera din CSS -kod på W3C: s sida för CSS. Rapporterna låter dig veta vilken källkod som måste fixas på din egen webbplats. En extra eller oklart tagg kan orsaka problem. Med giltig kod säkerställer du att det är lättare för de mänskliga besökarna och robotar på internet kan resa under din webbplats och indexera dina sidor utan att källkodfel stoppar dem i deras spår. Hur många gånger kanske du har besökt en webbplats och sedan hitta något trasigt när du går rätt genom nätsidorna? Alltför många räknas, jag är säker. Validering av dina sidor gör allt enklare för webbplatsen att få märkt.
Som jag sa tidigare, vad som fungerar för gästerna arbetar för internet -sökmotorrobotar. Användbarhet kan vara nyckeln för både dina mänskliga besökare och automatiserade robotar. Du vill ge den bästa möjligheten till optimal visning av båda?.