Om du har dåliga eller trasiga länkar, detta minskar allvarligt dina webbplatser crawlability och din webbplats kan vara permanent filtreras bort från SERPS (sökmotor resultatsidor) .Crawlability fel vad döda din SEO inte göra följande misstag eller säga adjö till att bli upptäckt i sökmotorer. Var uppmärksam på robots.txt filer Thats det enklaste sättet att förstöra din crawlability. Robots.txt-filer direkt sökrobotar hur du visar din webbplats. Ett misstag kan stöta dig ur sökmotorer permanent så var extra försiktig när du arbetar med dessa filer.
Dont använder för många variabler i dina webbadresser Google kan genomsöka långa länkar, men dess fortfarande inte ett fan av långa webbadresser. Det är bättre att använda korta URL: er de får klickat på oftare i SERPS Dont lägga Session ID i webbadresser Om du använder Session ID i dina webbadresser, förvara dem i cookies. Spindlar krypa brukar webbadresser med sessions-ID de täppa upp SERPS Se upp för kod svälla Detta kan vara ett stort problem. Spindlar är bra på att separera kod kontra innehåll, men gör det svårt för dem heller inte.
Dont använda så mycket kod som ditt innehåll finnas inte lätt att hitta. Spindlar kan inte följa Flash länkar eller köra JavaScript designer som använder Flash och JavaScript kommer att stoppa spindlar i deras spår. De kan inte också läsa text eller bilder i Flash. Stick med HTML-länkar (länkar ska helst vara text eller bilder) Hur man fixar Crawlability Misstag INTE ändra dina webbadresser om de är trasiga. Tänk på följande tips som nämns ovan. Håll dem kort, inte använder för många variabler, utelämna Session ID, etc.
När du skapar webbadresser, använda sökord och bindestreck för att separera nyckelord. Spindlar erkänner bindestreck som utrymmen inte användning stryker, etc. Dont gör dina webbadresser ser skräppost med sökord. Fixa din domän kanonisering. Ska du använda www.business.com eller business.com? (inte använda båda!) Vilka domän får de inkommande länkar, etc? Thats webbad