Każdy serwis www pojawia się w wynikach wyszukiwania dzięki robotom współpracującym z wyszukiwarkami. Dlatego oprócz szczególnych względów okazywanych użytkownikom trzeba zadbać o właściwą perspektywę dla programów indeksujących.
Na co zatem należy zwrócić szczególną uwagę projektując każdy z elementów strony www?
1. Dzięki jakim działaniom i narzędziom roboty dobrze odbierają serwisy internetowe?
– plik robot. txt. – jest to podstawowy dokument, którego wytycznymi kierują się roboty. Wszelkie zaniechania oddają inicjatywę programom indeksującym. W przypadku braku pliku roboty same podejmują decyzję o zachowaniu na stronie.
– mapa strony, czyli sitemap – pozwala zorientować się robotom w topografii witryny.
– Google Search Console – jest zestawem narzędzi do ciągłego monitorowania warstwy wizualnej i ruchu na stronie.
2. Kolejny etap.
W ramach projektu optymalizacja należy wykonać kolejne kroki w celu przyspieszenia indeksacji.
– w wersji dla opornych. Można poczekać, aż roboty w końcu odwiedza nową stronę.
– można umieścić link do stworzonego portalu na jednym z popularnych i często odwiedzanych adresów. Roboty dokonują częstych inspekcji tych miejsc, więc jest duże prawdopodobieństwo, że natrafiwszy na odnośnik natychmiast podążą jego śladem i dokonają audytu linkowanej strony.
– można też skorzystać z narzędzia w obrębie Google Search Console dostępnego pod adresem https://www. google. com/webmasters/tools/submit-url?pli=1 i poprzez dostępny formularz zgłosić adres do indeksacji.
3. Na co „patrzą” roboty?
– tytuł strony i jej opis – są to dwa tagi z sekcji <head> szablonu HTML. Odpowiadają za sposób prezentacji serwisu w SERP, czyli organicznych wynikach wyszukiwania. Tytuł – <title> wyświetlany jest przez wyszukiwarkę jako pierwsza linia tekstu. Tytuły na poszczególnych stronach wchodzących w skład serwisu powinny się różnić między sobą. Wskazane jest też umieszczenie tam key words oraz nazwy miejscowości przy pozycjonowaniu lokalnym. Natomiast opis, czyli <description> ukazuje się w trzeciej linii prezentacji SERP. Jest o tyle ważny, że stanowi przedpole dla kontaktu z prezentowana witryną. Warto popracować nad socjotechnika przekazu, by zachęcić do kliknięcia odnośnika. Reszta zależy już od zawartości.
– tag <alt> – roboty „nie widzą” obrazków, dlatego w obsłudze indeksacyjnej grafiki ten parametr jest najistotniejszy. Stanowi opis obrazka. Sama jego obecność jest dobrze postrzegana. Wypełniony właściwą treścią niesie przekaz dla użytkownika w chwilach, gdy właściwy plik nie może być wyświetlony. Można go też wykorzystać w celach optymalizacyjnych i przemycić w nim frazę do pozycjonowania.
– content – to meritum, po które wpadają na stronę jej użytkownicy. Roboty coraz lepiej radzą sobie z ocena tekstów. Rzeczą niewybaczalną jest stosowanie metody „kopiuj-wklej”. Bardzo łatwo otrzymać od robota diagnozę „double content”. Algorytm, dzięki któremu działają roboty jest wciąż nowelizowany dlatego coraz lepiej radzą sobie one z ocena gramatyki i stylu wypowiedzi. Trzeba wybiegać myślą w przyszłość, by nie była konieczna w przyszłości korekta niedopracowanych tekstów.
4. Strona „widziana” oczami Google.
Dla pełnego obrazu sytuacji warto przekonać się na własne oczy, jak przeglądarka widzi i prezentuje stronę. Należy do tego wykorzystać narzędzie z zestawu dla webmasterów dostępnego w Google Search Console – pobierz jako Google. W opcjach zaawansowanych można wybrać rodzaj robota, którego oczami będzie oglądana strona i wytyczne co do obszarów i elementów oglądanych. Istnieje też możliwość wybrania opcji robota dla urządzeń mobilnych, co w świetle zmieniających się trendów jest szczególnie ważne. Google kładzie coraz większy nacisk na wersje www obsługiwane przez urządzenia przenośne takie jak smartfony. Po dokonaniu inspekcji narzędzie zwraca raport z wnioskami.