W trzeciej części naszego cyklu o optymalizacji poruszymy kwestię optymalizacji strony internetowej pod kątem wyszukiwarek internetowych, a dokładnie pod kątem Google. Odpowiemy na pytanie, co jest najważniejsze podczas optymalizacji i na co najlepiej zwrócić uwagę. Wypiszemy kilka najważniejszych czynników, które wpływają na to, że nasza strona będzie dobrze zoptymalizowana.
1. Optymalizacja treści
Dobrze zoptymalizowana strona to taka, która ma przede wszystkim dobrą, unikalną treść, która jest dostosowana do użytkowników i do zawartości strony. Musi ona także być bogata w słowa kluczowe na tyle, na ile jest to możliwe. Bogata, nie znaczy przesycona. Nie można tych słów upychać, lecz umiejętnie wplatać.
2. Prędkość ładowania i kod strony
O prędkości ładowania się strony pisaliśmy w części drugiej cyklu optymalizacji strony. Na prędkość ładowania się strony może wpłynąć także to, co jest w kodzie. Odpowiednia optymalizacja kodu strony może przyśpieszyć jej ładowanie a co za tym idzie – podnieść stronę w wynikach wyszukiwania.
3. Linkowanie wewnętrzne
Odpowiednio skonstruowane może przynieść nam naprawdę dobre efekty. Jest to ponadto jedyna niewątpliwie najbardziej naturalna metoda linkowania na anchory, jaką znamy ;-).
4. Dobór nagłówków
Na naszej stronie możemy umieścić aż 6 stopni nagłówków – od h1 do h6. Dobrze dobrane i zoptymalizowane mogą pozytywnie wpłynąć na to, jak Google postrzega naszą stronę. Należy tylko pamiętać, że tak samo jak w przypadku optymalizacji treści do nagłówków nie możemy upchnąć słów kluczowych.
5. Atrybut ALT w obrazkach
Kiedy na naszej stronie nie ładuje się obrazek to zamiast niego pojawia nam się atrybut ALT, który wcześniej przypiszemy. Google traktuje to zatem jak tekst, a więc niezmiernie ważne jest, aby o nich nie zapominać. Mogą zawierać słowa kluczowe!
6. Odpowiednie przekierowania
Warto stworzyć odpowiednie przekierowanie strony – z WWW na bez WWW lub na odwrót. Czasami Google gubi się i indeksuje podstrony i z przedrostkiem WWW i bez niego, co może powodować interpretowanie to przez niego jako powielanie treści.
7. Plik robots.txt
Sprawdź, czy plik robots nie blokuje ważnych podstron serwisu. Bywało tak, że cały serwis był zablokowany dla robotów właśnie w tym pliku a każdy głowił się, dlaczego nie ma go w Google.
Świetny artykuł, również pisałem na ten temat trochę szerzej, podając również przykłady najczęstszych błędów przy optymalizowaniu stron. Pozdrawiam.