Freitag, 14. November 2014

Tag 5: Ende Onpage Optimierung mit Webmaster Tools


TIPPS:
"Wie du einen Blogartikel schreibst, der sich viral verbreitet"
www.affenblog.de/blogartikel-viral/


Interview mit Ralf Schmitz:

 

Die 3 wichtigsten Serverdateien im SEO: 

.htaccess
robots.txt
sitemap.xml

(siehe auch: 
Blogartikel von Ralf Wenda über die 3 wichtigsten Serverdateien fürs SEO:


.htaccess

Die .htaccess Datei sorgt dafür, dass crawler der Suchmaschinen und Besucher auf eine eindeutige URL geweisen werden und dublicate content vermieden wird.
((Domain Name mit oder ohne www-Präfix sollen auf die gleiche Seite führen))

Vgl. Restaurant: Die .htaccess ist der Wegweiser: Welche meiner 2 URLs ist die, auf die verwiesen sein soll? Die mit "www" davor oder die ohne?


robots.txt

Die robots.txt bestimmt, welche Verzeichnisse / Dateien oder gar ob die ganze Webpräsenz von den crawlern Indexiert werden darf.
Vgl. Restaurant: In welche Bereiche darf der Kunde. Küche und privat sind zB. verboten.


sitemap.xml

Die sitemap.xml zeigt dem crawler, was auf der Präsenz zu finden ist und wie wichtig etwas ist.
Vgl. Restaurant Speisekarte, ganz vorn findet sich das Tagesgericht oder Wochenangebot.
Zahlreiche Statuscodes geben Auskunft über den Zustand einer Seite. Code #404 ist ungünstig, das ist ein unbekannter Serverfehler, am besten den letzten Schritt rückgängig machen. Der Wikipedia Beitrag gibt tierfergehende Informationen hierüber: http://de.wikipedia.org/wiki/HTTP-Statuscode


Überwachung der Suchmaschinen Roboter

Die crawler können sehr gut mit den google webmaster tools überwacht werden.
In die webmaster tools können bis zu 1.000 websites zu einem Konto hinzugfügt werden.
Ein ebook liefert hierzu Stephan Czysch mit seinem "Ein Google Webmaster Tools Handbuch". http://www.trustagents.de/unternehmen/publikationen/google-webmaster-tools-e-book

In den crawling Statistiken sollte Bewegung sein – Stillstand führt zu Abwertung.

Einmal im Quartal sollten die crawling Fehler überprüft werden – gibt es links, die tot sind? Überprüfen, korrigieren, Antrag bei den webmaster tools auf Löschung aus dem Index. 


Google Penalties

Sollten wir in der Position um -30 absacken, kann dies auf eine google Abmahnung hinweisen. Hier sollten wir überpfüfen, ob wir es bei der online SEO übertrieben haben, z.B. eine keyword density von über 7% erzielt oder zuviele backlinks gesetzt haben.

Sollten wir definitiv nichts geändert haben, aber abgesackt sein, sind wir möglicherweise Opfer eines Konkurrenten geworden, der blackhat SEO gegen uns betrieben hat. In dem Fall hätten die google crawler ein unnatürliches link-Wachstum bemerkt und gemessen, dass auf einen Schlag z.B. 10.000 backlinks auf uns verwiesen hätten.

Google penalty 1: Postion -30  einer website Kategorie
Google penalty 2: alle Unterseiten einer Kategorie werden -30 Postitionen heruntergestuft
Google penalty 3: Die Präsenz wird komplett aus dem google Index gelöscht.

Tim Page beschreibt 50 Gründe für eine Abstrafung bei google.


Keine Kommentare:

Kommentar veröffentlichen