TIPPS:
"Wie du einen Blogartikel schreibst, der sich viral verbreitet"
www.affenblog.de/blogartikel-viral/
Interview mit Ralf Schmitz:
Die 3 wichtigsten Serverdateien im SEO:
.htaccess
robots.txt
sitemap.xml
(siehe auch:
Blogartikel von Ralf Wenda über die 3 wichtigsten Serverdateien fürs SEO:
((Domain Name mit oder ohne www-Präfix sollen auf die gleiche Seite führen))
Vgl. Restaurant: Die .htaccess ist der Wegweiser: Welche meiner 2 URLs ist die, auf die verwiesen sein soll? Die mit "www" davor oder die ohne?
Vgl. Restaurant: In welche Bereiche darf der Kunde. Küche und privat sind zB. verboten.
Vgl. Restaurant Speisekarte, ganz vorn findet sich das Tagesgericht oder Wochenangebot.
In die webmaster tools können bis zu 1.000 websites zu einem Konto hinzugfügt werden.
Ein ebook liefert hierzu Stephan Czysch mit seinem "Ein Google Webmaster Tools Handbuch". http://www.trustagents.de/unternehmen/publikationen/google-webmaster-tools-e-book
In den crawling Statistiken sollte Bewegung sein – Stillstand führt zu Abwertung.
Einmal im Quartal sollten die crawling Fehler überprüft werden – gibt es links, die tot sind? Überprüfen, korrigieren, Antrag bei den webmaster tools auf Löschung aus dem Index.
Sollten wir definitiv nichts geändert haben, aber abgesackt sein, sind wir möglicherweise Opfer eines Konkurrenten geworden, der blackhat SEO gegen uns betrieben hat. In dem Fall hätten die google crawler ein unnatürliches link-Wachstum bemerkt und gemessen, dass auf einen Schlag z.B. 10.000 backlinks auf uns verwiesen hätten.
Google penalty 1: Postion -30 einer website Kategorie
Google penalty 2: alle Unterseiten einer Kategorie werden -30 Postitionen heruntergestuft
Google penalty 3: Die Präsenz wird komplett aus dem google Index gelöscht.
Tim Page beschreibt 50 Gründe für eine Abstrafung bei google.
robots.txt
sitemap.xml
(siehe auch:
Blogartikel von Ralf Wenda über die 3 wichtigsten Serverdateien fürs SEO:
.htaccess
Die .htaccess Datei sorgt dafür, dass crawler der Suchmaschinen und Besucher auf eine eindeutige URL geweisen werden und dublicate content vermieden wird.((Domain Name mit oder ohne www-Präfix sollen auf die gleiche Seite führen))
Vgl. Restaurant: Die .htaccess ist der Wegweiser: Welche meiner 2 URLs ist die, auf die verwiesen sein soll? Die mit "www" davor oder die ohne?
robots.txt
Die robots.txt bestimmt, welche Verzeichnisse / Dateien oder gar ob die ganze Webpräsenz von den crawlern Indexiert werden darf.Vgl. Restaurant: In welche Bereiche darf der Kunde. Küche und privat sind zB. verboten.
sitemap.xml
Die sitemap.xml zeigt dem crawler, was auf der Präsenz zu finden ist und wie wichtig etwas ist.Vgl. Restaurant Speisekarte, ganz vorn findet sich das Tagesgericht oder Wochenangebot.
- Zur Erzeugung der sitemap.xml einen Generator nutzen, z.B.
https://www.xml-sitemaps.com/crawl.html - Weitere Generatoren finden sich auf der Seite von Ralf R. Wenda:
https://www.xml-sitemaps.com/details-erfolgswolf.12720988.html - Oder auch der gsitecrawler: http://gsitecrawler.com/de/
Es werden die "sitemap.xml" und die "sitemap.xml.gz" erzeugt: Beide sollten heruntergeladen und ebenfalls in das root-Verzeichnis kopiert werden.
Überwachung der Suchmaschinen Roboter
Die crawler können sehr gut mit den google webmaster tools überwacht werden.In die webmaster tools können bis zu 1.000 websites zu einem Konto hinzugfügt werden.
Ein ebook liefert hierzu Stephan Czysch mit seinem "Ein Google Webmaster Tools Handbuch". http://www.trustagents.de/unternehmen/publikationen/google-webmaster-tools-e-book
In den crawling Statistiken sollte Bewegung sein – Stillstand führt zu Abwertung.
Einmal im Quartal sollten die crawling Fehler überprüft werden – gibt es links, die tot sind? Überprüfen, korrigieren, Antrag bei den webmaster tools auf Löschung aus dem Index.
Google Penalties
Sollten wir in der Position um -30 absacken, kann dies auf eine google Abmahnung hinweisen. Hier sollten wir überpfüfen, ob wir es bei der online SEO übertrieben haben, z.B. eine keyword density von über 7% erzielt oder zuviele backlinks gesetzt haben.Sollten wir definitiv nichts geändert haben, aber abgesackt sein, sind wir möglicherweise Opfer eines Konkurrenten geworden, der blackhat SEO gegen uns betrieben hat. In dem Fall hätten die google crawler ein unnatürliches link-Wachstum bemerkt und gemessen, dass auf einen Schlag z.B. 10.000 backlinks auf uns verwiesen hätten.
Google penalty 1: Postion -30 einer website Kategorie
Google penalty 2: alle Unterseiten einer Kategorie werden -30 Postitionen heruntergestuft
Google penalty 3: Die Präsenz wird komplett aus dem google Index gelöscht.
Tim Page beschreibt 50 Gründe für eine Abstrafung bei google.
Keine Kommentare:
Kommentar veröffentlichen