Skip to main content

Negative Onpage Ranking Faktoren

260 google rankingfaktoren

260 Google Ranking Faktoren @Northcutt

Bei der Onpage Optimierung gibt es natürlich nicht nur positive Onpage Ranking Faktoren, die greifen, genauso gibt es negative Aspekte, die man vermeiden sollte. Hier sind einige negative Faktoren aufgeführt, die man am besten nicht machen sollte:

 

Inhaltsverzeichnis

 

Weitere Ranking Faktoren Themen:

 

sichere Ranking Faktoren

Die nachfolgenden Faktoren haben sichere Auswirkungen auf die Rankings:

 

Textfarbe ist gleich der Hintergrundfarbe

Google sagt, dass es sich negativ auswirken wird, wenn die Textfarbe gleich der Hintergrundfarbe ist, denn dies kann der User nicht lesen, bzw. nur wenn er den Text markiert und dazu muss er wissen, wo der Text versteckt ist.

Da dieser Text nur für die Suchmaschinen erstellt wurde, ist dies eine Cloaking Methode und somit Penalty-verdächtig.

 

Ein Pixel Bildlinks

Eine Verlinkung mit einem Bild in der Größe 1px x 1 px oder mit einem sehr kleinen Text und mit dem Gedanken, dass du versuchen willst, Google für dumm zu verkaufen, hat definitiv eine Abstrafung verdient. So geht das aus der Quelle (Google) heraus.

 

Leere Linktexte

Auch hier wieder aus der Quelle Google zu lesen, dass versteckte Links sowie versteckter Text, Cloaking Methoden darstellen, welche als Manipulationsversuche gelten. Dies schreit nahezu nach einer Abstrafung.

 

Copyrightverletzung

Google sagt, dass die Absicht einer Veröffentlichung von Content, welcher gegen das Urheberrecht verstößt, zu einer Abstrafung führt. Entweder erkennt es Google selbst oder aber auch die User haben die Möglichkeit, diesen Vorfall zu melden.

 

Doorway pages

Doorway Pages, so Google, kann von Google erkannt werden und führt ebenfalls zu einer Abstrafung. Denn Doorway Pages sind nur eine Landinpage für die Suchmaschinen und bieten für die Besucher keinen Mehrwert.

Ein Beispiel wäre es, eine eigene Landinpage für z. B. jede einzelne Stadt des Landes zu kreieren. Das ist Spamdexing, bzw. zu spammen des Google Indexes, was der Suchmaschinenriese natürlich nicht gerne sieht.

 

Kaputte interne Links

Kaputte interne Links machen es den Suchmaschinen schwer, die Webseite richtig zu crawlen und auch die Navigation auf der Seite für die User ist erschwert. Sodass es ein Signal für eine schlechte Qualität der Seite ist. Berichtige die kaputten Links schnellstmöglich, bzw. lass es erst gar nicht dazu kommen.

Quellen: Patent US 20080097977 A1, Google via SEL

 

Weitergeleitete interne Links

Das ist eine einfache Falle, in die man fallen könnte. Denn hier ist das Thema “www” vs. “non-www” sowie Seiten mit oder ohne Slash.

Quellen: Patent US 6285999 B1, Matt Cutts via SER

 

Text in Bildern

Matt Cutts sagt in seinem Video, dass Google zwar Bilder und die darin enthaltenen Texte einigermaßen lesen kann, es aber unüblich ist, diese Wörter in Bildern unterzubringen. Es gibt zwar keine Abstrafung dafür, aber du kannst für diese Keywords dann nicht ranken, wenn du sie in Bildern unterbringst.

 

Text in Videos

Matt Cutts sagt in seinem Video, dass Texte in Videos von Google nicht gelesen werden können. Daher solltest du immer Transkripte mit bereitstellen, damit diese gelesen und indexiert werden können.

 

Text in Rich Media

Matt Cutts sagt im gleichen Video wie bei “Text in Bildern” und “Text in Videos”, dass Texte in Bildern und Videos teilweise analysiert werden können, es aber sehr unüblich ist, diesen Text nur dort unterzubringen. Es gibt zwar keine Abstrafung dafür, aber direkte positive Auswirkungen auf dein Ranking wird es auch nicht haben.

 

Frames und iFrames

In der Vergangenheit konnten die Suchmaschinen Frames nicht crawlen, nun können sie es zwar, aber es ist noch immer viel Aufwand für die Crawler. Daher gibt es keine Garantie, dass diese korrekt und komplett gelesen und indexiert werden.

Quelle: Google

 

Dünner Content (Thin Content)

Es ist generell immer besser längere Inhalte zu schreiben, welche das Thema auch als Ganzes gut behandeln. Content, der keine Eigenheit und somit keinen Mehrwert bietet, wird seit dem Panda Update abgestraft. “DaniWeb” hatte hierzu eine interessante Studie herausgebracht.

Quellen: Google, DaniWeb Study

 

Domainweiter Thin Content

Google hat viel in das Verstehen und Interpretieren deines Contents und dessen Qualität gesteckt. Mit dem Panda Update wurde es also Wirklichkeit und die Betrachtung fand nicht nur per Seite statt, sondern Domainweit.

Es ist also von Vorteil, wenn die Gesamtqualität der Seite verbessert wird und auf uninteressanten Seiten, wie z. B. Tag-Seiten oder Userprofilen in Foren den “noindex” Tag zu verwenden.

Quelle: Google

 

Zu viele Werbeanzeigen

Google wertet Seiten mit zu viel Werbeanzeigen, insbesondere im above-the-fold Bereich ab, da dies eine zu schlechte User Experience mit sich bringt. Trat mit dem Page Layout Update, auch Top Heavy Update in Kraft.

 

Duplicate Content von extern

Google mag duplicate content nicht. Wenn der Content also auf anderen Seiten erscheint, dann handelt es sich um duplicate Content, was zu einer starken Abwertung führen kann, selbst wenn es sich um keine Copyrightverletzung handelt. Es gilt allgemein, Inhalt, der einen Mehrwert bietet, wird besser performen.

 

Interner Duplicate Content

Auch internen doppelten Content mag Google nicht. Dies gilt nicht nur für eine gesamte Seite, sondern auch für Teile des doppelten Inhalts. Dies ist häufiges Phänomen, vor allem bei Tag Seiten, “www” vs “non-www” Seiten sowie Unterseiten mit Parametern.

 

Links zu abgestraften Seiten

Matt Cutts sagte “Google vertraue Seiten, die zu schlechten und SPAM Seiten linken, weniger”. Wenn du zu solch einer Seite verlinken musst, dann solltest du diesen Link mit “nofollow” markieren. Dies wurde übrigends mit dem “Bad Neighborhood” Algorithmus eingeführt.

Quellen: MC: Bad Neighbors, MC: Nofollow

 

Langsame Seite

Schnellere Seiten ranken besser als langsamere, denn niemand wartet gerne. Für die Überprüfung und Optimierung der PageSpeed gibt es zahlreichen Tools, sodass die Seitengeschwindigkeit auf jeden Fall verbessert werden kann und sollte.

Quelle: Google

 

Seite auf NoIndex

Keine Quelle, nur eine logische Schlussfolgerung. Denn, Seiten, die mit dem “noindex”-Tag versehen sind, werden von Google nicht indexiert und finden somit den Weg in die Suchergebnisse nicht. Dieser Tag kann für uninteressante Seiten verwendet werden, aber nicht für Seiten, mit denen du gefunden werden willst.

 

Verbiete Robots

Google sagt, dass wenn du eine robots.txt Datei hast, mit dem Inhalt “Disallow: *” oder “Disallow: Googlebot”, dann wird Google diese Seiten zwar nicht aus dem Index entfernen, aber Updates bzgl. positive Ranking Faktoren, wie z. B. Alter, Freshness, etc. werden nicht vorgenommen. Somit ggf. ein Nachteil für dich beim Ranking.

 

Schlechte Domainreputation

Matt Cutts sagt in seinem Video, dass Domänen über die Zeit eine gewisse Reputation aufbauen. Wenn der vorherige Besitzer diese an die Wand gefahren hat, dann wird es schwerer sein, wieder eine anständige Reputation zu erlangen.

 

Meta oder JavaScript Redirect

Laut Google ein klassisches SEO Penalty, welche heute so nicht mehr häufig vorkommt. Automatische Meta-refresh oder JavaScript zeitgesteuerte Weiterleitung kann den User verwirren, für höhere Absprungraten sorgen und somit auch als Cloaking gewertet werden. Verwende lieber 301 redirect oder 302 temporary redirect.

 

Text in JavaScript

Google versucht weiterhin das Crawlen von Text in JavaScript zu verbessern, aber der Crawler wird weiterhin Probleme damit haben, da der Text wohl nicht komplett richtig verstanden und interpretiert werden kann.

Daher kann sich dies negativ auf dein Ranking auswirken (negativer Faktor), aber es wird keine Abstrafung mit sich bringen.

Quelle: Matt Cutts

 

Schlechte Uptime

Google kann deine Seite nicht reindexieren, also keine Updates deiner Seite holen. Auch können die User deine Internetseite nicht aufsuchen, wenn diese nicht erreichbar ist. Klar, ein Ausfall ist kein Problem (bis zu 2 Tage), aber zu große und zu häufige Ausfälle können allerdings zu Problemen führen.

Quelle: Matt Cutts

 

Zu viele externe Links

Zu viele externe Verlinkungen können bedeuten, dass dies ein spamming Versuch ist, bzw. Pagerank Sculpting. Wenn du zu relevanten externen Seiten verlinkst, dann wird dies positiv gewertet, aber zu viele externe Verlinkungen, sind negativ.

Quelle: Matt Cutts

 

Seiten mit Suchergebnissen

Google will es, dass die User auf die Webseite gelangen und dort die gewollten Informationen vorfinden und nicht auf eine Ansammlung von Ergebnissen von denen die User wieder wählen sollen um auf eine weitere Quelle zu gelangen. Daher sind Seiten, die wie eine Ergebnisseite aussehen, schlecht und werden abgewertet.

Quelle: Matt Cutts

 

Automatisch generierter Content

Matt Cutts als auch in den Webmaster Guidelines sagen aus, dass automatisch generierter Content auf jeden Fall abgestraft wird, denn dies widerspricht den Google Webmaster Richtlinien. Denn dafür hat der Suchmaschinenriese aus Mountain View einige Methoden, dies herauszufinden.

 

Phishing Aktivitäten

Wenn Google Phishing Seiten, z. B. Internetseiten, welche die Loginpage einer Bank nicht abstrafen und normal behandeln würde, wäre es eine Verletzung gegen deren eigenen Webmasterrichtlinien, sowie der Unternehmensphilosophie. Dafür wird ein entsprechender Anti-Phishing Filter verwendet.

Quelle: Matt Cutts

 

Verwaiste Seiten

Seiten, welche nur schwer oder gar nicht gefunden werden können und noch dazu deine interne Linkarchitektur verwenden, können als “Doorway Pages” abgestempelt werden und somit auch als Webspam. Diese profitieren weder vom PageRank noch haben diese Unterseiten einen positiven Effekt bzgl. deines Rankings.

Quelle: Google Webmaster Central

 

HTTP 400er und 500er Statuscodes

Spekulativ, aber dennoch nicht zu verachten ist, wenn dein Webserver anstatt von Statuscodes wie z. B. 200 OK, 301 bzw. 302 redirect liefert, dann kann der Inhalt der Seite nicht angezeigt werden. Google erwartet, wenn Seiten nicht angezeigt werden können, dass diese einen 404 not found Error liefern.

 

mögliche Ranking Faktoren

Die nachstehenden Faktoren haben möglicherweise eine negative Wirkung auf deine Rankings in Bezug auf die Onpage Optimierung.

 

Hohe Body Keyworddichte

Wenn du Keyword Stuffing betreibst, auch innerhalb des Contents, dann kannst du deshalb ebenfalls abgestraft werden. Northcutt hat in einem Test herausgefunden, dass es bereits Anfang von 6% Keyworddichte zu Problemen führen kann, wobei die TF-IDF noch OK ist.

Quellen: Matt Cutts, Remix

 

Keyword Verdünnung

Im Zusammenhang des oben beschriebenen sagt dieser Faktor aus, dass wenn eine hohe Keyworddichte oder TF-IDF positiv ist, die Relevanz bzgl. der anderen Keywords / Themen sinkt. Damit verdünnt sich also der Kontext und es ist nicht klar, worum es sich eigentlich dreht in dem Artikel.

Quelle: Matt Cutts

 

Keyworddensität im Title Tag

Auch die Keyworddicht im Titel sollte nicht vollgespammt sein. Es macht also keinen Sinn, mehrere Male das gleiche Keyword zu verwenden.

Ein guter Titel ist unter 60 Zeichen und sollte im Idealfall auch als Überschrift für eine Werbeanzeige geeignet sein. Der Titel soll also kurz beschreiben, worum es auf der Zielseite geht.

Quelle: Matt Cutts

 

Äußerst langer Title Tag

Wenn der Title Tag zu lang ist (über 60 – 70 Zeichen), dann ist es auch nicht gut und kann als SPAM gewertet werden. Google kann das hier auch als Keyword Stuffing werten, wenn du ein Keyword mehrere Male verwendest.

Quelle: Matt Cutts

 

Keyworddichte in Überschriften Tags

In den Überschriften Tags (H1, H2, etc.) können wichtige Wörter untergebracht werden. Wenn du aber auch hier übertreibst und Keyword Stuffing betreibst, dann wird der positive Faktor ganz schnell in einen negativen Faktor umgewandelt und du erreichst das Gegenteil.

Quelle: Matt Cutts

 

Überschriften Tag (H1, H2, etc.) überstrapaziert

Die Überschriften Tags (H1, H2, etc.) dienen dazu, den Content entsprechend zu strukturieren. In der Regel kann es den H1 Tag nur einmal geben, da dieser als Kapitel erster Ordnung gilt. Daher, verwende den H1 Tag nur einmal pro Unterseite.

Den H2 Tag kannst du öfter verwenden, aber wenn es sinnvoll ist den H3 Tag zu verwenden, dann tu das. Auch zu viel Text in diesen Überschriften ist nicht gut.

Quelle: Matt Cutts

 

Äußerst lange URLs

Matt Cutts hatte mal erwähnt, dass die Gewichtung nach 5 Wörtern abnimmt. Deshalb solltest du darauf achten, dass du die wichtigsten Wörter zu Beginn stehen hast. Außerdem kann sich niemand lange URLs merken. Allerdings sind manchmal auch mehr als nur 5 Wörter für einen Titel notwendig.

Quelle: Matt Cutts

 

Keyworddichte in ALT Tags

Auch wenn die ALT Tags nicht direkt sichtbar sind, so wurden häufige Abstrafungen in diesem Bereich verhängt. Einige beschreibende Worte sind OK, aber zu viel kann zum Penalty führen.

Quelle: Matt Cutts

 

Äußerst lange ALT Tags

Das gleiche wie bei “Keyworddichte in ALT Tags”. Auch wenn es nicht sichtbar ist, solltest du einige beschreibende Wörter hinzufügen, aber nicht übertreiben.

Quelle: Matt Cutts

 

Zu viel Schreiben im “List-Style”

Matt Cutts sagt, dass egal von was man zu viel macht, es in eine Art “Keyword stuffing ist”. So also auch, übermäßiges Schreiben im “List-Style”.

Beispiele die dazu zählen wären unter anderem das auflisten von zu vielen Wörtern, Ideen, Notizen, Konzepten, Keywords, Phrasen etc., denn das ist nicht natürlich. Zu viel davon und du darfst dich über eine Penalty freuen.

 

CSS Versteckter Content

Google gibt an, dass dieser Punkt bei Google dokumentiert ist und zwar ausführlich. Denn Text vor dem Benutzer zu verstecken hat keinen Grund. Nur bei tooltips oder Tabs ist dies OK, andernfalls ist mit einem Penalty zu rechnen.

 

Interner NoFollow

Die eigene Seite auf “nofollow” zu setzen, kann auf zwei verschiedene Arten geschehen. Einmal über den Meta Tag “robots” und rel=”nofollow” pro Seite oder auch bei individuellen Links.

Egal wie, es sagt dem Crawler “nicht weiter crawlen”, “ich vertraue der Seite nicht”. Matt Cutts sagt eindeutig, auf gar keinen Fall die eigene Seite auf “nofollow” setzen.

Quelle: Matt Cutts

 

Zu viele interne Links

Jeder Link auf der Seite gibt den PageRank an die verlinkende Seite weiter. Je mehr Links davon existieren, desto höher die Streuung. Matt Cutts sagte einmal in einem Video, dass es ein hartes Limit von 100 Links pro Seite gibt.

Dies hat er zwar ein anderes Mal wiederrufen und gesagt, man sollte die Anzahl auf einer begrenzten Menge halten. Der Grund war, weil Google nicht mehr als 100k runterladen konnte, was nun nicht mehr so ist.

Quellen: Matt (blog), Matt (video)

 

Geparkte Domains

Geparkte Domains sind nicht projektiert und einige von diesen Domains haben einfach nur Werbung drauf, was dem Benutzer so nichts bringt. Ranken können diese Seiten in der heutigen Zeit nur schlecht, weil es einfach zu viele Kriterien gibt, welche sie nicht erfüllen.

Quelle: Google

 

Zu viele Footer Links

Links im Footer haben generell eine niedrigere Gewichtung, das war klar. Aber Links im Footer wurden auch für bezahlte Links verwendet und beinhalteten teilweise duzende von diesen Links. Daraufhin hat Google diese abgewertet und teilweise mit Penalties versehen.

Quelle: Matt Cutts

 

Veralteter Content

Im Patent Patent US 20080097977 A1 kann nachgelesen werden, dass Google in der Lage ist, veralteten Content zu identifizieren. Es ist nur die Frage, wann dieser veraltete Content schädlich ist. Womöglich dann, wenn die Suchanfrage des Users nach neuem und frischen Content verlangt (Query Deserves Freshness (QDF)).

 

Verkaufen von Links

Das Verkaufen von Links ist besonders in der heutigen Zeit sehr gefährlich, da hier leicht eine Abstrafung einzufangen ist. Matt Cutts hat hierzu ein Beispiel gezeigt, in der ersichtlich war, dass der Pagerank, welcher in der Toolbar angezeigt wurde, von 7 auf 3 abnahm.

Grund war, dass Google herausgefunden hat, dass die Seite Links verkauft hatte. Dies kann sowohl zu Onpage als auch zu Offpage Penalties führen.

Quelle: Matt Cutts

 

Spammiger User-generierter Inhalt

Einer der möglichen Warnmeldungen in den Google Webmaster Tools, bzw. der Search Console, kann durch diesen Punkt ausgelöst werden. Die Abstrafungen können gezielt vergeben werden. Northcutt hat herausgefunden, dass der Trackback Spam von WordPress in einem versteckten DIV nicht zu einem Penalty führt, bzw. dies unentdeckt bleibt.

Quelle: Matt Cutts

 

Automatisch übersetzter Text

Text, welcher für Zwecke der Internationalisierung automatisch übersetzt wurde, ist schlecht und kann von Google auf jeden Fall erkannt werden. Das kann zu einem üblen Penalty führen, da dies gegen die Google Webmaster Richtlinien verstößt.

Quelle: Matt Cutts

 

wahrscheinliche Ranking Faktoren

Wahrscheinlich haben die nachfolgenden Kriterien eine negative Wirkung auf dein Ranking:

 

URL Keyword Wiederholung

Spekulationen besagen, dass es keine Abstrafung gibt, wenn man das Keyword einige Male in der URL verwendet. Getestet kann es werden, wenn man das Schlüsselwort einige Male in die URL aufnimmt, anstatt nur einmal. Das Schlüsselwort mehrere Male in die URL aufzunehmen bringt demnach also nichts.

 

Lange interne Linktexte

Ebenfalls spekulativ, sind lange interne Linktexte. Diese bringen keinen Mehrwert und können in extremen Fällen sogar als Keyword Stuffing angesehen werden, was wiederum zu einer Abstrafung führt.

 

Übermäßiges Verwenden von Fett-, Kursivschrift, etc.

Es bringt dir nichts, den gesamten oder den Großteil des Textes in fett, kursiv oder unterstrichen darzustellen, um so mehr Gewicht und Relevanz zu bekommen.

Denn das geht nach hinten los, denn Google versteht das unter “Spam Aktivitäten”. Northcutt hat dies auch für eigene Kunden untersucht und kann es bestätigen.

Quelle: Matt Cutts

 

Dynamischer Content

Dynamischer Content kann für die Suchmaschinen, speziell deren Crawler eine Herausforderung darstellen, wie z. B. das verstehen und ranken dieser.

Am besten solchen Content minimieren oder mit “noindex” versehen, wenn dieser Bereich von Google erreichbar ist, dies kann sich positiv auf die User Experience und den Rankings auswirken.

Quelle: Matt Cutts

 

Verwendung von Pop-Ups

Erst sagte Matt Cutts im Jahre 2010 zuerst “nein” zu diesem Punkt, John Müller allerdings im Jahre 2014 “ja”. Nachdem dieser Prozess und der Page Layout Algorithmus verstanden wurde, ist man zum Entschluss gekommen, dass Pop-Ups sehr wohl deine Rankings negativ beeinflussen können.

Quelle: Google

 

IP Adressen in der schlechten Nachbarschaft

Nach langem hin und her mit Matt Cutts bzgl. der Bevorzugung von dedizierten IP Adressen pro Seite ist in einigen Fällen bekannt geworden, dass Google sehr wohl einige Server IP Adressen abgestraft hat.

Diese waren möglicherweise als ein privates Netzwerk verwendet worden oder hatten eine schlechte Nachbarschaft (bad Neighbourhood).

Quelle: Matt Cutts

 

ccTLD im globalen Ranking

ccTLDs sind Länderspezifische Domainendungen, wie z. B. .de, .uk etc. Es handelt sich hierbei also um das Gegenteil von den globalen Domainendungen, den gTLDs, welche für internationales SEO / Internationalisierung gedacht sind.

Wenn eine ccTLD also global ranken möchte, dann kann dies zu einem Problem führen. Es sollten bei einem internationalen Ansatz gTLDs verwendet werden oder die jeweiligen ccTLDs für das entsprechende Land.

Quelle: Google

 

Nicht valides HTML/CSS

Matt Cutts hat zugegeben, dass das ein relevanter Faktor sein. Klar muss der Code nicht perfekt sein, aber zu schlechter Code kann dazu führen, dass einige Sachen evtl. gar nicht richtig funktionieren, etwas versteckt wird, etc.

Quelle: Matt Cutts

 

Ausgehende Affiliate Links

Google geht gegen Affiliate Webseiten vor, die keinen weiteren Mehrwert bieten. Es bringt auch nichts, die Links zu verstecken und mittels einem 301 redirect in ein Verzeichnis zu leiten, das mittels robots.txt gesperrt ist.

Google kann in die HTTP Headers reinschauen, ohne darauf zu navigieren. Einige Affiliates haben berichtet, dass diese Penalties erhielten, aufgrund von zu vielen Affiliate Links.

Quellen: Google, Affiliate Marketer’s Study

 

Infizierte Seiten

In den Webmaster Richtlinien steht drin, dass Seiten, die mit einem Virus bzw. Malware infiziert sind (oder anderen Exploits) und diese somit verteilen, Google dagegen vorgeht und es wirklich sehr ernst nimmt. Also schließe deine Lücken und halte deine Webseite sauber.

 

Explizite sexuelle Inhalte

Google hat den Safe Search Filter standardmäßig aktiviert, welcher aber auch ausgeschaltet werden kann. Dieser sorgt dafür, dass bestimmte Inhalte geblockt werden, da Google den Inhalt scannt.

Quelle: Google Safe Search

 

Soft Fehlerseiten

Soft 404 oder andere Softfehler werden von Google nun als normale 404 Fehlerseiten ausgegeben. Denn Softfehler gaben im Header weiterhin den Statuscode 200 OK aus, der User sieht dennoch eine Fehlerseite.

Da es für Google schwerer zu verarbeiten ist, entscheid man sich für diesen Schritt. Solche “Soft Fehler” können also nun auch einen Schatten auf deine Seite werfen und negativ raten.

Quelle: Google

 

Fremde Sprachen nicht isoliert

Matt Cutts sagt, dass wenn Text in einer Sprache geschrieben wird, welche nicht zu der Zielgruppe passt, dann helfen auch die positiven (Onpage) Faktoren nichts. Daher ist es wichtig, die Sprachen entsprechend zu trennen.

 

Mutmaßnungen

Über die nachstehenden Kriterien wird gemutmaßt, dass diese negative Wirkung auf dein Ranking haben:

 

Hohes Verhältnis Links zu Text

Seiten die nur Links haben und sonst keine weitere Substanz, können als Seiten von niedriger Qualität angesehen werden. Dies würde zu Seiten passen, die wie Suchergebnisseiten aussehen. Allerdings ist es eine Spekulation.

 

JavaScript versteckter Inhalt

Google sagt, dass es keinen Sinn macht, Text in JavaScript hinzuzufügen, da dies von Google nicht gelesen werden kann. Das heißt zwar nicht, dass Google JS nicht crawlt, aber es kann als eine Art Cloaking angesehen werden und deine Seite wird abgestraft.

 

Private Whois

Matt Cutts sagte auf der PubCon im Jahre 2006, dass Google in der Lage sei, die whois Daten aller Registrare abzufragen. Wenn allerdings ein privater Whois vorhanden ist und dieser mit weiteren negativen Signalen in Bezug auf Ranking Faktoren aufgefallen ist, dass es dann zu einem Penalty führen kann.

 

Suddomain Verwendung

Subdomains (sub.domain.tld) werden von Google als eigenständige Webseiten angesehen, Unterverzeichnisse jedoch nicht (domain.tld/verzeichnis). Das kann negativ angesehen werden, verbunden mit weiteren negativen Signalen, wie z. B. zu viele Subdomains.

Quelle: Matt McGee and Paul Edmondson

 

Anzahl der Subdomains

Als Spekulation wird angenommen, dass die Anzahl der Subdomains, die eine Seite hat, als eines der meist signifikantesten Faktoren angenommen werden kann um zu identifizieren, dass die Subdomains als eigenständige Webseiten behandelt werden. Bei einer sehr großen Anzahl an Subdomains kann es also zu Missverständnissen kommen.

 

Domainweites Verhältnis an Fehlerseiten

Ebenfalls eine Spekulation. Es wird angenommen, dass wenn es zu viele Fehlerseiten gibt, der User leicht auf solche 400er / 500er Statuscodes gelangen kann und somit das Gesuchte nicht findet. Zu viele Fehlerseiten deuten auf eine schlechte Webseite hin.

Dies konnte bei nicht indexierten Webseiten mit solchen Statuscodes als auch bei Seiten mit kaputten Links beobachtet werden.

 

Codingfehler auf Seiten

Auch eine Spekulation. Seiten die voll von PHP oder Java Fehlern sind, können keine gute User Experience bieten, sodass diese als “schlecht” eingestuft werden. Daher ggf. ei n negativer Ranking Faktor.

 

HTTP Expires Headers

Mittels HTTP Expire im Header kann der Browser Cache kontrolliert werden, was zu einer besseren Performance führt (bessere PageSpeed). Dies kann aber auch nach hinten losgehen, wenn der Suchmaschine mitgeteilt wird, dass der Content für eine längere Zeit nicht aktualisiert wird.

Quelle: Moz Diskussion

 

Sitemap Priorität

Viele diskutieren darüber, dass die Priorität, welche den einzelnen Seiten im XML Sitemap zugewiesen wurde, einen Einfluss auf das Crawling und Ranking hat. Wahrscheinlich wird es höher gewichtet als andere Dinge, die du Google via den WMT / der Search Console mitgibst.

Es ist unüblich, dass einige Seiten besser ranken, nur weil du fragst, aber es ist ein nützliches Signal um weniger relevanten Content niedriger zu priorisieren.

Quelle: Sitemaps.org

 

Sitemap Änderungsrate

Die Änderungsrate in dem XML Sitemap soll Google helfen festzustellen, wie oft sich der Content ändert. Es wird angenommen, dass Google die Seiten nicht öfter crawlt, als du mitteilst, wie oft es sich ändert. Unklar ist jedoch, ob der Suchmaschinenriese dem folgt oder nicht.

Wenn ja, dann sollte es sich in der gleichen Art und Weise verhalten, als die Veränderung der Crawlspeed in WMT.

Quelle: Sitemaps.org

 

Keyword stuffed Meta Description

Auch wenn Google mitteilt, dass für das Ranking die Meta Description nicht verwendet wird, sondern nur für Werbeanzeigen, es dennoch möglich ist, Spam darzustellen. Daher könnte Keyword Stuffing in der Meta Description zu einer Abstrafung führen. Es ist jedoch eine Spekulation, Nachweise hierfür fehlen.

 

Keyword stuffed Meta Keywords

Google sagt, dass seit 2009 der Meta Tag “Keywords” nicht mehr angesehen wird. Allerdings kann es dennoch sein, dass durch Keyword Stuffing in diesem Tag negative Signale (SPAM) an Google gesendet werden.

Quelle: Matt Cutts

 

zweifelhafte Ranking Faktoren

Die nachfolgenden Kriterien werden angezweifelt, ob diese tatsächlich negative Onpage Ranking Faktoren sind:

 

Falsche Whois

Ähnlich zu den privaten Whois Daten, Google ist dieser Trick bekannt und wird als ein Problem behandelt. Wenn es keine Gründe dafür gibt, dann ist es ein Verstoß gegen ICANN Richtlinie, seine Domain von Hackern stehlen zu lassen. Nutze also keine Fake Daten, wenn du eine Domain registrierst.

Quelle: Matt Cutts

 

Abgestrafter Registrar

Dieser Punkt ist sehr spekulativ. Wenn also falsche und private Whois Daten schlecht sind und Matt Cutts gesagt hat, es würde als SPAM deklariert werden, wenn man diese nutzt, dann ist davon auszugehen, dass ein Domainbesitzer über zahlreiche Seiten hinweg abgestraft werden kann.

 

keine Ranking Faktoren, nur ein Mythos

Bei den folgenden Kriterien handelt es sich um keine negativen Rankingkriterien:

 

Ausgehende Links

Es ist bekannt, dass so etwas wie “PageRank Leakage” existiert. Du hast also viele Möglichkeiten / Punkte diesen zu verteilen, aber es kann nicht sein, dass diese Punkte wieder sofort zurückkehren.

Aber Matt Cutts hat bestätigt, dass es einige weitere Funktionen vorhanden sind, welche wirklich relevanten Content und autoritäre ausgehende Links bevorzugen.

Quellen: Matt Cutts, Nicole V. Beard

 

Vermisste robots.txt Datei

Bis 2015 haben die Google Webmaster Tools dich als Seitenbesitzer aufgefordert, eine robots.txt zu erstellen, sofern noch keine existiert. Viele dachten, dass wenn eine robots.txt fehlt, dass es sich negativ auswirkt. John Müller rät dazu, die robots.txt zu entfernen, wenn der Googlebot vollständig willkommen ist.

Quellen: John Mueller via SER

 

Weitere Ranking Faktoren Themen:

 

Ich würde mich sehr freuen, wenn du meine Zeit und Arbeit würdigst und den Beitrag teilst. Es ist nur ein kleiner Klick für dich, aber eine große Hilfe für mich.

Du hättest gerne mehr Sichtbarkeit in den Suchmaschinen?

Dann überprüfe deine Positionen im Ranking, optimiere die Fehler der Webseite & bekomme kostenfrei und unverbindlich eine SEO-Analyse für deine Website. Mach auch eine einfache WDF*IDF-Analyse und prüfe deinen Text auf doppelten Inhalt.

Jetzt kostenlos eine SEO-Analyse anstellen!*


Du brauchst viel mehr Conversions um den Umsatz zu steigern?

Gesteigerte Conversions aufgrund top Landing Pages und Marketing Strategie. Erprobte LPs mit schneller Ladezeit, verschiedene Tracking Tools, A/B Tests und einfachem Drag & Drop Editor helfen dir, hohe Conversions zu erzielen.

Spare wertvolle Zeit bei der Erstellung von LPs und generiere hohe Conversion Rates mit einem professionellen Funnel Builder: Loslegen, 14 Tage kostenlos testen, optimieren, dominieren!*


Du willst einen tollen Memberbereich?

So sind neben dem Aussehen ein paar weitere Features essenziell. Ein Kursbereich kann in der Regel viel deiner Zeit sowie bares Geld sparen, weil viel automatisiert. Durch vereinfachte Usability spart es graue Haare und die deiner Kunden. Daher einfacher zeitig den Marktführer wählen.Hör auf deine Zeit und Geld zu vergeuden und verwende  Profi Tools.

Jetzt für nur 1 Euro eLearning Tool ausprobieren!*

Erhalte mit dem Coupon seotech10 10 Prozent auf jeden Tarif.



Ähnliche Beiträge



Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *