SEO war schon immer ein kniffliges Geschäft. Experten müssen nicht nur Zeit damit verbringen, Schlüsselwörter zu recherchieren, sondern müssen auch auf die Veränderungen vorbereitet sein, die die Suchmaschinen unweigerlich einführen.

Letztes Jahr hat der Suchgigant Google zwei wichtige Algorithmusaktualisierungen - Panda und Penguin - durchgeführt, bei denen viele Websites in der Rangliste einbrachen, da sie von den neuen Regeln bestraft wurden.

Dies lag daran, dass die Änderungen implementiert wurden, um qualitativ minderwertige Websites, wie Content-Mühlen und Link-Farmen, zu klassifizieren und Websites mit hochwertigen Inhalten mehr Gewicht zu verleihen.

Dies geschieht durch Änderungen an der Erkennung einer Website durch Google-Spider, wodurch Websites mit qualitativ hochwertigen, gut geschriebenen Inhalten und Engagement für soziale Medien bessere Platzierungen erhalten. Für Webprofis sorgte dies für eine gewisse Panik, da statische Websites, die nicht besonders gut geschrieben und mit Schlagwörtern gefüllt waren, versagten.

Die Aktualisierungen von Penguin und Panda basierten auf neuen Regeln und komplexeren Algorithmen, mit denen eine Website nach verschiedenen Faktoren eingestuft werden kann.

Diese beinhalten:

  • Inhalt: Google-Spider können jetzt feststellen, ob eine Website schlecht geschrieben ist, mit Rechtschreib- und Grammatikfehlern, vielen Anzeigen und Links von schlechter Qualität. Diese Änderung wird von vielen SEO- und Digital-Profis als willkommen empfunden, da sie Artikel-Syndikate und Content-Mühlen von kurzer Qualität sofort in den Rang abstieß, so dass hohe Qualität an ihre Stelle treten und für die Suchenden nützlicher sein könnte.
  • Frische: Die "Frische" der Kopie ist für Google wichtiger als eingehende Links. Dies bedeutet, dass es häufig notwendig ist, neue Inhalte hinzuzufügen, um auf Google zu konkurrieren. Das Frische-Ranking befasst sich mit 3 Schlüsselbereichen: # 1: Trendthemen wie Olympiade oder US-Wahl # 2: Wiederkehrende berühmte Ereignisse wie der Superbowl # 3: Wie kürzlich der Inhalt hinzugefügt wurde.
  • Einzigartiger Inhalt: Haben Sie jemals Inhalte in eine Website kopiert und eingefügt, um sie zu kürzen? Jetzt wird es auch das Ranking der Website reduzieren. Ursprünglicher Inhalt ist einer der wichtigsten Aspekte der Positionsbestimmung. Inhalte, die unnatürliche Links enthalten, werden ebenfalls bestraft. Daher ist es wichtig sicherzustellen, dass Links organisch erscheinen und für den Inhalt sehr relevant sind. Dies wird nur noch wichtiger werden als Google-Autorenrang startet.
  • Social: Wie viele von euch wissen werden, ist Social Marketing das neue Marketing und ein sehr mächtiges Werkzeug für SEO. Google verwendet jetzt Social in den Suchergebnissen, um festzustellen, wie nützlich eine Website auf der ganzen Linie ist. Für Online-Vermarkter und SEO-Experten ist es jetzt wichtig, soziale Aspekte einzubeziehen und sicherzustellen, dass alle Markenfarben und Logos über soziale Kanäle und Websites einheitlich sind. Darüber hinaus ist es wichtig, dass die soziale Präsenz gut verwaltet wird. schlechtes, Bot-verwaltetes Social wird die Rankings einer Site beschädigen.
  • Frei von technischen Fehlern: Dies ist besonders wichtig für Web-Profis und wird zweifellos viele Blogging-Sites von der Spitze brechen. Eine Website, die über eine Soundarchitektur verfügt, wird eine bessere Leistung erzielen als eine Site, die aus Templates, Flash oder mehr als zwei Jahren besteht. Dies bedeutet, dass der Code standardbasiert sein sollte mit gültigen CSS-Tags und ordentlichen Metadaten.

Wie man Probleme mit dem Ranking einer Website anspricht

Selbst einige der größten Websites waren von den Änderungen der Google-Algorithmen betroffen. Ich las von einem, der sofort entfernt werden musste, um alle Keywords und doppelten Seiten zu ändern.

Eine Website, die schlecht geschrieben ist, sollte alle Inhalte aktualisiert haben, vorzugsweise von jemandem, der schreiben kann. Dazu gehören Blogposts und Artikel. Wenn also eine Website so viele Inhalte enthält, ist es möglicherweise eine bessere Idee, sie von der Website zu streichen und hinzuzufügen, sobald Sie sie oder einen anderen Inhalt erhalten haben.

Meta-Daten müssen auch sauber und ordentlich sein und Google neigt dazu, Keywords zu ignorieren und sich auf Beschreibungen hier zu konzentrieren. Keywords haben natürlich immer noch ihren Platz und es ist wichtig sicherzustellen, dass diese immer noch gut recherchiert und analysiert werden, aber Artikel und Blogs mit einer hohen Keyword-Dichte werden wahrscheinlich bestraft. Dies liegt daran, dass Keywords, wenn sie zu häufig verwendet werden, die Qualität des Schreibens beeinträchtigen.

Panda konzentrierte sich darauf, diese Seiten loszuwerden, die versuchten, ihre Algorithmen mit der übermäßigen Verwendung von Schlüsselwörtern und Link-Spamming "auszutricksen". Wenn Sie festgestellt haben, dass auf einer Website Spam-Links angezeigt werden, verwenden Sie Google-Disavow-Tool , die sie für dich entfernen werden. Es ist jedoch an dieser Stelle wichtig, darauf hinzuweisen, dass eine sorgfältige Standortprüfung durchgeführt werden sollte, um fehlerhafte Links zu identifizieren, und das Tool sollte mit Vorsicht verwendet werden.

Für Panda sollte auch überprüft werden, ob der Inhalt einer Website eindeutig ist. Es muss 60% einzigartig sein und zugänglich sein, um Panda's Regeln zu erfüllen.

Penguin konzentrierte sich mehr auf den tatsächlichen Inhalt und beide Algorithmen werden noch regelmäßig aktualisiert, um sie zu verfeinern. In den meisten Fällen konzentriert sich Penguin hauptsächlich auf Keyword-Stuffing in Artikeln und Spam-Links.

Sie befassen sich im Wesentlichen mit Barrierefreiheit, Inhalten, Spam-Techniken und neuen Regeln, die Black-Hat-SEO verhindern sollen.

Was ist schwarzer Hut SEO?

Im Grunde ist dies eine Art zu versuchen, die Suchmaschinen so zu manipulieren, dass sie sie im Grunde "tricksen" lassen, dass eine Site wertvoll ist. Black Hat verwendet aggressive Taktiken und ist eher auf die Suchmaschine als auf ein menschliches Publikum ausgerichtet.

In den kommenden Artikeln werde ich mich mit schwarzen, weißen und grauen Huttechniken beschäftigen, um einen klaren Überblick darüber zu geben, welche sicher verwendet werden können und welche nicht. Das Problem, das viele gefunden haben, ist, dass einige, weniger als seriöse, SEO 'Experten Black Hat Techniken eingesetzt haben, um mehr Kunden zu gewinnen und schnell Geld zu machen. Aus diesem Grund sind einige Business-Sites wie ein Stein in den Rankings gefallen, oft nicht bewusst, dass sie etwas falsch gemacht haben.

Black-Hat-Techniken umfassen:

  • Verpackungscode mit 'verstecktem' Text ;
  • Linkfarmen, bei denen eine Gruppe von Websites miteinander verlinkt ist, um den Index einer Suchmaschine zu spammen;
  • Blog-Spam, Verwendung des Kommentarfelds in Blogs und Foren, um Links zu anderen Websites zu setzen;
  • Scraping, eine Praxis, bei der eine Seite Inhalte von einer anderen nimmt, um für Suchmaschinen nützlicher zu sein;
  • Doorway-Seiten, die mit der Absicht verwendet werden, Suchende mit Phrasen zu verführen, die nicht mit dem Inhalt der Site in Verbindung stehen;
  • parasitäres Hosting , bei dem eine Site ohne Erlaubnis auf dem Server einer anderen Person gehostet wird;
  • Cloaking, eine Technik, bei der die Suchmaschinenspinne dem Endnutzer, der durch einen Browser betrachtet, unterschiedliche Inhalte sieht.

Black-Hat-Methoden werden von vielen Web-Profis als unethisch angesehen, da sie Taktiken verwenden, die schnelle Renditen versprechen, aber die Chance haben, den Ruf eines Unternehmens, seine Website und damit seine Gewinne zu schädigen.

Die Verwendung von Black-Hat-Methoden bedeutet häufig, dass eine Website nicht wie bei traditionellen White-Hat-Methoden Monate auf Link-Backs warten muss. Es füllt jedoch auch das Internet mit nutzlosen Informationen und Spam und hat die Suche im Laufe der Jahre stark beeinträchtigt.

Es ist auch billiger für den SEO-Strategen, so oft auszuführen, ein Blog-Netzwerk wird bereits eingerichtet, um zu verlinken und es hängt nicht stark von Analysen und Inhalten ab, wie es die White-Hat-Praxis tut.

Die Verwendung von Black-Hat-Methoden führt nicht nur häufig zu rechtlichen Schritten, auch wenn sie in Verbindung mit einer PPC-Kampagne verwendet werden, können dem Werbe-Host hohe Strafen auferlegt werden.

Es wird nicht empfohlen, dass eine Website Black-Hat-Techniken wegen der Strafen verwendet, in Bezug auf rechtliche Maßnahmen, Reputation und die Gefahr, nicht Ranking. Kein Zweifel, das wird trotz der Google-Updates nicht alle aufhalten.

Wenn wir das sagen, sehen wir bereits, dass Content-Mühlen die Rankings schnell fallen lassen, also funktionieren die Updates offensichtlich, da dies einer der Schlüsselbereiche ist, die Google ansprechen wollte.

Google und alle großen Suchmaschinen haben eine Vision, eine, die das Web aufräumen und schlechte Praktiken beseitigen will, was dazu führt, dass mehr nützliche Inhalte oben auf der Suche nach uns allen erscheinen. Ob du Black Hat-Techniken verwendest oder nicht, ist zwischen dir und deinem Gewissen, aber sicherlich bin ich für eine Person froh über die Fähigkeit zu suchen und nicht mit einer Seite voller Müll zu kommen, bevor ich zu dem komme, was ich will.

Auf welche Probleme haben Sie aufgrund von Panda und Penguin gestoßen? Wie haben Sie die Black Hat-Techniken der Vorgänger gelöst? Lassen Sie es uns in den Kommentaren wissen.

Ausgewähltes Bild / Vorschaubild, Bild suchen über Shutterstock.