Was gehört zur Suchmaschinenoptimeriung (SEO)? folgenden Ablauf etabliert:

  1. Ziele Setzten
  2. Konkurrenz analysieren
  3. Keyword Erläuterung
  4. Content Aufbau
  5. Webseite Aufbessern
  6. Backlink Entwicklung / Content Marketing
  7. Monitoring

Was ist ein SEO-Audit?


Als SEO-Audit wird eine Ist-Analyse einer Webseite im Hinblick auf die Optimierung für die entsprechenden Suchmaschinen bezeichnet. Dadurch sollen Schwachstellen der Webpräsenz detaliert aufgezeigt werden. Als Ergebnis erhalten Sie konkrete Optimierungsvorschläge / Handlungsaufforderungen, mit deren Hilfe die Besucherzahlen auf der Seite (organischer Traffic) gesteigert werden können.

Ein SEO-Audit ist die Basis für ein erfolgreiches Suchmaschinen-Marketing.


Für wen ist es sinnvoll?


Ein SEO-Audit ist für jedes Unternehmen sinnvoll, das Online eine Zielgruppe ansprechen muss! Er ist ein umfangreicher aber wichtiger Schritt, denn er hilft Fehler oder bisher ungenutzte Potentiale aufzudecken.

Eine Webanalyse liefert die Basis für die Planung weiterer Strategien und Maßnahmen.

Die SEO-Analyse ist besonders geeignet für Unternehmen, …

  • die eine eigene Marketing-Abteilung haben, deren Effizienz verbessert werden soll.
  • die neue Potentiale suchen, um die Anzahl von Besuchern zu erhöhen.
  • die die Effizienz und Qualität ihrer SEO-Investitionen überprüfen wollen.
  • die über begrenztes Budget verfügen und SEO-Maßnahmen selbst durchführen müssen.
  • die konkrete Handlungsempfehlungen suchen, mit denen sich Traffic und Reichweite steigern lassen.

Bei einer kompletten SEO-Audit werden über 75 Kriterien in verschiedenen Bereichen geprüft.

Es ist daher sehr empfehlenswert, den Umfang des SEO-Audits individuell anzupassen. Dadurch wird eine optimale Übereinstimmung mit den Marketingzielen erreicht und die Kosten können niedrig gehalten werden.

Deshalb haben wir in diesem E-Book eine Checkliste zu den Hinweisen und Fehlermeldungen zusammengestellt, die mit Hilfe des von der Onlie Marketing Agentur SEO-Nach-Wunsch hinterlegten Audit identifiziert und behoben werden können. Als Datenbasis diente dabei unsere umfangreiche Studie über die meistverbreiteten Onsite-SEO-Probleme und -Fehler. Wir haben 100.000 Websites und 450 Einzelseiten nach 40 Fehlerkategorien ausgewertet, um herauszufinden, welche Pme am häufigsten auftreten. So bietet wir dir auf Basis unsere Untersuchung eine fundierte Aufstellung der möglichen SEO-Probleme, die du vermeiden solltest, zusammen mit Informationen über ihre Häufigkeit.

Dieser Leitfaden zeigt dir, wie diese Probleme entstehen und wie du sie zu lösen hast. Alle Audit-Punkte in diesem PDF sind nach Dringlichkeit in drei Kategorien eingeteilt.

SEO-Grund - Checkliste 2021


Eine fehlerfreie Website mit bestmöglicher Performance erfordert regelmäßige Aufmerksamkeit. Ein Site-Audit kann jedoch arbeitsintensiv sein, denn die Liste möglicher Probleme ist lang und ihre manuelle Bearbeitung mühsam. Zum Glück gibt es ein Tool, das sich für Sie um diese Probleme kümmert. Das SEO-nach-Wunsch Audit ist ein mächtiges Werkzeug für die umfassende Prüfung der Gesundheit der Website. Mit hoher Crawl-Geschwindigkeit und flexiblen Einstellungen ermittelt es automatisch Fehler aus bis zu 60 Kategorien und deckt damit die meisten möglichen Schwachpunkte einer Website ab. Doch um dieses ausgefeilte Tool effektiv einzusetzen, braucht es das Know-how, das für eine kompetente Webseiten-Analyse nötig ist.

Fehler

Schwerwiegende Probleme, die Ihre sofortige Aufmerksamkeit verlangen.

Warnungen

Diese Probleme sind für die Website-Performance von geringerer Bedeutung, sollten aber nie vernachlässigt werden.

Hinweise

Unbedeutende Schönheitsfehler, die vielleicht kein echtes Problem darstellen, aber bei Gelegenheit behoben werden sollten.

Dieses PDF führt dich von durch die Problemen mit der Crawlbarkeit zu den Onsite-Fehlern der Webpräsenz. Auch wenn manche Fehler, Warnungen und Hinweise geringfügig erscheinen, solltest du sicherstellen, dass diese sich nicht in Kettenreaktionen multiplizieren und somit schwere Performance-Probleme auslösen. Mit dem SEO-nach-Wunsch-Audit, unserer aktuellen Studien und diesem PDF hast du alles, was du benötigst, um das Audit auch selbst schnell und effektiv umzusetzen.

CRAWLBARKEIT & SEITENARCHITEKTUR

Das Wichtigste zuerst: Es bringt wenig, die Inhalte der eigenen Website zu optimieren, wenn die Suchmaschinen diese nicht sehen kann. Damit die Seite in Google und anderen Suchmaschinen auftaucht, muss sie gecrawlt und indexiert werden. Crawlbarkeit und Indexierbarkeit sind das Fundament, auf dem alle anderen SEO-Maßnahmen aufbauen müssen. Um sowohl Seitenbesuchern als auch Suchrobots eine bessere Navigation und ein besseres Verständnis der Website zu ermöglichen, benötigst du eine gut organisierte Seitenarchitektur. Hier ist SEO-Freundlichkeit gleichbedeutend mit Nutzerfreundlichkeit, so wie es sein sollte. Halte die Struktur der Website daher so übersichtlich wie möglich und stelle sicher, dass sämtliche wertvollen und konvertierenden Inhalte in vier - sieben Klicks oder weniger von der Startseite aus erreichbar sind.

ROBOTS.TXT

Es gibt viele Hürden, die einem Suchroboter im Weg stehen können. Die Robots.txt-Datei kann Google vom Auslesen und Indexieren der ganzen Site oder einzelner Unterseiten abhalten bzw. aussperren. Eine Robots.txt ist nicht unbedingt nötig, kann aber zu einem schnellen Crawl- und Indexierungsvorgang beitragen. Dabei gilt es aber die Augen offen zu halten, damit sich keine Fehler einschleichen! Wenn etwas nicht stimmt, ignoriert Google vielleicht wichtige Seiten oder erfasst unnötige. Obwohl eine Robots.txt nicht schwer zu erstellen ist, kommen häufig Formatierungsfehler vor. Dazu gehören leere User-agent-Zeilen, fehlerhafte Syntax, falsch kombinierte Anweisungen, 

Auflistungen jeder einzelnen auszuschließenden Datei anstelle ganzer Verzeichnisse oder die Nennung mehrerer Verzeichnisse innerhalb einer Zeile. Stelle dir die Robots.txt wie einen Anatomiebaum für deine Website vor. Indem du eine simple Datei im .txt-Format erstellst, zeigst du den Suchrobotern den Weg zu den wichtigen Seiten und verstecke diejenigen, die für Besucher und somit auch Roboter uninteressant sind. Wir empfehlen, temporäre Seiten ebenso vom Crawling auszuschließen wie private Seiten, die nur für bestimmte Nutzer oder Administratoren sichtbar sein sollen – also alle Seiten, die keine nützlichen Inhalte bieten. Allerdings ist die Robots.txt kein Befehl, sondern eher ein Vorschlag, den die Robots auch ignorieren können.

Um mehr über Robots.txt-Dateien zu erfahren, schauen Sie sich die Informationsseiten von Google zur Robots.txt an. Um eine bestehende Robots.txt zu prüfen, verwenden Sie den Robots.txt-Tester.


  • Formatierungsfehler in der Robots.txt-Datei
  • Robots.tst nicht gefunden