Diese Anleitung erklärt, wie man ein praktisches technisches SEO-Audit durchführt, indem man Korrekturen priorisiert, die Crawling, Indexierung, Sicherheit, Seitenstruktur und Core Web Vitals betreffen. Sie hilft Inhabern kleiner Websites, sich zuerst auf wirkungsvolle Probleme zu konzentrieren, anstatt Zeit mit Warnungen von Audit-Tools mit niedriger Priorität zu verschwenden.
Was ist ein technisches SEO-Audit?
Ein technisches SEO-Audit ist der Prozess der Analyse aller technischen Aspekte deiner Website, um sicherzustellen, dass Suchmaschinen (wie Google) sie und alle Seiten darauf ranken können.
Wenn du ein technisches SEO-Audit durchführst, prüfst du, ob deine Website für Suchmaschinen optimiert ist.
Die meisten technischen SEO-Audits liefern eine Liste von 200 Problemen und keine klare Richtung. Du behebst die einfachsten Dinge, ignorierst den Rest und fragst dich, warum sich die Rankings nicht bewegt haben.
Das Problem ist nicht das Audit. Es ist die Reihenfolge.
Dieser Leitfaden basiert auf einem einzigen Prinzip: Schweregrad bestimmt die Reihenfolge . Sie erfahren, was Sie überprüfen, was Sie zuerst beheben und (genauso wichtig) was Sie getrost ignorieren sollten.
Bereichsnotiz : Dieser Leitfaden ist für Websites mit weniger als 500 Seiten ausgelegt, die von ein oder zwei Personen verwaltet werden und kostenlose oder Freemium-Tools verwenden. Wenn Sie eine große oder Java Script-lastige Website betreiben, müssen einige Empfehlungen angepasst werden.
Der Schweregrad-Filter: Dein Triage-Modell
Bevor Sie ein einziges Tool ausführen, verstehen Sie, wie Sie lesen, was es Ihnen sagt. Nicht alle Audit-Flags sind gleich, und sie als gleich zu behandeln ist der schnellste Weg, Zeit mit etwas zu verschwenden, das Google nicht interessiert.
Verwenden Sie dieses Drei-Ebenen-Modell in jedem folgenden Abschnitt:
| Stufe | Kategorie | Aktion |
| Stufe 1 | Ranking-Blocker | Sofort beheben: Diese unterdrücken aktiv die Sichtbarkeit |
| Stufe 2 | Crawl-Ineffizienzen | Beheben Sie diesen Sprint: Diese schränken die Reichweite ein, ohne hart zu blockieren |
| Stufe 3 | Niedrigprioritäre Flags | Planen oder ignorieren: Diese beeinflussen selten das Ranking kleiner Websites |
Wenn ein Tool etwas markiert und du es nicht in Stufe 1 oder Stufe 2 einordnen kannst, gehört es in Stufe 3, bis das Gegenteil bewiesen ist.
Pre-Audit-Einrichtung: Tools und Ausgangslage
Lassen Sie uns über die Tools sprechen, die Sie für ein technisches SEO-Audit benötigen.
Kostenloser Stack für dieses Audit:
- Google Search Console — Du solltest vor allem anderen das Eigentum an der Website verifizieren; das ist deine Grundwahrheit für Indexierungs- und Leistungsdaten.
- Google Page Speed Insights — Felddaten für Core Web Vitals; kein Konto erforderlich
- Screaming Frog SEO Spider (kostenlose Version) — crawlt bis zu 500 URLs; ausreichend für die meisten kleinen Websites
- Chrome Dev Tools — keine Installation, im Browser integriert; für Rendering- und Netzwerkdiagnosen verwenden
- Ahrefs Webmaster Tools (kostenlose Version) — Backlink-Daten und grundlegende Website-Prüfung ohne kostenpflichtiges Abonnement
Wenn deine Website mehr als 500 Seiten hat, priorisiere deine URLs mit dem höchsten Traffic und der höchsten Conversion-Rate für den Screaming Frog-Crawl. Versuche nicht, alles auf einmal zu prüfen.
Empfohlene Artikel: Google Search Console: Der ultimative Leitfaden für 2026
Domain, DNS und Sicherheitszustand
Das ist die Prüfkategorie, die jeder Mitbewerber auslässt. Sie gehört in Stufe 1 — nicht weil diese Probleme häufig sind, sondern weil sie, wenn sie existieren, alles nachgelagerte blockieren. Ein defektes SSL-Zertifikat oder eine falsch konfigurierte Weiterleitung auf Domain-Ebene kann deine gesamte Website leise unterdrücken, bevor auch nur ein einziger Inhalt bewertet wird.
Die meisten Website-Betreiber springen direkt zu Keywords und Inhalten. Dieser Abschnitt handelt von der Grundlage, auf der diese Dinge sitzen.
Überprüfen Sie diese in der Reihenfolge:
1. Läuft Ihre Seite über HTTPS?
Wenn Sie eine Website besuchen, tauschen Ihr Browser und der Server ständig Informationen aus. HTTPS ist die sichere Version dieser Verbindung, es verschlüsselt die Daten, sodass sie nicht abgefangen werden können. HTTP (ohne das S) ist die ältere, unverschlüsselte Version.
Sie können erkennen, welche Ihre Website verwendet, indem Sie auf die Adressleiste Ihres Browsers schauen. Ein Vorhängeschloss-Symbol bedeutet, dass HTTPS aktiv ist. Eine "Nicht sicher"-Warnung bedeutet, dass es nicht aktiv ist, und sowohl Google als auch Ihre Besucher werden es bemerken.
Warum es für SEO wichtig ist : Google hat HTTPS als Ranking-Signal bestätigt. Praktisch gesehen warnen Browser wie Chrome Besucher aktiv vor unsicheren Seiten. Wenn eine Seite auf Ihrer Website noch über HTTP lädt, beheben Sie das zuerst.
Es reicht nicht, dass Ihre Startseite sicher ist. Jede Seite und jedes Asset auf diesen Seiten (Bilder, Schriftarten, Skripte, Stylesheets) muss über HTTPS geladen werden. Wenn eine sichere Seite ein unsicheres Asset lädt, spricht man von einem Mixed-Content-Fehler. Die Seite hat technisch gesehen HTTPS, aber der Browser markiert sie als teilweise unsicher.
Verwenden Warum kein Vorhängeschloss, füge eine beliebige URL ein, und es wird dir genau sagen, welche Assets unsicher geladen werden und woher sie kommen.
2. Hat Ihre Domain eine konsistente Adresse?
Ihre Website ist technisch unter zwei verschiedenen Adressen erreichbar: www.ihredomain.de und ihredomain.de (ohne www). Für einen Browser sind das zwei separate Orte. Für Google können sie wie zwei separate Websites aussehen, die identische Inhalte veröffentlichen.
Dies wird als www vs. non-www Konflikt , und es ist eines der häufigsten Domain-Probleme bei kleinen Websites.
Wählen Sie eine Version (entweder www oder nicht-www) als Ihre kanonische (offizielle) Adresse. Richten Sie dann eine 301-Weiterleitung von der anderen Version ein. Eine 301-Weiterleitung ist eine permanente Anweisung, die Browsern und Suchmaschinen mitteilt: "Diese Adresse ist dauerhaft hierher umgezogen. Folgen Sie diesem Link und kommen Sie nicht zurück."
Nach der Einrichtung landen alle, die eine der beiden Versionen eingeben, am selben Ort, und Google behandelt deine Website als eine einzige Einheit statt als zwei Duplikate.
Wie man überprüft : Gib beide Versionen deiner Domain in einen Browser ein und beobachte, was in der Adressleiste passiert. Wenn eine sauber auf die andere weiterleitet, ist alles in Ordnung. Wenn beide unabhängig voneinander laden (denselben Inhalt anzeigen), hast du ein Problem mit doppeltem Inhalt, das behoben werden muss. Du kannst auch redirect-checker.org um zu bestätigen, dass die Weiterleitung ein echter 301 und keine weichere, temporäre Weiterleitung ist.
3. Sind deine Staging- oder Testseiten für Google sichtbar?
Wenn Entwickler eine Website erstellen oder aktualisieren, arbeiten sie normalerweise zuerst an einer separaten Version der Seite, oft unter einer Adresse wie staging.yourdomain.com oder dev.yourdomain.com. Dies wird als Staging-Umgebung oder Test-Subdomain . Es soll für die Öffentlichkeit unsichtbar sein.
Das Problem : Wenn niemand Google explizit sagt, dass es draußen bleiben soll, wird Googlebot es finden und crawlen. Jetzt hat Google zwei Versionen deiner Website (die Live- und die Staging-Version) mit identischem Inhalt. Das verwirrt die Indexierung und verschwendet Crawl-Budget für Seiten, die niemals in den Suchergebnissen erscheinen sollten.
Staging- und Test-Subdomains sollten mit einer robots.txt-Anweisung vor Crawlern geschützt oder besser noch vollständig passwortgeschützt sein, sodass nur Ihr Team darauf zugreifen kann. Wenn Sie nicht sicher sind, ob Ihre Staging-Umgebung offen ist, geben Sie staging.ihredomain.com (und gängige Varianten wie dev., test., beta.) direkt in einen Browser ein. Wenn sie ohne Passwortabfrage lädt, ist sie öffentlich zugänglich.
4. Ist Ihr SSL-Zertifikat gültig und aktuell?
Ein SSL-Zertifikat ist das, was HTTPS zum Laufen bringt. Es ist eine kleine digitale Datei, die auf Ihrem Server installiert ist und bestätigt, dass Ihre Website die ist, die sie vorgibt zu sein, und die verschlüsselte Verbindung ermöglicht. SSL-Zertifikate laufen ab, und wenn Ihres abläuft, sind die Konsequenzen sofort spürbar.
Wenn ein SSL-Zertifikat abläuft, zeigen Browser eine Vollbildwarnung für Besucher an: "Ihre Verbindung ist nicht privat." Die meisten Leute verlassen sofort. Ein ungültiges SSL-Zertifikat kann Benutzer blockieren, Vertrauen schädigen, Browserwarnungen erzeugen und das Crawlen/Seitenerlebnis beeinträchtigen, und das Vorhängeschloss verschwindet.
5. Gibt es unnötige Umwege im Weiterleitungspfad Ihrer Domain?
Eine Weiterleitung ist eine Anweisung, die einen Besucher (oder einen Suchmaschinen-Bot) von einer URL zu einer anderen schickt. Eine Weiterleitung ist normal, zum Beispiel die Weiterleitung von http:// zu https:// oder von www zu non-www. Das Problem beginnt, wenn Weiterleitungen aufeinander gestapelt werden.
Weiterleitungsketten passiert, wenn eine Weiterleitung zu einer weiteren Weiterleitung führt, bevor schließlich das Ziel erreicht wird. Zum Beispiel: Ein Besucher geht zu Seite A, die zu Seite B weiterleitet, die zu Seite C weiterleitet, der eigentlichen Seite. Jeder zusätzliche Sprung erhöht die Ladezeit und die Wahrscheinlichkeit, dass der Google-Crawler aufgibt, bevor er das endgültige Ziel erreicht. Solche Ketten entstehen oft still und leise nach einer Seitenmigration, einem Domainwechsel oder einem HTTPS-Upgrade, das nicht vollständig bereinigt wurde.
Weiterleitungsschleifen sind schwerwiegender. Dies ist der Fall, wenn eine Weiterleitung auf eine Seite verweist, die auf sich selbst weiterleitet: Seite A leitet auf Seite B weiter, die auf Seite A zurückleitet. Weder Nutzer noch Crawler können jemals irgendwo landen. Der Browser zeigt einen Fehler an und Google kann keine der beiden Seiten indexieren. Dies ist ein Tier-1-Fix.
Verwenden redirect-checker.org: Geben Sie Ihre Domain ein, und es werden alle Sprünge im Redirect-Pfad abgebildet. Sie suchen einen sauberen, einstufigen Redirect. Alles mit zwei oder mehr Sprüngen muss zusammengefasst werden, sodass die erste Adresse direkt zum endgültigen Ziel weiterleitet.
Crawlability-Audit
Wenn Googlebot nicht auf eine Seite zugreifen kann, rankt diese Seite nicht. Bevor Google deine Inhalte für die Suchergebnisse berücksichtigen kann, muss es sie finden und lesen können. Crawlbarkeit bedeutet, die Hindernisse zu beseitigen, die dem im Weg stehen, von denen die meisten unsichtbar sind, bis du danach suchst.
1. Ihre robots.txt-Datei – der Gatekeeper
Jede Website hat (oder sollte haben) eine Datei unter yourdomain.com/robots.txt. Es ist eine reine Textdatei, die Suchmaschinen-Bots mitteilt, welche Seiten sie crawlen dürfen und welche sie überspringen sollen. Geben Sie diese URL direkt in Ihren Browser ein, um Ihre zu sehen.
Die schädlichsten Fehler hier sind nicht exotisch, sondern versehentlich. Die drei häufigsten:
- Blockierung der gesamten Website — eine einzelne Zeile (Disallow: /) sagt allen Crawlern, komplett draußen zu bleiben. Das kann passieren, wenn ein Entwickler es während eines Builds setzt und vergisst, es vor dem Launch zu entfernen.
- Blockierung von CSS- oder Java Script-Dateien — Google muss das Styling und die Skripte deiner Website laden, um zu verstehen, wie deine Seiten aussehen und sich verhalten. Blockiere diese, und Google rendert deine Seiten möglicherweise falsch oder gar nicht.
- Alte Regeln beibehalten — Staging-Anweisungen, die während der Entwicklung sinnvoll waren, werden oft versehentlich in die Produktion übernommen und schränken leise den Zugriff auf Seiten ein, die indexiert werden sollten.
Wenn Sie eines davon entdecken, markieren Sie es als Tier 1 und lassen Sie es korrigieren, bevor Sie fortfahren.
Weitere Informationen zu robot.txt finden Sie in diesem Video von Google Search Central:
2. Ihre XML-Sitemap – die Roadmap
Eine Sitemap ist eine Datei, die alle Seiten Ihrer Website auflistet, die Google indexieren soll. Stellen Sie es sich so vor, als würden Sie Google eine strukturierte Karte Ihrer Website übergeben, anstatt es alles durch das Verfolgen von Links entdecken zu lassen.
Um Ihre zu überprüfen, gehen Sie zur Google Search Console → Sitemaps. GSC zeigt Ihnen, wie viele URLs eingereicht und wie viele tatsächlich indexiert wurden. Eine große Lücke zwischen diesen beiden Zahlen ist ein Signal, das es zu untersuchen lohnt.
Während du dort bist, suche nach drei spezifischen Problemen:
- Seiten, die 4xx-Fehler zurückgeben — dies sind defekte URLs in Ihrer Sitemap, die Google in Sackgassen führen.
- Nicht indexierte URLs in der Sitemap enthalten — eine Seite kann nicht gleichzeitig "bitte indexiere dies" (Sitemap) und "indexiere dies nicht" (Noindex-Tag) sein; eine Anweisung gewinnt, und der Konflikt verschwendet Crawl-Budget.
- Wichtige Seiten fehlen komplett — Wenn eine wichtige Seite nicht in deiner Sitemap ist, kann Google sie trotzdem finden, aber du überlässt die Entdeckung dem Zufall.
3. Crawl-Budget – nur im großen Maßstab relevant
Crawl-Budget bezieht sich auf die Anzahl der Seiten, die Google innerhalb eines bestimmten Zeitraums auf Ihrer Website crawlen wird. Für die meisten kleinen Websites (unter 500 Seiten) ist dies kein vorrangiges Anliegen, Google wird alles crawlen, was es erreichen kann.
Es wird relevant, wenn deine Website automatisch eine große Anzahl von minderwertigen oder nahezu identischen URLs generiert. Häufige Ursachen: Filter- und Sortierkombinationen auf Produktseiten, Session-IDs, die an URLs angehängt werden, oder Paginierung, die zu Hunderten von nahezu identischen Seiten führt.
Wenn Ihr Screaming-Frog-Crawl eine Seitenanzahl zurückgibt, die deutlich höher ist als Ihre tatsächliche Inhaltsanzahl, untersuchen Sie die URL-Muster, bevor Sie annehmen, dass alle beabsichtigt sind. Möglicherweise haben Sie eine Crawl-Falle, die Tausende von URLs generiert, die Crawl-Budget verbrauchen, ohne zu Rankings beizutragen.
Indexierungs-Audit
Crawlability und Indexierung sind unterschiedliche Probleme. Eine Seite kann crawlbar sein, aber vom Index ausgeschlossen (oft versehentlich).
Die site:-Operator-Prüfung
Suchen Sie site:yourdomain.com in Google. Die Anzahl der Ergebnisse gibt Ihnen eine grobe Indexzahl. Eine dramatische Diskrepanz zwischen dieser Zahl und Ihrer tatsächlichen Seitenzahl deutet auf ein Indexierungsproblem hin.
Noindex-Audit
Versehentliche Noindex-Tags sind der häufigste selbstverschuldete Ranking-Blocker. Führe Screaming Frog aus und filtere nach Seiten, die eine Noindex-Anweisung zurückgeben. Gleiche sie mit den Seiten ab, von denen du erwartest, dass sie ranken. Ein Noindex auf deiner Startseite oder wichtigen Landingpages ist ein Notfall der Stufe 1.
Canonical-Tag-Logik
Ein kanonisches Tag ist ein kleiner Codeabschnitt im Header einer Seite, der Google mitteilt: "Dies ist die offizielle Version dieser Seite." Es existiert, weil derselbe Inhalt oft über mehrere verschiedene URLs erreichbar ist, mit oder ohne abschließenden Schrägstrich, mit hinzugefügten Tracking-Parametern oder über HTTP- und HTTPS-Versionen. Ohne kanonisches Tag muss Google raten, welche URL die "echte" ist. Manchmal rät es falsch.
Der Tag sieht im HTML einer Seite so aus:
<link rel="canonical" href="https://www.yourdomain.com/your-page/" />
Es gibt zwei korrekte Verwendungen:
- Selbstreferenzierende kanonische URL — die Seite verweist auf sich selbst und bestätigt damit, dass es die primäre Version ist. Dies ist die Standardeinstellung für die meisten Seiten und sagt Google einfach "diese URL ist korrekt, indexiere diese."
- Kanonische URLs konsolidieren — eine doppelte oder nahezu doppelte Seite verweist auf die bevorzugte Version. Wenn zum Beispiel yourdomain.com/page?ref=email und yourdomain.com/page identische Inhalte zeigen, sollte die Parameter-URL einen kanonischen Link auf die saubere Version haben.
Wo es schiefgeht, ist, wenn kanonische Tags auf die falsche Stelle verweisen. Die drei schädlichsten Fehler:
- Canonical verweist auf eine 404-Seite — Sie teilen Google mit, dass die bevorzugte Version dieser Seite eine ist, die nicht existiert
- Canonical verweist auf eine Weiterleitung — Google folgt der Weiterleitung, sieht das Ziel und muss abgleichen, welche URL du eigentlich meintest
- Canonical verweist komplett auf die falsche Seite — das kann nach Migrationen oder CMS-Template-Fehlern passieren und sagt Google, genau die Seite zu unterdrücken, die du ranken lassen willst
Um deine zu überprüfen: Führe Screaming Frog aus und sieh dir den Canonicals-Bericht an. Er zeigt dir die kanonische URL jeder Seite und markiert Abweichungen, fehlende Tags und Kanonische, die auf Nicht-200-Seiten verweisen. Jede Seite, bei der das kanonische Ziel einen 4xx- oder 3xx-Status zurückgibt, ist Stufe 1.
Parameter und abschließender Schrägstrich-Duplikate
/page, /page/ und /page?ref=email können von Googlebot als separate URLs behandelt werden. Stellen Sie sicher, dass Ihr Server oder CMS diese konsistent handhabt, oder verwenden Sie kanonische Tags, um sie zusammenzuführen.
On-Page technische Signale
Das sind strukturelle Elemente (im Unterschied zum Texten), die beeinflussen, wie Google deine Seiten parst und darstellt.
Titel-Tags und Meta-Beschreibungen
Titel-Tags sollten unter 60 Zeichen bleiben, um eine Kürzung in den SERPs zu vermeiden. Meta-Beschreibungen unter 155 Zeichen. Filtern Sie in Screaming Frog den Bericht „Page Titles“ nach Einträgen, die als "zu lang" oder "fehlend" markiert sind. Diese führen nicht zu Ranking-Verlusten, aber abgeschnittene Titel verringern die Klickrate.
Überschriftenhierarchie
Jede Seite sollte genau eine H1 haben. Mehrere H1s schaden den Rankings nicht direkt, aber sie signalisieren eine unklare Seitenstruktur. Schädlicher sind Seiten ohne H1 oder H1-Text, der nicht zum Hauptthema der Seite passt.
Kaputte interne Links
Jeder interne 404 verschwendet Crawl-Budget und schafft eine Sackgasse für Link-Equity. Screaming Frog zeigt diese unter Antwortcodes → 4xx an. Beheben Sie das Problem, indem Sie das Linkziel aktualisieren oder die defekte URL umleiten.
Alternativtext für Bilder
Alt-Text ist ein Crawl-Signal, nicht nur eine Barrierefreiheitsfunktion. Bilder ohne Alt-Text sind für die textbasierte Analyse von Googlebot unsichtbar. Überprüfen Sie in Screaming Frog im Images-Bericht fehlende Alt-Attribute bei Bildern mit Inhaltswert.
Core Web Vitals (Standards 2025)
Core Web Vitals sind drei Metriken, mit denen Google misst, wie sich eine Seite tatsächlich anfühlt. Nicht nur, ob sie lädt, sondern ob sie schnell lädt, schnell reagiert und dabei visuell stabil bleibt. Sie sind Teil der Bewertung der Seitenqualität durch Google und tauchen direkt in Page Speed Insights und der Google Search Console auf.
Es gibt derzeit drei Metriken. Wenn dein Audit irgendwo First Input Delay (FID) erwähnt, streiche es — FID wurde am 12. März 2024 offiziell durch INP ersetzt.
INP: Reagiert Ihre Seite, wenn Leute klicken?
INP steht für Interaction to Next Paint. Es misst, wie schnell deine Seite visuell reagiert, nachdem ein Benutzer etwas tut: einen Button klickt, ein Menü öffnet, in ein Feld tippt. Wenn es eine spürbare Verzögerung zwischen der Aktion und der Reaktion der Seite gibt, ist das ein schlechter INP-Wert.
Schwellenwerte:
- Gut = unter 200ms
- Verbesserung nötig = 200–500ms
- Schlecht = über 500ms
Quelle: Screenshot: Interaction to Next Paint (INP)
Die häufigsten Ursachen bei kleinen Websites: zu viel Java Script im Hintergrund, Drittanbieter-Skripte (Chat-Widgets, Analysen, Anzeigen-Tags), die um die Aufmerksamkeit des Browsers konkurrieren, und langsame Serverantworten.
LCP: Lädt Ihr Hauptinhalt schnell?
LCP steht für Largest Contentful Paint. Es misst, wie lange es dauert, bis das größte sichtbare Element auf der Seite vollständig geladen ist: normalerweise ein Hero-Bild, eine große Überschrift oder ein hervorgehobenes Foto. Es ist Googles Art zu fragen: "Wie schnell fühlt sich die Seite nutzbar an?"
Schwellenwert: Gut = unter 2,5 Sekunden
Quelle: Screenshot: Largest Contentful Paint (LCP)
Die häufigsten Ursachen für eine langsame LCP: Heldenbilder, die nicht komprimiert wurden, CSS oder Java Script, das die Seitenwiedergabe blockiert, und langsames Hosting oder Serverantwortzeiten.
CLS: Bleibt die Seite beim Laden ruhig?
CLS steht für Cumulative Layout Shift. Es misst, wie stark die Seite beim Laden visuell springt. Du hast schon einmal einen schlechten CLS-Wert erlebt: Du willst auf etwas klicken, und im letzten Moment lädt ein Bild darüber, schiebt alles nach unten und du klickst auf das Falsche.
Schwellenwert: Gut = unter 0,1
Quelle: Screenshot: Cumulative Layout Shift (CLS)
Die häufigsten Ursachen: Bilder ohne definierte Abmessungen (der Browser weiß nicht, wie viel Platz reserviert werden soll), Anzeigen oder Einbettungen, die spät laden und Inhalte nach unten drücken, sowie Webfonts, die erst nach dem Rendern der Seite eingefügt werden.
So überprüfen Sie alle drei
Gehe zu Page Speed Insights und gib deine wichtigsten Seiten nacheinander ein:
- Ihre Startseite
- Ihre Hauptprodukt- oder Dienstleistungsseite
- Ihre meistbesuchte Landingpage
Wenn die Ergebnisse geladen sind, scrollen Sie an den Labordaten (den simulierten Bewertungen) vorbei zu den Felddaten Abschnitt oben. Felddaten spiegeln echte Besucher auf echten Geräten wider und sind das, was Google tatsächlich zur Bewertung Ihrer Seiten verwendet. Wenn Ihre Website noch nicht genug Traffic für Felddaten hat, sind die Laborwerte der beste verfügbare Ersatz. Behandeln Sie sie als richtungsweisend, nicht als endgültig.
Die GSC hat auch einen eigenen Core Web Vitals-Bericht (unter Experience), der deine URLs nach Status gruppiert:
- Gut
- Verbesserungsbedarf
- Schlecht
Und zeigt, welche spezifische Metrik auf welchen Seiten fehlschlägt.
So sieht es aus, wenn Sie eine Prüfung mit Google Page Speed durchführen:
Sie können sogar mehr Details zu Ihrem Leistungswert sehen.
Seitenstruktur und interne Verlinkung
Link-Equität fließt durch interne Links. Wenn sie an den falschen Stellen austritt oder sich staut, werden Seiten, die ranken sollten, nicht ranken, selbst wenn alles andere korrekt ist.
Crawl-Tiefen-Audit
Jede wichtige Seite, die mehr als drei Klicks von der Startseite entfernt ist, ist praktisch vergraben. Überprüfen Sie in Screaming Frog die Spalte „Crawl Depth“. Seiten mit einer Tiefe von 4+ sollten entweder in der Navigation hervorgehoben oder von Seiten mit höherer Autorität verlinkt werden.
Verwaiste Seiten
Eine Orphan-Seite hat keine internen Links, die auf sie verweisen. Googlebot kann sie zwar über die Sitemap finden, aber ohne interne Links erhält sie keine Equity und signalisiert geringe Wichtigkeit. Gleichen Sie Ihre Sitemap-URLs mit dem Inlinks-Bericht von Screaming Frog ab.
Das Hinzufügen von Breadcrumb-Navigation zu inhaltsreichen Abschnitten Ihrer Website ist eine effiziente Möglichkeit, gleichzeitig verwaiste Seiten zu beheben und die Crawl-Pfad-Klarheit für Benutzer und Bots zu verbessern.
Weiterleitungsketten und -schleifen
Wie bereits erwähnt, überprüfe Weiterleitungsketten und Weiterleitungsschleifen, um den vollständigen Weiterleitungspfad für jede URL zu sehen.
Mobilgeräte und strukturierte Daten
Mobile Nutzbarkeit
Google hat den Wechsel zum Mobile-First-Indexing im Juli 2024 abgeschlossen. Alle Websites werden jetzt mit Googlebot Smartphone gecrawlt und indexiert. Überprüfen Sie den Bericht zur mobilen Nutzerfreundlichkeit auf Fehler: Text zu klein zum Lesen, klickbare Elemente zu nah beieinander, Inhalt breiter als der Bildschirm. Fehler hier sind Stufe 2 mindestens.
Strukturierte Daten
Schema-Markup garantiert keine Rich Results, macht Ihren Content aber maschinenlesbar. Für die meisten kleinen Websites sind die wertvollsten Schema-Typen: Article, FAQ, Breadcrumb und Local Business (falls standortrelevant). Validieren Sie Ihre Implementierung mit Googles Rich Results Test.
Markiere strukturierte Datenfehler als Stufe 2. Markiere strukturierte Datenwarnungen als Stufe 3. Sie verhindern nicht, dass Rich Results angezeigt werden.
Überprüfen Sie die Korrektur
Die meisten Anleitungen enden bei "beheben Sie dies." Da lassen sie einen im Stich.
Jede Korrektur benötigt einen Bestätigungsschritt, bevor du fortfährst.
| Fehlerbehebungstyp | Verifizierungsmethode | Zeitplan |
| Indexierung / noindex entfernt | GSC URL-Inspektion → Indexierung anfordern | Tage bis Wochen |
| Verbesserungen der Core Web Vitals | Page Speed Insights erneut ausführen + GSC CWV-Bericht | 28-tägige Felddatenverzögerung |
| Crawl-Fehler behoben | Screaming Frog erneut crawlen; mit der Baseline vergleichen | Sofort |
| Strukturierte Daten hinzugefügt | Rich Results Test erneut ausführen | Sofortige Validierung |
Google bewertet einige Signale schnell (URL-Level-Indexierung) und andere langsam (CWV-Felddaten spiegeln ein rollierendes 28-Tage-Fenster realer Nutzerinteraktionen wider).
Setze eine Kalendererinnerung, anstatt täglich zu überprüfen.
Wann solltest du ein SEO-Audit durchführen?
Es ist großartig, wenn Sie es so oft wie möglich durchführen können, aber mindestens vierteljährlich. Wenn Sie Rückgänge in Ihren Website-Rankings bemerken, ist das ein gutes Signal für ein neues Audit, auch wenn es nicht geplant ist.
Wann erneut prüfen
Ein technisches SEO-Audit ist keine einmalige Aufgabe. Führen Sie ein vollständiges Audit durch:
- Beim Start einer neuen Website — legen Sie eine saubere Basislinie fest, bevor sich Traffic ansammelt
- Alle 6 Monate als Standardwartung
- Nach jeder größeren Site-Migration (neues CMS, neue Domain, neue URL-Struktur)
- Nach einem deutlichen Ranking-Abfall das nicht durch Inhaltsänderungen erklärt wird
- Nach dem Hinzufügen neuer Seitenbereiche oder Vorlagen die neue Crawl-Muster einführen könnten
Zwischen den Audits solltest du die Coverage- und Core Web Vitals-Berichte der GSC als passives Überwachungstool offen lassen.
Audit-Prioritäts-Checkliste
Verwenden Sie dies nach Abschluss jedes Abschnitts. Jeder Punkt entspricht einem Abschnitt oben.
Fazit
Ein technisches SEO-Audit ist nicht nur eine einmalige Aufgabe – es ist ein fortlaufender Prozess, der Ihrer Website hilft, in den Suchergebnissen wettbewerbsfähig zu bleiben. Durch regelmäßige Überprüfung der technischen Aspekte Ihrer Website können Sie Probleme identifizieren und beheben, bevor sie sich auf Ihre Rankings auswirken.
Denken Sie daran, dass technische SEO nur ein Teil des Puzzles ist. Während es die Grundlage für den Erfolg schafft, benötigen Sie immer noch qualitativ hochwertige Inhalte und ein starkes Backlink-Profil, um Top-Rankings zu erreichen.
Technisches SEO unterstützt Crawlbarkeit, Indexierung, Leistung und Benutzererfahrung, was die Sichtbarkeit in der Suche verbessern kann, wenn es mit starken Inhalten kombiniert wird. Regelmäßige Audits (alle 6-12 Monate) sind unerlässlich, um Risiken zu mindern und neue Chancen zu nutzen.
Bleiben Sie der Konkurrenz voraus und unseren Newsletter abonnieren für die neuesten Trends und Brancheneinblicke.
Häufig gestellte Fragen
Was ist der Unterschied zwischen einem Crawling-Problem und einem Indexierungsproblem?
Crawlability bezieht sich darauf, ob Googlebot auf eine Seite zugreifen und sie lesen kann (sie ist auf Netzwerk- oder Robots-Ebene blockiert). Indexierung bezieht sich darauf, ob Google diese Seite in seinen Suchindex aufgenommen hat. Eine Seite kann crawlbar sein, aber dennoch aufgrund eines noindex-Tags, eines Duplicate-Content-Signals oder eines kanonischen Tags, das auf eine andere Seite verweist, vom Index ausgeschlossen werden. Prüfen Sie sie getrennt: zuerst die Crawlability, dann die Indexierung.
Schaden Redirect-Ketten tatsächlich den Rankings?
Google hat erklärt, dass 301-Weiterleitungen keinen Page Rank verlieren. Das praktische Risiko bei Weiterleitungsketten ist die Latenz (jeder Sprung erhöht die Ladezeit) und die erhöhte Wahrscheinlichkeit, dass Googlebot die Kette abbricht, bevor sie vollständig aufgelöst ist, insbesondere auf langsameren Servern. Reduzieren Sie Ketten auf einzelne Sprünge als Maßnahme zur Crawl-Effizienz, nicht weil jeder Sprung "Equity verliert".
Mein Audit-Tool hat 200+ Probleme gemeldet. Wo fange ich eigentlich an?
Beginnen Sie mit der Tier-1-Checkliste in diesem Leitfaden: HTTPS-Erzwingung, SSL-Gültigkeit, versehentliche noindex-Tags und Weiterleitungsschleifen. Dies sind die Probleme, die die Sichtbarkeit derzeit am wahrscheinlichsten aktiv unterdrücken. Ignorieren Sie alles, was nicht in Tier 1 oder Tier 2 fällt, bis diese behoben sind. Eine saubere, crawlbare, indexierbare Website mit akzeptablen Core Web Vitals wird eine technisch "perfekte" Website mit ungelösten Blockierungsproblemen übertreffen.
Wie oft sollte ich ein technisches SEO-Audit durchführen?
Alle sechs Monate als Standardwartung. Führen Sie zusätzlich eine gezielte Prüfung nach jeder Seitenmigration, signifikanten Plattformänderung oder unerklärlichen Ranking-Verschlechterung durch. Zwischen den Prüfungen geben Ihnen der Coverage-Bericht und das Core-Web-Vitals-Dashboard von GSC genügend passive Signale, um neue Probleme zu erkennen, bevor sie sich häufen.