SEO

Technisches SEO Checkliste 2026: 40 Punkte für bessere Rankings

Technisches SEO ist das Fundament jeder erfolgreichen Website. Diese 40-Punkte-Checkliste deckt Crawlability, Core Web Vitals, Mobile, HTTPS, URL-Struktur, Schema.org und AI-Readiness ab.

4. April 202614 Min. Lesezeit
Technisches SEO Checkliste 2026 mit 40 Prüfpunkten für Crawlability, Core Web Vitals, Mobile-Optimierung, HTTPS, URL-Struktur, Schema.org und AI-Readiness

Warum ist technisches SEO das Fundament für Ihre Rankings?

Ohne ein solides technisches Fundament verpuffen selbst die besten Inhalte. Laut einer Analyse von Ahrefs (2023) erhalten 96,55 % aller indexierten Seiten keinen organischen Traffic von Google. Technische Fehler, etwa blockierte Crawls oder langsame Ladezeiten, gehören zu den häufigsten Ursachen.

Technisches SEO sorgt dafür, dass Suchmaschinen Ihre Website finden, crawlen, verstehen und indexieren können. Es bildet die Basis, auf der Content-Qualität, E-E-A-T-Signale und Backlinks erst wirken. Stellen Sie sich eine Bibliothek vor: Ihr Content sind die Bücher, aber technisches SEO ist das Regalsystem. Ohne Regale findet niemand Ihr Buch, egal wie gut es geschrieben ist.

Für deutsche KMU ist technisches SEO besonders relevant, weil viele Mittelständler auf veraltete CMS-Systeme setzen. Ein technisches Audit deckt oft dutzende Low-Hanging-Fruits auf, die mit wenigen Stunden Arbeit Rankings spürbar verbessern.

Die wichtigsten Punkte auf einen Blick

  • Technisches SEO ist die Voraussetzung, damit Google Ihre Inhalte indexiert
  • 40 konkrete Checklistenpunkte von Crawlability bis AI-Readiness
  • Core Web Vitals sind seit 2021 ein offizieller Rankingfaktor (Google, 2021)
  • KMU mit sauberer Technik haben einen messbaren Vorteil gegenüber nachlässiger Konkurrenz

Diese Checkliste gliedert sich in sieben Bereiche mit insgesamt 40 Prüfpunkten. Sie ist so aufgebaut, dass Sie Punkt für Punkt durchgehen und direkt umsetzen können, auch ohne tiefes Entwicklerwissen.

Crawlability und Indexierung: Findet Google Ihre Seiten?

Google kann nur ranken, was im Index ist. Die Google Search Central Dokumentation betont, dass Crawl-Fehler einer der häufigsten Gründe sind, warum Seiten nicht in den Suchergebnissen erscheinen. Die folgenden sieben Punkte stellen sicher, dass Suchmaschinen Ihre gesamte Website erreichen.

1. robots.txt prüfen und optimieren Ihre robots.txt-Datei (erreichbar unter ihredomain.de/robots.txt) steuert, welche Bereiche Suchmaschinen crawlen dürfen. Stellen Sie sicher, dass keine wichtigen Seiten blockiert werden. Testen Sie die Datei mit dem Google robots.txt-Tester in der Search Console.

2. XML-Sitemap erstellen und einreichen Eine XML-Sitemap listet alle indexierbaren URLs Ihrer Website. Sie sollte unter ihredomain.de/sitemap.xml verfügbar sein und in der Google Search Console eingereicht werden. Aktualisieren Sie die Sitemap automatisch bei neuen oder geänderten Seiten.

3. Canonical Tags korrekt setzen Jede Seite braucht ein <link rel="canonical">-Tag, das auf die bevorzugte URL verweist. Ohne Canonicals kann Google Duplicate Content erkennen und Ihre Rankings aufteilen. Besonders wichtig bei Seiten, die unter mehreren URLs erreichbar sind (mit/ohne www, mit/ohne Trailing Slash).

4. Noindex gezielt einsetzen Seiten ohne SEO-Wert, etwa Danke-Seiten, Login-Bereiche oder interne Suchergebnisseiten, sollten ein <meta name="robots" content="noindex">-Tag tragen. Indexieren Sie nur Seiten, die echten Mehrwert für Suchende bieten.

5. Crawl-Budget nicht verschwenden Google weist jeder Website ein begrenztes Crawl-Budget zu. Vermeiden Sie endlose URL-Parameter, doppelte Seiten und verwaiste Links. Für KMU-Websites mit unter 10.000 Seiten ist das Crawl-Budget selten ein Problem, aber aufgeräumte Strukturen helfen trotzdem.

6. Google Search Console einrichten und Indexierung prüfen Die Google Search Console ist Ihr kostenloses Werkzeug zur Überwachung der Indexierung. Prüfen Sie regelmäßig den Bericht "Seiten", um nicht indexierte URLs zu identifizieren und Fehler zu beheben.

7. HTTP-Statuscodes kontrollieren Wichtige Seiten müssen den Statuscode 200 zurückgeben. Weiterleitungen (301/302) sollten sauber konfiguriert sein, 404-Fehler auf relevanten URLs behoben werden. Nutzen Sie Tools wie Screaming Frog für einen vollständigen Crawl.

Wie optimieren Sie Core Web Vitals und Ladegeschwindigkeit?

Seitengeschwindigkeit ist seit 2021 ein offizieller Google-Rankingfaktor. Laut einer Studie von Google/Deloitte (2020) führt eine Verbesserung der Ladezeit um 0,1 Sekunden zu einer 8,4 % höheren Conversion-Rate im E-Commerce. Langsame Seiten verlieren also nicht nur Rankings, sondern auch Kunden.

Google misst die Seitenqualität über drei Core Web Vitals:

LCP, INP und CLS verstehen

  • Largest Contentful Paint (LCP): Ladezeit des größten sichtbaren Elements. Zielwert: unter 2,5 Sekunden.
  • Interaction to Next Paint (INP): Reaktionszeit bei Nutzerinteraktionen (ersetzt FID seit März 2024). Zielwert: unter 200 Millisekunden.
  • Cumulative Layout Shift (CLS): Visülle Stabilität, also ob sich Elemente beim Laden verschieben. Zielwert: unter 0,1.

Die Checkliste für schnellere Seiten

8. Core Web Vitals messen Testen Sie Ihre Website mit Google PageSpeed Insights. Sie erhalten dort sowohl Lab-Daten als auch Felddaten echter Nutzer. Fokussieren Sie sich auf die Felddaten, denn die nutzt Google für das Ranking.

9. Bilder optimieren Bilder sind oft der größte Bremsklotz. Verwenden Sie moderne Formate wie WebP oder AVIF, setzen Sie width- und height-Attribute (verhindert CLS) und laden Sie Bilder per Lazy Loading nach.

10. Server-Antwortzeit verkürzen (TTFB) Die Time to First Byte sollte unter 800 Millisekunden liegen. Schnelles Hosting, CDN-Nutzung und serverseitiges Caching sind die wichtigsten Hebel.

11. CSS und JavaScript minimieren Entfernen Sie ungenutzten Code, minifizieren Sie CSS- und JS-Dateien und laden Sie unkritisches JavaScript mit defer oder async. Jedes Kilobyte zählt, besonders auf mobilen Verbindungen.

12. Browser-Caching konfigurieren Setzen Sie Cache-Header für statische Ressourcen (Bilder, CSS, JS), damit wiederkehrende Besucher schneller laden. Ein Cache-Control: max-age=31536000 für Bilder ist ein guter Ausgangspunkt.

13. Above-the-fold-Inhalte priorisieren Laden Sie zuerst, was der Nutzer sofort sieht. Kritisches CSS inline einbinden, Hero-Bilder per preload vorladen und Third-Party-Scripts verzögert laden.

14. Keine Layout-Verschiebungen verursachen Reservieren Sie Platz für Bilder, Werbebanner und eingebettete Inhalte, bevor sie geladen werden. Jede unerwartete Verschiebung verschlechtert Ihren CLS-Wert und frustriert Nutzer.

Ist Ihre Website wirklich mobilfreundlich?

Google verwendet seit 2021 ausschließlich Mobile-First Indexing. Das bedeutet: Google bewertet Ihre Website anhand der mobilen Version, nicht der Desktop-Variante. Laut Statcounter (2025) kommen in Deutschland rund 55 % des Web-Traffics von mobilen Geräten. Wer mobil nicht funktioniert, verliert die Mehrheit der Nutzer.

15. Responsive Design sicherstellen Ihre Website muss sich automatisch an jede Bildschirmgröße anpassen. Testen Sie auf verschiedenen Geräten, nicht nur im Browser-Entwicklermodus. Achten Sie besonders auf Schriftgrößen (mindestens 16px), Abstände zwischen klickbaren Elementen und horizontales Scrollen.

16. Mobile Usability in der Search Console prüfen Die Google Search Console zeigt unter "Mobile Nutzbarkeit" konkrete Probleme: zu kleine Schrift, zu nahe Elemente, Inhalte breiter als der Bildschirm. Beheben Sie alle gemeldeten Fehler.

17. Touch-Elemente richtig dimensionieren Buttons und Links brauchen auf Mobilgeräten mindestens 48 x 48 Pixel Klickfläche mit ausreichend Abstand. Google empfiehlt mindestens 8 Pixel Abstand zwischen klickbaren Elementen.

18. Viewport korrekt konfigurieren Das Meta-Tag <meta name="viewport" content="width=device-width, initial-scale=1"> muss im <head> stehen. Ohne dieses Tag zeigt der mobile Browser die Desktop-Version verkleinert an.

19. Pop-ups und Interstitials einschränken Google bestraft aufdringliche Interstitials auf Mobilgeräten. Cookie-Banner sind erlaubt, aber Vollbild-Pop-ups, die den Inhalt blockieren, schaden Ihrem Ranking. Verwenden Sie stattdessen unaufdringliche Banner am oberen oder unteren Bildschirmrand.

20. Mobile Ladezeit separat testen Die mobile Ladezeit unterscheidet sich oft drastisch von Desktop. Testen Sie mit PageSpeed Insights explizit den Reiter "Mobil" und optimieren Sie gezielt für langsamere Verbindungen.

HTTPS und Sicherheit: Wie schützen Sie Website und Ranking?

HTTPS ist seit 2014 ein bestätigter Google-Rankingfaktor. Laut dem Google Transparency Report (2024) werden über 95 % des gesamten Chrome-Traffics über HTTPS abgewickelt. Websites ohne SSL-Zertifikat zeigen im Browser eine "Nicht sicher"-Warnung, die Besucher sofort abschreckt.

21. SSL-Zertifikat installieren und prüfen Stellen Sie sicher, dass ein gültiges SSL-Zertifikat auf allen Domains und Subdomains aktiv ist. Kostenlose Zertifikate von Let's Encrypt reichen für die meisten KMU-Websites aus. Prüfen Sie die Gültigkeit regelmäßig, denn abgelaufene Zertifikate verursachen Browserwarnungen und Crawl-Fehler.

22. HTTP-zu-HTTPS-Weiterleitung einrichten Alle HTTP-URLs müssen per 301-Redirect auf ihre HTTPS-Version weiterleiten. Testen Sie das für Ihre Hauptdomain, mit und ohne www-Präfix. Jede URL-Variante sollte letztlich auf eine einzige kanonische HTTPS-Version zeigen.

23. Mixed Content beseitigen Mixed Content entsteht, wenn eine HTTPS-Seite Ressourcen (Bilder, Scripts, Stylesheets) über HTTP lädt. Browser blockieren solche Ressourcen teilweise oder zeigen Warnungen. Durchsuchen Sie Ihren Quellcode nach http://-Links und ersetzen Sie diese durch https:// oder protokollrelative URLs.

24. HSTS-Header setzen HTTP Strict Transport Security (HSTS) weist Browser an, Ihre Website ausschließlich über HTTPS aufzurufen. Setzen Sie den Header Strict-Transport-Security: max-age=31536000; includeSubDomains in Ihrer Serverkonfiguration.

25. Sicherheits-Header implementieren Neben HSTS stärken weitere HTTP-Header Ihre Sicherheit und das Vertrauen von Suchmaschinen: X-Content-Type-Options: nosniff, X-Frame-Options: DENY und eine Content Security Policy (CSP). Diese Header schützen vor gängigen Angriffen und signalisieren technische Professionalität.

26. Regelmäßige Sicherheitsaudits durchführen Prüfen Sie Ihre Website regelmäßig auf bekannte Schwachstellen. Tools wie Mozilla Observatory geben eine kostenlose Bewertung Ihrer Sicherheitsheader. Halten Sie CMS, Plugins und Themes stets aktuell, denn veraltete Software ist das häufigste Einfallstor für Angriffe.

SEO + GEO in einer Plattform

Growbase vereint klassische SEO-Analyse mit KI-Sichtbarkeits-Tracking. Der Growbase Score zeigt Ihnen auf einen Blick, wie sichtbar Ihr Unternehmen in Google und KI-Suchsystemen ist.

Saubere URLs und Navigation: Wie strukturieren Sie Ihre Website?

Eine klare URL-Struktur hilft Suchmaschinen und Nutzern gleichermaßen. Laut Backlinko (2023) korrelieren kürzere URLs mit besseren Rankings in den Top-10-Ergebnissen. Gute Struktur erleichtert das Crawling und verbessert die Nutzererfahrung.

27. Sprechende URLs verwenden URLs sollten lesbar und beschreibend sein. ihredomain.de/leistungen/sanitärtechnik ist besser als ihredomain.de/page?id=47&cat=3. Verwenden Sie Bindestriche statt Unterstriche, Kleinbuchstaben und vermeiden Sie Sonderzeichen. Halten Sie URLs so kurz wie möglich.

28. Flache Seitenhierarchie beibehalten Jede wichtige Seite sollte mit maximal drei Klicks von der Startseite erreichbar sein. Eine tiefe Verschachtelung (mehr als vier Ebenen) erschwert das Crawling und signalisiert Google, dass die Seite weniger wichtig ist.

29. Breadcrumb-Navigation implementieren Breadcrumbs zeigen Nutzern und Suchmaschinen, wo sich eine Seite in der Hierarchie befindet (z. B. Startseite > Leistungen > Sanitärtechnik). Implementieren Sie dazu auch BreadcrumbList-Schema, damit Google die Breadcrumbs in den Suchergebnissen anzeigt.

30. Interne Verlinkung strategisch aufbauen Interne Links verteilen "Link Equity" und helfen Google, die Relevanz Ihrer Seiten zu verstehen. Verlinken Sie von thematisch verwandten Seiten aufeinander und verwenden Sie beschreibende Ankertexte. Vermeiden Sie generische Texte wie "hier klicken". Eine gut durchdachte SEO-Strategie beinhaltet immer einen Plan für interne Verlinkung.

31. Broken Links regelmäßig finden und beheben Defekte Links frustrieren Nutzer und verschwenden Crawl-Budget. Nutzen Sie Tools wie Screaming Frog oder die Google Search Console, um 404-Fehler aufzuspüren. Leiten Sie gelöschte Seiten per 301-Redirect auf die passende Alternative um.

32. URL-Weiterleitungen sauber konfigurieren Verwenden Sie 301-Redirects für dauerhafte Umzüge und 302-Redirects nur für temporäre Weiterleitungen. Vermeiden Sie Redirect-Ketten (A leitet auf B, B leitet auf C). Jede Weiterleitung sollte direkt zum Ziel führen.

Strukturierte Daten und Schema.org: Wie sprechen Sie die Sprache der Maschinen?

Strukturierte Daten helfen Google und KI-Systemen, den Inhalt Ihrer Website zu verstehen. Laut Google können Seiten mit validen strukturierten Daten als Rich Snippets in den Suchergebnissen erscheinen, was die Klickrate um bis zu 30 % steigern kann. Dieser Bereich ist die Brücke zwischen technischem SEO und GEO.

33. JSON-LD als Format verwenden Google empfiehlt JSON-LD (JavaScript Object Notation for Linked Data) als bevorzugtes Format für strukturierte Daten. Es wird als <script type="application/ld+json"> im HTML eingebettet und ist für Besucher unsichtbar. Vermeiden Sie Microdata, es ist fehleranfälliger und schwerer zu pflegen.

34. LocalBusiness-Schema auf der Startseite Für jedes KMU mit lokalem Bezug ist das LocalBusiness-Schema Pflicht. Es enthält Firmenname, Adresse, Telefon, Öffnungszeiten und Bewertungen. Google nutzt diese Daten für lokale Suchergebnisse und das Knowledge Panel.

35. FAQPage-Schema auf Service-Seiten Markieren Sie Frage-Antwort-Bereiche mit dem FAQPage-Schema. Google zeigt diese als ausklappbare FAQ-Einträge direkt unter Ihrem Suchergebnis an. Für Service-Seiten mit häufigen Kundenfragen ein enormer Sichtbarkeitsgewinn.

36. Article-Schema auf Blogartikeln Jeder Blogartikel sollte ein Article- oder BlogPosting-Schema tragen, inklusive Autorenname, Veröffentlichungsdatum und Beschreibung. KI-Modelle nutzen die Autoreninformation als Expertise-Signal.

37. Strukturierte Daten regelmäßig validieren Nutzen Sie den Google Rich Results Test und den Schema.org Validator, um Fehler zu erkennen. Prüfen Sie nach jedem Website-Update, ob Ihr Markup noch intakt ist. Schema-Markup kann durch CMS-Änderungen oder Theme-Updates unerwartet brechen.

AI-Readiness: Ist Ihre Website fit für KI-Suchsysteme?

KI-Suchsysteme wie ChatGPT, Perplexity und Google AI Overviews verändern, wie Nutzer Informationen finden. Laut Gartner (2024) werden traditionelle Suchanfragen bis 2026 um 25 % zurückgehen, weil KI-Assistenten sie ersetzen. Wer jetzt die technischen Voraussetzungen schafft, sichert sich einen Vorsprung.

Technische Voraussetzungen für KI-Crawling

38. llms.txt bereitstellen Eine llms.txt-Datei im Root-Verzeichnis Ihrer Website hilft KI-Crawlern, relevante Inhalte zu finden. Ähnlich wie robots.txt für Suchmaschinen bietet diese Datei KI-Systemen eine strukturierte Übersicht Ihrer wichtigsten Seiten, Fachgebiete und Kontaktinformationen. Die Spezifikation ist noch jung, wird aber von immer mehr KI-Anbietern unterstützt.

39. Inhalte maschinenlesbar strukturieren KI-Modelle extrahieren Informationen effizienter aus gut strukturiertem Content. Verwenden Sie klare Überschriftenhierarchien (H1 bis H3), kurze Absätze, Aufzählungen und Tabellen. Beantworten Sie Fragen direkt am Anfang jedes Abschnitts, denn genau dort greifen KI-Systeme zu. Ergänzend wirkt eine durchdachte GEO-Strategie, die Ihre Inhalte gezielt für KI-Zitation aufbereitet.

40. KI-Crawler in robots.txt nicht blockieren Prüfen Sie Ihre robots.txt auf Regeln, die KI-Crawler blockieren. User-Agents wie GPTBot, ChatGPT-User, PerplexityBot oder Google-Extended sollten Sie bewusst zulassen, wenn Sie in KI-Antworten erscheinen wollen. Überlegen Sie für jede Seite, ob KI-Sichtbarkeit erwünscht ist, und konfigurieren Sie die Regeln entsprechend.

Warum AI-Readiness 2026 kein optionaler Bonus mehr ist

Die Grenze zwischen klassischer Suche und KI-Suche verschwimmt. Google AI Overviews sind bereits in vielen Suchergebnissen sichtbar, und Nutzer erwarten zunehmend direkte Antworten statt langer Linklisten. Technisches SEO und KI-Readiness sind keine getrennten Disziplinen mehr. Sie verschmelzen zu einer einzigen Anforderung: Ihre Website muss für alle Arten von Maschinen lesbar, verständlich und vertrauenswürdig sein.

Fazit: Ihre 40-Punkte-Checkliste im Überblick

Technisches SEO ist keine einmalige Aufgabe, sondern ein fortlaufender Prozess. Die gute Nachricht: Wer diese 40 Punkte systematisch abarbeitet, schafft ein Fundament, das sich über Jahre auszahlt. Jeder behobene technische Fehler macht Ihre Inhalte und Ihre SEO-Strategie wirkungsvoller.

Kurzübersicht aller 40 Checklistenpunkte:

BereichPunkteKernmaßnahmen
Crawlability und Indexierung1-7robots.txt, Sitemap, Canonicals, Search Console
Ladegeschwindigkeit8-14Core Web Vitals, Bilder, Caching, CSS/JS
Mobile Optimierung15-20Responsive Design, Touch-Elemente, Viewport
Sicherheit und HTTPS21-26SSL, HSTS, Mixed Content, Security Headers
URL-Struktur und Navigation27-32Sprechende URLs, Breadcrumbs, interne Links
Strukturierte Daten33-37JSON-LD, LocalBusiness, FAQ, Article Schema
AI-Readiness38-40llms.txt, strukturierter Content, KI-Crawler

Empfohlene Reihenfolge: Beginnen Sie mit Crawlability (ohne Indexierung kein Ranking). Beheben Sie dann Geschwindigkeits- und Sicherheitsprobleme. Anschließend kümmern Sie sich um Mobile, URL-Struktur und strukturierte Daten. AI-Readiness baut auf allen anderen Bereichen auf.

Regelmäßig wiederholen: Führen Sie diese Checkliste mindestens vierteljährlich durch. Technische Probleme schleichen sich durch CMS-Updates, neue Plugins oder Inhaltsänderungen ein. Ein Tool wie die Google Search Console hilft, Probleme frühzeitig zu erkennen.

Technisches SEO ist der unsichtbare Hebel hinter erfolgreichen Websites. In Kombination mit starken Inhalten, einem soliden E-E-A-T-Profil und einer vorausschauenden GEO-Strategie bildet es die Grundlage für nachhaltige Sichtbarkeit, sowohl bei Google als auch in KI-Suchsystemen.

Häufige Fragen

Was ist der Unterschied zwischen technischem SEO und On-Page-SEO?

Technisches SEO betrifft die Infrastruktur Ihrer Website: Crawlability, Ladegeschwindigkeit, Sicherheit, URL-Struktur und strukturierte Daten. On-Page-SEO bezieht sich auf den Inhalt einzelner Seiten: Keywords, Überschriften, Meta-Descriptions und Textqualität. Beide Bereiche ergänzen sich. Ohne technische Basis kann On-Page-SEO nicht wirken.

Wie oft sollte man ein technisches SEO-Audit durchführen?

Mindestens einmal pro Quartal. Nach größeren Website-Änderungen, CMS-Updates oder einem Relaunch sollten Sie sofort prüfen. Die Google Search Console meldet viele Probleme automatisch. Ein vollständiger Crawl mit Tools wie Screaming Frog deckt auch versteckte Fehler auf, die die Search Console nicht erkennt.

Welche technischen SEO-Tools brauche ich als KMU?

Drei kostenlose Tools decken die Grundlagen ab: Google Search Console für Indexierung und Fehler, Google PageSpeed Insights für Core Web Vitals und der Google Rich Results Test für strukturierte Daten. Für tiefere Analysen empfiehlt sich Screaming Frog (kostenlos bis 500 URLs). Kostenpflichtige Alternativen wie Ahrefs oder Semrush bieten zusätzliche Crawl-Funktionen.

Kann ich technisches SEO ohne Entwickler umsetzen?

Viele Punkte lassen sich ohne Programmierkenntnisse umsetzen: Google Search Console einrichten, Bilder komprimieren, Meta-Tags anpassen, SSL aktivieren. Für komplexere Aufgaben wie HSTS-Konfiguration, Schema.org-Markup oder Server-Optimierung benötigen Sie je nach CMS einen Entwickler oder passende Plugins. WordPress-Nutzer können vieles über Plugins wie Yoast SEO oder Rank Math abdecken.

Technical SEOChecklisteSEOKMUWebsite-Optimierung

Weitere Artikel