Risiken
Wenn man seine URLs ändert, müssen diese neu von Suchmaschinen bewertet werden. Dazu ermitteln diese nicht nur die Relevanz, sondern erfassen auch die Nutzersignale (Verweildauer, Absprungrate etc.) neu. Speziell letzteres braucht meist ein paar Wochen Zeit und sorgt dafür, dass währenddessen bestehende Rankings abrutschen oder verloren gehen.
Darüber hinaus werden auch Statistiken erschwert, da historische Vergleiche einzelner Inhalte immer eine Beachtung der geänderten URLs erfordern.
Nicht zu vergessen ist auch der Aufwand, um Kampagnen zu aktualisieren und Weiterleitungen der alten URLs auf die Neuen zu setzen.
Daher rate ich generell von URL-Änderungen ab, wenn man bereits gute Rankings hat und darauf verzichten kann. Dazu gehört auch, dass besser bestehende URLs aktualisiert und Contents recycelt werden sollten, um durch langlebige Inhalte die SEO-Sichtbarkeit nachhaltig zu verbessern.
Chancen
Wenn man aber umgekehrt eine Website mit schlechten Rankings hat, sich die Sichtbarkeit längere Zeit (mindestens 14 Tage) auf Abwärtskurs bewegt oder nach Aktualisierungen stagniert (mindestens 30, besser 90 Tage), ist eine (schrittweise) Änderung einzelner URLs empfehlenswert. Denn dadurch erhält man ja eine Neubewertung und Chance auf ein besseres Ranking. Dazu sollte man aber auch die Inhalte optimieren und idealerweise die Nutzerfreundlichkeit verbessern, um Suchmaschinen dann auch entsprechend verbesserte Assets zu bieten.
Dabei möchte ich darauf hinweisen, dass viele Unternehmen, die nicht im E-Commerce aktiv sind, häufig das Potenzial einer Usability-Optimierung unterschätzen und sich mit gewohnten aber schlecht zu bedienenden Websites zufrieden geben. Dadurch werden jedoch viele potenziell Interessierte NutzerInnen abgeschreckt und Marketing-Budget nicht effektiv genutzt.
Vorurteile
Wenn ich schon über SEO-freundliche URLs schreibe, möchte ich gleich noch die Chance nutzen, um mit ein paar Vorurteilen aufzuräumen:
- Es ist nicht zwingend erforderlich, dass (alle) URLs mit Keywords versehen werden. Speziell bei großen Websites wäre es meist sogar unwirtschaftlich, dies einzuprogrammieren, da bspw. Regeln definiert werden müssen, um sehr ähnliche oder doppelte Inhalte abzugrenzen. Nehmen wir beispielsweise ebay-Auktionen von Apple-Smartphones. Dort könnte ja praktisch jede URL ein iphone und die Modellreihe enthalten, danach wäre es aber schwer die Auktionen nur anhand von Keywords zu unterscheiden. Daher reicht es in solchen Fällen auch locker aus, mit IDs in den URLs zu arbeiten. Aber: Für strukturell wichtige Seiten, Produktkategorien und bei kleineren und mittleren Websites empfehle ich dennoch die wichtigsten Keywords in den URLs einzusetzen.
- Aus SEO-Perspektive gibt es keine feste Regel, wie tief URLs sein sollten. Allerdings gibt es einige bewährte Praktiken, die empfehlen, die URL-Struktur so flach und einfach wie möglich zu halten. Dadurch wird einerseits die Lesbarkeit für Menschen vereinfacht, aber auch Crawler tun sich leichter. Umgekehrt sollten aber nicht alle URLs auf erster Ebene einsortiert werden. Denn zum Siloing (thematischer Gruppierung von Inhalten) und zur Link-Juice-Optimierung (Steuerung der SEO-Power auf wichtige Inhalte) empfiehlt es sich beispielsweise, Blog-Artikel und Shop-Produkte zumindest in einem entsprechenden Unterverzeichnis abzulegen. Also statt meinewebsite.de/eineleistung und meinewebsite.de/einblogbeitrag besser meinewebsite.de/leistungsbereich/eineleistung und meinewebsite.de/blog/einblogbeitrag besser verwenden. Das bedeutet aber nicht, dass man „hyper hierarchische“ URLs einsetzen sollte: Bei Links wie z. B. https://www.adac.de/rund-ums-fahrzeug/zweirad/motorrad-roller/motorrad-fahren/motorrad-parken/ kann man sich sicherlich die eine oder andere Ebene sparen.
- Manche SEOs empfehlen, URLs auf maximal 74 Zeichen zu reduzieren, damit diese in den Suchergebnissen nicht abgeschnitten werden. In der Praxis können Google und Co aber auch bis 2.000 Zeichen erfassen. Solch eine lange URL erzeugt aber kein mir bekanntes Shop- oder Redaktionssysstem, außer es werden Filter-, Such- oder Tracking-Parameter eingesetzt. In solchen Fällen macht es allerdings Sinn, anstatt dynamischer Parameter per Canonical-Angabe den Permalink indexieren zu lassen. Ferner geben Suchmaschinen seit vielen Jahren Navigationspfade (engl. Breadcrumbs) in den Suchergebnissen aus, um die häufig inkonsistenten URLs (aus Länge- und Hierarchie-Sicht) durch hierarchische Brotkrumen zu ersetzen. Daher ist die URL-Länge egal, so lange sie nicht über die 2.000 Zeichen hinaus geht und man Navigationspfade einsetzt. Die Navigationspfade sollten ähnlich wie die URLs und hierarchisch aufgebaut sein.

Abschließend werde ich nicht müde zu betonen, dass die Verwendung von Sonderzeichen und Großbuchstaben zu vermeiden ist. Das gilt nicht nur für „klassische“ Website-Inhalte, sondern auch für Bilder und PDFs.
Monitoring
Das Überwachen von URL-Änderungen ist entscheidend, um sicherzustellen, dass eine Website effektiv funktioniert und Änderungen nicht zu negativen SEO-Auswirkungen führen. Es gibt verschiedene Tools und Methoden, die dir dabei helfen können:
- Google Search Console: Mit der Google Search Console kannst du Überprüfungsberichte verwenden, um festzustellen, ob deine Website Fehler aufweist, die auf Probleme mit URL-Änderungen hinweisen könnten. Außerdem kannst du „Coverage“-Berichte verwenden, um zu überprüfen, ob alle deine URLs korrekt gecrawlt und indexiert werden.
- Webanalyse-Tools: Mit Tools wie Google Analytics kannst du Änderungen im Traffic auf bestimmten Seiten überwachen. Ein plötzlicher Rückgang könnte auf ein Problem mit einer URL-Änderung hinweisen. Du kannst auch benutzerdefinierte Warnungen einrichten, um dich über signifikante Veränderungen im Seitenverhalten zu informieren.
- SEO-Crawling-Tools: Mit Tools wie Screaming Frog, Sitebulb oder DeepCrawl kannst du deine Website crawlen und Berichte erstellen, die auf Probleme mit URL-Änderungen hinweisen könnten, einschließlich Weiterleitungsfehlern, toten Links und Änderungen im Seiteninhalt.
- Server-Logs: Die Überwachung von Server-Logs kann dir dabei helfen, zu erkennen, wie Suchmaschinen-Bots deine Website crawlen, und ob es Probleme im Zusammenhang mit URL-Änderungen gibt.
- Tools zur Überwachung von Änderungen: Tools wie ContentKing, OnCrawl oder Little Warden können in Echtzeit Änderungen auf deiner Website überwachen und dich benachrichtigen, wenn URLs geändert oder entfernt werden.
Durch die regelmäßige Überwachung von URL-Änderungen mit diesen Tools und Methoden kannst du sicherstellen, dass deine Website optimal funktioniert und mögliche Probleme frühzeitig erkannt und behoben werden.
Tipp für WordPress
An dieser Stelle möchte ich noch das Plugin „Permalink Manager Pro“ vorstellen: Damit kannst du URLs völlig unabhängig von Kategorien, Post-Types oder anderen Faktoren definieren und mithilfe von Platzhaltern logisch strukturieren.