RSS | Impressum | Sitemap |
Profi-Ranking Suchmaschinenoptimierung

SEO Marketing Blog

.... googeln bis der Arzt kommt

Besonders große, alte, gut verlinkte und natürlich absolut saubere Seiten wurden deindiziert und haben einen Großteil der Unterseiten im Google-Index eingebüßt. Ein sehr komisches, aber eben auch sehr interessantes Phänomen … :-)

Deindizierung – komisches Phänomen

In den letzten Monaten ist mir bei komplett unabhängigen, aber durchweg größeren Projekten (ab ca. 1000 Seiten unique content) aufgefallen, dass ein Großteil der Unterseiten ohne erkenntlichen Grund deindiziert wurde! Aus 1000+ Seiten wurden so schnell einmal 180-250. Das Ganze hat sich über Wochen / Monate hingezogen. Der Traffic der Projekte ist (unerklärlicherweise) nur teilweise oder (deutlich realistischer) eben gravierend eingebrochen.

Bei allen Projekten handelt es sich um besonders alte, gut verlinkte Seiten, die ansonsten top ranken und einen guten Trust verzeichnen. Keines der Projekte ist auch nur um Ansatz spammy (weiß ja, wer mich kennt). Von daher habe ich mir gedacht, dass ich hier mal einen Aufruf starte, wer ein ähnliches Phänomen beobachten konnte.

Was genau der Grund dafür ist, bleibt vorerst Spekulation. Ich könnte mir folgende Gründe aber zumindest theoretisch vorstellen:

  • 1.) Google spielt mal wieder an der site:-Abfrage rum und publiziert nur einen kleinen Teil der indizierten Seiten. (Dagegen spricht meiner Meinung nach, dass der Traffic teilweise eben doch gravierend eingebrochen ist)
  • 2.) Es wird eine Art Zweitindex aufgebaut. Dieser existiert parallel zum bisherigen Index und beinhaltet vor allem die Longtail-SERPs. (Könnte ich mir grundsätzlich gut vorstellen, jedoch würde dies nicht erklären, weshalb ausschließlich große Seiten betroffen waren und diese [besonders guten, sauberen, starken] Seiten traffic-technisch darunter leiden mussten …)
  • 3.) Die Seiten sind alle samt unabhängig von einander abgewertet worden. (Meiner Meinung nach sehr, sehr unwahrscheinlich bis unmöglich… und vor allem: nicht logisch!)
  • 4.) Bei allen samt tritt der “slow death” auf – vielleicht sogar als Fehler im Algorithmus. (Wäre grundsätzlich denkbar, aber alle Seiten sind sauber und alles andere als spammy! Zudem halte ich den “slow death”-Gedanken auch für unwahrscheinlich, da die Unterseiten entweder da, oder eben komplett weg waren und das bisherig bezeichnende Phänomen des Rauswurfs aus dem Cache durchweg nicht zu verzeichnen war. Zudem wurde die Startseite auch nicht aus dem Index verbannt – der Googlebot hat die Seiten auch weiter besucht …)
  • 5.) Google setzt den Fokus mehr auf den Qualitäts-Faktor anstatt bisherig auf einen Qualitäts-, Quantitäts-Mix mit archivalischer Basis. (Halte ich für sehr unwahrscheinlich bis komplett irrelevant, da dies der Funktion des Webs als digitales Archiv und dem Grundgedanken Googles komplett widersprechen würde!)
  • 6.) Es wurde einfach mal wieder was am realen Index getestet … (Gut möglich … aber weshalb sind dann gerade die besonders guten, alten, großen Projekte betroffen?)
  • 7.) Die Gewichtung von eingehenden Links wurde dahingehend verändert, dass die bisherige Power nicht mehr ausreicht, um alle Seiten von besonders großen Projekten zu indizieren. (Das wiederum steht aber auch im Widerspruch zum Archiv-Gedanken und der bisher gültigen Logik…)

Meine obigen Bewertungen basieren primär darauf, dass alle (!) betroffenen Seiten mit allen Unterseiten wieder gelistet wurden, nachdem ich via Webmaster Tools eine XML-Sitemap eingesetzt habe oder eben (trotz einer durchweg sauberen, stringenten internen Verlinkung) eben auf der Seite selbst eine Sitemap eingesetzt habe.

Ob das das Zwangs-Comeback von Sitemaps ist, kann man so wohl noch nicht sicher sagen. Komisch und vor allem publizierenswert finde ich das Ganze dann doch. :-) Also mal direkt wieder zurück zu meinem Aufruf:

Wer hat Ähnliches beobachtet?


Andere Beiträge mit ähnlichen Inhalten, die Dich evtl. auch interessieren könnten:


Der Artikel " Deindizierung – komisches Phänomen " enthält 499 Wörter.

Artikel mit verwandten Tags (Keywords, Suchbegriffe)


Am 29.03.09, 22:46 in Googlevil
von manuelfu veröffentlicht. RSS Feed für Kommentare.
Du kannst hier kommentieren oder hier per Trackback
von Deinem Blog aus "verewigen".
· Gelesen: 7783 · heute: 3


8 Kommentare zu "Deindizierung – komisches Phänomen"

  • Nun wenn der Trafficeinsturz nicht wäre.. Google ranked Blogs inzwischen sehr gut zu vielen Themen. Außerdem hat man auch bei Wikipedia einen Rückgang der Listung in den SERPs bemerken können. Frische Themen die in einfacherer Sprache geschrieben sind, scheinen interessanter zu sein. Da ist auch ein “Ausmisten” im Index nicht ungewöhnlich. Andererseits hat Google die Kapazitäten doch erst erweitert und hätte statt den guten Seiten lieber die vielen Free SMS und Kreditspamseiten kicken sollen.

    Davon abgesehen will Google doch in diesem Jahr das Userverhalten ins Ranking einbauen. Vielleicht auch in die Auswahl der Speicherplatzbelegung. Wenn die Seiten nicht geklickt werden, fallen sie irgendwann raus.

    ???

  • Unter den betroffenen Seiten war in der Tat ein Blog. Aber das ist nur ein Projekt von x betroffenen…

    Dass “Themen die in einfacherer Sprache geschrieben sind” interessanter sind, kann ich mir per se nicht vorstellen. Aber bei Google findet wohl ein Umdenken statt. Denn wenn man nach einem Wikipedia Artikel sucht, dann sucht man direkt bei Wikipedia oder gibt zusätzlich zum Suchstring einen Zusatz wie “wiki” an. Das Suchverhalten hat sich diesbezüglich geändert … aber mit dem Phänomen hat das ja nicht direkt zu tun …

    Die Anklick-Theorie kann ich so auch nicht nachvollziehen. Denn insbesondere bei Nischenthemen ist der Longtail nicht sehr klickstark und das eben “von Natur aus”. Damit würde man einen riesigen informativen Mehrwert zunichte machen und die Relevanz der Suchergebnisse senken.

    An ein Ausmisten habe ich auch schon gedacht – aber genau das kann ich mir einfach nicht vorstellen, da es jeder Logik widerspricht … und Suchmaschinen arbeiten logisch. Ein Fehler beim Ausmisten wäre auf jeden Fall denkbar – da stimme ich Dir absolut zu!

  • Ich habe nun bei einer der deindizierten Seiten, bei der nur ca. 50 Prozent der Unterseiten bisher reindiziert wurden die Crawl-Geschwindigkeit via Webmaster Tools auf das Maximum erhöht. Damit bekämpfe ich zwar nur die Symptome und nicht die Ursache, aber das ist ja auch ziemlich relevant – je schneller die Unterseiten wieder drin sind, desto besser! Ich bin mal auf den Effekt gespannt … trotz Sitemap kommen hier bisher nur 10-20 zusätzliche Seiten pro Tag in den Index – man darf gespannt sein … :-)

  • Das habe ich ähnlich erlebt, bei einer nicht so alten Seite. Bei einem neuen Projekt mit ca. 30 Seiten sind etwa 20 im Index gelandet. Nach Einreichen einer Sitemap kamen nach und nach die anderen Seiten dazu. Ein paar Tage später ist der Traffic auf einer sehr gut positionierten Seite (die 40% des Umsatzes generiert), eingebrochen. Nach Prüfung auch festgestellt, Seite nicht mehr im Index. Nach erneutem Einreichen der Sitemap war die Seite dann wieder da.
    Das Ganze ist etwa 3-4 Monate her. Seit der letzten Einreichung der Sitemap sind die besagten Seiten im Index geblieben. Aber es waren zwei “Runden” nötig.

  • das werd ich unsere sitemaps auch mal neu einreichen. wir haben auch einige Seiten im index verloren

  • Habe mit einem Bekannten erst kürzlich selbiges Problem durchgesprochen. Er hat dieses Phänomen bei einem Webkatalog. In Zeiten in denen er pro Woche 10 bis 50 Einträge bearbeitet/freischaltet, steigt die Indexkurve stark an. Wird innerhalb von 4 Wochen wieder nix mehr an dem Projekt gemacht, fallen viele (bei ihm mehr als 1000) Seiten wieder aus dem Index. Sprich einfacher Content ist schön und gut (besser vielleicht für die Seo-Kids :-) Wichtiger scheint vielmehr regelmäßige Updates der Seiten zu werden. Und das ist in meinen Augen auch eine sinnvolle Strategie von Google, da ja relevante und aktuelle Inhalte und kein veralteter Content (der zeitbedingt jetzt genug Trust hat) gelistet werden soll.
    Ein super Beispiel ist doch auch schon mal wieder das SEO-Blog hier. Ca. 4 Wochen kein neuer Content in Form eines neuen Artikels, und schon Blobb geht es bei “SEO” um ein paar Positionen abwärts. Dein Artikel kam zur rechten (Wellness)-Zeit … und gut erholt steht die Page wieder auf der 3.

  • 7. E-Murphy

    Wenn dem so ist und das scheint es ja!! Stärkt das auch mein Strategie in Blogs und Foren immer auf der Starseite die neuesten Nachrichten mit ein zu binden.
    So, dass unser Freund der Google Bot immer etwas neues zu futtern und zu verdauen findet.

    Nur so am Rande erwähnt passt da mein Spruch bei einigen Seiten im Netzt mal wieder wieder:

    Gute Speis und Trank gibt –> Scheiß und Gestank ;-)

    Gruß E-Murphy

  • 8. Philipp

    Hallo Manuel,

    wie haben sich denn deine Projekte seither gemacht? Gibt es hier etwas Neues?

    Ich kann dieses Verhalten bei einem meiner Projekte seit März, etwa dem Zeitpunkt deines Postings, feststellen. Hier ist die Zahl der indizierten Seiten von über 80.000 auf nun knapp unter 40.000 Seiten gesunken. Der Traffic über den organischen Index ist in dieser Zeit jedoch weiter stetig angestiegen?!

    Viele Grüße,
    Philipp


Deine Ideen zum Artikel: Deindizierung – komisches Phänomen

Kommerzielle Werbung in Kommentaren ist diesem SEO Blog nicht erwünscht!


Entspannen Sie ... wir kümmern uns darum!
Profitieren auch Sie von unserem Google Ranking Know-How!
» Profi Ranking - Suchmaschinenoptimierung «