RSS | Impressum | Sitemap |
Profi-Ranking Suchmaschinenoptimierung

SEO Marketing Blog

.... googeln bis der Arzt kommt

Im Gegensatz zu früher stürzt sich Google aktuell verstärkt auf Suchergebnisse von Wordpress Blogs, welche natürlich duplicate content erzeugen, wenn sie im Suchindex landen. WP basteln zum Wochenende ist angesagt ;-)

WordPress Suchergebnisse im Google Index = duplicate content

Habe ich zwar schon öfter mal vereinzelt im Index gesehen – seit Kurzem scheint es allerdings verstärkt aufzutauchen: Google hat anscheinend beschlossen, Suchanfragen der WordPress internen Suchfunktion umfassend als Suchtreffer zu erfassen.

Das Resultat ist im Regelfall mal wieder duplicate content vom Feinsten – ein Elend, dass der Supplemental Index in der bisherigen Form nicht mehr existiert & auch keine Möglichkeit mehr besteht, die “betroffenen” Webseiten über Google abzufragen (früher mit site:url.de *** -aadfjdsgffj oder site:url.de/& möglich gewesen), die für Google quasi “uninteressant” sind. Oder kennt jemand eine aktuelle Möglichkeit diese Ergebnisse abzufragen?

Um das Problemchen im Detail verständlich zu machen (Danke an Jörg von der Segelschule am Bodensee für den Hinweis – hatte es mir gestern Abend dann nochmal in Ruhe angesehen & doch beschlossen das Thema mal hier im Blog aufzugreifen ;-)) einfach mal das Beispiel von Jörgs Blog, welches gegenüber anderen mir bisher bekannten Konstellationen noch mit einer Besonderheit aufwartet:

site:p5p.de (464 Ergebnisse)
site:www.p5p.de (92 Ergebnisse)
site:p5p.de inurl:index.php?= (206 Ergebnisse)

Der Blog ist mit und ohne www erreichbar (jaja, der Jörg – auch wenn er´s besser weiss ;-)) – das Interessante bei ihm ist, dass er bei der Abfrage mit www ausschließlich Suchergebnisse der WordPress Suche angezeigt bekommt?

Tja, lange Rede kurzer Sinn – von seinem Blog sind momentan knapp die Hälfte der erfassten Seiten im Google Index duplicate content. Habe es mal hier im SEO Blog ausprobiert, da sind´s nur 3 erfasste Suchanfragen (merkwürdig, gerade bei der stärksten überprüften Domain sind die mit großem Abstand wenigsten Suchergebnis-Seiten erfasst?) – bei meinem Privatblog sind es allerdings auch immerhin 129 von 196 insgesamt erfassten Unterseiten.

Dat is nich gut – mit der Thematik duplicate content durch WordPress Suchergebnisse sollte sich jeder WP-User auseinandersetzen, der Interesse an einem guten Google Ranking hat ;-)

Wie genau Google die planmäßig von irgendwelchen Blog Usern getätigten Suchanfragen erfasst, ist mir momentan schleierhaft – hätte als erstes mal die Google Toolbar in Verdacht. Vielleicht möchte Google einfach unbedingt wissen, welche Suchen innerhalb einer Site getätigt werden & berücksichtigt diese Suchergebnisse dann im Index?

Könnte man zumindest vermuten, wenn man Ergebnisse wie die Suche nach wegkomme nimmt, steht mein Privatblog auf Position 8 mit dem Blog-Suchergebnis dafür …

Problem dabei ist, das die angezeigten Treffer bei den allermeisten Blogs dem Bereich über dem “Weiterlesen” entsprechen & damit sowohl zu Datumsseiten, Kategorien oder auch Tag-Seiten duplicate content erzeugen.
Aus SEO-Sicht ebenfalls problematisch ist, dass man den Header Title nicht frei gestalten kann & natürlich auch keine sinnvolle interne Verlinkung möglich ist. Macht ja keinen Sinn den Blog schick zu rewriten & dann intern auf dynamische Pfade von Suchergebnissen zu verlinken ;-)

Eine Lösungsmöglichkeit für dieses etwas merkwürdige Verhalten von Google, welches bei mir mal wieder alle Datenkraken-Alarmglocken klingeln lässt, wären z.B. die Suchergebnisse im Header mit Noindex & Follow zu versehen:

<?php if ( ( is_home() && !is_paged() ) || is_single() || is_page() ) { echo '<meta name="robots" content="index, follow" />'; } else { echo '<meta name="robots" content="noindex, follow" />'; } ?>

Obiger Code geht allerdings im Effekt noch deutlich darüber hinaus, da er festlegt, dass in eurem Blog nur noch die Startseite (plus der gepagten Übersichtsseiten), Artikel & Einzelseiten ein index, follow erhalten, während alle anderen Bolg-Unterseiten automatisch mit noindex,follow versehen werden.

Bedeutet dann aber auch, dass Kategorien, Tag-Seiten, Datum-Strukturen oder Feeds nicht mehr erfasst werden. Wer die drin haben möchte, braucht allerdings auch nur die einzelnen entsprechenden Conditional Tags oben in der ersten Zeile einfügen.


Obigen Code habe ich übrigens bei Frank kopiert, der sich mit der Thematik WordPress Suchergebnisse für Google sperren bereits vor längerem mal auseinandergesetzt hat.
Eine weitere Möglichkeit obiges per WP Plugin zu lösen, wenn ihr nicht in eurem Header rumfummeln möchtet/könnt, findet ihr auch dort zum Download ;-)

Tja, und wenn ich schonmal wieder beim Thema “duplicate content” bin: wenn ihr mit einer URL an Zanox Partnerprogrammen als Anbieter (Merchant) teinehmt, solltet ihr mal bei Google überprüfen (site:euredomain.de inurl:zanpid), ob es eure Seite auch mit “zanpid” duplicate content erwischt hat ;-)
Hiervon sind nicht nur einzelne Unterseiten, sondern teils auch Startseiten betroffen!

Scheint laut Auskunft eines Bekannten, der mit Zanox deswegen bereits gesprochen hat, ein temporäres Problemchen gewesen zu sein & nun wieder abgeschaltet?

Um das evtl. bereits bestehende Ergebnis wieder aus dem Google Index zu bekommen, kann man Folgendes per robots.txt probieren – weiss allerdings nicht wie zuverlässig das mit Google & Whitecards in der Robots.txt klappt, wir probieren es gerade mit der betroffenen Kunden-URL:

User-agent: * Disallow: /?zanpid=* Disallow: /?zanpid=12345678900987654321

Alternativ könnte man natürlich auch die Entfernung der Einzelseite per Google URL Konsole vornehmen (ich trau dem Teil allerdings nur bedingt – wäre mein letzter Versuch ;-)) oder per htacces & 301 die betroffene URL umzuleiten – hab allerdings keine Ahnung, wie sich das dann auf die Tracking-Möglichkeiten durch Zanox auswirkt?

Halte euch auf dem Laufendem, was mit der Seite passiert – nach 3 Tagen Sperrung per Robots.txt hat Google die Zanpid-Seite zumindest noch im Index …

Nachtrag zu meinem Kommentar 6:
<?php if (is_search()) { ?> <meta name="robots" content="noindex,follow"/> <?php } else { ?> <meta name="robots" content="index, follow" /> <?php } ?>

Nachtrag 2:
Da ich letzte Woche geschäftlich in Berlin war & diese Woche “der Busch gebrannt hat”, hatte ich noch gar nicht weiter zu dem Thema oben recherchieren können: hab gerade noch was Ergänzendes dazu gefunden, leider auch ohne finale Klärung, woher genau die von Google erfassten Suchanfragen nun resultieren …

Nachtrag 3:
… von MisterBlogger aka Kay per Mail eingereicht – liess sich in den Kommentaren nicht vernünftig darstellen, sind zwei weitere Code-Variante Obiges zu lösen. Einmal sehr easy & direkt in der search.php (muss dann allerdings bei jedem WordPress Update manuell nachgetragen werden) & einmal als Beispiel-Header, der natürlich leicht an die eigenen Gegebenheiten angepasst werden muss:

Variante 1:
search.php – Auszug aus der zweiten Zeile
<meta name="robots" content="noindex, nofollow, noarchive" />

Variante 2:
Auszug aus der Header.php
<?php if (is_home()): ?> <title><?php bloginfo('name'); if ($paged != 1 && $paged) { echo(" Seite $paged"); } ?></title> <meta name="description" content="bitte anpassen" /> <meta name="keywords" content="bitte anpassen" /> <meta name="robots" content="index, follow" /> <?php endif; ?>
<?php if (is_category()): ?> <title><?php wp_title(''); ?> - <?php bloginfo('name'); if ($paged != 1 && $paged) { echo(" Seite $paged"); } ?></title> <meta name="description" content="<?php echo category_description(); ?> " /> <meta name="robots" content="index, follow" /> <?php endif; ?>
<?php if (is_single ()): ?> <title><?php wp_title(''); ?> - <?php bloginfo('name'); ?></title> <meta name="robots" content="index, follow" /> <?php endif; ?>
<?php if (is_search ()): ?> <title><?php wp_title(''); ?>- Ergebnisse</title> <meta name="robots" content="noindex, nofollow, noarchive" /> <?php endif; ?>

&lt;?php if (is_page ()): ?&gt; &lt;title&gt;&lt;?php wp_title(''); ?&gt;-Übersicht&lt;/title&gt; &lt;meta name="robots" content="index, follow" /&gt; &lt;?php endif; ?&gt; &lt;meta NAME="Language" CONTENT="DE"&gt; &lt;meta name="generator" content="WordPress &lt;?php bloginfo('version'); ?&gt;" /&gt; <!-- leave this for stats -->


Andere Beiträge mit ähnlichen Inhalten, die Dich evtl. auch interessieren könnten:


Der Artikel " WordPress Suchergebnisse im Google Index = duplicate content " enthält 915 Wörter.

Artikel mit verwandten Tags (Keywords, Suchbegriffe)
Tags: , , , , ,


Am 15.02.08, 13:40 in Google SEO
von Frank veröffentlicht. RSS Feed für Kommentare.
Du kannst hier kommentieren oder hier per Trackback
von Deinem Blog aus "verewigen".
· Gelesen: 16099 · heute: 3


31 Kommentare zu "WordPress Suchergebnisse im Google Index = duplicate content"

  • Wie wärs mit
    ‘;
    } ?>

  • 2. johnjack

    Dein Beispiel oben mit dem Noindex ist doch gut, das lässt sich mit kleinsten Recherchen auch für einen Nichtprogrammierer einfach danach anpassen, dass es nur für die Suchseite passt.

    Dabei muss man die entsprechende schon von WordPress gebaute Funktion zur Typabfrage der Aktuellen Seite durch eine $_GET Abfrage ersetzten, und dann den entsprechenden Wert nutzen. Wie das bei WordPress genau aussieht weiß ich nun allerdings nicht.

    Ich vermute das Google allerdings bald dann sogar soweit gehen wird, selber Suchanfragen mit den erkannten “Haupttags” einer Seite startet, und schaut wie relevant die Ergebnisse sind, und daraus wiederrum weitere Bewertungen an der Seite vornimmt.

  • Dein Blog mag meinen PHP Code nicht :)

    Also nochmal:

    (php einschalten)

    if (is_search())
    *geschwungeneklammerauf*
    echo ‘noindex,follow’
    *geschwungeneklammerzu*

    (php aus)

  • 4. johnjack

    Ach, wenn es die funktion is_search bei WordPress gibt, dann kann man sich meine Variante auch sparen. Praktisch.

  • 5. Duplicate Content in Wordpress vermeiden

    […] Wer seinen Blog in Zukunft nicht abrauschen sehen will, der sollte sich den guten Artikel im SEO Marketing Blog einmal anschauen.Äußerst hilfreich und gut beschrieben.Das Plugin mit dem man das Ganze auch umgehen kann findet ihr übrigens hier.  Verfasst von Stefan Petersen […]

    Edited: Link auf sporli.de entfernt, da Artikel entfernt … falls nur verschoben bitte melden ;-)

  • @ Andreas

    jau, wenn Du den Code in < code > packst (natürlich ohne die Leerschläge ;-)) sollte es richtig dargestellt werden …

    Die Variante nur is_search mit noindex,follow auszustatten ist natürlich die Einfachste – mir gefällt die oben aber besser, weil man dadurch auch gleich weiten DC easy wegbekommt ;-)

    Wobei ich dann noch besser (auf blöd & Nummer sicher) folgende Version nutzen würde, damit in allen anderen WP-Seiten index,follow im Header enthalten ist:

    <?php if (is_search()) { ?>
    <meta name="robots" content="noindex,follow"/>
    <?php } else { ?>
    <meta name="robots" content="index, follow" />
    <?php } ?>
  • … achso, dat habe ich wohl fürs Kommentarfeld nicht formatiert – sorry, mach ich bei nächster Gelegenheit mal – siehe oben Nachtrag ;-)

  • Also Google füllt keine interne Suchformulare aus und schickt diese ab. Also kann dieser DC eigentlich nur entstehen, wenn jemand der euch nicht mag eure “Suchergebnisseiten” anlinkt!

    Sollte das der Fall sein, schreibt einfach das in die
    Robots.txt und schon ist das Problem “DC” Geschichte…

    Disallow: /index.php?s=*

  • @ MiterBlogger

    … das mit der Robots.txt ist natürlich klar – wobei unklar ist, wie “regelmässig” sich Google überhaupt an Whiitestrings hält – siehe das zanpid Beispiel oben!

    Mich würde interessieren, wie Du zu der Theorie mit dem anlinken kommst, bzw. wo Deine “Google-Insiderkenntnisse” herrühren, die ausschliessen, das Google Suchformulare “abfängt” oder “ausfüllt”?

    Google füllt mit manchen Bots auch Shop-Bestellungen aus – da bin ich sicher, hab ich schon vereinzelt bei uns im Warenkorb gesehen ;-)

    Glaubst Du wirklich ernsthaft, dass sich jemand bei dem p5p.de Beispiel von oben die Arbeit gemacht hätte mehr als 200 Keywords, eines von ihm ungeliebten Blogs, einzeln in Suchergebnissen anzulinken?

    Ist ja mal ne ziemlich sinnfreie Theorie – zumal es auch nur um einen Hobbyblog geht!

    Achja, und die 100TSD WordPress Suchergebnisse allein im deutschsprachigen Google Index sind natürlich auch alle von bösen, neidischen Nachbarn in feinster Handarbeit angelinkt & Ausdruck der deutschen Neidgesellschaft ;-)

    Ich befürchte, Du solltest Deinen Ansatz nochmal gründlich überdenken … macht so, zumindest für mich, irgendwie keinerlei Sinn …

  • WordPress kann noch viel mehr :)

    Ich würde den Header noch je nach Blogeinsatz mit folgenden Conditions erweitern:

    is_category() , is_tag() , is_date() bzw. schmarrn drüber einfach alle archive aus dem index mit

    is_archive(), denn weder datums-basiert noch tag-basiert wollen wir im index haben.

    Nachzulesen gibts das ganze hier http://codex.wordpress.org/Conditional_Tags

    Ich z.b. habe bei meiner neuen Webseite die Category-Archive schon in den Index, da ich da eine schöne Kategorie-Beschreibung und dann nur die Titel reingemacht habe. Ansonsten kann das Archiv auch schön duplicate Content generieren.

  • 11. Frank

    @ Andreas

    Jau, wie wahr – mit den Conditional Tag Ausschlüssen bist Du dann wieder genauso weit, wie in dem ersten Beispiel im Artikel oben, wenn Du dort is_category dazunimmst – alles andere hat dann ja automatisch noindex “am Hals” ;-)

    Stimmt, die offizielle WordPress Conditional Tags hätte ich oben auch gleich verlinken können – Danke für den Nachtrag …

  • 12. Pat

    Zur Siteabfrage. ;)
    ich machs immer so:
    site:domain.de *** -sjpkedblubberbla funzt auch bei deinem hier hießigen blog. was halt nicht stimmt ist die resultsanzeige. einfach mal auf die letzte ergebnissseite klicken, da sieht man dann den unterschied.
    oder steh ich gerade aufn schlauch?

  • 13. Frank

    @ Pat

    … ich befürchte – aber vielleicht steh ich auch auf´m Schlauch ;-)

    Das ist doch genau die oben angesprochene Abfrage, die früher u.A. ne zeitlang die supplemental index Ergebnisse angezeigt hat.

    Wenn ich das jetzt mache, kommen Ergebnisse die mit Duplicate Content (eben der war früher u.A. im abgeschafften Supplemental Index zu finden) nix zu tun haben.

    Bei dem Blog hier u.A. die Startseite & einige der bestverlinkten (& bestplatzierten ;-)) Artikel & Kategorien.

    Wenn ich mich zur letzen angezeigten Ergebnis-Seite durchklicke (etwa bis Treffer 580 – bei der normalen Site-Abfrage komme ich bis 680 – Ergebnis-Anzeige gesamt etwa 2600) stelle ich nix besonderes fest?

    Wenn ich dann auf übersprungene Ergebnisse anzeigen klicke, bekomme ich bei beiden Varianten nicht mehr Resultate angezeigt?

    Neenee, ich schätze die “wertloseren” Seiten einer Site über die Google Site-Abfrage auf einen Blick zu recherchieren ist endgültig abgeschafft … oder zeigt Dir Google bei Deiner Abfrage was anderes, bzw. aufschlussreicheres als mir?

    Wäre ja ein lustiges neues Nischen-SEO Geschäftsmodell: “ich sehe (googele) was, was Du nicht siehst (googeln kannst)” – und dann die Screenshots bzw. gescrapten Google Ergebnisse vertickern ;-)

  • […] Frank hat entdeckt, dass Google anscheinend beschlossen hat, Suchanfragen der WordPress internen Suchfunktion umfassend als Suchtreffer zu erfassen. Es droht DC-Gefahr. […]

  • 15. johnjack

    und wieso nutzt ihr dann nicht die einfachste variante und schließt nicht die aus die es nicht sein sollen sondern legt fest welche es nur sein dürfen. lässt sich doch durch ein ! nachhelfen


    if(!is_home()){
    }else{
    }

    oder einfach die Inhalte der beiden Fälle miteinander tauschen. Damit schließt man das weiter aus. Traurig wenn ich so bedenke viele Seiten so mit einem nonindex zu definieren. Gerade bei vielen kleinen Seiten die nur durch inlinks bei Google auftauchen, kann es so passieren dass viele dieser Inlinks keine wirkung haben, sollte jemand direkt auf eine Kategorie linken.

  • […] Heute nur flott einen Link, der alle suchmaschinenbewussten WordPress-Nutzer interessieren dürfte: Google erfasst Ergebnisse der WP-internen Suchfunktion verstärkt als eigene Suchtreffer und lässt sogar den Bot selbst solche Suchanfragen produzieren. Duplicate Content ist die Folge. Wer wissen will, wie man dem ohne viel Aufwand entgegnen kann, der möge dies hier lesen. […]

  • 17. Perun

    Hallo,

    wenn du nur die Suchergebnisse “aussperren” willst, dann reicht folgendes:

    &lt;?php if (is_search()) {echo &quot;&lt;meta name=\&quot;robots\&quot; content=\&quot;noindex, follow\&quot; /&gt;\n&quot;;} ?&gt;

    Siehe auch: WordPress-Themes verstehen Teil 3

    Ich verstehe allerdings nicht warum man die Archiv-Seiten aussperren sollte, da dort die Zusammensetzung anders ist und ich dort die Gefahr vom doppelten Inhalt nicht als gegeben sehe.

    Ist denn die Angabe von

    &lt;meta name=&quot;robots&quot; content=&quot;index, follow&quot; /&gt;

    nicht doppeltgemoppelt, da index + follow quasi die Standardanweisung für die Robots ist?

  • 18. Frank

    Hi Perun,

    Klar – “index,follow” ist die Standard-Anweisung für die Bots – ich neige nixdestotrotz dazu, lieber etwas selbst zu definieren (ausgeprägte SEO-Paranoia mit Kontrollzwang-Schüben ;-)), statt mich darauf zu verlassen, dass Suchmaschinen Bots sich immer an Standards halten.

    Danke auch für den Code, ne weitere & kürzere Möglichkeit ausschließlich nur is_search mit noindex,follow zu versehen kann nie schaden ;-)

    Glaube aber, daß es für die meisten WP-Blogger aus SEO-Sicht hinsichtlich DC-Vermeidung sinnvoller ist, nicht nur die Suchergebnisse mit noindex zu versehen und das erste Beispiel (evtl. erweitert um is_category) von oben im Artikel zu nutzen.

    Zu dem Thema Archive & duplicate content – kann ich nicht pauschal beantworten. Hängt natürlich sehr stark vom Blogaufbau & auch dem Blogger-Verhalten ab, ob und wieviel duplicate content man mit Archiven “produziert” …

    Grundlegend kann man nach meinen Erfahrungen “das Gröbste an DC” im Zusammenhang mit Archiv-Seiten zumindest dadurch umgehen, daß man auf der Startseite die more/weiterlesen Möglichkeit nutzt (Vermeidung DC zwischen Startseite & Einzelartikel) und den “excerpt” (optionaler Auszug) für alle Listenansichten einsetzt, bzw. den excerpt nochmal über den Artikel selbst setzt.

    So mach´s ich zumindest – hab die Archive bei mir hier im SEO Blog übrigens auch nicht ge-noindext, betrachte den Blog hier aber auch als experimentelle SEO-Dauerbaustelle & nehme DC teils einfach auch in Kauf ;-)

    Ergebnis meiner Vorgehensweise: Startseite (Content-Ausschnitt vor dem more) & Einzelartikel (excerpt, dann Content) fangen immer 100% unterschiedlich an, Einzelartikel & z.B. Kategorie-Listenansichten fangen zwar u.U. beide auch mit dem gleichen excerpt an, durch meine fast immer ultralangen Artikel besteht aber bei diesen wichtigsten Seiten-Arten (Startseite, Einzelartikel, Kategorien) im Blog keine DC-Gefahr untereinander …

    Ich nehm einfach mal die drei Archiv-Arten (is_archive) mit je einem exemplarischen Startseiten=Archiv Beispiel, welches theoretisch DC erzeugen kann:

    Category – angenommen der Blogger hat 10 Kategorien & schreibt 90% seiner Artikel in der Hauptkategorie. Je nach Darstellung der Startseite (Auszug bis more oder excerpt oder kompletter Artikel) hat dann die Startseite bis zu 90% DC zu der Kategorie-Übersichtsseite. Evtl. kann man hier ggfls. z.B. noch mit der Menge der angezeigten Artikel spielen um die Unterschiede größer zu machen – hilft aber nicht bei allen Konstellationen …

    Author – wenn es nur einen Autor im Blog gibt, ist der DC ggfls. vorprogrammiert (Startseite = Autor-Übersichtsseite), wenn es mehrere Autoren gibt, die ähnlich regelmässig schreiben, kann es ganz gut klappen, da Inhalte auf der Startseite “gut durchgemixt” sind und auf den Autorseiten separiert …

    Date – viele Blogger schreiben an einem Tag auch nur einen Artikel. Wenn die den excerpt für die Tages-Listenansichten nicht nutzen, haben sie im Tages-Archiv DC zum Artikel und Monats-Archiv entspricht dann meist Startseite und Jahres-Archiv gepaged entspricht Startseite gepaged …

    Weitere DC-Variationen der Archiv-Seiten untereinander: Day=Autor, Month=Autor=Category, Year paged=Autor paged=Category paged – mehr fällt mir so spontan erstmal nicht ein …

    Hauptproblem bei den Archiv-Seiten ist aus SEO Perspektive neben den doppelten Text-Inhalten die Tatsache, dass keine optimierten (möglichst unterschiedlich) title (im Header) und keine individuell anpassbaren Dateipfade genutzt werden können …

    Aber wie gesagt, alles obige ist natürlich immer schwer davon abhängig, wie man seinen Blog grundsätzlich konfiguriert & wie das Blogger-Verhalten (täglich ein/mehrere Artikel, ein/mehrere Autoren, Einsatz excerpt oder nicht bzw. wie, more oder nicht, eine Hauptkategorie oder 10 gleichwertige, durchschnittliche Textlänge von Artikeln, ind. Header-title in Archiv-Ansichten etc.) in der Praxis umgesetzt wird …

    Ganz abgesehen von den obigen “wenns & abers” baue ich neue Kunden-Blogs in den letzten Monaten immer grundlegend so auf, dass nur noch Startseite + gepaged, Artikel, Seiten, Kategorien ungepaged, Tags + gepaged (wobei das ein Thema für sich ist, wenn man DC vermeiden will – wenn´s einigermassen clever umgesetzt wird, sind Tag-Seiten allerdings Gold wert und “die besseren Kategorie-Seiten” ;-)) ein index, follow bekommen. Alles andere wird komplett auf noindex, follow gesetzt.

    Mache ich aber nur bei Kunden-Blogs so, da die als Blogger-Newbies sowieso nicht alles (separaten excerpt pro Artikel erstellen, “more” nutzen, Kategorien-Verteilung, Artikel-Frequenz, Tags sinnvoll vergeben etc.) 100%-ig umgesetzt bekommen …

    Hintergrund aus SEO-Sicht: ich liefere Google (frei nach dem Motto: “Google ist doof”, bzw. teils einfach überfordert & auf “Entscheidungshilfen” angewiesen) lieber 350 DC-unverdächtige & eindeutige Seiten in den Index, als 1000 Seiten, bei denen ich keine Möglichkeit habe ideale Seitentitel & individuelle Dateipfade (z.B. bei Tag/Monat oder auch Autor & gepagten Seiten) zu vergeben, bzw. nicht mal mehr überprüfen kann (da supplemental index nicht mehr existiert, bzw. abfragbar), was Google davon nun genau als “überflüssigen DC-Ballast” ansieht, der ggfls. auf das gesamte Blog Ranking negative Auswirkungen haben kann …

    Lieber hohe quality, statt hoher quantity – man könnte auch sagen: lieber eindeutig als zweideutig, bzw. sicher ist sicher = SEO-Paranoia bei Kunden Blogs ;-)

    Wenn ich es für mich selbst genau nehmen wollte, müsste ich hier im Blog z.B. auch meine gepagten Kommentarseiten mit nem noindex versehen & nur die all-comments indizieren lassen.

    Wobei auch das kompletter SEO-Käse wäre, da Pfad & Seitentitel in dem Plugin wieder nicht individuell beeinflussbar sind & auch der Artikel selbst (incl. die ersten 10 Comments) zweimal komplett (einmal unter Artikelname & einmal unter Artikelname + all-commens im Pfad) von Google erfasst wird.

    Momentan ist ein Artikel z.B. mit 50 Kommentaren auch 5x (10 Comments pro Seite) mit unterschiedlichen Pfaden (comment-page-1, comment-page-2 etc.) im Index – teils schnallt Google den DC, teils werden die Comments-Seiten top gelistet …
    Also grundlegend auch Finger weg von gepagten Kommentar Seiten, wenn wenn man nicht experimentierfreudig ist ;-)

    Solange es trotz massivem DC hier im Blog mit Google alles so prima funktioniert wie bisher (vielleicht egalisiert ja mein ziemlich starker Linkjuice den potentiellen DC-Ballast ;-)), bleibt´s einfach erstmal weiter suboptimal – gebastelt wird hier erst wieder wenn´s hinsichtlich Google Traffic Verlusten akut werden sollte …

    Boah, wat ein ausufernder Kommentar – da hätte ich ja gleich nen Artikel schreiben können – wenn man sowas nur mal schon vor dem Losschreiben wüsste ;-)

    have a nice sunday – bin ab gleich bis morgen “on the road” & kann ggfls. erst morgen Abend wieder antworten …

    Frank

  • […] Google sucht mit! Diesmal soll die Suche im WordPress zusätzliche Einträge produzieren? Bin davon nicht überzeugt! […]

  • 20. Snapwarez.com » Viele interessante Links aus SEO, OM und Mehr

    […] Frank hat entdeckt, dass Google anscheinend beschlossen hat, Suchanfragen der WordPress internen Suchfunktion umfassend als Suchtreffer zu erfassen. Es droht DC-Gefahr. […]

    Edited: Link auf snapwarez.com entfernt, da Artikel entfernt … falls nur verschoben bitte melden ;-)

  • @Frank…
    Ich bleibe bei meiner Aussage, dass Google keine Formularfelder ausfüllt. Vielleicht spiele die ein wenig mit Javascript herum, aber auch das ist lediglich eine Vermutung und lässt sich nicht belegen.

    Nein, ich stelle eine weitere Theorie auf… Wieviele Nutzer im deutschen oder auch englischen Raum benutzen die Google Toolbar bzw. das SEOQuake-Plugin?

    …eine weitere Theorie von mir ist, dass jegliche Seite die von einem Benutzer mit einer solchen Toolbar bzw. dem Plugin besucht wird indiziert werden könnte. Das die Toolbar nach Hause telefoniert und dementsprechend Daten weitergibt ist sicherlich kein Geheimnis.

    Natürlich sind das alles nur Spekulationen, aber das macht unsere Arbeit doch erst richtig spannend, nicht wahr?!!?

  • 22. Frank

    Ich gehe bei WP den folgenden Weg. In erster Linie interessiert mich der Content, der ist auf single und page zu finde.
    &lt;?php if ((!is_paged() ) &amp;&amp; ( is_single() || is_page() || is_home())) { echo '&lt;meta name="robots" content="index, follow" /&t;' . "\n"; } else { echo '&lt;meta name="robots" content="noindex, follow, noodp, noydir" /&t;' . "\n";} ?&t;

  • Ok, mit noindex, follow, hast du zwar die WP Suchergebnis-Seiten aus dem index, aber in den Webmastertool’s von google findest du alle selbst gebauten google WP-Suchseiten “?s=” wieder..

    ganz schön blöd das ganze, wenn dir google einfach so eine nicht gewollte interne verlinkung baut.

  • 24. fragender

    Weiß eigentlich jemand wie das mit Duplicate Content aussieht, wenn sich 2 Urls nur durch einen Anker unterscheiden:

    www .example. com/index.html
    www .example. com/index.html#anker

    Wird das trotzdem als eine 2. Seite aufgefasst? Eine solche Methode benutze ich bei Modrewrite für die Blätternavigation. Über der Blätternavigation möchte ich eigentlich unique Inhalt haben.

  • 25. fragender

    PS: Was hat wer angestellt, dass hier jetzt eine Kommentarfreigabe nötig ist?

  • 26. fragender

    Sorry, kannst beide letzten Postings löschen. Es geht dabei um die Links wie ich vermute. Dann ist das mit den 249 € ja kein witz wie ich dachte :)

  • 27. Frank

    … jau, die zwei Links waren es & die Rechnungsandrohung ist (k)ein Witz – kannste Dir aussuchen ;-)

    Aber warum löschen – die Frage ist doch gut & sicher für den ein oder anderen auch interessant.

    Google wertet Anker nicht als zweiten Seitenpfad, d.h. Du hast zwar keinen DC, aber auch keine unterschiedlichen Seiten …

  • 28. Lennie

    Hallo,
    Ich habe mich mit dem ganzen Problem von Duplicate Content bei den Ansichtsmodi eines Blogs noch einmal beschäftigt. Mir ging es gerade darum eine Lösung für das Problem mit dem Singlepost Seiten zu finden, wo man mit dem Inhalt vor dem Moretag unweigerlich Duplicate Content erzeugt.
    Das ganze stelle ich kostenlos und ohne Linkverpflichtung zum Download: http://www.plunix.de/indexable-singlepost-plugin.html
    eine genauere Beschreibung des Problems ohne dieses Plugin findet man in meinem letzten Blogbeitrag:
    http://www.plunix.de/blog/duplicate-content.html
    Ich hoffe das wird jetzt nicht als Komerziell aufgefasst, bevor ich eine Rechnung erhalte lösche den Beitrag doch lieber.

  • Hi, Danke für den tollen Artikel!

    Ich hab jetzt die Header.php so geändert, nach Anleitung im Netz. Besonderes Augenmerk auf die no-follow codes vor dem .

    Bin ich nun gewappnet gegen duplicate Content? Gibt es Fehler? Wenn ja, welche?

    ; charset=" /&gt;
    
    
    
    
    
      &raquo; Blog Archive  
    
    " type="text/css" media="screen" /&gt;
     RSS Feed" href="" /&gt;
    " /&gt;
    
    <!--[if lt IE 7.]&gt;-->
    /pngfix.js"&gt;
    
    
    
    
    
    
     1 ) {
    
    echo ‘ ‘;
    
    }?&gt;
    
     ‘;
    
    }?&gt;
    
     ‘;
    
    }?&gt;
    
     ‘;
    
    }?&gt;
    
     ‘;
    
    }?&gt;

    Danke!

  • Ich nochmal…der Code ging nich hier…also ich habs auch ins WP-Forum gepostet…letzter Beitrag von mir…könnt ihr mal schauen ob meine header.php jetzt korrekt gegen duplicate content gewappnet ist? Danke!

    http://forum.wordpress-deutschland.org/konfiguration/41326-startseite-doppelte-content.html

  • […] the rest here: WordPress Suchergebnisse im Google Index = duplicate content » SEO Marketing Blog Tags: content, duplicate, […]


Deine Ideen zum Artikel: WordPress Suchergebnisse im Google Index = duplicate content

"Namen" wie "Suchmaschinenoptimierung, Reisen, Datenrettung etc." sind unerwünscht - ebenso die Verlinkung auf rein kommerzielle Projekte!
Derartige Verlinkungen werden mit Nofollow versehen, bzw. Kommentare werden entfernt. Kommentar-Links auf themennahe SEO, SEM, Marketing & Webmaster Blogs sind ok
Immer Nofollow gibt es für Blogger, die Nofollow-Links verteilen ;-)

Kommerzielle Werbung in Kommentaren ist diesem SEO Blog nicht erwünscht!


Entspannen Sie ... wir kümmern uns darum!
Profitieren auch Sie von unserem Google Ranking Know-How!
» Profi Ranking - Suchmaschinenoptimierung «