RSS | Impressum | Sitemap |
Profi-Ranking Suchmaschinenoptimierung

SEO Marketing Blog

.... googeln bis der Arzt kommt

Google’s Ausflüge in’s Deep Web Crawling und die unerfreulichen SEO-Nebeneffekte :-(

Google Chaos & Deepweb/Ajax Exkursionen

Google scheint immer stärker zu versuchen das Deep Web & Ajax zu crawlen & geht mir mit den Effekten immer mehr auf den Senkel ;-)

Google macht immer seltsamere Sachen – ich möchte euch mal an ein paar Dingen teilhaben lassen, welche ich in den letzten Monaten bei Kundenprojekten zu Gesicht bekam …

  • 1. 301er haben “Aussetzer” – mehrfach selbst bei verschiedenen Kundendomains beobachtet aber auch von Kollegen gehört: teils werden seit einigen Wochen, bereits seit Monaten/Jahren, per 301 weiter geleitete alte URL’s wieder im Google Index als Suchtreffer angezeigt. Zum Glück bisher anscheinend immer wieder mal nur temporär – oder hat das jemand dauerhaft bei sich?
  • 2. noindex,follow – bis irgendwann November 2011 war noch alles gut. Mit dem Metatag robots=”noindex,follow” versehene Shop-URL’s waren quasi als Einzeiler ohne Snippet erfasst (muss ja, sonst könnte Google den follow Part nicht abarbeiten). Seit irgendwann Anfang Dezember wurden diese URL’s dann plötzlich mit Snippet bei der Site-Abfrage gelistet. Seit Ende Dezember habe ich einzelne Fälle, wo diese auf noindex stehenden Pfade (meist gepagte Kategorieseiten) sogar die bisherigen Treffer ersetzt haben. Google scheint Anweisungen immer weniger zu folgen – bleibt wohl irgendwann nur noch das von mir etwas ungeliebte Canonical URL-Handling. Ungeliebt, weil ich schon öfter Shops erlebt habe, die durch Bedien- oder Shopfehler mit Canonical relevante Seiten/Kategorien aus dem Index gekegelt haben …
  • 3. noindex,nofollow (teils älter als 2 Jahre & lange weg gewesen) Pfade mit noindex,nofollow (die zusätzlich über die Webmastertools manuell entfernt wurden), waren sehr lange gar nicht mehr im Index. Seit etwa Mitte Dezember werden diese auch wieder als Einzeiler angezeigt. Interessanterweise scheint dies nur URL’s zu betreffen, welche schon mal im Index waren – Seiten, welche neu mit noindex,nofollow online gestellt werden, kommen bisher auch nicht in den Index.
  • 4. Erfassung von PHP-Myadmin Verzeichnissen – ganz glorreich werden auch derartige Pfade erfasst. Da freut sich jeder Hacker bei den entsprechenden Google Abfragen …
  • 5. Google sendet nun auch Post-Abfragen mit Parametern – guckstu hier – und rupft sich sinnlose Teil-Pfade (die dann 404er ergeben) aus per Ajax nachgeladenen Dateien. Sprich Google führt “ohne Sinn & Verstand” immer mehr Javascript aus …
  • 6. Klartext-URLs, d.h. nicht verlinkte URLs, welche nur als Plaintext angegeben werden, werden im Google Index erfasst – siehe auch der Forenbeitrag oben …
  • 7. in XTC Shops werden seit Kurzem language_IDs an Produktpfade angehängt, obwohl gar kein Language-Modul installiert ist. Anscheinend probiert Google einfach denkbare Varianten aus, wenn sie das jeweilige (Shop- oder CM System) erkannt haben. Danke an an Sandra vom XT-Commerce Service für die entsprechende Info & das Beispiel ;-)
  • 8. Google holt Pfade pauschal auch “klein geschrieben” in den Index, obwohl die Pfade im betrachteten Shop alle mit Großbuchstaben geschrieben werden (natürlich auch erfasst) & produziert dadurch seitenweit duplicate content.

Keine Ahnung was das Ganze soll – entweder sind die Google Progis alle im Dauerkoma, oder das ganze Panda & Freshness Marketing-Theater hat reihenweise unerwünschte Nebeneffekte? Ick weiss es nicht – befürchte aber Letzteres …

Könnt ihr einzelne oder alle der obigen bisher nur vereinzelt beobachteten Effekte bestätigen?


Andere Beiträge mit ähnlichen Inhalten, die Dich evtl. auch interessieren könnten:


Der Artikel " Google Chaos & Deepweb/Ajax Exkursionen " enthält 494 Wörter.

Artikel mit verwandten Tags (Keywords, Suchbegriffe)
Tags: , , , , , ,


Am 17.01.12, 14:05 in Google SEO und Traurig, aber wahr ...
von Frank veröffentlicht. RSS Feed für Kommentare.
Du kannst hier kommentieren oder hier per Trackback
von Deinem Blog aus "verewigen".
· Gelesen: 25990 · heute: 5


29 Kommentare zu "Google Chaos & Deepweb/Ajax Exkursionen"

  • 1. Sabine aus Österreich

    Ein sehr informativer Bericht. Seit es das Internet gibt, bekommt man jede Menge guter Informationen gratis. Super.

  • 2. shk

    Tja, was Google da entgegen ihrer Guidelines “leistet” ist alles andere als schön.

    Für mich sieht es wie ein großer Haufen Bugs aus, denn es greift momentan nichts sicher:
    parameter handling in den GWMT, robots.txt, canonical, noindex.

    All das, was von Google in den Webmasterguidelines zur exlusion angepriesen wird funktioniert derzeit nicht richtig.

    Das beste aber ist, dass im Index längst durch 301 redirecteter, extrem alter content wieder in die SERP gespült wird und man dem machtlos gegenüber steht.

    Alles in allem – mit dem tollen parsing der Javascripte, Post- und sogar Get-requests, u.s.w. – sieht das alles eher nicht wie gewollt und gekonnt aus.

    P.s.: Ich kann die meisten o.g. Punkte bestätigen

  • 3. Sanni

    Mich erinnert das Spektakel grad eher an ein überfülltes Zelt auf dem Oktoberfest: nix geht rein, nix raus und keiner versteht annähernd was drin grad passiert.

    Einträge aus der robots werden ignoriert und landen im index und in Einzelfällen auch als “Doppelzeiler”.

    Einträge (Subindex) werden teilweise zweimal gelistet.

    Ich kann die meisten o.g. Punkte ebenso bestätigen.

    Intern nennen wir das hier nur noch “googonie”… wobei wir noch darüber sinnieren, ob der letzte Wortteil aus Ironie oder Phobie hergeleitet werden soll :(

  • @Sanni

    Hihi … ich würde schon fast dazu neigen, den hinteren Teil der “Googonie” mit “Agonie” zu assoziieren ;-)

    Wikipedia sagt dazu: “Die Agonie (griechisch ἀγωνία – agonía „Qual“, „Kampf“) bezeichnet einen länger andauernden Todeskampf, die Reihe von Erscheinungen, welche, das allmähliche Erlöschen der Nerventätigkeit anzeigend, dem Eintritt des Todes unmittelbar vorausgehen.”

  • 5. Sanni

    *schmunzel*…auch eine Überlegung wert ;-)

    Im Übrigen gerade sehr beliebt bei Google in Sachen XTc´s : die verhasste SessionId taucht wieder verstärkt auf. In einem Shop-Beispiel ganz hübsch mit Description aufgepeppt. (Zugegebener Maßen kenn ich die Vorgeschichte bei dem Shop nicht, kann mich aber wage daran erinnern, dass das “abgestellt” war)

  • 6. Dan from How to Build a Website

    wahrscheinlich ist der Algo inzwischen so kompliziert, dass Google jetzt auch in dieser Hinsicht Microsoft ähnelt…

    also sozusagen Google Vista …

    ;)

    Dan

  • Genau dieses Verhalten beobachten wir beim Google-Bot ebenfalls. Google experimentiert offensichtlich und versucht herauszufinden, was AJAX auf den Seiten veranstaltet.
    Eigentlich ist es kein schlechter Ansatz, denn Google möchte die Relevanz dessen bewerten, was geboten wird.
    Dabei stößt Google aber an die Grenzen der AI (Artificial Intelligence), denn Interaktionen, Bilder und Semantik zu verarbeiten verlangt wohl mehr Intelligenz als die Google-Bots eingehaucht bekommen haben. Der IQ einer programmierten Brotdose wird nicht reichen für die ambitionierten Ziele des Google-Management.
    Michael

  • 8. Marce

    Hallo (wichtige Frage)in den nächsten Tagen/ Wochen werde ich eine (meine erste) Website (WordPress) erstellen die auch ein gutes ranking erzielen soll. Seit ungefähr zwei Wochen habe ich mich über optimierung und rechtliches Informiert, sehr genau.
    Natürlich ist in den letzten Tagen auch der Duplicate content für mich immer wichtiger geworden ich habe viel recherchiert und habe mir Lösungen zusammengeklaubt.
    Für die Erreichbarkeit unter mehreren URL’s habe ich mir einer deiner Lösung zurechtgelegt,
    seo-marketing-blog.de/goatix/301-htaccess-gegen-duplicate-content-durch-mehrere-domains-must-have/
    und für die Vermeidung Doppelten Contents auf grund von verzeichnes und kalendaren folgende signalsmedia.de/wordpress/duplicate-content-verhindern/
    Erste Frage: Kann ich mich mit diesen beiden Methoden vollständig vor duplicate content schützen?
    Zweite Frage: Sollte ich diese Schritte troz entstandener Probleme bei Google vornehmen?
    Ich hoffe es kann mir geholfen werden.
    (Sehr gut gelungener Blog ;-) )

  • 9. Mike

    Tja wo gehoblet wird, da fallen Link-Späne. Und Google gibt ja nun wohl auch selbst zu, dass man gerade momentan sehr viel am ändern ist. Ich hoffe dennoch, dass sich dort mal grundlegend was ändert, diese Suchmaschinenmurkserei geht mir schon lange auf den Senkel. Für die 404er hab ich auch noch etwas Verständnis, man kann den Traffic ja noch auf der Startseite bündeln, aber ein noindex z.B. darf einfach nicht umgangen werden. Dass Klein- und Großschreibung zu DC führt, ist aber auch kein Wunder, das muss man genauso sehen wie IDN im Verzeichnisnamen, das geht ja auch nicht so “richtig”.

  • 10. Peter

    Da ist es mal Vorteil, dass ich eine alte, statische html Seite habe. Da kann nicht viel passieren. Naja, da habe ich auch nicht viel zu gewinnen.

  • 11. David

    Auch ich wundere mich über die Google Bots, die auf unverlinkte Webseiten gelangen. Ein Teil der von Dir genannten Punkte sind definitiv Bugs im Algorithmus, die inzwischen behoben sein sollten. Trotzdem nützliche Hinweise über ein Thema, das oft unter den Tisch fällt.

  • […] die “Liste fehlerhafter SEO-Steuerungsmechanismen“, die anderenorts bereits als “Google Chaos & Deepweb/Ajax Exkursionen” beschrieben […]

  • Ich habe von Google’s Spuerhunden mehr als genug. Passierte mir letzte Woche sogar, dass deren Bot mir während einer Installation dazwischenfunkte und mir die Datenbank gelöscht hat, obwohl das Installverzeichnis nur mal 3 Stunden auf dem Web war. Google ist für mich somit gefährlicher als jeder Hacker. Eine Maschine kann man ja nicht zur Rechenschaft ziehen. *s

    fg Fredy

  • 14. Steve

    Ich habe mich auch schon oft gefragt, was google da fürn Sch….. macht. Wenn ihr mich fragt, kann google nicht mehr so weiter machen, sonst benutzt es keiner mehr. Es ist ja auch so, wenn du was bestimmtes auf google suchst, bekommst du in den Ergebnissen die Hälfte, die gar nicht zum Thema passt.
    ….armes google….

  • 15. Julia

    Nun ja, google ist halt eine Suchmaschine und versucht alle Seiten in den Index zu bekommen. Da ist doch nichts verwerfliches dran. Wem das nicht gefällt, der soll halt keine Webseiten online stellen.

  • Was ist mit dem neuen Panda und Pinguin-Update? Wie können wir mit dieser Art von Dingen zu beschäftigen?

  • 17. Max

    Ist zwar schon ein bischen her der post, bin aber grade erst darüber “gestolpert”. Ich hatte mich damals, als google das anounced hatte mal hingestzt und hab ausprobiert, ob die in der Lage sind einem simplen Formular und einem JavaScript-Link zu folgen. Fazit: Nix machen Sie.
    Ich könnte mir vorstellen, dass die das nur bei Ajax-basierten mit ner großen Recihweite machen. Bei kleinen Blogs und Webseiten bleiben html-links nach wie vor die einzigen links, die ausgewertet werden…

  • 18. Jakob

    Abgesehen von Punkt 6 erschreckend. Punkt 6 macht ja irgendwo sinn. Hier lässt sich auch sagen, dass nofollow Links erfasst werden. Das hat Martin Mcdonald auf der a4uexpo in Barcelona nochmal deutlich an einem Beispiel klar gemacht. Twitter vergibt nofollow Links. Postet man dort eine neue Seite die nicht im Index ist, landet sie innerhalb von Sekunden im Index.

    Die Punkte 2/3 sind eine Sauerei, konnte es aber bislang zum Glück noch nicht beobachten.

  • 19. Lars

    Servus!

    Es ist schon unerhört erstaunlich, was da momentan vor sich geht. Es ist genau das Gegenteil von dem was eigentlich von Google selbst versprochen wurde.

    Vielleicht hat sich Google auch zuviel auf die eigenen Fahnen geschrieben und hängt jetzt nur noch abwärts Richtung Boden.

    Viele Grüße!

  • 20. Micha

    Mich würde mal interessieren woher ihr die Informationen habt. Wie recherchiert ihr, Erfahrungen ? Ausprobieren? Oder steht ihr im Kontakt mit Google?

  • 21. Frank

    Der Artikel ist zwar schon ein paar Tage alt, aber immer mal wieder aktuell, da Google öfter mal “lustige” Ergebnisse bringt.
    Momentan werden jede Menge Canonicals ignoriert und aktuell habe ich schon 6.000 Seiten DC :-/

  • 22. Andree

    Schöner Artikel,

    ich kann die genannten Ungereimtheiten komplett bestätigen.
    Vielleicht verkauft uns google diese Bugs demnächst als panda II update:-(

  • 23. Frank

    @Andree

    … wir sind inzwischen tatsächlich schon bei Panda 22 ;-)

  • 24. Frank

    von Frank zu Frank ;-)

    … ja, die Canonical Probleme sehe ich auch immer öfter. Da werden sich einige Shopbetreiber noch schwer wundern, wie sehr das von den jeweiligen Entwicklern (besonders Magento & Oxid) als Onpage-Wundermittel gepriesene Canonical nach hinten los gehen kann …

  • 25. Frank

    @ Micha

    try & error … vor allem aber genug eigene Domains als Testspielwiese ;-)

  • 26. Frank

    @ Max

    erlebe ich anders – ist alles nur eine Frage der Zeit, bis Google den passenden Bot vorbei schickt ;-)

  • 27. Maria

    Könnte auch bedeuten, dass Google irgendwelche Neuheiten testet und uns wieder was tolles servieren will. Man darf mal wieder gespannt sein, was für Rankingfaktoren in Zukunft kommen.

    Es scheint als wäre Google noch lange nicht fertig seine Relevanzkriterien anzupassen.

  • War schon wieder ein Google update, kann mir jemand sagen.
    Was los ist, meine ganzen Seiten sind weg gefallen. Bitte kontaktiert mich bitte mal jemand der sich auskennt, such Hilfe für meine Seite. Kann auch etwas bezahlen. Bitte melden

  • Hallo an alle hier, ich habe gerade diesen Bericht gefunden. Leider komme ich nicht mit was an machen muss um bei Google wirklich nach vorne zu kommen. Ich mache super Seiten mit Text on Content, aber ich komme nicht nach vorne… zum Beispiel immmobilien–Ibiza…. de. Schreibe mal so, will nicht das man denk ich bin eine Link Jäger, auch wenn das hilft wie ich weis. Ich suche jemand der mir helfen kann. Ein Paar Ratschläge vielleicht, ansonsten gute Seite…. Gruß Christian Wolf

    auch die Bungalow-bauen..net ist eine Seite von mir…vielen dank im Voraus….


Deine Ideen zum Artikel: Google Chaos & Deepweb/Ajax Exkursionen

Kommerzielle Werbung in Kommentaren ist diesem SEO Blog nicht erwünscht!


Entspannen Sie ... wir kümmern uns darum!
Profitieren auch Sie von unserem Google Ranking Know-How!
» Profi Ranking - Suchmaschinenoptimierung «



Suche

  • SEO & SEM Tool Tipps:

      SEO Spyglass zur professionellen Linkanalyse von Mitbewerber-Linkaufbau ...
    • Profi Linkanalyse mit SEO-Spyglass

      zur Webseite von AWR - Advanced Web Ranking, professionelles Google Ranking Tracking mit Kunden Reports  - SEO Tool Tipp
    • Automatisches Tracking & Reporting von Google Positionen!

About us

SEO Angebote
by Profi-Ranking.de Frank Schräpler aka Goatix

SEO Angebote
by seo-analyse.com Manuel Fuchs aka manuelfu

  • Web Tipps