Autor Thema: "Abruf wie durch Google" -> Elemente "Vorübergehend nicht erreichbar"  (Gelesen 856 mal)

Offline wflumims

  • Newbie
  • *
  • Beiträge: 2
    • Profil anzeigen
Hallo zusammen,

seit ungefähr November 2017 stehen wir mit unseren Webseiten (Shopware, Wordpress, Typo3) vor einem riesigen Problem.

In der Search Console von Google kommt es vermehrt dazu, dass bei der Funktion "Abruf wie durch Google" einige bzw. sehr viele Elemente "vorübergehend nicht erreichbar" als Status bekommen. Dadurch verlieren wir mit allen Seiten ständig an Sichtbarkeit. Eine Analyse durch Profihost und uns selbst hat leider überhaupt keine Ergebnisse liefern können. Selbst Tools wie Pingdom, GtMetrix, WebpageTest zeigen keine Fehler. Nur Google hat mit unseren Seiten ein Problem.

Unsere Tests zeigten, dass vor allem Bilder, Css- und JS-Dateien nicht erreichbar sind. Nun habe ich schon so viel gegooglet, aber leider komplett ohne Erfolg. Deshalb wende ich mich an alle User hier im Forum von Profihost (und natürlich an die Mitarbeiter von Profihost).

Kennt ihr dieses Problem? Wie habt ihr es lösen können?

Der Abruf wird von Google selbst gesteuert (Aufrufsintervalle werden komplett von Google verwaltet und eingestellt).

PS: Webseiten bei anderen Hostern funktionieren komplett ohne Fehler.

Ich hoffe ihr könnt uns weiterhelfen! Vielen Dank schon mal im Voraus!

Offline A.Büggeln - Profihost

  • Administrator
  • Hero Member
  • *****
  • Beiträge: 508
    • Profil anzeigen
Hallo,

im access.log können Sie oder unser Support nachsehen, welche IP welche Seiten mit einem Fehler wie HTTP 500 oder 503 ausgeliefert bekommen haben und auch, wie viele Bytes dabei übertragen wurden. Eine Fehlerseite sollte nur wenige Bytes groß gewesen sein.

Wir hatten einige Fälle, in welchen der GoogleBot ein CSS File oder eine Seite inkl. aller Bytes abrufen, aber einen HTTP 503 Fehler gemeldet bekam. Dies geschah über ein fehlerhaftes Plugin, sodass ich hier eine Analyse des access.log vorschlage.

Eventuell mögen Sie sich nochmal an unseren Support wenden, damit die Situation nochmal untersucht und so der Ursache auf die Schliche gekommen werden kann.
Mit freundlichen Grüßen
Andreas Büggeln
Profihost Team

Impressum

Offline wflumims

  • Newbie
  • *
  • Beiträge: 2
    • Profil anzeigen
hallo und vielen dank für die antwort.

ich habe mir die access-log angeschaut und die search-console bekommt für jeden aufruf einen 200er status... also ist der server schon mal korrekt beim ausspielen der requests...

fehlerhaftes plugin kann es nicht sein, da die meldung "vorübergehend nicht erreichbar" auch bei typo3 und wordpress auftritt... da haben wir kein generelles plugin welches auf allen 3 system läuft

Offline wolfgangpue

  • Newbie
  • *
  • Beiträge: 1
    • Profil anzeigen
Habe auch das selbe Problem. Hast du bereits eine Lösung? Ich habe auch noch Cloudflare dazwischen geschalten.

Offline Blerry

  • Newbie
  • *
  • Beiträge: 2
    • Profil anzeigen
Gleiches Problem auch bei mir.
Interessanterweise kann ich die Fehlermeldungen des Google-Bots bei mehrmaligem Aufrufen nicht immer gleich reproduzieren.
Mal sei diese Date vorübergehend nicht erreichbar, mal jene.

Bei mir handelt es sich um eine TYPO3-Installation.

Ein absolutes Desaster was das Google-Ranking angeht, richtig prekär und ich finde keine Lösung...

Aufgrund meiner stundenlangen Ermittlungen und eines nicht näher greifbaren Verdachtes:  Hast du in letzter Zeit auf https umgestellt? Wenn ja, hast du das letzte Mal vor der Umstellung rendern lassen?
« Letzte Änderung: 10.09.2018 13:49 von Blerry »

Offline Blerry

  • Newbie
  • *
  • Beiträge: 2
    • Profil anzeigen
Eine mögliche Ursache konnte zwischenzeitlich geklärt werden.
Je nach Regulierungs-Algorithmus des Providers, lösen ungewöhnlich hohe Crawling-Aktivitäten auf dem Server eine DDOS-Protection aus.

Wenn der o.g. Fehler in der Search Console erscheint ist auf jeden Fall der Provider zu fragen ob es zu einem solchen Vorfall gekommen ist.
Im schlimmsten Fall, wurde die IP des Google-Bots geblacklistet, und wird bei jeder Anfrage reguliert.
Das kann auf Dauer den Pagerank ins bodenlose fallen lassen, weil der Bot von Defekten auf der Seite ausgeht.

Indizien dafür sind:
Verschiedene Ressourcen nicht abrufbar (Bilder, CSS, JS etc.)
Fehler nicht immer 1:1 reproduzierbar
Ungewöhnlich lange Renderingzeiten über GSC

Lösungsvorschlag:
1. Provider kontaktieren, eventuelles Blacklisting aufheben, IP deregulieren
2. robots.txt umschreiben auf Crawling 1x am Tag (max. 100% der Seitenzahlen crawlen)