Sellergate Onlineshop - Dein eigener Onlineshop individuell erstellt vom Profi mit Shopware

Drei neue Wege zu einem optimierten SEO crawlbarem JavaScript

Drei neue Wege zu einem optimierten SEO crawlbarem JavaScript - Onlineshop erstellenKomplexe JavaScript Technologie moderner Webseiten Crawl-Pfade von Suchmaschinen blockieren? Das Verweigern hat gleichermaßen Einfluss auf die Platzierung der organischen Suchmuster. Nutze alle verfügbaren Möglichkeiten die dir garantieren sicherzustellen, dass deine Website sukzessive Suchmaschinen bevorzugt und nicht blockiert.

Einige Experten für Suchmaschinenoptimierung haben über einen längeren Zeitraum festgestellt, dass Google JavaScript crawlen kann. Leider ist das nicht immer der Fall. Websites, die Angular (Open Source App Builder) und bestimmte JavaScript-Techniken verwenden, zahlen den Preis mit Ihrer Platzierung. Webseiten aus dem Bereich E-Commerce und eigenen Onlineshop verwenden normalerweise eine modernere Form von JavaScript – AJAX – Lazy Loading, Angular und Single-Page-Anwendungen. Hier handelt es sich um eher komplexe JavaScript Anwendungen.

Sellergate möchte ein paar Lösungen vorschlagen, um die Einschränkungen von Bots zu kompensieren. Mit dem Ziel mehr Natürlichen Such Traffic und letztendlich Umsatz für den Onlinehandel zu generieren.
Für E-Commerce-Seiten ist natürlicher Suchverkehr von entscheidender Bedeutung. Die Gewährleistung, dass die Bots auf die Inhalte und URLs Ihrer Website zugreifen können, sollte daher von entscheidender Bedeutung sein. Sicher ist, dass es keine Option darstellt, Innovationen im E-Commerce zu stoppen! Besprechen Sie Lösungen zu Problembehandlung mit Ihren Entwicklern, damit Bots Ihre innovative Website bestmöglich auf dem Index hat.

Anker und HREFs (Anchors and HREFs) Anchor-Text-Link

Wann ist ein Link kein Link zu einer Suchmaschine? Wenn dieser in JavaScript codiert ist, ohne eine URL in einer HREF mit dem sichtbaren verankerten Text, der angibt, wohin die Verknüpfung letztendlich führt. Dies ist in der Regel das am häufigsten vorkommende Problem von E-Commerce-Websites in Verbindung mit JavaScript. Im Grunde genommen wirkt der Link wie ein konventioneller Link, einfach darauf klicken und los geht´s. Allerdings führt das besagte Problem dazu, dass du irgendwo anders hingeleitet werden. Diese Art von Link können Suchmaschinen nicht durchsuchen.

Du möchtest auf Nummer sicher gehen, dann klicke mit der rechten Maustaste auf den Link und wähle „Untersuchen“. Du kannst keinen Anker-Tag mit einem HREF und einer tatsächlichen URL um den Linktext erkennen? Dann ist dies kein crawlbarer Link (Crawl-Link). Du findest keine Untersuchungs-Option, hier musst du möglicherweise die Entwicklertools in den Browser Einstellungen aktivieren oder ein kostenloses Plug-in wie Firebug ausprobieren.

Um deine Website bewerten zu können, müssen Suchmaschinen die Links zu einzelnen Seiten auf deiner Website crawlen können. Kein Crawling bedeutet keine Indexierung, was kein Ranking zur Folge hat. Für deinen eigenen Onlineshop bedeutet, dass kein natürlicher suchbezogener Traffic und kein Umsatz von dieser womöglich größten Basis an potenziellen Usern für deine Angebote.

Konzentriere dich zuerst auf den „Crawl“ Teil der angewendeten Gleichung. Für die Suchmaschinenoptimierung (SEO) ist nichts anderes wichtig, außer dass beispielsweise Google Bots auf schnellen Weg deine Seiten durchsuchen und indizieren können.

Crawlbar mit pushState()

Du verknüpfst deine Seite mit einer anderen Webseite, die nicht einmal eine „Seite“ für eine Suchmaschine darstellt, so ist diese Verknüpfung nicht crawlbar.
Viele E-Commerce-Websites verwenden AJAX, um immer spezifischere Produktgruppen für jede Filterkombination laden zu können. Dies bietet eine überzeugende Benutzererfahrung, die Suchmaschinen jedoch davon abhalten kann, Seiten von Produkten zu indexieren, die Verbraucher im Onlinehandel kaufen möchten.

Zum Beispiel wird jemand, der Google nach einem schwarzen Kleid sucht, wahrscheinlich nicht auf „The Gap“ finden, da schwarze Kleider nicht als separate Seite des Inhalts gecrawlt werden können. Macy’s hat jedoch eine crawlbare Seite für schwarze Kleider.
Eine einfache Möglichkeit festzustellen, ob eine Seite mit AJAX generiert wird, besteht darin, nach einem typischen Hashtag zu suchen. Google hat angegeben, dass Index URLs mit Hashtags nicht gecrawlt werden.

Unabhängig davon können AJAX-URLs mit und ohne Hashtags mithilfe einer Technologie namens pushState() crawlbar gemacht werden. Lass dich keinesfalls von der flippigen Großschreibung und den Klammern ablenken. Es handelt sich lediglich um eine crawlbare JavaScript-Funktion mit, die einen einzigen Zweck erfüllt: Sie verwendet die HTML5-Verlaufs-API, um eine crawlbare-URL für Benutzer in die Browserleiste zu laden und die URL für Suchmaschinen indizierbar zu machen.

Vorführender Inhalt (Prerendering Content)

Schnellere Webseiten Ladevorgänge bedeuten höhere Conversion-Raten. Um vielfältige Inhalte schneller zu liefern, haben viele E-Commerce-Sites auf clientseitige Rendering-Engine umgestellt. Die Häufigkeit der Server Zugriffe werden beschränkt, um Inhaltsseiten schneller zu laden. Das clientseitige Rendering kann jedoch die Indexierung um Monate für eine E-Commerce-Site verlangsamen.
Diese Verzögerung kann den Umsatz erheblich beeinträchtigen. Stell sicher, dass Suchmaschinen ihren gesamten Inhalt in kürzerer Zeit indizieren können, indem du vorab „Rendering“ für clientseitige Inhalte vorantreiben.

Auch als Prerendering zu bezeichnen, dies ist besonders kritisch, wenn eine Webseite ein Framework wie Angular oder React verwendet. Auch wenn Google hinter der Entwicklung von Angular steht, bedeutet das nicht, dass Google Angular-Websites effizient indizieren kann – aktuell ist das Gegenteil der Fall. Zu den Open-Source-Lösungen für das Prerendering, die von Google-Suchmaschinen verwendet werden, gehören Puppeteer und Rendertron. Auch Prerender.io wird häufiger von E-Commerce Shopbetreibern genutzt.

Einige dieser Technologien ermöglichen es dir, bestimmte User Agents wie beispielsweise gängige Browser oder den Googlebot daran zu hindern, die vorab gerenderte Version zu verwenden. Das Ziel besteht darin, den Kunden zu ermöglichen, die clientseitige Version der Seite zu verwenden, während Bots und Benutzern mit deaktivierter Javascript-Funktion eine identische vorab gerenderte Version bereitgestellt wird. Blockiere auf also keinen Fall Googlebot.

Sellergate Newsletter

Sei dabei!
erhalte Automatisch per Mail aktuelle Neuigkeiten aus unserem Blog.
Newsletter kostenlos erhalten
Der Bestimmung zum Datenschutz stimme ich zu.