Suchmaschinen verstehen

 

Google Ranking verbessern Bevor wir das Google Ranking verbessern können,  ist es besonders wichtig, Zusammenhänge von SEO zu verstehen. SEO beruht auf dem Zusammenspiel von Suchmaschine und Webseitentext . Viel wird im Internet geschrieben, Erfolg hat nur der, welcher den Prozess versteht und danach handeln kann. Denn SEO unterliegt klaren Vereinbarungen.

Entwicklung der ersten Boots und Suchmaschinen

Der geheimnisvolle Name Boot kommt von = Roboter. Es handelt sich um Computerprogramme, die Seiten im Web aufrufen, deren Inhalte untersuchen und dann den ausgehenden Links einer Seite folgen um wieder neue Seiten zu finden. Das Problem der ersten Maschinen war nur das immer wieder, auch die selben Seiten aufgerufen wurden. YAHOO war einer der ersten, der dann ein Verzeichnis der durchsuchten Seiten anlegte, zu dem eine Beschreibung der Seite angelegt werden konnte. 1994 kam Lycos, die einen Katalog, ja so war das damals! von 54.000 Einträgen präsentierte. Innerhalb von 2 Jahren wuchs der Inhalt auf über 60 Mill. Seiten. 1996 begann u.a. Larry Page mit der Maschine Back Rub, welche auch die Verlinkungen und nicht nur die Metabeschreibung zur Berechnung der Suchergebnisse heran ziehen sollte. Die Verlinkungen sollten als Empfehlung gewertet werden. So wurde eine Seite umso “besser” bewertet je mehr Links zu dieser zeigten und je stärker dieser in sich selber verlinkt war. Schon 1998 wurde “Back Rub” als Unternehmen in Google unbenannt.

Google

Google ist nicht die einzigste Suchmaschine, wie wir gesehen haben, verfügt aber heute über einen Marktanteil von rund 90%. Kein Wunder, dass heute ein jeder von “googeln” spricht. Woher kommt dieser Erfolg, und was ist für uns daran wichtig, um das Google Ranking zu verbessern? Dazu benötigen wir etwas Hintergrundwissen über die Denkweise von Google.

Geschichte und Philosophie von Google

Google Inc. wurde 1998 mit einem Volumen von US$ 100 Mio. gegründet. Google ist ein Wortspiel mit dem Mathematischen Begriff “googol” und beschreibt eine 1 gefolgt von 100 Nullen. Das soll nur zeigen, hier hatten sich die Gründer es sich zum Ziel gesetzt eine unvorstellbare Menge an Informationen im gesamten Web zu erfassen.Vom ersten Tag an gab es aber nur um das eine: Dem Besucher die für ihn relevantesten Ergebnisse zu zeigen. Eine ganz wichtige Erkenntnis für die praktische Anwendung, wenn wir das Google Ranking verbessern wollen. Um diese Dienstleistung auch zu Geld zu machen, gab es damals blinkende Banner und das Ad-Words – Programm wurde gestartet. Damit konnten dann themenrelevante Werbeanzeigen über den Suchergebnissen eingeblendet werden. 2004 kam dann Google Maps und Google Earth. 2005 kam der Grundstein für Google-Analytics, durch den Zukauf der Urchin Software dazu. Jetzt konnten Zugriffe auf die Webseite ausgewertet und gemessen werden. Weiter wurde schon 2005 das Unternehmen Android aufgekauft. Dies diente ganz zu Anfang nur der Steuerung von Digitalkameras. 2007 sollte dann das heutige Handy-Android-System entwickelt werden, wo sich Google einen Marktvorteil von 80% sicherte.

Was will Google ?

Google hat seine eigenen Vorstellungen und diese sehr Weitsichtig  ausgelegt: •  Der Nutzer steht immer an erster Stelle •  Eine Sache immer richtig gut und nicht halbherzig zu machen • Schnell ist immer besser als langsam • Demokratie funktioniert auch im Internet • Man kann überall eine Antwort bekommen • Geld verdienen, ohne anderen damit zu schaden • Es gibt immer mehr Informationen als wir denken • Informationen werden auch über Grenzen hinweg benötigt • Seriös sein

Der Aufbau von Suchergebnissen

SEO

 

Bei einer Suchanfrage, werden die Ergebnisse wie immer, als SERPS = Search Engine Result Pages bezeichnet. Hier sehen für die unter 1. bezeichneten “bezahlten” Ads-Anzeigen die noch vor die organisch rankenden Ergebnis gesetzt werden. Für den ungeübten Benutzer aber meist gar nicht zu erkennen. 1. Zeigt die bezahlten Ergebnisse, 2. die Organischen Suchergebnisse, also genau diese mit denen wir ranken wollen. 3. Zeigt weitere Anzeigen der vertikalen Suchmaschine . Das sind Spezialsuchmaschinen die der “Bildersuche” dienen. Da Google aber immer versucht das Suchergebnis bestmöglich anzuzeigen, können hier auch andere Informationen auftauchen wie z.B. der Know Ledge Graph. Das können aber auch Beschreibungen von Wikipedia sein. Für den Seo – Interessierten der das Google Ranking verbessern will, ist im obigen Bild Hinweis a) wichtig. Dieser zeigt wie viel Suchergebnisse zu der Anfrage vorliegen, und gibt somit Aufschluss darüber wie hoch das Konkurrenzaufkommen ist. In diesem Fall dürfte es für ein Kleinunternehmen unmöglich sein, hier in die ersten Ergebnisse zu ranken. Punkt 1. und 3. geben zu den Suchergebnissen immer Auskunft ob Kaufinteresse, für das Produkt vorhanden ist. Sind hier keine Anzeigen zu finden, ist das immer ein sicherer Indikator dafür, das keine Nachfrage zu dem Produkt besteht.

Die Funktionsweise der Suchmaschine

Dieses Thema soll noch vertieft werden um das Google Ranking zu verbessern Die Suchmaschine lässt sich auch wie eine riesige Bibliothek vorstellen, wo die gesamten Informationen zusammen getragen und sortiert werden. Wie schon erklärt, geht die Maschine den Verlinkungen nach und stößt somit auf immer neue Seiten. Diese Inhalte werden dann in die Bibliothek aufgenommen, was wir “indexieren” nennen. Nun sammelt die Maschine nicht nur, sondern soll bei einer Anfrage die Informationen, dem Besucher zu Verfügung stellen. Auf welche Dokumente jetzt zugegriffen wird, hängt davon ab wie gut unsere Beiträge “optimiert” sind. Das hängt davon ab, wie oft der Suchbegriff im Dokument auftaucht. Ganz wichtig auch, wie viele Links nach außen gehen zu Seiten, die das selbe Thema abhandeln !

Google Ranking verbessern

 

Daten erfassen – Crawling

Wir hatten schon besprochen das der Crawler das Netz, nach Daten durcharbeitet. Der Crawler wird auch oft als: Bots, Web-Crawler, Robots oder Spider bezeichnet. Außer neue Dokumente zu finden, soll das Material immer aktuell gehalten werden. So ist es möglich, den ganzen Inhalt unserer Webseite auszutauschen, der Crawler merkt dies und dokumentiert das. Je größer unsere Seite verlinkt ist, desto öfter werden wir besucht, weil davon ausgegangen wird, das solche Seiten auch öfter besucht werden. Auf der Zeichnung 1.1 haben wir gesehen das solch ein System aus weiteren Komponenten besteht, die auch für uns bei der Optimierung um das Google Ranking zu verbessern, wichtig sind.    

Der Datenspeicher

Hier werden die indexierten Dokumente gespeichert. Das alleine bringt aber noch keinen Gewinn, bei der Menge der Daten und würde das auch schon am Speicherplatz scheitern. So wird jedem Dokument die IP-Adresse zugeordnet und eine Checksumme gebildet. Die Zahl dient zum Vergleich der Dokumente: Sind zwei Checksummen gleich, so sind auch die Dokumente gleich. So wird “doppelter Content” erkannt und im Repository-Speicher abgelegt. Das spart Platz im Hauptspeicher und erhöht die Crawl-Geschwindigkeit.

Das Verwaltungssystem – Scheduler

Bevor die Daten im Repository-Speicher abgelegt werden können, kommen die gesammelten Daten zum “Scheduler”. Dieser ist für die Pflege und Ausweitung der Datenmenge verantwortlich. Entscheidet also, was oder auch “nicht” in den Index kommt. Die Grundregeln dafür werden vom jeweiligen Suchmaschinenbetreiber festgelgt und sind daher verschieden. Eins hat jedoch überall Priorität: Höchste Aktualität des Datenbestandes. Der Scheduler weist dann auch den Crawler an.

Erfassen, pflegen des Datenbestands – Crawlereinsatz

Wie besprochen, weist der Scheduler den Crawler an eine URL zu besuchen um diese zu erfassen oder die Erreichbarkeit zu überprüfen. Wichtig um das Google Ranking zu verbessern genau den Bedürfnissen des Crawlers nach zu kommen, da dieser die Seiten nicht wie ein Mensch lesen kann.Je nach dem, ob Daten vorhanden sind, meldet der Crawler dann dem Scheduler dies. Dieser macht dann Speicherkapazitäten frei und teilt den indexierten Daten die URL zu. Wenn uns der Bot besucht hat, kann dies im “Logfile” des Browsers nachgesehen werden.

Die Sicherung der Daten im Storeserver

Die Aufgabe dieser Organisationsebene liegt in der Sicherung der Daten. Die Aufgaben sind die folgenden:     • Auswertung der HTTP-Response Header aus Crawler Anfragen     • Aktualisieren vom Dokumentenindex     • Prüfung der übermittelten Funktionen Sind z.B. HTML – Dokumente fehlerhaft, wird ein Statuscode übermittelt. Das einsteigen auf die gesamten Fehlercodes, würde jetzt aber den Rahmen des Artikels sprengen. Der Link “Statuscode” gibt weitere Infos. A&O ist auch wieder hier nicht doppelte Inhalte zu speichern.

Welche Inhalte kann der Crawler lesen?

Google Ranking verbessern

Allgemein ist bekannt, dass der Crawler nicht Bilder und Videos sehen, bzw. auswerten kann. Dieser erkennt zwar ein Bild, kann den Inhalt aber nicht as­so­zi­ieren. Das lässt sich das Google Ranking verbessern indem wir den ALT-Text vom Bild mit dem Keyword bestücken, das der Crawler dann ausliest. Weiter liest er beim Besuch der Seite den HTML-Code aus. Ein Klick bei Firefox auf “Seitenquelltext anzeigen” und wir sehen wie der Crawler die Seite liest. Jetzt registriert dieser: sämtlichen Text, den Titel der Seite und die Beschreibung.

Nochmals Datenbank-Indexierung

Da es aus Zeitgründen unmöglich ist, immer den gesamten Bestand einer Webseite zu durchsuchen, wird hier ein IR-System eingesetzt. Dieses System hat die Aufgabe, den relevanten Teil des Artikels durch Vergleich von Dokumenten, herraus zu filtern.Die dafür benötigten Daten bezieht das IR-System aus der Repository, der Speicherplatz für die Dokumente. Damit eine Suchmaschine auch wie eine solche arbeiten kann, müssen jetzt die gesammelten Daten normalisiert und analysiert werden, bevor sie in den Index kommen. Danach werden diese Daten zu einem “durchsuchbaren” Datensatz zusammen, gestellt.Daraus ergibt sich dann für jedes Wort ein Eintrag und eine exakte Position im Datenbestand.Weiter werden dann Filterverfahren eingesetzt, um Begriffe in sinnvolle Begriffe abzuspeichern. Die Erkennung der Sprache übernimmt das Wordstemming. Zuletzt gibt es sogar eine Blacklist um rechtlich problematischen Begriffe zu erkennen.

Relevanz einer Seite für Suchbegriffe – das Ranking

Der Index aller Seiten wurde nun aufgenommen. Der weitere für uns spannende Schritt: Wie werden diese Seiten ihrer Relevanz nach wie es so schön heißt, nach einem Rang einsortiert. Wird ein Begriff eingegeben, wird dieser vom Query-Prozessor siehe Bild 2.1 mit verschiedenen Theorien und den Sagenumwobenen “Algorithmen” untersucht. Eines der best gehüteteten Geheimnisse von Google, gesprochen wird von rund 200 Faktoren. Erst einmal kennt Google die Suchhistorie eines jeden einzelnen und bezieht somit Suchergebnisse aus der Vergangenheit mit heran. Das sollte bei der Optimierung beachtet werden, damit wir diesen Faktor ausschließen! Um jetzt hier nicht “Wahrsagerei” zum Algorithmus zu betreiben, gilt es als erwiesen: Verlinkungen auf Unterebenenseite lässt sich als starker Rankingfaktor bezeichnen. Auch ist die Autorität einer Seite sehr wichtig und wird anerkannt. Ob Social – Media – Signals (Like etc.) mit einfließen, ist zwar noch nicht bekannt, wird aber stark angenommen. Natürlich spielen die On und Off-Page Optimierungen eine erhebliche Rolle. Auf jeden Fall wird das Nutzerverhalten auf einer Seite mehr und mehr an Bedeutung gewinnen. Dazu gehören vor allem die Aufenthaltszeit, mobile -tauglichkeit der Seite , Ladezeit. Einig ist sich auch die Branche das leicht zu beeinflussende Rankingfaktoren wie die Wahl einer Domain, ausgestattet mit dem Keyword und nicht themenrelevante Verlinkungen , sowie Ankertext an Bedeutung verlieren werden. Google möchte sehen, dass es sich bei der Seite um eine “Autorität” im entsprechenden Themenbereich handelt, die dem Suchenden echten Mehrwert bereit stellt wird das Google Ranking verbessern!

Der Pagerank

Ganz kurz, dieser hat kaum noch Einfluss – wenn überhaupt. So war je mehr Links auf eine Seite hinweisen, auch der Rang entsprechend höher. Und jeher höher der Rang, desto höher das Gewicht der verweisenden Seiten und somit auch wieder, ein größerer Effekt auf die verlinkte Seite. Also: Wenn eine starke Seite auf eine schwache Seite verlinkt, so ist die Chance groß das diese Mehrwert für die Besucher zu bieten hat. Zuerst erscheint die Methode sinnvoll, wurde dann aber schnell zum anheben des Rankings erkannt. So wurden ganze “Linkfarmen” aufgebaut um die Zahl der Links auf die eigene Seite zu erhöhen.Google erkannte dies natürlich.

Der Trust Rank

Grund für dieses Verfahren, waren die Erfahrungen mit dem Pagerank. Das Verfahren erscheint einfach, zuerst werden einige Dokumente per Hand erlesen und haben somit höchstes Vertrauen, also Autorität. Als nächstes erfasst dann die Suchmaschine von diesen Seiten ausgehenden Links und stuft diese wieder mit großer Autorität ein. Aber dann auf zweiter Ebene, sodass eine Art Abstufung entsteht, bis hin zu null.

Google Suchoperatoren

Google Ranking verbessern, war der Ansatz Licht ins Dunkel zu bringen. Aus diesem Grund sollten wir auch einmal in die Suchoperatoren von Google schauen. Das erweitert unseren Blick wie und wonach Google schaut. Wir hatten ja erkannt,dass der Crawler nicht die Seiten lesen kann. Somit ist es unsere Aufgabe für ein besseres Ranking dem Crawler unseren Inhalt aufzubereiten. Das geschieht ist erster Linie mit der On und Offpage Optimierung um es noch einmal zu erwähnen. Aus Platzgründen gibt es die Operatoren als Link. Es ist auch äußerst dienlich, mit diesen nach neuen Inhalten im Netz zu suchen.

Voraussetzungen für eine Top Position

Google passt sich dem technischen Fortschritt und Bedürfnissen an. Das ist keine Böswilligkeit, das Ranking zu mischen, sondern zwingende Notwendigkeit. Relevante Texte, also Texte die zum Thema der Seite passen und gut aufbereitete Artikel mit Bildern sowie eine entsprechende Unterteilung mit H1, H2. usw. Unterschriften sind die Grundvoraussetzungen. Dazu kommt ein Inhaltsverzeichnis. Google möchte seinen Besuchern beste Ergebnisse anbieten. Dem kommen wir mit den obigen Anforderungen nach.

Suchmaschinenanmeldung

Neben Google, gibt es auch noch weitere Suchmaschinen die nicht nur das Google Ranking verbessern und für mehr Besucher sorgen. Zu diesen gehören MSN, Bing, Yahoo und Lycos, das ist besonders wichtig, wenn unser Geschäft lokal auftreten möchte. Gerade diese Suchmaschinen ziehen besonders, die Meta-Beschreibung zur Suche mit heran. Ein Fakt mehr, auf eine gute Aussagekräftige Beschreibung zu achten. Wer das Plug-in SEO byYoast installiert hat, wird auf diese “Standard” Optimierungen automatisch hingewiesen, bis diese zur Routine werden. Call To Action

Tipp !

Besonders MSN und Bing sollten beachtet werden. Im Zeitalter von Windows 10 erleben diese Suchmaschinen eine neue Renaissance, da diese von Microsoft forciert werden! Übrigens eine Anmeldung bei Google ist nicht nötig, dies erfolgt inzwischen automatisch. (Mehr dazu später.)

Faktoren die das Google Ranking verbessern

Hier werden jetzt die Ranking Faktoren von Searchmetrics aus dem Jahr 2015 angeführt. Das heißt in keinster Weise das diese veraltet sind, sie zeigen auf die Richtung in die es geht!

Die wichtigsten Rankingfaktoren 2016

Mit dem nächsten Update von Google (Hangout/Google 23.03.17) sagt Andrey Lipattsev was die wichtigsten Faktoren für 2016 sind, wobei es sich immer um eine Weiterentwicklung handelt. Das bedeutet nicht das älteren Updates jetzt keine Bedeutung mehr beigemessen wird. • Links • Content • Rankbrain Nach wie vor zieht Google ausgehende und eingehende Links mit zur Bewertung heran. Mit Content ist dort gemeint die schon inhaltliche Struktur (H1,H2 usw. Überschriften, Fett, und der Text) passen müssen. Wie schon erwähnt, wer SEO by Yoast benutzt, erfüllt diese Regeln. Rankbrain ein Filter, geht in eine neue Richtung. Google erhält viele Suchanfragen die sich “nicht so richtig ” einordnen lassen. Denken wir an uns selbst: Wir suchen etwas, haben aber noch gar keine rechte Vorstellung, wie, wo, wonach wir da suchen sollen.Ein Beispiel: Wir geben “langhaariger Mann” ein, und Google listet jetzt alles über das Thema auf, bis hin zur Partnersuche. SEO

Suchmaschinenoptimierung 2017

Seit 2017 hat sich der Trend zu mehr und besseren Content betätigt. Das heißt: Eine Seite auf ein Keyword (möglichst ein Longtail KW) optimieren, aber im Zusammenhang für ein Themengebiet zu diesem darstellen. Google möchte wahrscheinlich immer mehr zu umfassenden Informationen zu einem Thema. Das hebt natürlich bei gekonnter Arbeitsweise uns von anderen Seiten ab. Ansonsten bleibt es im großen Ganzen bei den schon erwähnten Forderungen.

SemRush Studie 2.0

Google Ranking verbessern Mobile Webseite – Warum ein Rankingfaktor? Wie schon erwähnt ist Google praktisch auch gezwungen gewissen Trends zu folgen. Wir als Webseitenbetreiber sollten uns auf gar keinen Fall diesem Trend, der immer größer wird, verschließen. Fakt ist, Suchanfragen von mobilen Endgeräten werden immer mehr – kein Wunder, die Technik der Handys wird immer schneller, besser, komfortabler. Webseitengeschwindigkeit ist wichtig, die Seite muss schnell laden und auf Handys ohne Fehler angezeigt werden. (Google prüft das). Interne Verlinkungen in unserer Seite müssen selbstverständlich auch mobil-tauglich sein. Eines der wichtigsten Faktoren.

Mobile First Index für meine Seite?

John Müller berichtet im Google-Hangout davon, das sich am Logfile erkennen lässt, ob die Seite schon im im mobilen Index aufgenommen worden ist. Es ist aber davon auszugehen, dass im Laufe der Zeit, immer mehr Seiten aufgenommen werden. Dies ist letztendlich auch eine Mammutaufgabe für die Crawler. Ist meine Seite mobil-tauglich? Nichts einfacher als das, Google bietet einen Test an! Weiter führende Infos zu Google mobile -first – Index gibt es hier !

Geschwindigkeit wichtiger als der Rankingfaktor ?

Die Ranking – Position, gesehen werden im Internet ein wichtiger Gesichtspunkt. Was jedoch Kiss Metrics in einer Studie heraus gefunden hat, stimmt nachdenklich: 40% der Besucher verlassen diese wieder ungelesen, wenn sie nicht innerhalb von 3 Sekunden geladen wurde. Bedenken wir einmal, was das an Besuchern und Umsatz kosten kann! Geschwindigkeit der Webseite ein meist übersehener Faktor. Schon meldet sich wieder Google zu Wort und gibt an, die Ladezeit sollte unter 2 Sekunden liegen. Somit ist es einfach zwischen langsamen und schnellen Seiten zu unterscheiden. Das ist letztendlich auch eine Frage der Netzgeschwindigkeit, die in vielen Teilen Deutschlands, noch sehr zu wünschen übrig lässt. Als Betreiber müssen wir, ob wir wollen oder nicht, auf ein langsames Netz reagieren. Ein sinnvolle Maßnahme, besonders Bilder auf die minimale Datengröße reduzieren. Ein Rankingfaktor? – Nein das ist die Geschwindigkeit nicht. Ein sehr schöner, ausführlicher Test gibt es auf: Page-Speed-Insight-Tests von Google. Hier können die Mobil und Desktopseite getestet werden. Dazu helfen konkrete Tipps wie es schneller geht.

Google Search Console – Ein Buch mit 7 Siegeln ?

Viele Marketer lehnen dieses Tool ab, warum auch immer?. Fakt ist aber, wer dieses Tool anwendet, ist anderen einige Schritte bei der Optimierung voraus. Die meisten Tools aus diesem Bereich (Xovi, Sistrix) sind für den Allgemeinbedarf viel zu aufwendig und teuer. Das kostenlose Tool finden wir unter: https://www.google.com/webmasters/tools/home?hl=de . Mit diesem Tool verfügen wir, über einen direkten Draht zu Google. Hier werden Nachrichten ausgetauscht, Fehler gemeldet und sogar Google Abstrafungen gemeldet. Google teilt auch mit, ob die Webseite gecrawlt wurde, im Index aufgenommen wurde und ob es Fehler gibt. So ist es kein Problem die eigene Seite, Stück für Stück den Anforderungen von Google anzupassen! Auch die Suchanfragen werden dort registriert und es ist so möglich, ein genaues Ranking der einzelnen Seiten, im Wettbewerb einzusehen! So werden auch die Zeiten erfasst, ein wichtiger Faktor, um sich auf seine Kunden einzustellen. Auch Ansätze zur CTR – Optimierung werden angeboten!

Ich würde mich sehr freuen, wenn du meine Zeit und Arbeit würdigst und den Beitrag teilst. Es ist nur ein kleiner Klick für dich, aber eine große Hilfe für mich!