Einleitung
Seit etwa 5 Jahren arbeite ich in einem Produktunternehmen im Bereich Finanzen, Wirtschaft und Geschäft. Neben diesem Fachgebiet haben wir ein weiteres, nicht weniger wichtiges — die SEO-Optimierung 📈. In meiner vorherigen Anstellung in einer Web-Agentur habe ich in großen Mengen kleine und mittlere Websites erstellt, von denen einige ebenfalls auf die Optimierung für Suchmaschinen ausgerichtet waren. Der Unterschied in der Qualität der Optimierung an diesen beiden Orten ist erheblich. In meiner aktuellen Anstellung wird diesem Thema große Aufmerksamkeit geschenkt, und das nicht ohne Grund, denn wir haben immer ein Team von 5-7 SEO-Spezialisten. Darüber hinaus sind sogar die Führungskräfte des Unternehmens hervorragende SEO-Spezialisten 👨💼. In dieser Zeit habe ich viel von ihnen gehört und einige kluge Begriffe gut verinnerlicht.

Theoretische und technische SEO-Optimierung
In der SEO-Optimierung unterscheide ich zwei Richtungen: die erste ist das, was allen bekannten SEO, das ich als theoretisch oder einfach gewöhnlich bezeichnen werde, und die zweite ist die technische SEO.
Die erste 📊 ist das, womit alle SEO-Spezialisten beschäftigt sind: die Analyse von Wettbewerbern, Suchdiensten wie Wordstat, die Erstellung eines semantischen Kerns und die anschließenden Arbeiten bis zur Veröffentlichung der Website oder eines bestimmten Abschnitts der Website.
Die zweite ⚙️ Richtung, die ich hervorheben möchte, ist die technische SEO. Meiner Meinung nach entstand sie deutlich später als die theoretische SEO, da in den Anfangsjahren des Internets kaum jemand diesen Aspekt des Marketings beachtete und die Algorithmen der Suchmaschinen diesem Thema deutlich weniger Aufmerksamkeit schenkten. Im Laufe der Jahre in meinem aktuellen Unternehmen hat sich eine klare Liste 📋 von Punkten gebildet, die zur technischen SEO-Optimierung gehören, und vielleicht werde ich irgendwann darüber schreiben, beispielsweise in einem Beitrag bei der Arbeit, aber es wird wahrscheinlich nicht in meinem Blog sein, da es sich um komplexe technische Aspekte handelt, die ich nicht in meinem Blog veröffentliche.
Wordstat ist ein Dienst von Yandex, der es ermöglicht zu verstehen und zu analysieren, welche Anfragen von Nutzern der Yandex-Suchmaschine am häufigsten gesucht werden.
Der semantische Kern einer Website (Semantik) ist eine Liste von Schlüsselwörtern und Phrasen, die gezielte Besucher auf die Website bringen und zur Förderung der Website in Suchmaschinen verwendet werden.
Trigger zum Schreiben eines Artikels
In diesem Artikel wird in erster Linie über die theoretische SEO-Optimierung und ihre Unvollkommenheiten zum gegenwärtigen Zeitpunkt gesprochen. Obwohl sie eng mit der technischen SEO verbunden ist, würde ich einen Teil der technischen Arbeiten auch als nutzlos bezeichnen, wenn wir perfekte Suchmaschinen hätten.
Die Idee für diesen Artikel entstand aus einer gewissen fiktiven Meinung, die ich ständig höre (sogar bei der Arbeit), dass sich die Suchmaschinen durch neuronale Netze so weit entwickelt haben, dass sie nicht mehr getäuscht werden können 🤖 und dass sie sehr intelligent sind. Mit jedem Jahr kommen immer mehr Ranking-Faktoren zum Einsatz, aber verbessern sie wirklich das Gesamtbild der SEO-Optimierung? Meiner Meinung nach, nein! Lassen Sie uns das näher betrachten.
Ranking (in den Suchergebnissen) — das ist die Priorisierung von Suchergebnissen für verschiedene Websites und Links. Mit anderen Worten, beim Ranking entscheidet die Suchmaschine, warum eine Website bei derselben Anfrage auf der ersten Zeile der ersten Seite stehen sollte, während eine andere irgendwo in der Mitte der zweiten Seite erscheint.
So oder so, in meiner Arbeit begegne ich regelmäßig SEO, manchmal lese ich sogar etwas für mich selbst. In diesem Jahr habe ich das Buch 📗 „Die helle Seite der Website-Promotion“ von den Autoren Ramazan Mindubaev, Dmitry Bulatov und Albert Safin gelesen. Ich habe auch eine Reihe von Videomaterialien angeschaut, die das Buch begleiten. Die Autoren nennen dies die helle Seite der Website-Promotion. Für mich ist es jedoch eher die dunkle Seite der SEO und eine Menge sinnloser und dummer Arbeit. Natürlich ist das nicht die dunkle Seite der SEO, wenn Menschen beispielsweise alle Schlüsselphrasen in einem vollständig versteckten Block auf den Seiten der Website auflisten, um die Suchmaschinen zu täuschen. Aber ich sehe trotzdem nicht die helle Seite der modernen SEO, sondern vielmehr die Unvollkommenheit der Suchmaschinen. Ich kritisiere auf keinen Fall die modernen SEO-Spezialisten für ihre Methoden. Sie spielen einfach nach den bestehenden Regeln und nutzen alle möglichen und zulässigen Optimierungsmethoden.
Was stimmt nicht mit den Suchmaschinen?
Ich werde versuchen, all meine Unzufriedenheiten in mehrere Punkte zu unterteilen und jeden im Detail zu betrachten.
1. Algorithmen und Ranking-Faktoren. 🔝
Es gibt viele Faktoren und Kriterien, anhand derer die Suchmaschine die „Qualität“ des Materials bewertet. Die Anzahl solcher Kriterien kann bei jedem System variieren. So hat Yandex beispielsweise über 200 Faktoren. Viele Faktoren der Suchmaschinen können in Gruppen mit ähnlichen Kriterien zusammengefasst werden (zum Beispiel Verhaltensfaktoren: wie sich der Benutzer auf der Seite verhält, oder Faktoren des Domainnamens: wie alt der Domainname ist, ob er in Spam-Datenbanken aufgeführt ist, wie gut die Themen der Website insgesamt übereinstimmen) und andere Gruppen von Faktoren.
Jedes Jahr werden die Ranking-Faktoren verbessert, aber das geschieht so langsam, dass wir mit solchen kleinen Verbesserungen in etwa 50 Jahren zu einer wirklich qualitativ hochwertigen Suchmaschine kommen werden. Jeder nachfolgende Ranking-Algorithmus ähnelt eher einer Feinjustierung der bestehenden Faktoren: Faktor A um 1% erhöhen, Faktor B um 4% senken. Ob diese Änderungen manuell oder durch neuronale Netzwerke vorgenommen werden — wir wissen es nicht, aber wichtig ist, dass dies eindeutig nicht ausreicht für eine konzeptionell gute Suche.
Unter den Ranking-Faktoren gibt es viele seltsame: Die Verweildauer auf der Website zeigt nicht immer die Qualität des Materials; das Alter der Domain: Ein alter Domainname bedeutet nicht immer eine höhere Qualität als ein neu registrierter, und so weiter.

2. Ewige Experimente. ⚖
Wir führen ständig Experimente und Tests durch: Wir messen, wie dies uns hilft, bei bestimmten Anfragen die Konkurrenz zu überholen oder einfach mehr Traffic (Besucher) auf die Website zu bekommen. Wir wissen nicht genau, was in die Snippets der Suchergebnisse gelangt, sondern orientieren uns lediglich an allgemeinen Empfehlungen. Ich habe nichts gegen Tests, die darauf abzielen, das Verhalten und die Wahrnehmung der Menschen zu analysieren, denn alle Menschen sind verschieden, und das Umfärben eines grünen Buttons in Blau kann tatsächlich die Anzahl der Klicks um einen bestimmten Prozentsatz erhöhen oder verringern. Aber wenn die Menschen alle unterschiedlich sind, dann ist die Suchmaschine (zum Beispiel Google) eine Einheit. Warum macht das Vertauschen bestimmter Blöcke oder das Auflockern eines Blocks mit textueller Information die Seite laut der Suchmaschine besser oder schlechter? Wir sollten nicht willkürlich die beste Lösung aus Sicht der Suchmaschine auswählen. Wir sollten sie eindeutig kennen.
Snippets (in den Suchergebnissen) sind zusätzliche Materialien einer Seite, die in den Ergebnissen neben dem Link zur Website und der Testbeschreibung dieser Seite angezeigt werden. Snippets können Adressen, Telefonnummern, Akkordeons, Mini-Tabellen und viele andere Informationen enthalten.
3. Generierung überflüssiger Inhalte. 🗃
Die Menschheit produziert heute täglich 8500 Mal mehr Inhalte, als in der Bibliothek des Kongresses der USA gespeichert sind; jede Sekunde wird 1000 Mal mehr veröffentlicht, und täglich 80 Millionen Mal mehr Internet-Inhalte als in 130 Millionen gedruckten Büchern, die in der gesamten Geschichte der Menschheit veröffentlicht wurden.
Brett King
Eine der Hauptprobleme, die ich in der SEO sehe, ist die Generierung überflüssiger Inhalte und der gesamte Prozess des Aufbaus des semantischen Kerns. Zuerst analysieren wir die Suchanfragen. Dann passen wir (erstellen) die Überschriften und andere Schlüsselphrasen der Seite an die Intents in absteigender Reihenfolge an, wobei die wichtigsten zuerst gesetzt werden.
Intents sind die Wünsche und Absichten des Benutzers; das, was er im Kopf hat, wenn er eine Suchanfrage eingibt.
Wenn gesagt wird, dass die Suchmaschine ein komplexes System von Faktoren ist, mit dem neuronale Netzwerke und andere Lern-/Selbstlernalgorithmen arbeiten, sehe ich das immer anders. Die Suchmaschine ist für mich jetzt ein Kind, das auf Anfragen reagiert. Wer besser optimiert: legal oder auf betrügerische Weise (eine Hintertür findet) — der wird priorisiert. Man weiß nie genau, was diesem Kind gefällt und was nicht, und man führt ständig verschiedene A/B-Tests durch. Es ist wie eine leichtgläubige Großmutter, die ihre eigene Meinung hat, die jedoch selten wirklich korrekt ist, bis jemand (ein Assessor) kommt, dem die Suchmaschine blind vertraut.
Lassen Sie uns ein ganz reales Beispiel anführen. Wir haben auf der Website 15.000 bis 20.000 Seiten, die zu 95–99 Prozent inhaltlich ähnlich sind. Nur die Überschriften ändern sich, und manchmal gibt es wirklich nur einen winzigen Teil an Informationen, der variiert.
Solche Seiten könnten beispielsweise Folgendes sein:
Kredite für Rentner 100.000 Rubel in Smolensk
Kredite für Rentner 100.000 Rubel in Omsk
Kredite für Rentner 100.000 Rubel in Tyumen
Solcher Städte kann es Tausende geben. Der benötigte Betrag kann von 10.000 bis 1 Million Rubel variieren, und im Beispiel könnte der Kreditnehmer jemand wie ein Student, Soldat, Hausfrau, Behinderter, Emigrant oder viele andere soziale Gruppen sein. Jedes Substantiv, das beschreibt, wer eine Person sein könnte, passt zu dieser Anfrage. Und wie verfahren wir in solchen Situationen? Denken Sie nur einen Moment darüber nach, was wir tun, um unsere Ziele zu erreichen und dieser Information der Suchmaschine „zu füttern“? Richtig, wir generieren alle möglichen Kombinationen von Optionen! Und das alles nur, damit unsere Überschriften der Häufigkeit der Anfrage so nahe wie möglich kommen. Um mehr Anfragen abzudecken, erstellen wir Hunderte, wenn nicht Tausende von Seiten mit verschiedenen Varianten dieser Kombinationen.
Warum kann man dafür nicht einfach eine einzige Seite erstellen?
Kredite für Rentner 100.000 Rubel in den Städten [Smolensk, Omsk, Tyumen]. Doch in der heutigen Realität wird eine solche Anfrage (wenn es sich nicht um eine hochangesehene Website handelt) nicht hoch eingestuft. Darüber hinaus ist selbst diese Variante nicht ideal für die Suchmaschine der Zukunft. Das Problem dieser Anfrage liegt auch darin, dass hier eindeutig der Betrag von 100.000 Rubel und die Kategorie des Kreditnehmers: Rentner, angegeben sind. Das bedeutet jedoch nicht, dass in diesen Städten kein Kredit in einer anderen Höhe und an andere soziale Gruppen vergeben werden kann. Eine ideale Suchmaschine sollte verstehen, dass es eine einzige Seite gibt, auf der Informationen über Kredite von Betrag N bis Betrag M in Städten (Städte-Liste) für Gruppen (soziale Gruppen-Liste) erhältlich sind.
Kredite {10.000, 15.000, 20.000, …, 1.000.000} {Rentner, Student, Hausfrau, …, Behinderter} in {Smolensk, Omsk, …, Tyumen}.
Die API-Interaktionen (Aufzählungen) für die Suchmaschine, die von den Website-Optimierern bereitgestellt werden, können und werden höchstwahrscheinlich ganz anders und umfangreicher sein. Aber ich bin mir sicher, dass sowohl moderne SEOs als auch gewöhnliche Administratoren von Blogs, Online-Shops und anderen Websites mit dieser Interaktion zurechtkämen.
API ist eine Sammlung von Werkzeugen und Funktionen in Form einer Schnittstelle zur Erstellung neuer Anwendungen, die es einem Programm ermöglicht, mit einem anderen zu interagieren.
In einer idealen Suchmaschine der Zukunft sollte diese Anfrage nicht niedriger eingestuft werden als eine spezifische hochfrequente Anfrage. Die Suchmaschine sollte auf die Qualität der Informationen, deren Zuverlässigkeit, Geschwindigkeit und Benutzerfreundlichkeit achten. Das ist alles! Keine 20.000 Seiten. Wenn der Eigentümer einer Ressource zur Interaktion mit der Suchmaschine bestimmte Parameter bereitstellen muss, nach denen die zukünftige Suche funktionieren wird, ist das keine große Herausforderung: Verfügbare Seiten, verfügbare Städte, verfügbare soziale Gruppen zu übermitteln. Tausenden von Websites, hauptsächlich Online-Shops, insbesondere kleinen und mittleren, die gegen große Unternehmen bei hochfrequenten Anfragen konkurrieren, müsste es nicht schwerfallen, tausende Seiten zu erstellen. Eine einzige Seite von jeder Website in den Datenbanken der Suchmaschinen. Stellen Sie sich vor, wie wir Hunderte oder sogar Tausende von Festplattenspeichern und Hunderte von Servern einsparen können, wenn wir nicht einfach Informationen duplizieren, überflüssige Arbeiten machen und uns auf Qualität statt auf Schablonen und Optimierung für Suchmaschinen konzentrieren.
Hochfrequente Anfragen sind Anfragen, die eine hohe Nachfrage im Internet haben. Das Erreichen einer Website in den Top-Ergebnissen für hochfrequente Anfragen hat einen erheblichen Einfluss auf das Wachstum des Traffics und die Sichtbarkeit.
4. Ignorieren von Anforderungen und Vorgaben. 🔗
Die Suchmaschine ist eine schwarze Box, voll von Magie (und es ist unklar, ob sie gut oder schlecht ist), die den Augen der SEO-Spezialisten verborgen bleibt. Niemand weiß genau, was nach der Optimierung der Seiten unter Tausenden von anderen Konkurrenzseiten herauskommen wird. Aber selbst unter dieser Magie gibt es einige klare Regeln, nach denen Suchmaschinen erlauben, zu spielen. Dazu gehört zum Beispiel der Titel und die Beschreibung der Seite, die in den Suchergebnissen angezeigt werden. Was eine Person in speziellen Feldern ausgefüllt hat, sollte auch bei der Anzeige der Seite erscheinen! Sollte das wirklich so funktionieren? Ja! Funktioniert es tatsächlich so? Nicht ganz! Selbst wenn man weiß, wo und wie man Informationen für die Beschreibung schreiben sollte, die der Benutzer sehen soll, ignoriert die Suchmaschine in seltenen Fällen die im erforderlichen Feld angegebene Beschreibung und nimmt stattdessen eine ganz andere, die ihrer Ansicht nach besser passt.
5. Die Rolle der Assessoren. 🦸♂️
Vielleicht öffne ich für jemanden die Augen, aber Suchmaschinen arbeiten nicht vollständig unabhängig. Eine große Rolle, manchmal sogar eine entscheidende, spielen die Assessoren. Sie können das Ranking einer Quelle in der Suchmaschine nach ihrem Ermessen sowohl senken als auch erhöhen. Und obwohl sie insgesamt nur einen sehr kleinen Teil der Informationen verarbeiten – sie sind da! Auch wir legen bei unserer Arbeit großen Wert auf Assessoren. Wir platzieren wichtige (nach unserem Ermessen) Informationen an den auffälligsten Stellen, damit sie sofort ins Auge fallen, auch für die Assessoren, die, wenn auch flüchtig, die Website besuchen. Wenn Suchmaschinen perfekt und ideal wären, wären keine Menschen von außen nötig.
Assessoren sind Menschen, Vertreter der Suchmaschinen, die die Qualität und Zuverlässigkeit von Informationen überprüfen.
6. Technische Komplexität in der Programmierung. ⛓
Vielleicht der schwierigste Punkt zu lesen, mit vielen unverständlichen Begriffen. Aber ich konnte ihn auch nicht unerwähnt lassen. Als Ergebnis der oben genannten Punkte und einiger nicht angegebener Probleme entsteht die Komplexität bei der Erstellung und Wartung einer solchen Ressource. Wenn die Verwendung von SEO-freundlichen URLs (menschlich lesbare URLs) noch irgendwie gerechtfertigt werden kann, da eine lesbare Adresse immer angenehmer wahrgenommen wird, so ist die „richtige“ Verschachtelung der URLs einer Website, die Verstärkung von Unterbereichen und die Verwendung von Subdomains ausschließlich zu SEO-Zwecken – all das ist eine völlige Utopie und eine erhebliche Verkomplizierung der Programmierung. Ein SEO-Webanwendung zu entwerfen, die gut auf SEO-Optimierung abgestimmt ist und die Wünsche und Bedürfnisse von SEOs vollständig erfüllt, ist eine sehr schwierige Aufgabe. Und wenn es darum geht, die Verschachtelung von Seiten und Bereichen während des Betriebs der Website vollständig oder erheblich zu überarbeiten, kann der Schwierigkeitsgrad um ein Vielfaches steigen. Manchmal sind bei solchen Überarbeitungen vorübergehende oder dauerhafte „Stützen“ einfach unvermeidlich. Wenn mich meine Programmiererfreunde fragen, warum wir in unseren SEO-Projekten keine Frontend-Frameworks verwenden, nenne ich oft eines der Hauptprobleme: Die Routenführung keines der bekannten Frontend-Frameworks kann die Wünsche der SEOs vollständig abdecken. Oft reicht selbst die Routenführung von Backend-Frameworks (die standardmäßig auch für eine flexible Arbeit mit URLs gedacht sind) nicht aus, um die Bedürfnisse der SEO-Optimierung zu befriedigen – was soll man dann über verschiedene Reacts und Angulars sagen? Lassen wir die komplizierten Begriffe und den umfangreichen Abschnitt hinter uns und kommen wir zum nächsten Thema.
Wie ich Suchmaschinen sehe
Welche Merkmale erwarte ich von Suchmaschinen der neuen Generation:
- Keine Assessoren
- Modernere und vor allem fortschrittlichere Rankingfaktoren
- Universelle Anfragen ohne die Notwendigkeit, sinnlose Hunderte oder Tausende von Seiten zu duplizieren und zu kopieren (das ist wohl der wichtigste Faktor)
- Mehr Menschlichkeit, statt gedankenloses Durchforsten und Analysieren großer Datenmengen
- A/B-Tests können das Verhalten von Menschen auf der Website beeinflussen (auffällige Schaltflächen mit Kaufaufforderungen können die Kaufkonversion um einige Prozent steigern oder umgekehrt aufgrund von Aufdringlichkeit abschrecken). Aber A/B-Tests sollten nicht verwendet werden, um das Verhalten der Website in den Suchergebnissen zu verfolgen.
- Transparenz (dann würde die Notwendigkeit für A/B-Tests entfallen)
- Einheitliche Spielregeln

Jedes Mal gibt es Websites und Optimierer, die es schaffen, in die TOP-Positionen (hohe und profitable Rankings) zu gelangen, indem sie dunkle Optimierungsmethoden verwenden (das nennt man Dark SEO, wofür man gesperrt werden kann, und Gott sei Dank wird es mit jedem Jahr weniger). Dennoch möchte ich glauben, dass der Begriff "dunkle Seite der Optimierung" irgendwo am Ende der 2000er Jahre bleiben wird. Die helle Optimierung, die SEO-Experten als moderne Methodik bezeichnen, wird erhebliche Veränderungen durchlaufen.
Wann man mit Verbesserungen rechnen kann
Wann können wir wirklich qualitativ hochwertige Suchmaschinen erwarten? In den nächsten 5-10 Jahren denke ich nicht, dass sich konkret viel ändern wird. Es gibt Hoffnung auf Quantencomputer und Quantenberechnungen, jedoch werden sie nicht alle Probleme umfassend lösen. Sie können nur einige Probleme lösen, die beispielsweise mit unzureichenden Rechenressourcen zusammenhängen. Damit kann man Informationen schneller verarbeiten. Aber das wird wahrscheinlich nicht ausreichen, um ein Suchsystem zu schaffen, das uns vollständig zufriedenstellt. Außerdem sehe ich keine Anzeichen dafür, dass Modifikationen der bestehenden Algorithmen und Ranking-Faktoren in naher Zukunft erheblichen Einfluss auf die Qualität haben und die Suchmaschinen auf ein völlig neues Niveau heben könnten. Möglicherweise ist etwas Konzeptuelles Neues erforderlich, und Quantenberechnungen und -computer könnten diesen Anstoß geben.
SEO nach einheitlichen und klaren Regeln
Wie wird SEO aussehen, wenn die Spielregeln wirklich transparent und einheitlich für alle sind: Angenommen, wir wissen genau, welche Überschriften erforderlich sind (oder besser gesagt, das sollte nicht mehr wichtig sein) und welche Daten definitiv in die Mikroformatierung gehen. Wenn alle Websites hinsichtlich ihrer Attraktivität "gleich" sind, worauf wird die Suchmaschine dann ihren Fokus legen? Ich denke, man kann weiterhin an den technischen Kennzahlen arbeiten und den Fokus auf die Ladegeschwindigkeit 🏃♂️ und die Seitenleistung legen (diese Kennzahlen werden auch jetzt schon berücksichtigt) 🖥, jedoch spiegeln sie nicht die Realität wider. Viele schlechte Websites schaffen es immer noch in die TOP-Positionen, während schnelle und benutzerfreundliche Websites oft weiter unten landen. Das liegt daran, dass in erster Linie die theoretische SEO berücksichtigt wird. In den Suchmaschinen der neuen Generation sollte die theoretische Optimierung vollständig verschwinden. Oder zumindest in etwas anderes umgewandelt werden. Da Suchmaschinen über "echte" (von viel höherer Qualität) künstliche Intelligenz 🤖 verfügen werden, insbesondere wenn man die Assessoren ausschließt, sollten sie in der Lage sein, die Qualität und Verlässlichkeit der bereitgestellten Informationen auf einem neuen Niveau selbst zu bestimmen. Das sollte das Hauptkriterium für das Ranking werden (sogar mehr als die technische Optimierung) und die theoretische SEO vollständig ersetzen. Momentan sehe ich keine Anzeichen dafür, dass die neuronalen Netzwerke der Suchmaschinen in der Lage sind, Informationen angemessen zu analysieren. Ob das mit dem zu großen Informationsvolumen im Internet zusammenhängt, das weiterhin geometrisch wächst, oder mit der schlechten Qualität der neuronalen Netzwerke – das ist schwer zu sagen. Ich denke eher, es ist die zweite Variante. Aber eines weiß ich sicher: Indem wir 20.000 identische Seiten erzeugen, gehen wir eindeutig den falschen Weg und erschweren nur die Arbeit der Suchmaschinen, während wir die Server mit überflüssigen Informationen "verschmutzen". Dennoch beschäftigen wir uns weiterhin mit dieser Art der Promotion, da es an guten Alternativen mangelt. In den Suchmaschinen der Zukunft werden wir nicht mehr die Intentionen zur Bildung von Überschriften betrachten, um die Phrasen so gut wie möglich an die Anfragen anzupassen. Wir werden den Suchmaschinen sofort sagen, wer wir sind und welche Dienstleistungen wir anbieten. Und wie gut wir das tun, sollte die Suchmaschine bestimmen. Die Sammlung des semantischen Kerns wird anders sein. Mit dem Aufkommen von Quantencomputern und stabilen Qubits wird die Rechenleistung insgesamt steigen. Dies wird eine häufigere und qualitativ hochwertigere Indizierung von Seiten ermöglichen. Aber ob die Qualität der Indizierung der Suchmaschinen ebenfalls steigen wird, bleibt offen.
Fazit
Ich werde versuchen, das Geschriebene zusammenzufassen und die Probleme, die ich bei modernen Suchmaschinen sehe, kurz aufzulisten.
- 🔝 Unvollkommene Faktoren und Algorithmen für das Ranking und die Berücksichtigung der Qualität von Websites.
- ⚖ Ständig müssen A/B-Tests und verschiedene Experimente durchgeführt werden, um zu verstehen, wie sich dies auf die Suchergebnisse auswirkt.
- 🗃 Die Generierung von massenhaft überflüssigen Seiten und einheitlichem Inhalt, alles nur, um die Suchmaschine zufriedenzustellen. Das erinnert eher an das Anpassen einer Antwort an eine Aufgabe, als an eine qualitativ hochwertige Lösung.
- 🦸♂️ Das Eingreifen von Menschen (Assessoren) in das System bedeutet nicht unbedingt etwas Schlechtes, sollte jedoch Einzelfälle und nicht regelmäßig sein. Die Suchbots sollten damit selbst gut umgehen können.
Und noch ein bisschen über Suchmaschinen
Ein wenig vom Hauptthema (Überlegungen zur Qualität der theoretischen SEO heute) abweichend, möchte ich zum Schluss noch ein wenig über Suchmaschinen im Allgemeinen sprechen 💡.
Wenig bekannt ist, dass es neben den Suchmaschinen Yandex und Google viele andere gibt, darunter auch einige sehr gute. Wenn Suchmaschinen wie Rambler, Bing, Yahoo und Mail aus verschiedenen Gründen kein Vertrauen erwecken (bei manchen ist die Suchbasis klein, andere sind schon lange nicht mehr auf dem Höhepunkt und werden es nie wieder erreichen), gibt es einige Suchmaschinen, die mein besonderes Interesse wecken. Wenn wir über DuckDuckGo 🦆 sprechen, ist das eine gute Suchmaschine mit einer großen Datenbasis und anständiger Privatsphäre (zumindest zum Zeitpunkt des Schreibens dieses Artikels). Neben DuckDuckGo habe ich auch die Suchmaschine Brave aus dem gleichnamigen Browser in meinen Lesezeichen, die ich in naher Zukunft ausprobieren möchte. Und eine weitere interessante Suchmaschine ist You, die mein Interesse sogar mehr weckt als Brave und DuckDuckGo. Insbesondere bei Programmieranfragen gefällt mir die Ausgabe dieser Suchmaschine sogar besser als die von Yandex oder Google.
Manchmal kommen mir noch mindestens zwei Fragen in den Sinn, die mit Suchmaschinen zu tun haben. Ich werde meine Überlegungen dazu im Folgenden darlegen.
- Wird sich der Marktanteil von Yandex und Google im Internet verändern? (Da dieser Beitrag auf russischsprachige Leser abzielt und diese beiden Suchmaschinen die Hauptakteure sind, habe ich sie als Beispiel gewählt). Kurz gesagt, eher nein. Wenn Yandex unter den Sanktionen (die insgesamt für die Region verhängt wurden) allmählich in der Qualität nachlassen oder zumindest in den Features hinter Google zurückbleiben könnte, dann hat Google in der Welt insgesamt kaum Hindernisse, um sich weiterzuentwickeln. Daher denke ich, dass Google weiterhin dominieren wird. Dies betrifft die nächsten 20 Jahre. Aber lassen wir nicht außer Acht, dass es in der IT-Welt bereits viele Fälle gab, in denen die Unternehmenspolitik zu einer Krise und dem Verlust einer klaren Marktführerschaft führte: Xerox, Intel und natürlich die Suchmaschine Yahoo, die zu Beginn der 2000er Jahre in ihrem Bereich dominierte. Höchstwahrscheinlich weiß Google, wie man aus den Fehlern anderer lernt und wird so etwas nicht mit sich selbst zulassen. Zumal die Suchmaschine für Google ein wirklich wichtiges kommerzielles Element ist 💵. Aber lassen wir uns nicht in die Zukunft blicken, was in 50 Jahren sein wird. Vielleicht wird sich niemand mehr an die Suchmaschine Google erinnern, so wie heute kaum jemand an Yahoo denkt 😟.
- Könnten spezialisierte Suchmaschinen 🔍 entstehen, die in der Qualität über universellen Suchmaschinen stehen? Diese Frage ist wohl noch komplexer. In gewissem Maße gibt es solche Systeme bereits, die innerhalb ihres eigenen Rahmens arbeiten (suchen), aber sie werden wahrscheinlich nicht über diesen Rahmen hinausgehen und mit allgemeineren Suchmaschinen konkurrieren. Auf der anderen Seite, wenn eine solche Suchmaschine tatsächlich etwas sehr Fortschrittliches im Bereich der Suche bieten würde, würde ich sie nutzen, egal ob es sich um die Suche nach Programmiercode oder Baumaterialien handelt – Hauptsache, die Suche in dieser Nische wäre so natürlich und menschlich wie möglich. Eine solche Suche würde das Fehlen der uns vertrauten Algorithmen voraussetzen und ganz auf maschinellem Lernen und fortschrittlicheren Technologien basieren. Andererseits, wenn eine solche Suche entstehen würde, die in einer bestimmten Nische hervorragend funktioniert, was würde dann dagegen sprechen, sie auch auf andere Nischen anzuwenden und zu trainieren? Dann würden wir wieder zu einer universellen Suche zurückkehren, nur diesmal wäre sie perfekter.