Optimisation SEO moderne à la vue d’un programmeur

Aleksandr Shitik
Aleksandr Shitik

J’écris mes propres articles et livres, et je fais des critiques de films et de livres. Expert en cosmologie et astronomie, informatique, productivité et planification.

Contenu

Introduction

Cela fait environ 5 ans que je travaille dans une entreprise de produits dans le domaine de la finance, de l'économie et des affaires. En plus de ce domaine, nous avons un second domaine tout aussi important : l'optimisation SEO 📈. Mon précédent emploi était dans une agence web, où je réalisais en série de petits et moyens sites, dont une partie était également axée sur l'optimisation pour les moteurs de recherche. La différence de qualité d'optimisation entre ces deux endroits est significative. Dans mon emploi actuel, une attention énorme est accordée à cela, et ce n'est pas sans raison, car nous avons toujours une équipe de spécialistes SEO composée de 5 à 7 personnes. De plus, même les dirigeants de l'entreprise sont d'excellents spécialistes SEO 👨‍💼. Au fil du temps, j'ai entendu de nombreux mots intelligents parmi eux, dont une partie a été bien assimilée.

Optimisation SEO

Optimisation SEO théorique et technique

Dans l'optimisation SEO, je vais distinguer deux directions : la première est celle de l'optimisation SEO habituelle, que je vais appeler théorique ou simplement ordinaire, et la seconde est technique.

La première 📊 est ce avec quoi tous les spécialistes SEO s'occupent : analyse des concurrents, services de recherche comme Yandex Wordstat, élaboration d'un noyau sémantique et travaux ultérieurs avant le lancement du site ou d'une section spécifique du site.

La seconde ⚙️ direction que je souhaite mettre en avant est le SEO technique. À mon avis, il est apparu beaucoup plus tard que le théorique, car dans les premières années d'Internet, peu de gens se souciaient de cet aspect de la promotion, et les algorithmes des moteurs de recherche y prêtaient beaucoup moins d'attention. Au fil des années passées dans l'entreprise actuelle, j'ai établi une liste claire 📋 de ce qui fait partie de l'optimisation SEO technique, et peut-être qu'un jour j'écrirai là-dessus, par exemple, dans des posts au travail, mais il est peu probable que cela figure dans mon blog, car ce sont des aspects techniques complexes à comprendre que je ne publie pas dans mon blog.

Yandex Wordstat est un service de la société Yandex qui permet de comprendre et d'analyser quelles requêtes sont le plus souvent recherchées par les utilisateurs du moteur de recherche Yandex.
Le noyau sémantique d'un site (sémantique) est une liste de mots-clés et d'expressions qui amènent des visiteurs ciblés sur le site, utilisée pour promouvoir le site dans les moteurs de recherche.

Déclencheurs pour écrire un article

Cet article portera principalement sur l'optimisation SEO théorique et sur ses imperfections à l'heure actuelle. Cependant, étant donné qu'elle est étroitement liée à la technique, une partie des travaux techniques pourrait également être considérée comme inutile, si nous avions des moteurs de recherche idéaux.

L'idée d'écrire cet article est née d'une certaine opinion erronée que j'entends constamment (même au travail), selon laquelle les moteurs de recherche, grâce aux réseaux neuronaux, se sont développés à tel point qu'il est impossible de les tromper 🤖, qu'ils sont très intelligents. Chaque année, de plus en plus de facteurs de classement sont appliqués, mais améliorent-ils vraiment la situation générale de l'optimisation SEO ? À mon avis, non ! Essayons de comprendre.

Le classement (dans les résultats de recherche) est la hiérarchisation des résultats de recherche pour différentes sites et liens. En d'autres termes, lors du classement, le moteur de recherche décide pourquoi un site pour la même requête devrait être en première position de la première page, tandis qu'un autre devrait être quelque part au milieu de la deuxième page.

Quoi qu'il en soit, dans mon travail, je suis régulièrement confronté au SEO, et parfois je lis même des choses pour moi-même. Cette année, j'ai lu le livre 📗 "Le côté lumineux du référencement" des auteurs Ramazan Mindubaev, Dmitry Bulatov et Albert Safin. J'ai également regardé plusieurs vidéos accompagnant ce livre. Les auteurs appellent cela le côté lumineux du référencement. Mais pour moi, c'est plutôt le côté sombre du SEO et une multitude de travaux inutiles et stupides. Bien sûr, ce n'est pas aussi sombre que le SEO où, par exemple, des gens enuméraient toutes les phrases clés dans un bloc complètement caché sur les pages du site pour tromper les moteurs de recherche. Cependant, je ne vois toujours pas de côté lumineux dans le SEO moderne, mais plutôt l'imperfection des systèmes de recherche. Je ne critique en aucun cas les spécialistes du SEO modernes pour leurs méthodes. Ils jouent simplement selon les règles en place et utilisent tous les moyens d'optimisation possibles et acceptables.

Qu'est-ce qui ne va pas avec les moteurs de recherche ?

J'essaierai de diviser tous mes mécontentements en plusieurs points et d'examiner chacun d'eux en détail.

1. Algorithmes et facteurs de classement. 🔝

Il existe de nombreux facteurs et critères selon lesquels un moteur de recherche évalue la "qualité" du contenu. Chaque système peut avoir un nombre variable de ces critères. Par exemple, Yandex en compte plus de 200. De nombreux facteurs des moteurs de recherche peuvent être regroupés par critères similaires (par exemple, les facteurs comportementaux : comment l'utilisateur se comporte sur la page, ou les facteurs liés au nom de domaine : l'âge du nom de domaine, s'il figure dans des bases de données de spam, à quel point le thème du site est pertinent et adapté, etc.) et d'autres groupes de facteurs.

Chaque année, les facteurs de classement sont améliorés, mais cela se fait si lentement que ces petites améliorations nous mèneront à un véritable système de recherche de qualité dans environ 50 ans. Chaque nouvel algorithme de classement ressemble davantage à un ajustement des facteurs existants : augmenter le facteur A de 1 %, diminuer le facteur B de 4 %. Que ce soit fait manuellement ou par des neurones — nous ne savons pas, mais ce qui est important, c'est que cela est clairement insuffisant pour un bon moteur de recherche conceptuel.

Parmi les facteurs de classement, il y a beaucoup de choses étranges : le temps passé sur le site ne montre pas toujours la qualité du contenu ; l'âge du domaine : un domaine ancien n'est pas toujours de meilleure qualité qu'un domaine récemment enregistré, etc.

Moteurs de recherche modernes

2. Expériences éternelles. ⚖

Nous menons toujours des expériences et des tests : nous mesurons dans quelle mesure cela nous permettra de dépasser nos concurrents pour certaines requêtes ou simplement d'obtenir plus de trafic (visiteurs) sur le site. Nous ne savons pas exactement ce qui apparaîtra dans les extraits des résultats de recherche, nous nous basons uniquement sur des recommandations conditionnelles. Je n'ai rien contre les tests visant à analyser le comportement et la perception des gens, car chaque personne est différente, et changer un bouton vert en bleu peut effectivement augmenter ou diminuer le nombre de clics d'un certain pourcentage. Mais si les gens sont tous différents, le moteur de recherche (par exemple, Google) est unique. Pourquoi le fait de déplacer certains blocs ou d'ajouter des informations textuelles rendrait-il une page meilleure ou pire, selon le moteur de recherche ? Nous ne devrions pas deviner la meilleure solution selon le moteur de recherche. Nous devrions la connaître avec certitude.

Les extraits (dans les résultats de recherche) sont des informations supplémentaires sur la page, affichées dans les résultats à côté du lien vers le site et de la description de cette page. Un extrait peut inclure des adresses, des numéros de téléphone, des accordéons, des mini-tableaux et bien d'autres informations.

3. Génération de contenu inutile. 🗃

Aujourd'hui, l'humanité produit en une journée 8500 fois plus de contenu que ce qui est stocké à la Bibliothèque du Congrès des États-Unis ; chaque seconde, il est publié 1000 fois plus de contenu, et chaque jour, 80 millions de fois plus de contenu Internet que les 130 millions de livres imprimés publiés tout au long de l'histoire de l'humanité.

Brett King

L'un des principaux problèmes du SEO, à mon avis, est la génération de contenu inutile et le processus de construction du noyau sémantique. D'abord, nous analysons les requêtes de recherche. Ensuite, nous ajustons (élaborons) les titres et autres mots-clés de la page en fonction des intentions, par ordre d'importance (en décroissant, où les plus importants sont placés en premier).

Les intentions (ou "intents") sont les désirs et les intentions de l'utilisateur ; ce qu'il a en tête lorsqu'il saisit une requête de recherche.

Quand on dit qu'un moteur de recherche est un complexe complexe de facteurs avec lesquels travaillent des réseaux neuronaux et d'autres algorithmes d'apprentissage / d'auto-apprentissage, je le vois toujours différemment. Pour moi, le moteur de recherche est comme un enfant qui réagit aux requêtes. Celui qui optimise le mieux : légalement ou par des moyens détournés (en trouvant une faille) sera priorisé. On ne sait jamais vraiment ce qui plaît à cet enfant et ce qui ne lui plaît pas, et l'on effectue toujours divers tests A/B. C'est comme une grand-mère crédule qui a son opinion, mais qui est rarement véritablement juste, jusqu'à ce qu'une personne (un évaluateur) en qui le moteur de recherche a confiance vienne donner son avis.

Prenons un exemple tout à fait réel. Nous avons sur notre site 15 à 20 000 pages qui sont similaires à 95-99 % en termes de contenu. Seuls les titres changent, et parfois il y a une très petite partie d'informations qui diffèrent.
Ces pages pourraient être, par exemple :
Prêt aux retraités de 100 000 roubles à Smolensk
Prêt aux retraités de 100 000 roubles à Omsk
Prêt aux retraités de 100 000 roubles à Tyumen

Il pourrait y avoir des milliers de villes. Le montant nécessaire peut varier, disons, de 10 000 à 1 million, et dans le cas d'un retraité, l'emprunteur peut être n'importe qui : étudiant, militaire, femme au foyer, personne handicapée, émigrant et bien d'autres groupes sociaux. Tout nom de personne peut correspondre à la requête. Et que faisons-nous dans de telles situations ? Réfléchissez un instant à ce que nous faisons pour atteindre nos objectifs, pour "nourrir" cette information au moteur de recherche ? C'est exact, nous générons toutes les combinaisons possibles ! Et tout cela juste pour que nos titres soient aussi proches que possible de la fréquence de la requête. Et pour couvrir plus de requêtes, nous créons des centaines, voire des milliers de pages avec différentes variantes de ces combinaisons.

Pourquoi ne peut-on pas faire une seule page pour cela ?
Les prêts aux retraités de 100 000 roubles dans les villes [Smolensk, Omsk, Tyumen]. Cependant, dans les réalités modernes, une telle requête (si ce n'est pas un site d'une autorité exceptionnelle) ne sera pas bien classée. De plus, même cette option n'est pas idéale pour le moteur de recherche du futur. Le problème de cette requête réside également dans le fait qu'elle spécifie clairement le montant de 100 000 roubles et la catégorie de l'emprunteur : retraité. Cela ne signifie pas qu'il n'est pas possible d'obtenir un prêt dans ces villes pour un autre montant ou pour d'autres groupes sociaux.

Prêts {10 000, 15 000, 20 000, …, 1 000 000} {retraité, étudiant, femme au foyer, …, personne handicapée} dans {Smolensk, Omsk, …, Tyumen}.

Les API d'interaction (énumération) pour les moteurs de recherche, que les optimisateurs de sites fourniraient, peuvent et seront probablement complètement différentes et plus étendues. Mais je suis convaincu que dans cette interaction, tant les SEO modernes que les administrateurs de blogs, de boutiques en ligne et d'autres sites ordinaires s'en sortiraient.

Une API est un ensemble d'outils et de fonctions sous forme d'interface pour créer de nouvelles applications, permettant à un programme d'interagir avec un autre.

Dans un moteur de recherche idéal du futur, cette requête ne devrait pas être moins bien classée qu'une requête à forte fréquence. Le moteur de recherche devrait prêter attention à la qualité de l'information, à sa fiabilité, à sa rapidité et à sa facilité de présentation. Voilà ! Pas besoin de 20 000 pages. Si le propriétaire d'une ressource doit fournir certains paramètres pour interagir avec le moteur de recherche, cela ne devrait pas être difficile : transmettre les pages disponibles, les villes disponibles, les groupes sociaux disponibles.

Une requête à forte fréquence est une requête qui a une forte demande sur Internet. Atteindre le top des résultats pour une requête à forte fréquence a un impact significatif sur l'augmentation du trafic et de la visibilité du site.

4. Ignorer les exigences et les configurations. 🔗

Le moteur de recherche est une boîte noire, pleine de magie (et on ne sait pas si elle est bonne ou mauvaise), cachée aux yeux des spécialistes du SEO. Personne ne sait vraiment quel sera le résultat après l'optimisation des pages parmi des milliers d'autres pages concurrentes. Mais même dans cette magie, il y a quelques règles claires que les moteurs de recherche permettent à tous de suivre. Parmi elles, on peut citer, par exemple, le titre et la description de la page, qui seront affichés dans les résultats de recherche. Ce que l'utilisateur a rempli dans les champs spéciaux devrait apparaître dans l'affichage de la page ! Cela devrait-il vraiment fonctionner ainsi ? Oui ! Est-ce que c'est vraiment le cas ? Pas tout à fait ! Même en sachant où et comment écrire l'information pour la description que l'utilisateur est censé voir, le moteur de recherche ignore rarement la description indiquée dans le champ requis et en prend une autre complètement différente qui, selon l'algorithme, est plus adaptée.

5. Le rôle des évaluateurs. 🦸‍♂️

Je vais peut-être révéler quelque chose à certains, mais les moteurs de recherche ne fonctionnent pas complètement de manière indépendante. Les évaluateurs jouent un rôle important, voire décisif. Ils peuvent soit abaisser, soit élever le classement d'une source dans le moteur de recherche à leur discrétion. Et même s'ils traitent en général un volume d'informations très faible, ils existent ! Dans notre travail, nous accordons également une grande attention aux évaluateurs. Nous plaçons les informations importantes (à notre avis) aux endroits les plus visibles, afin qu'elles sautent immédiatement aux yeux des évaluateurs qui, même brièvement, visitent le site. Si les moteurs de recherche étaient parfaits et idéaux, il n'y aurait pas besoin d'intervention humaine.

Les évaluateurs sont des personnes représentant les moteurs de recherche, vérifiant la qualité et la véracité des informations.

6. La complexité technique de la programmation. ⛓

Peut-être que c'est le point le plus difficile à lire, avec de nombreux termes incompréhensibles. Mais je ne pouvais pas non plus l'ignorer. Comme résultat des points mentionnés ci-dessus et de certains problèmes non mentionnés, il en résulte une complexité dans la création et la maintenance d'une telle ressource. Si l'utilisation d'URL compréhensibles pour l'homme (URL lisibles) peut encore se justifier, car un lien et une adresse lisibles sont toujours plus agréables à percevoir, la "bonne" hiérarchie des URL du site, le renforcement des sous-sections du site et l'utilisation de sous-domaines uniquement à des fins SEO — tout cela est une véritable utopie et complique considérablement la programmation. Concevoir une application web SEO bien adaptée à l'optimisation SEO et répondant entièrement aux demandes et désirs des spécialistes du SEO est une tâche très complexe. Et lorsqu'il s'agit de devoir complètement ou en grande partie retravailler la hiérarchie des pages et des sections au cours de la vie du site, la complexité du processus peut être multipliée par plusieurs fois. Parfois, dans de telles refontes, il est tout simplement impossible de se passer de solutions temporaires ou permanentes. Lorsque mes amis programmeurs me demandent pourquoi nous n'utilisons pas de frameworks frontend dans nos projets SEO, l'un des principaux problèmes que je soulève est que la routage de aucun des frameworks frontend connus aujourd'hui ne peut pleinement satisfaire les demandes des spécialistes du SEO. Souvent, même la routage des frameworks backend (qui sont par défaut conçus, entre autres, pour un travail flexible avec les URL) ne suffit pas à répondre aux besoins de l'optimisation SEO, alors que dire des React et Angular ? Peut-être que nous devrions mettre fin à ces termes complexes et à cette section conséquente et passer à autre chose.

Comment je perçois les moteurs de recherche

Voici les caractéristiques que j'attends des moteurs de recherche de nouvelle génération :

  • Absence d'évaluateurs
  • Des facteurs de classement plus modernes et, surtout, avancés
  • Universalité de la requête sans avoir à dupliquer et copier des centaines ou des milliers de pages inutiles (c'est probablement le facteur le plus important)
  • Plus d'humanité, au lieu d'un traitement et d'une analyse sans réflexion des grandes données
  • Les tests A/B peuvent influencer le comportement des utilisateurs sur le site (des boutons accrocheurs incitant à acheter un produit peuvent augmenter le taux de conversion des achats de quelques pourcents ou, au contraire, repousser en raison de leur insistance). Mais les tests A/B ne devraient pas être utilisés pour suivre le comportement du site dans les résultats de recherche.
  • Transparence (ce qui éliminerait la nécessité des tests A/B)
  • Règles du jeu unifiées

Moteurs de recherche du futur

Chaque fois, il y a des sites et des optimiseurs qui parviennent à se hisser dans les classements (sur des positions élevées et avantageuses) grâce à des méthodes d'optimisation douteuses (ce qu'on appelle le SEO noir, qui peut entraîner des bans, et qui, heureusement, diminue chaque année). Cependant, on peut espérer que le terme "côté obscur de la providence" restera quelque part à la fin des années 2000. Et que l'optimisation "légitime", que les spécialistes du SEO appellent la méthode moderne, subira des changements significatifs.

Quand attendre des améliorations

Quand peut-on espérer des moteurs de recherche vraiment de qualité ? Dans les 5 à 10 prochaines années, je ne pense pas que quelque chose change radicalement. Il y a de l'espoir pour les ordinateurs quantiques et le calcul quantique, mais ils ne résoudront pas tous les problèmes de manière globale. Ils peuvent simplement résoudre certains problèmes liés, par exemple, au manque de puissance de calcul. Grâce à eux, il sera possible de traiter l'information plus rapidement. Mais cela sera probablement insuffisant pour construire un moteur de recherche qui nous satisfera pleinement. De plus, je ne vois pas de signes indiquant que les modifications des algorithmes et des facteurs de classement existants pourraient avoir un impact significatif sur la qualité et élever les moteurs de recherche à un tout nouveau niveau dans un avenir proche. Peut-être qu'il faut quelque chose de conceptuellement nouveau, et que le calcul quantique et les ordinateurs peuvent donner un coup d'envoi à cela.

SEO selon des règles claires et simples

Quel sera le SEO si les règles du jeu sont réellement transparentes et unifiées pour tous : supposons que nous sachions clairement quels doivent être les titres (et en fait, cela ne devrait plus être important) et quelles données iront exactement dans le balisage micro. Lorsque tous les sites deviennent "identiques" en termes d'attrait, sur quoi les moteurs de recherche devront-ils se concentrer ? Je pense qu'il sera toujours possible de travailler et de se concentrer sur les indicateurs techniques : la vitesse de chargement 🏃‍♂️, la performance de la page (ces indicateurs existent et sont pris en compte actuellement) 🖥, mais ils ne correspondent pas à la réalité. De nombreux mauvais sites parviennent encore à se hisser dans les classements, tandis que des sites rapides et conviviaux se retrouvent souvent plus bas. Cela est dû au fait que la théorie du SEO est prise en compte en premier lieu. Dans les moteurs de recherche de nouvelle génération, l'optimisation théorique doit disparaître complètement. Ou, du moins, se transformer en quelque chose d'autre. Étant donné que les moteurs de recherche disposeront d'une intelligence artificielle "réelle" (bien supérieure en qualité) 🤖, surtout si l'on exclut la présence d'évaluateurs, ils devront déterminer de manière autonome, à un niveau plus avancé, la qualité et la véracité des informations fournies. Cela devrait devenir le principal critère de classement (même plus que l'optimisation technique) et remplacer complètement le SEO théorique. À l'heure actuelle, je ne vois pas de signes indiquant que les réseaux neuronaux de recherche soient capables d'analyser correctement l'information. Cela est-il dû à l'énorme volume d'informations sur Internet, qui continue de croître de manière exponentielle, ou à la mauvaise qualité des réseaux neuronaux ? Il est difficile de dire. Je pense plutôt que c'est la deuxième option. Mais une chose est sûre : en générant 20 000 pages identiques, nous ne prenons clairement pas le bon chemin et compliquons seulement le travail des moteurs de recherche tout en "polluant" des serveurs avec des informations superflues. Cependant, n'ayant pas de bonnes alternatives, nous continuons encore à faire ce type de promotion. Dans les moteurs de recherche du futur, nous ne regarderons pas les intentions pour former des titres afin d'ajuster les phrases autant que possible aux requêtes. Nous dirons immédiatement aux moteurs de recherche qui nous sommes et quels services nous offrons. Et c'est à la recherche de déterminer la qualité de notre travail. La collecte du noyau sémantique sera différente. Avec l'arrivée des ordinateurs quantiques dotés de qubits stables, la puissance de calcul augmentera globalement. Cela permettra d'indexer les pages de manière plus fréquente et de meilleure qualité. Mais la qualité même de l'indexation des moteurs de recherche s'améliorera-t-elle ? La question reste ouverte.

Conclusions

Je vais essayer de résumer ce qui a été écrit ci-dessus et de lister brièvement les problèmes que je vois dans les moteurs de recherche modernes.

  1. 🔝 Facteurs et algorithmes de classement imparfaits et prise en compte de la qualité des sites.
  2. ⚖ Il est toujours nécessaire de réaliser des tests A/B et divers expérimentations pour comprendre comment cela influencera les résultats de recherche.
  3. 🗃 Génération d'une multitude de pages inutiles et de contenu identique, tout cela pour satisfaire le moteur de recherche. Cela ressemble plus à une adaptation à la réponse d'un problème qu'à une solution de qualité.
  4. 🦸‍♂️ L'intervention humaine (évaluateurs) dans le système ne signifie pas quelque chose de mauvais, cependant cela doit être des cas isolés et non réguliers. Les bots de recherche devraient être capables de bien gérer cela par eux-mêmes.

Et un peu plus sur les moteurs de recherche

En m'éloignant légèrement du sujet principal (réflexions sur la qualité du SEO théorique aujourd'hui), parlons un peu des moteurs de recherche dans leur ensemble 💡.

Peu de gens le savent, mais en dehors des moteurs de recherche Yandex et Google, il existe de nombreux autres, y compris de très bons. Si des moteurs de recherche comme Rambler, Bing, Yahoo, Mail ne suscitent pas confiance pour diverses raisons (certains ont une petite base de recherche, d'autres ne sont plus au sommet et ne reviendront jamais), il y a plusieurs moteurs de recherche qui suscitent un vif intérêt chez moi. En ce qui concerne DuckDuckGo 🦆, c'est un bon moteur de recherche avec une grande base et une bonne confidentialité (du moins au moment de la rédaction de cet article). En plus de DuckDuckGo, j'ai dans mes favoris le moteur de recherche Brave du même nom, que je veux essayer prochainement. Et un autre moteur de recherche intéressant, You, qui m'intéresse encore plus que Brave et DuckDuckGo. En particulier, pour les requêtes de programmation, les résultats de ce moteur de recherche me plaisent même plus que ceux de Yandex ou Google.

Parfois, au moins deux questions me viennent à l'esprit concernant les moteurs de recherche. Je vais essayer d'exposer mes réflexions ci-dessous.

  1. La part de marché de Yandex et Google changera-t-elle en matière de domination sur Internet ? (Comme ce post est destiné à un public russophone, et pour eux ces moteurs de recherche sont principaux, j'ai pris ces exemples). En réponse courte, plutôt non. Si Yandex, dans le contexte des sanctions (qui sont globalement imposées à la région), peut progressivement perdre en qualité ou, du moins, prendre du retard par rapport à Google, il n'y a pas grand-chose qui empêche Google de continuer à se développer dans le monde entier. Par conséquent, je pense que Google continuera à dominer. Cela concerne les 20 prochaines années. Mais n'oublions pas qu'il y a eu de nombreux cas dans le monde de l'informatique où la politique de l'entreprise a conduit à une crise et à une perte de domination évidente sur le marché : Xerox, Intel et, bien sûr, le moteur de recherche Yahoo, qui dominait son secteur au début des années 2000. Il est probable que Google sache tirer des leçons des erreurs des autres et n'ait pas à faire face à cela. D'autant plus que le moteur de recherche est un élément commercial réellement important pour Google 💵. Mais ne faisons pas de prévisions sur ce que sera dans 50 ans. Peut-être que personne ne se souviendra même du moteur de recherche Google, comme on n'évoque plus Yahoo aujourd'hui 😟.
  2. Peuvent-elles apparaître des moteurs de recherche spécialisés 🔍 qui, en termes de qualité, surpasseraient les moteurs plus universels ? Cette question est sans doute encore plus complexe. Dans une certaine mesure, de tels systèmes existent déjà et fonctionnent (recherchent) dans le cadre de leur propre système, mais il est peu probable qu'ils sortent de ce cadre et qu'ils rivalisent avec des moteurs plus universels. D'un autre côté, si un moteur de recherche de ce type proposait réellement quelque chose de très progressif en matière de recherche, je commencerais à l'utiliser, peu importe s'il s'agit de rechercher du code logiciel ou des matériaux de construction. L'essentiel est que la recherche dans ce domaine soit aussi naturelle et humaine que possible. Une telle recherche impliquerait l'absence des algorithmes habituels et serait entièrement basée sur l'apprentissage automatique et des technologies plus avancées. D'un autre côté, si un tel moteur de recherche venait à exister, capable de fonctionner de manière très qualitative dans un domaine spécifique, qu'est-ce qui empêcherait de l'appliquer et de l'entraîner pour d'autres domaines ? Nous retomberions alors dans la recherche universelle. Mais cette fois-ci, elle serait plus perfectionnée.
Вверх