程序员眼中的现代SEO优化

Aleksandr Shitik
Aleksandr Shitik

我撰写自己的文章和书籍,并评论电影和书籍。 在宇宙学与天文学、IT、效率与规划方面的专家。

目录

引言

我在一家专注于金融、经济和商业领域的产品型公司工作已有约五年。除了这个专业领域,我们还有另一个同样重要的领域——SEO优化📈。我之前的工作是在一家网页设计工作室,为其批量制作小型和中型网站,其中部分网站也针对搜索引擎进行了优化。这两个工作环境在优化质量上有显著差异。在当前的工作中,SEO受到极大重视,这也有其原因——我们团队中常驻有5到7名SEO专家。更重要的是,公司管理层本身也是出色的SEO专家👨‍💼。在这段时间里,我听到了许多高深的见解,并且吸收了其中不少。

SEO优化

理论与技术SEO优化

在SEO优化中,我将区分两个方向:第一个是大家熟悉的SEO,我称之为理论SEO或普通SEO,第二个是技术SEO。

第一个📊就是所有SEO专家所从事的工作:竞争对手分析、类似于Wordstat的搜索服务分析、构建语义核心以及在网站或网站特定部分上线之前的后续工作。

第二个⚙️我想强调的方向是技术SEO。在我看来,它的出现明显晚于理论SEO,因为在互联网的初期,几乎没有人关注这一推广方面,而搜索引擎的算法对此的关注也少得多。在当前公司的工作中,我形成了一份清晰的📋技术SEO优化清单,也许有一天我会在工作中的帖子中写到这些内容,但我不太可能在我的博客中发布,因为这些是复杂的技术细节,不适合在我的博客中分享。

Wordstat是Yandex公司提供的一个服务,可以帮助理解和分析Yandex搜索引擎用户最常搜索的查询。
网站的语义核心(语义)是一个关键字和短语的列表,这些关键字和短语可以吸引目标访问者到网站,用于在搜索引擎中推广网站。

撰写文章的触发点

在本文中,首先将讨论理论SEO优化及其在当前阶段的缺陷。虽然由于与技术SEO的密切关系,我也会将一些技术工作的部分称为无用的,如果我们拥有理想的搜索引擎。

撰写本文的灵感来源于我不断听到的一种虚构观点(甚至在工作中),即搜索引擎通过神经网络的发展达到了无法被欺骗的程度🤖,它们非常聪明。每年应用的排名因素越来越多,但它们真的改善了SEO优化的整体情况吗?在我看来,并没有!让我们来探讨一下。

排名(在搜索结果中)是对不同网站和链接在搜索结果中优先级的排列。换句话说,在排名时,搜索引擎决定为什么同一查询的一个网站应该在第一页的第一行,而另一个网站则在第二页的中间。

无论如何,在工作中我定期接触SEO,有时甚至会为自己阅读一些相关内容。今年我读了📗《网站推广的光明面》一书,作者是Ramazan Mindubaev、Dmitry Bulatov和Albert Safin。我还观看了一些与这本书相关的视频材料。作者称之为网站推广的光明面。但对我来说,这更像是SEO的黑暗面和一堆无意义且愚蠢的工作。当然,这并不是SEO的完全黑暗面,例如,人们曾经为了欺骗搜索引擎而在网站页面上完全隐藏的区块中列出所有关键短语。但我仍然在现代SEO中看不到光明面,而只看到了搜索引擎的不完善。我绝对不批评现代SEO专家的做法。他们只是按照现有规则行事,利用所有可能和允许的优化方法。

搜索引擎到底出了什么问题?

我将努力将我的不满分成几个要点,并详细讨论每一个。

1. 算法和排名因素。🔝

搜索引擎评估材料“质量”的因素和标准有很多。每个系统的标准数量可能会有所不同。例如,Yandex有超过200个因素。许多搜索引擎的因素可以根据相似的标准分为不同的组(例如,行为因素:用户在页面上的行为,或者域名因素:域名的年龄、是否在垃圾邮件数据库中、网站主题的相关性等)以及其他因素组。

每年,排名因素都会有所改善,但这种进展非常缓慢,以至于通过这些微小的改进,我们可能需要50年才能真正达到高质量的搜索引擎。每一个新的排名算法更像是对现有因素的微调:将因素A提高1%,将因素B降低4%。这种变化是通过人工操作还是神经网络实现的——我们并不知道,但重要的是,这显然不足以实现一个概念上优秀的搜索。

在排名因素中,有许多奇怪的因素:在网站上的停留时间并不总是能准确反映材料的质量;域名的年龄:并不是所有的老域名都比新注册的域名更高质量,等等。

现代搜索引擎

2. 永无止境的实验。⚖

我们总是在进行各种实验和测试:测量在某些查询下,能否超越竞争对手或仅仅是获得更多网站流量(访问者)。我们并不完全清楚哪些内容会进入搜索结果的摘要,只能依靠一些大致的建议。我并不反对基于分析人们行为和感知的测试,因为每个人都不同,将绿色按钮改为蓝色确实可能使点击率上升或下降一定比例。但既然人们各不相同,搜索引擎(例如谷歌)却只有一个。为什么搜索引擎认为交换某些模块的位置或在某个模块中添加一些文本信息会让页面变好或变差呢?我们不应该凭猜测去选择搜索引擎认为的最佳方案,我们必须明确知道哪个方案是最优的。

摘要(Snippet)— 是搜索结果中显示在网站链接旁边的附加页面内容和简短描述。摘要可以是地址、电话、折叠面板、小表格以及许多其他信息。

3. 产生多余内容。🗃

如今,人类每天生产的内容是美国国会图书馆藏书的8500倍;每秒发布的互联网内容是130亿册印刷书籍总量的1000倍,每天发布的互联网内容是130亿册印刷书籍总量的8000万倍。

布雷特·金

在我看来,SEO的一个主要问题是多余内容的生成和语义核心构建过程。首先分析搜索查询,然后根据意图的重要性(从高到低)调整(编写)页面标题和其他关键词。

意图(Intent)是用户在输入搜索查询时脑海中的需求和目的。

当人们说搜索引擎是一个复杂的因素集合,由神经网络和其他学习/自我学习算法处理时,我总是有不同的看法。在我看来,搜索引擎现在更像是一个容易受查询影响的孩子。谁优化得更好:合法的还是通过欺骗(找到漏洞)的,谁就会被优先考虑。你永远无法确切知道这个孩子喜欢什么,不喜欢什么,只能不断进行各种A/B测试。这就像一个轻信的奶奶,她有自己的看法,但这些看法很少是真实准确的,直到有一个人(评估员)出现,搜索引擎才会相信他的判断。

举一个非常现实的例子。我们网站上有1.5万到2万个页面,它们的内容相似度达到95%到99%。只有标题不同,有些地方的内容差异极小。
这样的页面可能是:
斯摩棱斯克养老金贷款10万卢布
鄂木斯克养老金贷款10万卢布
秋明养老金贷款10万卢布

这样的城市可能有成千上万个。所需金额可能从1万到100万不等,而以养老金领取者为例,借款人可以是任何人:学生、军人、家庭主妇、残疾人、移民以及许多其他社会群体。任何表示人的名词都可以作为查询词。那么,在这种情况下我们怎么做呢?请花一分钟思考一下,为了达到目标,我们为“喂养”搜索引擎做了什么?没错,我们生成了所有可能的组合!这一切只是为了让我们的标题尽可能接近查询的高频词。为了覆盖更多查询,我们创建了数百甚至数千个包含这些组合不同变体的页面。

为什么不能只做一个页面呢?
比如“养老金领取者在[斯摩棱斯克、鄂木斯克、秋明]城市贷款10万卢布”。但在现代环境下,这样的查询(除非是超级权威的网站)排名不会很高。更何况,这个例子对未来的搜索引擎来说也不是理想的。问题在于,这个查询明确指定了金额10万卢布和借款人类别“养老金领取者”。这并不意味着在这些城市不能贷款其他金额或面向其他社会群体。理想的未来搜索引擎应该理解:有一个唯一的页面,提供从金额N到金额M,在(城市列表)为(社会群体列表)提供贷款信息。

贷款 {10,000,15,000,20,000,…,1,000,000} {养老金领取者,学生,家庭主妇,…,残疾人} 在 {斯摩棱斯克,鄂木斯克,…,秋明}。

供搜索引擎使用的交互API(枚举)由网站优化人员提供,可能会完全不同且更为广泛。但我相信,无论是现代SEO人员,还是普通博客管理员、网店或其他网站管理员,都能理解这种交互方式。

API是以接口形式提供的一组工具和功能,用于创建新应用程序,使一个程序能够与另一个程序交互。

在理想的未来搜索引擎中,这类查询的排名不应低于具体的高频查询。搜索引擎应关注信息质量、真实性、速度和呈现的便利性。仅此而已!不需要2万多个页面。如果资源所有者需要向搜索引擎提供某些参数以支持未来的搜索,这并不难:只需传递可用页面、可用城市、可用社会群体。成千上万的网站,尤其是中小型网店,在与大型公司争夺高频查询时,就不必再创建成千上万个页面。每个网站只需在搜索引擎数据库中保留唯一的页面。想象一下,如果我们不再重复信息、不再做多余工作,而是专注于质量而非模板化和针对搜索引擎的优化,将能节省数百甚至数千个硬盘、数百台服务器。

高频查询是指在互联网上搜索频率较高的查询。网站能够在高频查询中排名靠前,会显著提升访问量和网站的曝光度。

4. 忽视要求和规范。🔗

搜索引擎是一个充满魔力的黑盒(且不清楚这种魔力是好是坏),对SEO专家来说是不可见的。没人能确切知道在成千上万个竞争页面中,优化后的页面最终会如何表现。但即使在这魔力之中,也有一些明确的规则,搜索引擎允许大家遵守。例如,页面标题和描述会显示在搜索结果中。用户在专门字段中填写的内容,理论上应该就是搜索结果中显示的内容!这真的应该是这样工作的吗?是的!实际上呢?不完全是!即使知道该如何填写用户可见的描述字段,搜索引擎有时也会忽略该字段的描述,而选择另一个算法认为更合适的描述。

5. 评估员的作用。🦸‍♂️

或许对某些人来说这是新鲜事,但搜索引擎并非完全自动运行。评估员扮演着重要甚至决定性的角色。他们可以根据自己的判断降低或提升某个资源在搜索引擎中的排名。虽然他们处理的信息量很小,但他们确实存在!我们在工作中也非常重视评估员。我们会把重要信息放在显眼位置,吸引评估员的注意,毕竟他们会短暂访问网站。如果搜索引擎足够完美和理想,就不需要外部人工参与了。

评估员是搜索引擎的工作人员,负责检查信息的质量和真实性。

6. 编程技术难度。⛓

这可能是最难读懂的一点,包含许多专业术语,但我还是必须提及。由于前面提到的原因及其他未提及的问题,创建和维护此类资源变得困难。虽然使用人类可读URL(友好URL)还可以理解,因为可读的链接更易接受,但整体上“正确”的网站URL层级结构、加强网站子目录、仅为SEO目的使用子域名,都是不切实际的理想,且极大增加了编程难度。设计一个良好支持SEO优化、完全满足SEO需求的SEO网站应用非常复杂。如果在网站运营过程中需要大幅调整页面和目录结构,难度还会成倍增加。有时这类调整无法避免使用临时或永久的权宜之计。当程序员朋友问我为什么不在SEO项目中使用前端框架时,我的主要原因之一是:目前没有任何前端框架的路由系统能完全满足SEO需求。即使是后端框架的路由(本来就设计得灵活支持URL)也经常无法满足SEO优化需求,更别说React或Angular了。好了,先告一段落,结束这部分复杂术语,继续往下讲。

我眼中的搜索引擎

我期待新一代搜索引擎具备以下特征:

  • 没有评估员
  • 更现代、更先进的排名因素
  • 请求的通用性,无需重复和复制无意义的数百/数千个页面(这可能是最重要的因素)
  • 更多的人性化,而不是盲目的数据分析和处理
  • A/B测试可以影响用户在网站上的行为(例如,醒目的购买按钮可能会将购买转化率提高几个百分点,或因过于强迫而使用户感到反感)。但A/B测试不应用于跟踪网站在搜索结果中的表现。
  • 透明度(这样就不需要进行A/B测试)
  • 统一的游戏规则

未来的搜索引擎

每次总会有一些网站和优化师通过黑暗的优化手段(这被称为黑暗SEO,曾经可能导致封禁,幸好这种情况每年都在减少)而进入搜索引擎的TOP(高排名和有利位置)。然而,我希望“黑暗的预见之侧”这个术语将永远留在2000年代的末尾。而现代优化方法,SEO专家称之为光明的优化,将经历重大的变化。

何时期待改进

我们何时能期待真正高质量的搜索引擎?在接下来的5到10年内,我认为不会有太大的变化。虽然我们对量子计算机和量子计算抱有希望,但它们并不能全面解决所有问题。它们只能解决一些与计算能力不足相关的问题。借助量子计算,我们可以更快地处理信息。但这可能还不足以构建一个完全满足我们需求的搜索引擎。此外,我没有看到现有算法和排名因素在可预见的未来会有实质性变化的迹象,这将显著提升搜索引擎的质量。也许需要一些概念上的新东西,而量子计算和计算机能够为此提供推动力。

统一且透明的SEO规则

如果搜索引擎的规则对所有人都真正透明且统一:比如说,我们清楚知道应该使用哪些标题(其实这已经不那么重要了)以及哪些数据必须包含在结构化数据中。当所有网站在吸引力方面变得“一样”时,搜索引擎会以什么为重点?我认为,可以继续关注技术指标:加载速度 🏃‍♂️、页面性能(这些指标目前也存在并被考虑)🖥,但它们并不总是反映实际情况。许多糟糕的网站仍然排名靠前,而快速、用户友好的网站却经常排在较后面。这是因为首先考虑的是理论上的SEO优化。未来的搜索引擎应该彻底消除“理论SEO”的概念。或者,至少,将其转变为其他形式。随着搜索引擎拥有“真正的”(远超当前水平的)人工智能🤖,尤其是在排除评估人员的情况下,搜索引擎应能自主在更高层次上判断信息的质量和可靠性。这也应成为排名的主要依据(甚至比技术优化更重要),并完全取代传统的SEO理论。目前我还看不到搜索神经网络能够正确分析信息的前提。这是因为:互联网信息量过大,并且还在以几何级数增长,还是因为神经网络本身质量较差——这个问题很难一概而论。我认为,更可能是第二个原因。但我确切知道的一点是:通过生成2万篇同质化页面,我们显然走错了方向,只会让搜索引擎工作变得更加困难,也会“污染”大量服务器,充斥着无用信息。然而,没有更好的替代方案,我们仍在进行类似的推广。在未来的搜索引擎中,我们不会再根据意图来制定标题,以尽可能匹配关键词。我们会直接告诉搜索引擎我们是谁、提供什么服务。而其判断我们质量的能力,应由搜索引擎自己决定。语义核心的收集将变得不同。随着量子计算机出现,具有稳定量子比特的计算能力整体将提升。这将使得索引页面变得更频繁、更高效。但索引质量是否会因此提高——这个问题仍未解决。

总结

我试图总结以上内容,并简要列出我对现代搜索系统存在的问题:

  1. 🔝 不完善的排名因素和算法,以及对网站质量评估的不准确性。
  2. ⚖ 需要不断进行A/B测试和各种实验,以理解它们对搜索排名的影响。
  3. 🗃 生成大量多余的页面和重复内容,都是为了迎合搜索引擎。这更像是在为问题“量身定制答案”,而不是提供高质量的解决方案。
  4. 🦸‍♂️ 人为干预(评估员)并不一定是坏事,但这应该是个别情况,而不是常态。搜索机器人应该能够很好地应对这种情况。

以及更多关于搜索引擎的内容

稍微偏离主题(关于目前理论SEO质量的讨论),最后再谈谈搜索引擎的整体情况 💡。

很少有人知道,除了Yandex和Google之外,还有许多其他搜索引擎,其中一些非常优秀。由于某些原因,像Рамблер、Bing、Yahoo、Mail.ru这些搜索引擎可能不被信任(有人搜索库较小,有些已经不在巅峰,可能永远不会回到巅峰),但我对一些其他搜索引擎非常感兴趣。如果说DuckDuckGo 🦆是一个拥有庞大数据库且隐私保护不错(至少在我写这篇文章时如此)的搜索引擎,那么我还收藏了由同名浏览器开发的Brave搜索引擎,我计划近期试用它。此外,还有一个我更感兴趣的搜索引擎——You,它比Brave和DuckDuckGo更吸引我。特别是在编程相关的查询中,我发现这个搜索引擎的结果甚至比Yandex或Google还要好。

有时候,我脑海中还会浮现至少两个关于搜索引擎的问题。我会尝试继续阐述我的想法。

  1. 未来Yandex和Google在互联网中的主导地位会发生变化吗?(因为这篇文章主要面向俄语读者,对于他们来说,这两个搜索引擎是主要的,所以以它们为例)。如果简短回答的话,可能性不大。如果在制裁(这些制裁基本上针对该地区)下,Yandex可能会逐渐在某些方面落后于Google,但整体而言,Google在全球范围内没有太多阻碍,仍将继续发展。因此,我认为Google未来20年仍将保持主导地位。但我们也不能忘记,在IT行业中曾经发生过许多公司因为政策问题陷入危机、失去市场主导地位的例子:如Xerox、Intel,以及早期曾占据垄断地位的Yahoo。在未来,Google也许会从别人的错误中吸取教训,不会让自己重蹈覆辙。毕竟,对于Google来说,搜索系统是一项极其重要的商业资产 💵。但我们也不要预言50年后会怎样,也许到那时,没有人还会记得Google,就像现在没人提Yahoo一样 😟。
  2. 是否会出现专门针对某一领域、质量超过通用型搜索引擎的专业化搜索系统 🔍?这个问题可能比前一个更复杂。在某种程度上,这样的系统已经存在,并在其特定领域内工作(进行搜索),但它们很难超越这个范围,与更通用的系统竞争。另一方面,如果某个专业化搜索系统真的在某个领域表现出极大的创新和先进性,我愿意使用它,无论是代码还是建筑材料,只要这个领域内的搜索尽可能自然、人性化即可。这种搜索将完全摆脱传统算法,而依赖于机器学习和更先进技术。另一方面,如果出现一种能够在某一特定领域内高效工作的专业化搜索系统,又有什么阻碍将其应用到其他领域呢?那么我们又会回到通用型搜索,只不过这次变得更加先进了。
Вверх