Introducción
Desde hace aproximadamente 5 años, trabajo en una empresa de productos en el ámbito de las finanzas, la economía y los negocios. Además de este campo temático, tenemos otro, no menos importante: la optimización SEO 📈. Mi trabajo anterior fue en una agencia web, donde creé numerosos sitios pequeños y medianos, algunos de los cuales también estaban enfocados en la optimización para motores de búsqueda. La diferencia en la calidad de la optimización en estos dos lugares es significativa. En mi trabajo actual, se le da una gran importancia a este tema, y no es en vano, ya que siempre contamos con un equipo de especialistas en SEO de 5 a 7 personas. Además, incluso los directores de la empresa son excelentes especialistas en SEO 👨💼. Durante este tiempo, he escuchado muchas palabras inteligentes entre ellos, algunas de las cuales he aprendido bien.

Optimización SEO teórica y técnica
En la optimización SEO, voy a destacar dos direcciones: la primera es la habitual para todos en SEO, a la que llamaré teórica o simplemente normal, y la segunda es la técnica.
La primera 📊 es lo que hacen todos los especialistas en SEO: análisis de competidores, servicios de búsqueda como Yandex Wordstat, elaboración del núcleo semántico y trabajos posteriores hasta el lanzamiento del sitio o de una sección específica del mismo.
La segunda ⚙️ dirección que quiero destacar es la optimización SEO técnica. En mi opinión, surgió mucho después de la teórica, ya que en los primeros años de Internet, a poca gente le preocupaba este aspecto en la promoción, y los algoritmos de los motores de búsqueda le prestaban mucho menos atención. A lo largo de mi experiencia en la empresa actual, he creado una lista clara 📋 de lo que incluye la optimización SEO técnica y, tal vez, algún día escriba sobre esto, por ejemplo, en el trabajo en publicaciones, pero dudo que lo haga en mi blog, ya que son aspectos técnicos complejos que no publico allí.
Yandex Wordstat es un servicio de la empresa Yandex que permite entender y analizar qué búsquedas realizan los usuarios en el motor de búsqueda de Yandex.
El núcleo semántico del sitio (semántica) es una lista de palabras clave y frases que atraen visitantes objetivos al sitio, utilizada para su promoción en los motores de búsqueda.
Disparadores para escribir un artículo
En este artículo, se hablará principalmente sobre la optimización SEO teórica y sus imperfecciones actuales. Aunque está estrechamente relacionada con la técnica, considero que algunas tareas técnicas también son inútiles si tuviéramos motores de búsqueda ideales.
La idea para escribir este artículo provino de una opinión ficticia que escucho constantemente (incluso en el trabajo) de que los motores de búsqueda, a través de redes neuronales, han evolucionado tanto que es imposible engañarlos 🤖, que son muy inteligentes. Cada año se aplican más factores de clasificación, pero ¿realmente mejoran la situación general de la optimización SEO? En mi opinión, no. Intentemos averiguarlo.
La clasificación (en los resultados de búsqueda) es el orden de prioridades en los resultados de búsqueda para diferentes sitios y enlaces. En otras palabras, al clasificar, el motor de búsqueda decide por qué un sitio debe estar en la primera línea de la primera página para una consulta, mientras que otro debe estar en la mitad de la segunda página.
De cualquier manera, en mi trabajo me enfrento regularmente al SEO y a veces leo sobre el tema. Este año leí el libro 📗 "La cara positiva de la promoción de sitios web" de Ramazan Mindubaev, Dmitry Bulatov y Albert Safin. Los autores lo llaman la cara positiva de la promoción de sitios. Pero para mí, es más bien la cara negativa del SEO y un montón de trabajo sin sentido y absurdo. Por supuesto, no es tan negativa como cuando las personas engañaban a los motores de búsqueda enumerando todas las frases clave en un bloque completamente oculto en las páginas del sitio. Sin embargo, no veo en el SEO moderno una cara positiva, sino la imperfección de los motores de búsqueda. De ninguna manera critico a los especialistas en SEO actuales por sus métodos. Simplemente juegan según las reglas existentes y utilizan todas las formas posibles y permitidas de optimización.
¿Qué está mal con los motores de búsqueda?
Trataré de dividir todas mis insatisfacciones en varios puntos y examinar cada uno de ellos en detalle.
1. Algoritmos y factores de clasificación. 🔝
Existen muchos factores y criterios por los cuales un motor de búsqueda evalúa la "calidad" del material. Cada sistema puede tener una cantidad diferente de estos criterios. Por ejemplo, Yandex tiene más de 200 factores. Muchos de los factores de los motores de búsqueda se pueden agrupar en categorías según criterios similares (por ejemplo, factores de comportamiento: cómo se comporta el usuario en la página, o factores del nombre de dominio: cuán antiguo es el nombre de dominio, si está en bases de datos de spam, cuán bien se alinean y se ajustan los temas del sitio) y otros grupos de factores.
Cada año, los factores de clasificación mejoran, pero esto ocurre tan lentamente que con estas pequeñas mejoras realmente podríamos llegar a un motor de búsqueda de calidad en unos 50 años. Cada nuevo algoritmo de clasificación se parece más a un ajuste de los factores existentes: aumentar el factor A en un 1%, disminuir el factor B en un 4%. No sabemos si este cambio se realiza manualmente o mediante redes neuronales, pero lo importante es que claramente no es suficiente para un buen motor de búsqueda conceptual.
Entre los factores de clasificación, hay muchos extraños: el tiempo de permanencia en el sitio no siempre indica la calidad del material; el año del dominio: un dominio antiguo no siempre significa que sea de mayor calidad que uno registrado recientemente, y otros.

2. Experimentos eternos. ⚖
Siempre estamos realizando experimentos y pruebas: medimos cuánto nos permitirá superar a los competidores en ciertas búsquedas o simplemente obtener más tráfico (visitantes) en el sitio. No sabemos con certeza qué aparecerá en los snippets de los resultados de búsqueda, solo nos basamos en recomendaciones condicionales. No tengo nada en contra de las pruebas dirigidas a analizar el comportamiento y la percepción de las personas, ya que todos somos diferentes, y cambiar un botón verde a azul realmente puede aumentar o disminuir la cantidad de clics en un cierto porcentaje. Pero si las personas son diferentes, el motor de búsqueda (por ejemplo, Google) es uno solo. ¿Por qué el cambio de algunos bloques de lugar o la adición de un bloque con información textual, según el motor de búsqueda, hace que la página sea mejor o peor? No deberíamos estar adivinando la mejor solución según lo que piense el motor de búsqueda. Debemos conocerla con certeza.
Los snippets (en los resultados de búsqueda) son materiales adicionales de la página que se muestran junto al enlace al sitio y una descripción de prueba de esa página. Un snippet puede incluir direcciones, teléfonos, acordeones, mini-tablas y mucha otra información.
3. Generación de contenido innecesario. 🗃
Hoy en día, la humanidad produce en un solo día 8500 veces más contenido del que se almacena en la Biblioteca del Congreso de EE. UU.; cada segundo se publica 1000 veces más, y diariamente se genera 80 millones de veces más contenido en Internet que las 130 millones de libros impresos publicados a lo largo de la historia de la humanidad.
Brett King
Uno de los principales problemas, en mi opinión, del SEO es la generación de contenido innecesario y el propio proceso de construcción del núcleo semántico. Primero analizamos las búsquedas. Luego ajustamos (creamos) los títulos y otras frases clave de la página según las intenciones en orden de importancia (de mayor a menor, donde las más importantes se colocan al principio).
Las intenciones son los deseos y propósitos del usuario; lo que tiene en mente cuando introduce una búsqueda.
Cuando se dice que el motor de búsqueda es un complejo conjunto de factores con los que trabajan redes neuronales y otros algoritmos de aprendizaje/autoaprendizaje, siempre lo veo de otra manera. El motor de búsqueda, en mi entendimiento actual, es como un niño que se deja llevar por las búsquedas. Quien optimiza mejor: de manera legal o de forma engañosa (encontrando una laguna) será el que tenga prioridad. Nunca sabes con certeza qué le gusta a este niño y qué no, y siempre realizas diversas pruebas A/B. Es como una abuela crédula que tiene su propia opinión, pero rara vez es verdaderamente correcta, hasta que llega alguien (un evaluador) en quien el motor de búsqueda confía.
Demos un ejemplo muy real. Tenemos en el sitio de 15,000 a 20,000 páginas que son similares en un 95-99% en su contenido. Solo cambian los títulos, y en algunos casos, hay una parte realmente mínima de información.
Estas páginas pueden ser, por ejemplo:
Crédito para pensionistas de 100,000 rublos en Smolensk
Crédito para pensionistas de 100,000 rublos en Omsk
Crédito para pensionistas de 100,000 rublos en Tyumen
Puede haber miles de tales ciudades. La cantidad necesaria puede variar, digamos, de 10,000 a 1 millón, y en el ejemplo de un pensionista, el prestatario puede ser cualquiera: un estudiante, un militar, un ama de casa, una persona con discapacidad, un emigrante y muchos otros grupos sociales. Cualquier sustantivo que describa a una persona puede encajar en la búsqueda. ¿Y cómo actuamos en situaciones como esta? Solo piensen un momento en lo que hacemos para alcanzar nuestros objetivos y “alimentar” esta información al motor de búsqueda. Correcto, ¡generamos todas las combinaciones posibles! Y todo esto solo para que nuestros títulos se acerquen lo más posible a la frecuencia de búsqueda. Y para cubrir más consultas, creamos cientos, incluso miles de páginas con diferentes variantes de estas combinaciones.
¿Por qué no se puede hacer una única página para esto?
Créditos para pensionistas de 100,000 rublos en las ciudades [Smolensk, Omsk, Tyumen]. Sin embargo, en la realidad actual, esta búsqueda (si no es un sitio de alta autoridad) no se posicionará alto. Además, ni siquiera esta opción es ideal para el motor de búsqueda del futuro. El problema de esta búsqueda es que claramente se especifica la cantidad de 100,000 rublos y la categoría del prestatario: pensionista. Esto no significa que en estas ciudades no se pueda obtener un crédito por otra cantidad y para otros grupos sociales. Un motor de búsqueda ideal debería entender que hay una única página donde se puede obtener información sobre créditos desde la cantidad N hasta la cantidad M en las ciudades (lista de ciudades) para el grupo (lista de grupos sociales).
Créditos {10,000, 15,000, 20,000, …, 1,000,000} {pensionista, estudiante, ama de casa, …, persona con discapacidad} en {Smolensk, Omsk, …, Tyumen}.
Las API de interacción (enumeración) para el motor de búsqueda, que los optimizadores de sitios proporcionarían, pueden y probablemente serán completamente diferentes y más amplias. Pero estoy seguro de que tanto los SEO modernos como los administradores comunes de blogs, tiendas en línea y otros sitios entenderían esta interacción.
API es un conjunto de herramientas y funciones en forma de interfaz para crear nuevas aplicaciones, gracias a la cual un programa interactúa con otro.
En el motor de búsqueda ideal del futuro, esta consulta no debería estar por debajo de una búsqueda de alta frecuencia específica. El motor de búsqueda debería prestar atención a la calidad de la información, su veracidad, velocidad y facilidad de presentación. ¡Eso es todo! No más de 20,000 páginas. Si el propietario de un recurso necesita proporcionar ciertos parámetros para interactuar con el motor de búsqueda, no sería difícil: transmitir las páginas disponibles, las ciudades disponibles, los grupos sociales disponibles. Miles de sitios, principalmente tiendas en línea, especialmente pequeñas y medianas, que compiten con grandes empresas en búsquedas de alta frecuencia, no tendrían que generar miles de páginas. Una única página de cada sitio en las bases de datos de los motores de búsqueda. Imaginen cuánto podemos ahorrar de una vez en cientos o incluso miles de discos duros, cientos de servidores, si no simplemente generamos duplicados de información, hacemos trabajo innecesario y nos concentramos en la calidad, en lugar de en la estandarización y la adaptación a los motores de búsqueda.
Una búsqueda de alta frecuencia es aquella que tiene una alta demanda en Internet. La inclusión del sitio en los resultados de búsqueda de alta frecuencia afecta significativamente el aumento del tráfico y su visibilidad.
4. Ignorar los requisitos y configuraciones. 🔗
El motor de búsqueda es una caja negra, llena de magia (y no está claro si buena o mala), que está oculta a los ojos de los especialistas en SEO. Nadie sabe con certeza qué resultados se obtendrán después de optimizar las páginas entre miles de otras páginas competidoras. Pero incluso entre esta magia, hay algunas reglas claras según las cuales los motores de búsqueda permiten jugar a todos. Entre ellas se encuentran, por ejemplo, el título y la descripción de la página que se mostrarán en los resultados de búsqueda. ¡Lo que una persona ha llenado en los campos especiales debería aparecer en la salida de la página! ¿Debería funcionar realmente así? ¡Sí! ¿Es así en realidad? No del todo. Incluso sabiendo dónde y cómo escribir la información para la descripción que el usuario debe ver, el motor de búsqueda en raras ocasiones ignora la descripción indicada en el campo requerido y toma otra completamente diferente que, a juicio del algoritmo, se considera más adecuada.
5. El papel de los evaluadores. 🦸♂️
Puede que esté revelando algo nuevo para algunos, pero los motores de búsqueda no funcionan completamente de manera independiente. Un papel importante, e incluso decisivo en algunos casos, lo juegan los evaluadores. Ellos pueden tanto bajar como subir el ranking de una fuente en el motor de búsqueda a su criterio. Y aunque en general procesan un volumen de información muy pequeño, ¡existen! En nuestro trabajo también prestamos mucha atención a los evaluadores. Colocamos la información que consideramos importante en los lugares más visibles, para que llame la atención de inmediato a los evaluadores que, aunque sea de pasada, visitan el sitio. Si los motores de búsqueda fueran perfectos e ideales, no se necesitarían personas externas.
Los evaluadores son personas, representantes de los motores de búsqueda, que verifican la calidad y veracidad de la información.
6. Complejidad técnica en la programación. ⛓
Quizás este sea el punto más difícil de leer, lleno de términos incomprensibles. Pero no podía dejar de mencionarlo. Como resultado de los puntos anteriores y algunos problemas no mencionados, surge la complejidad en la creación y mantenimiento de tales recursos. Si el uso de URL amigables (URL legibles para humanos) aún se puede justificar, ya que un enlace y una dirección legibles siempre son más agradables de percibir, en general, la "correcta" jerarquía de URL del sitio, el fortalecimiento de las secciones del sitio, el uso de subdominios estrictamente con fines SEO — todo esto es una completa utopía y un gran complicador en la programación. Diseñar una aplicación web SEO que esté bien optimizada para SEO y que satisfaga completamente las peticiones y deseos de los especialistas en SEO es una tarea muy complicada. Y si se trata de que hay que rehacer completamente o en gran medida la jerarquía de páginas y secciones a medida que el sitio avanza, la complejidad del proceso puede multiplicarse varias veces. A veces, en tales reestructuraciones, simplemente no se puede evitar el uso de soluciones temporales o permanentes. Cuando mis amigos programadores me preguntan por qué no usamos frameworks de frontend en nuestros proyectos de SEO, una de las principales razones que menciono es que la enrutación de ningún framework de frontend conocido hoy en día puede cubrir completamente las demandas de los especialistas en SEO. A menudo, incluso la enrutación de frameworks de backend (que por defecto están diseñados también para trabajar de manera flexible con URL) no es suficiente para satisfacer las necesidades de la optimización SEO, así que ¿qué decir de cosas como React y Angular? Creo que terminemos con los términos complejos y en general con esta sección considerable y pasemos a lo siguiente.
¿Cómo veo los motores de búsqueda?
Qué características espero de los motores de búsqueda de nueva generación:
- Ausencia de evaluadores
- Factores de ranking más modernos y, sobre todo, avanzados
- Universalidad de la búsqueda sin necesidad de duplicar y copiar cientos o miles de páginas sin sentido (este es, quizás, el factor más importante)
- Más humanidad, y no un análisis mecánico y sin sentido de grandes datos
- Las pruebas A/B pueden influir en el comportamiento de las personas en el sitio (botones llamativos con un llamado a comprar un producto pueden aumentar la conversión de compras en algunos porcentajes o, por el contrario, ahuyentar debido a su insistencia). Pero las pruebas A/B no deberían aplicarse para rastrear el comportamiento del sitio en los resultados de búsqueda.
- Transparencia (así se eliminaría la necesidad de pruebas A/B)
- Reglas de juego unificadas

Cada vez aparecen sitios y optimizadores que logran posicionarse en los TOPs (en posiciones altas y rentables de los resultados de búsqueda) mediante métodos oscuros de optimización (esto se llama SEO oscuro, que podría resultar en un baneo, y que, gracias a Dios, está disminuyendo cada año). Sin embargo, se espera que el término "lado oscuro de la optimización" permanezca en el pasado, en la década de 2000. La optimización clara, que los especialistas en SEO llaman metodología moderna, experimentará cambios significativos.
¿Cuándo esperar mejoras?
¿Cuándo podremos contar con motores de búsqueda realmente de calidad? En los próximos 5-10 años, no creo que algo cambie drásticamente. Hay esperanza en los ordenadores cuánticos y en los cálculos cuánticos, sin embargo, no resolverán todos los problemas de manera integral. Solo podrán abordar algunos problemas relacionados, por ejemplo, con la falta de potencia de cálculo. Gracias a ellos, se podrá procesar la información más rápidamente. Pero probablemente eso no será suficiente para construir un motor de búsqueda que nos satisfaga completamente. Además, no veo indicios de que las modificaciones de los algoritmos y factores de clasificación existentes puedan influir significativamente en la calidad y llevar a los motores de búsqueda a un nivel completamente nuevo en un futuro cercano. Quizás se necesite algo conceptualmente nuevo, y los cálculos cuánticos y los ordenadores pueden dar ese impulso.
SEO según reglas claras y justas
¿Cómo será el SEO si las reglas del juego son realmente transparentes y unificadas para todos? Supongamos que sabemos claramente cuáles deben ser los títulos (o más bien, ya no deberían ser tan importantes) y qué datos deben ir exactamente en el marcado semántico. Cuando todos los sitios sean "iguales" en términos de atractivo, ¿en qué debería centrarse entonces el motor de búsqueda? Creo que se puede seguir trabajando y enfocándose en los indicadores técnicos: velocidad de carga 🏃♂️, rendimiento de la página (estos indicadores ya existen y se tienen en cuenta actualmente) 🖥, sin embargo, no reflejan la realidad. Muchos sitios de mala calidad aún logran posicionarse en los TOPs, mientras que los sitios rápidos y cómodos a menudo quedan más abajo. Esto se debe a que, en primer lugar, se tiene en cuenta la optimización SEO teórica. En los motores de búsqueda de nueva generación, la optimización teórica debería desaparecer por completo. O, al menos, transformarse en algo diferente. Dado que los motores de búsqueda tendrán una inteligencia artificial "real" (que superará en calidad a las actuales) 🤖, especialmente si se elimina la necesidad de evaluadores, deberían poder determinar de manera independiente y a un nivel más avanzado la calidad y veracidad de la información proporcionada. Este debería ser el principal indicador de clasificación (incluso más que la optimización técnica) y reemplazar completamente el SEO teórico. En este momento, no veo indicios de que las redes neuronales de búsqueda sean capaces de analizar la información adecuadamente. Esto puede deberse a la enorme cantidad de información en Internet, que sigue creciendo en progresión geométrica, o a la mala calidad de las redes neuronales; en general, es difícil de decir. Creo que es más probable que sea el segundo caso. Pero una cosa sé con certeza: al generar 20,000 páginas similares, claramente no estamos siguiendo el camino correcto y solo estamos complicando el trabajo de los motores de búsqueda y "contaminando" los servidores con información innecesaria. Sin embargo, sin buenas alternativas, seguimos llevando a cabo este tipo de promoción. En los motores de búsqueda del futuro, no estaremos buscando intenciones para formar títulos y ajustar frases lo más posible a las consultas. Directamente le diremos a los motores de búsqueda quiénes somos y qué servicios ofrecemos. Y la calidad de lo que hacemos debería ser determinada por el motor de búsqueda. La recolección del núcleo semántico será diferente. Con la llegada de los ordenadores cuánticos y sus cubos estables, la potencia de cálculo en general aumentará. Esto permitirá indexar las páginas con mayor frecuencia y calidad. Pero si la calidad de la indexación de los motores de búsqueda aumentará, sigue siendo una pregunta abierta.
Conclusiones
Intentaré resumir lo escrito anteriormente y enumerar brevemente los problemas que veo en los motores de búsqueda modernos.
- 🔝 Factores y algoritmos de clasificación y evaluación de la calidad de los sitios imperfectos.
- ⚖ Siempre es necesario realizar pruebas A/B y varios experimentos para entender cómo esto afectará los resultados de búsqueda.
- 🗃 Generación de un montón de páginas innecesarias y contenido repetitivo, todo para satisfacer al motor de búsqueda. Esto se asemeja más a ajustar una respuesta a un problema que a resolverlo de manera cualitativa.
- 🦸♂️ La intervención humana (evaluadores) en el sistema no significa necesariamente algo negativo, sin embargo, deberían ser casos aislados y no regulares. Los bots de búsqueda deberían manejar esto por sí mismos de manera efectiva.
Y un poco más sobre los motores de búsqueda
Desviándome un poco del tema principal (la discusión sobre la calidad del SEO teórico en la actualidad), hablemos un poco más sobre los motores de búsqueda en general 💡.
Poco se sabe, pero además de los motores de búsqueda Yandex y Google, existen muchos otros, incluidos algunos bastante buenos. Si motores de búsqueda como Rambler, Bing, Yahoo y Mail no generan confianza por diversas razones (algunos tienen una base de búsqueda pequeña, otros ya no están en su mejor momento y nunca volverán), hay varios motores de búsqueda que me interesan mucho. Hablando de DuckDuckGo 🦆, es un buen buscador con una gran base de datos y una buena privacidad (al menos en el momento de escribir este artículo). Además de DuckDuckGo, tengo en mis marcadores el buscador Brave del mismo navegador, que planeo probar en un futuro cercano. Y hay otro buscador interesante, You, que me genera aún más interés que Brave y DuckDuckGo. En particular, en las consultas de programación, los resultados de este buscador me gustan incluso más que los de Yandex o Google.
A veces, tengo al menos dos preguntas en mente relacionadas con los motores de búsqueda. Intentaré exponer mis reflexiones a continuación.
- ¿Cambiará la cuota de Yandex y Google en el dominio de Internet? (Dado que esta publicación está dirigida a lectores de habla rusa, y para ellos estos motores de búsqueda son los principales, tomé precisamente estos como ejemplo). Si la respuesta es breve, sería que probablemente no. Si Yandex, en condiciones de sanciones (que en general se han impuesto a la región), puede ir cediendo en calidad o, al menos, quedarse atrás en características frente a Google, a Google en el mundo en general poco le impide seguir desarrollándose. Por lo tanto, creo que Google seguirá dominando. Esto se refiere a los próximos 20 años. Pero no olvidemos que en el mundo de la tecnología ya ha habido muchos casos en los que la política de una empresa ha llevado a una crisis y a la pérdida de un dominio evidente en el mercado: Xerox, Intel y, por supuesto, el motor de búsqueda Yahoo, que dominó en su campo a principios de los 2000. Es probable que Google haya aprendido de los errores de otros y no permita que le suceda algo similar. Además, el motor de búsqueda es una parte comercial realmente importante para Google 💵. Pero no hagamos suposiciones sobre lo que sucederá en 50 años. Tal vez nadie recuerde el motor de búsqueda de Google, como ahora no se recuerda a Yahoo 😟.
- ¿Pueden aparecer motores de búsqueda especializados 🔍 que superen en calidad a los más universales? Esta pregunta es, quizás, aún más compleja. En cierto modo, ya existen y funcionan (buscan) dentro de su propio sistema, pero es poco probable que salgan de esos límites y compitan con los motores de búsqueda más universales. Por otro lado, si un motor de búsqueda realmente ofreciera algo muy progresivo en términos de búsqueda, comenzaría a utilizarlo, sin importar si se trata de buscar código de programación o materiales de construcción; lo principal es que la búsqueda en ese nicho sea lo más natural y humana posible. Tal búsqueda implicaría la ausencia de los algoritmos que conocemos y estaría completamente basada en el aprendizaje automático y tecnologías más avanzadas. Por otro lado, si apareciera un motor de búsqueda capaz de funcionar de manera realmente efectiva en un nicho específico, ¿qué impediría aplicarlo y entrenarlo en otros nichos? Entonces volveríamos a caer en la búsqueda universal. Solo que esta vez sería más perfeccionada.