Facebook Twitter
edirectorysite.com

Cada Robot De Motor De Búsqueda Necesita Validación

Publicado en Agosto 15, 2021 por Rudy Bowne

Su sitio web está listo. Sus artículos están configurados, ha optimizado sus páginas. ¿Qué es lo último que debes hacer antes de subir tu esfuerzo? Validar. Realmente es sorprendente cuántas personas generalmente no validan el código básico de estas páginas web antes de ponerlas en línea.

Los robots de los motores de búsqueda son programas automatizados que atraviesan la red, indexando el contenido de la página y los siguientes enlaces. Los robots son básicos y los robots no son inteligentes. Los robots tienen la funcionalidad de los navegadores de generación temprana: realmente no entienden los marcos; No pueden hacer mapas de imágenes del lado del cliente; Varios tipos de páginas dinámicas están más allá de ellas; No saben nada de JavaScript. Los robots realmente no pueden conectarse a sus páginas: no pueden seleccionar botones, además no pueden ingresar contraseñas. En realidad, solo pueden hacer las cosas más fáciles en su propio sitio web: mire el texto y siga los enlaces. Sus visitantes humanos necesitan contenido claro y fácil de entender y navegación en sus propias páginas; Los robots del motor de búsqueda de Internet necesitan ese mismo tipo de claridad.

Al observar lo que necesitan estos clientes potenciales y los robots, es simple observar cómo hacer que su sitio sea "amigable con el motor de búsqueda en Internet", también hace que el sitio web sea amigable con el visitante del sitio web.

Por ejemplo, un proyecto que hice tuvo muchos problemas de validación. Debido a la gran cantidad de errores generados por los problemas en el código fundamental, los robots del motor de búsqueda de Internet no pudieron indexar la página neta y, específicamente, una parte del texto con palabras clave identificadas diseñadas para este sitio. Irónicamente, los usuarios humanos tuvieron problemas con la página también. Como los humanos son inteligentes, podrían resolver el problema, sin embargo, los robots no pueden. La reparación del código de la base corrigió el problema para los visitantes humanos y automatizados.

Hay varias herramientas abiertas para verificar su página HTML. Entre los más fáciles de utilizar se publica por el W3C. Mientras esté allí, incluso puede validar su código CSS en la página de W3C para CSS. Los informes le permitirán saber qué código fuente debe solucionarse en su propio sitio web. Una etiqueta extra o no cerrada podría causar problemas. Con un código válido, se asegura de que sea más fácil que los visitantes humanos y los robots de los motores de búsqueda de Internet puedan viajar durante su sitio web e indexar sus páginas sin errores de código fuente que los detengan en sus pistas. ¿Cuántas veces tal vez hayas visitado un sitio de Internet y luego encuentres algo roto cuando atraviesa las páginas de la red? Demasiados también cuentan, estoy seguro. Validar sus páginas hace que todo sea más fácil para el sitio web de obtener notados.

Como dije antes, lo que funciona para los invitados funciona para los robots del motor de búsqueda de Internet. La usabilidad puede ser la clave tanto para sus visitantes humanos como para los robots automatizados. ¿Querrá proporcionar la mejor oportunidad para una visualización óptima de ambos?