Posicionamiento web en el 2016

Posicionamiento web en el 2016
by

Las siete reglas de oro del Posicionamiento Web en el 2016

Hay un montón de hablar en la web con respecto al Posicionamiento Web o (SEO) y cómo, si usted acaba de hacer una cosa, usted estará en la parte superior de Google. Si solo fuera así de facil. De hecho, creo que hay siete reglas distintas que un optimizador de motores de búsqueda debe poseer. La mayoría de las personas poseen uno o tal vez dos de estas habilidades, muy rara vez la gente poseen los siete. En verdad, para obtener los siete habilidades tesis llevará tiempo y esfuerzo – y, si está ejecutando su propio negocio, es lo que realmente tienen el tiempo para hacer esto?

Las reglas de oro que creo que son necesarios para el trabajo de SEO son:

1. Diseño Web – Producción de una página visualmente atractiva.

2. HTML codificación – El desarrollo de la codificación del motor de búsqueda de usar que se encuentra detrás del diseño Web.

3. Copia de escritura – Producir el texto legible real de la página.

4. Comercialización – ¿Cuáles son las búsquedas reales que se están utilizando, lo que las palabras clave en realidad obtener más negocios para su empresa?

5. Un ojo para el detalle – Incluso los errores más pequeños se puede dejar de visitar su sitio spiderbots.

6. La paciencia – Existe un lapso de tiempo de cualquier cambio que realice, en espera es una virtud.

7. Habilidades de TI – una apreciación de cómo los programas de motores de búsqueda y los algoritmos funcionan realmente.

1. Muchos diseñadores de sitios web producen cada vez más llamativos diseños con animaciones y características inteligentes con la esperanza de atraer a la gente en sus sitios. Este es el primer gran error; utilizando diseños como estos en realidad podría disminuir las posibilidades de una alta calificación Google. Sí, es cierto; todo ese dinero que ha pagado por el diseño del sitio web podría ser desperdiciado, porque nadie va a encontrar su sitio.

La razón de esto es que antes de preocuparse por traer a la gente a su sitio, usted necesita para obtener los spiderbots como a su sitio. Spiderbots son piezas de software utilizados por las compañías de motores de búsqueda para rastrear Internet mirando a todos los sitios web, y después de haber revisado los sitios, que utilizan complejos algoritmos para clasificar los sitios. Algunas de las complejas técnicas utilizadas por los diseñadores web no puede ser rastreado por spiderbots. Ellos llegan a su sitio, mirar el código HTML y el estadio salida a la derecha, sin ni siquiera tomarse la molestia de clasificar su sitio – lo que significa que no se encuentran en ninguna búsqueda significativa.

Me sorprende cuántas veces miro a sitios web e inmediatamente sé que son un desperdicio de dinero. El problema es que tanto los diseñadores Web y la empresa que paga el dinero realmente no quieren saber esto. De hecho, he dejado de jugar al mensajero de malas noticias (demasiados disparos!); Ahora trabajo en torno al problema.

Optimizar un sitio web para ser los requisitos de Google es a menudo un compromiso entre un sitio visualmente atractivo y un sitio fácil de encontrar.

2. La segunda habilidad es la de optimizar el código HTML real que se Spiderbot ambiente. Pongo esto como otra manera el diseño web, ya que realmente no necesita estar “abajo y sucio” en el código en lugar de utilizar un editor como FrontPage, lo cual está bien para el diseño web. Esta habilidad toma un montón de tiempo y experiencia para desarrollar, y justo cuando piensa que ha agrietado, las compañías de posicionamiento web cambian los algoritmos utilizados para calcular qué tan alto su sitio aparecerá en los resultados de búsqueda.

Este no es lugar para incluso el aficionado más entusiasta. Los resultados deben ser monitoreados constantemente, piezas de código añadidos o eliminados, y un cheque mantienen en lo que está haciendo la competencia. Muchas personas que diseñan su propio sitio web sienten que conseguirán buscado porque se ve bien, y totalmente pierda en este paso. Sin un fuerte conocimiento técnico de cómo funcionan spiderbots, siempre tendrá que luchar para conseguir que su empresa en la primera página de resultados de Google. De hecho correr siete dominios de prueba que están probando diferentes teorías con diferentes motores de búsqueda. Recuerde que los diferentes motores de búsqueda utilizan diferentes criterios y algoritmos para clasificar su sitio – un tamaño no sirve para todos.

3. En tercer lugar, me sugirió que la copia de la escritura es una habilidad en sí misma. Esta es la redacción del texto real que la gente que viene a su sitio va a leer. El texto de amor robot de Google y otros spiderbots – pero sólo cuando se escribe bien en Inglés correctamente construido. Algunas personas tratan de meter su sitio con palabras clave, mientras que otros ponen la escritura blanca en el espacio blanco (por lo spiderbots pueden ver, pero los humanos no pueden).

Spiderbots son muy sofisticados y no sólo no van a caer en estos trucos, que pueden penalizar activamente su sitio – en términos de Google, esta es la zona de pruebas. Google lleva a nuevos sitios y sitios de “malo” y eficazmente sin-contenedores de ellos de tres a seis meses, todavía se pueden encontrar, pero hasta n0t resultados página 14 – que no es muy útil. Así como una buena Inglés, los spiderbots también están leyendo el código HTML, por lo que el redactor necesita también una apreciación de la interacción entre los dos. Mi recomendación para cualquier copia de la escritura de su propio sitio es escribir frases en inglés normales, bien construidas que pueden ser leídos por la máquina y humanos por igual.

4. La cuarta habilidad es la comercialización. Después de todo, esto es lo que estamos haciendo – que la comercialización de sitio y por lo tanto la empresa y productos / servicios en la Web. La clave aquí es establecer el sitio de inicio para ser accesible a las búsquedas que proporcionarán más negocio para usted. He visto muchos sitios que se pueden encontrar como clave en el nombre de la empresa. Por lo que la habilidad de marketing requiere el conocimiento de negocio de una empresa, lo que realmente están tratando de vender y una comprensión de lo búsquedas reales pueden proporcionar dividendos.

5. La siguiente regla es un ojo para el detalle. Incluso un simple cambio a una página Web puede crear un error que significa que los spiderbots no va a rastrear su sitio. Recientemente, me pongo un enlace a una página que no tenía www. en la parte delantera de la dirección. El vínculo aún funcionaba, pero las arañas arrastrándose detuvo, y se llevó a mi pareja para detectar el error. Hemos invertido recientemente en un muy sofisticado validador HTML que recoge los errores que otros validadores simplemente no ven. Estos errores no se detienen las páginas que muestran correctamente para el ojo humano, pero causan problemas masivos con spiderbots. Casi todo el código que miro en la Web usando este banderas del validador de errores importantes, incluso de compañías de SEO.

6. La sexta regla es la paciencia – lo que realmente es una virtud. Algunas personas parecen querer hacer cambios diarios y luego pensar que pueden realizar un seguimiento de los resultados de la clasificación de páginas Web al día siguiente. Desafortunadamente, puede tomar una semana de cambios absolutamente correctos entren en vigor, en el que el tiempo ha hecho otros seis cambios. Añadir a la reticencia de este Google para permitir que nuevos sitios directamente a sus anuncios mediante la adición de un factor de espera de, tal vez, tres meses para los nuevos sitios, y que tienen una situación totalmente incontrolable. Decimos a todos nuestros clientes que una pieza de trabajo de SEO se debe mirar al igual que una campaña de marketing que tiene una duración de seis meses, ya que es sólo después de que el tiempo que un verdadero juicio de la efectividad del trabajo se puede hacer.

7. La habilidad final y séptimo es una apreciación de cómo los motores de búsqueda y los algoritmos funcionan, para este donde ambos TI y la experiencia matemática es útil. Las personas que han programado a un nivel detallado sistemas tienen una sensación natural para spiderbots cómo van a leer una página, lo que van a buscar, qué tablas van a configurar, lo ponderaciones que pueden dar a los diferentes elementos. Todo esto construye una imagen de la base de datos que se va a crear y cómo se accede cuando se realiza una búsqueda. Por desgracia, esta habilidad es la más difícil de aprender porque se basa en muchos años de experiencia en programación de sistemas.

Así, en resumen, diría: “Si fuera fácil todo el mundo lo estaría haciendo.” Espero que usted verá que las compañías profesionales de posicionamiento web necesitan más que un poco de diseño web para mejorar su negocio. Asegúrese de que cualquier persona que elija para el trabajo de SEO puede cubrir todas las bases.


Recommended Posts