1 Followers
26 Following
buttonwar8

buttonwar8

SPOILER ALERT!

guía para enamorar al algoritmo de Google

Hoy te voy a hablar de
Google Penguin cuatro.0, uno de los dos algoritmos más populares y cañeros de Google ...y, probablemente, el que más dolores de cabeza ha levantado a SEOs y Webmasters.


Más sobre esto


La verdad es que, aprovechando esta actualización de Google voy a aprovechar para contarte vida y milagros del pingüino más conocido del planeta.


Así que, prepárate pues ésto va sobre links, análisis de perfiles de enlaces, penalizaciones, y herramientas… mas todo ésto con el Penguin cuatro.0 como telón de fondo.


Antes de comenzar, me voy a permitir regresar a lo esencial y recordarte brevemente de que trata Google Penguin y por qué tiene sentido que exista.


¿Qué es Google Penguin?



Google Penguines un algoritmo que analiza las webs en pos de patrones de enlaces sospechosos de haber sido generados para manipular ely evita que lo haga.


Desde que el huevo del primer pingüino de Google eclosionó (ya hace cuatro años) todo cambió para los SEOs en lo que a Link building se refiere.


A lo largo del tiempo el algoritmo ha ido padeciendo actualizaciones para prosperar la forma en la que detecta y evita estas manipulaciones de Page Rank.



El origen de Penguin cuatro.0


Google Penguin nace con una misión muy simple (que sigue sosteniendo tal como): evitar que generemos enlaces que nos ayuden a progresar el ranking en las Search Engines Ranking Positions.


Pero “el pecado original” de todo esto lo cometió Google, puesto que, fue él quien decidió en un comienzo que los enlaces generados hacia una web eran una señal de que su contenido era relevante… y claro, los SEOs primitivos (que no eran tontos) se pusieron a producir enlaces a “tutiplén”, pues así mejoraban el posicionamiento en las Search Engines Ranking Positions.


Este sistema para determinar la popularidad de una página (el PR), considera los links entrantes a una página como “votos” que realizan otras páginas... mas es demasiado manipulable.


Llegó un instante en que fundamentarse en estos criterios ya no aseguraba que los resultados ofrecidos fuesen verdaderamente relevantes para el usuario, y por tanto había que buscar una solución.


Así es como nació el primer pingüino en Mountain View.


Cuando apareció el(el 24 de septiembre de dos mil doce) se presentó como un algoritmo de “spam web”, pero enseguida se le rebautizó como “Penguin”.


Un año después lanzaron la versión 2.0 del algoritmo, y en octubre de dos mil catorce.


Esta tercera actualización prometía como gran novedad: actualizaciones más frecuentes del algoritmo.


Se charlaba de que podrían ser incluso mensuales pero, al final, nos tuvieron aguardando más que jamás a la siguiente actualización de Penguin.


Y así, llegamos al Penguin cuatro.0 “El pingüino en tiempo real”.


A la vista de la evolución del algoritmo ya podemos tener clara una cosa: la regla de oro para evitar cualquier pingüinazo es rememorar que...


A Google únicamente le gustan los enlaces naturales, es algo que preocupa hasta a Batman y a Robin.








La paradoja del Link building natural


Si a Google Penguin únicamente le valen los enlaces naturales es tentador meditar que la mejor forma de hacer linkbuilding es no hacer nada.


Simplemente sentarse y aguardar a que los enlaces se produzcan de forma natural y espontánea… o bien simplemente que no se generen.


Pero seamos sinceros: a cualquier SEO que le digas que no haga nada para conseguir enlaces le va a dar la risa.


Mientras éste siga siendo un factor clave para determinar la relevancia de una web habrá que desarrollar estrategias que sean capaces de generar un perfil de links coherente.



Para conseguir generar estos links tenemos dos posibilidades:


  • Generar mismos los enlaces (así sea comprándolos o bien colocándolos en otras páginas) de forma que parezcan lo más “naturales” posible.
  • Provocar lacon estrategias de inbound marketing cómo el Linkbaiting.

Con la primera opción te la estarás jugando constantemente.


Porque por muy bien que lo hagas, por muy bien configurada que tengas tu PBN o bien por mucho cuidado que pongas en cómo y dónde compras los links, lo cierto es que entras de lleno en el seo black hat y estás engañando a Google.


Eso, tarde o temprano se termina pagando.


Por lo tanto, no te invito a que produzcas este género de enlaces si no estás segurísimo de lo que haces y, sobre todo, nunca con un proyecto que te da de comer.


Por definición: hacer Link building es producir links y esto es cualquier cosa menos natural.


Sin embargo, provocar la generación de links naturales a través de contenidos de valor y bien orientados a nuestros usuarios es siempre una apuesta segura.


Al fin y al cabo estamos trabajando con el mismo objetivo que Google: satisfacer las esperanzas del usuario.



Descubre Link Building tool


y mejora tu posicionamiento con backlinks de calidad


Novedades de Penguin 4.0


“El Pingüino en tiempo real”, ésta semeja ser la presentación de la nueva versión del algoritmo que promete analizar links y realizar... pero además promete hacerlo en tiempo real.


Esto va a suponer ciertas ventajas y ciertas desventajas en el momento de gestionar nuestros perfiles de links.


Penalizaciones sobre la marcha


Hasta ahora el algoritmo examinaba los perfiles de enlaces toda vez que se refrescaba y cambiaba de versión.


Entonces, si hallaba un patrón de enlaces spam su filtro se ponía en marcha y ya tenías tu penalización algorítmica.


A partir de ahora, el Pingüino estará revisando perfiles de links continuamente y según vaya encontrando backlinks tóxicos irá repartiendo penalizaciones algorítmicas.


Monitorización constante de nuestro perfil de enlaces


Este nuevo funcionamiento del algoritmo supondrá ciertos cambios en nuestra forma de administrar los links entrantes.


Eso que hacíamos de realizar una auditoría de enlaces muy algunas veces, o sencillamente cuando sabíamos que Google iba a sacar una nueva actualización de Penguin… eso ya no vale.


Eso era como ponerse a estudiar la noche anterior a un examen… ¡Mal! eso siempre y en toda circunstancia estuvo mal.


A partir de ahora deberemos realizar una labor dede una forma mucho más frecuente.


Al fin y al cabo, community manager madrid puede penalizar en cualquier instante.


Recuperaciones más rápidas


En la otra cara de la moneda, está la gran ventaja que supone que el pingüino esté funcionando de manera constante.


Si tenemos al algoritmo examinando los enlaces continuamente no sólo detectará los enlaces spam rápidamente, sino también tardará mucho menos en ver que hemos eliminado ciertos enlaces tóxicos.


Más sobre esto


Esto supondrá un verdadero balón de oxígeno para muchos sitios que una vez penalizados tenían que aguardar hasta el momento en que el algoritmo se refrescara de nuevo para poder ver revertida su situación.


Esto significaba un verdadero “purgatorio” para muchos negocios on line que tenían que aguardar meses padeciendo pérdidas importantes de tráfico orgánico mientras que veían que su negocio no esperaba a nadie.


A partir de ahora una rápida detección del problema y una inmediata acción correctiva (eliminar los enlaces tóxicos) puede suponer que se salga de la penalización algorítmica rápidamente.


Mayor dificultad para identificar las penalizaciones


Cuando una web es penalizada existen 2 posibilidades: que se trate de una penalización manual o de una penalización algorítmica.


En el primer caso no hay duda.


La penalización manual la realiza una persona, por lo que sabremos que hemos sido penalizados al percibir el pertinente mensaje en.


Por el contrario, cuando se trata de una penalización algorítmica la primera cosa que nos preocupa es identificar el algoritmo que nos ha penalizado para poder solventarlo.


La comprobación que se suele hacer entonces es equiparar la data en la que comenzamos a perder tráfico orgánico con las datas en las que los algoritmos (generalmente Penguin o Panda) se actualizaron.


Pero desde que Panda formaya no conocemos las datas en las que se actualiza… y aquí se plantea una cuestión interesante: ¿qué pasará con las próximas actualizaciones de Penguin?


En principio, que Google Penguin funcione en tiempo real no desea decir que sus actualizaciones también lo sean, mas el momento de recibir una penalización del pingüino ya no va a coincidir necesariamente con el instante en el que el algoritmo se actualice.


A menudo, el instante de la penalización será cuando tengamos nuevos enlaces spam (o más bien cuando Penguin los advierta).


La solución pasa nuevamente por realizar un mantenimiento periódico de nuestro perfil de enlaces.


Pero además, cuando recibamos una bajada de tráfico orgánico a causa de una penalización algorítmica debemos de repasarlo todo (perfil de links, contenidos… )


¿Cómo comportarse con Penguin cuatro.0?


Ya lo he dicho antes, pero no me cansaré de repetirlo: de ahora en adelante no vale prepararse para la salida de una nueva versión de Penguin.


Con la actualización en tiempo real deberemos cuidar nuestro perfil de enlaces continuamente.


Por lo tanto, lo que tienes que hacer para estar de buenas con Penguin es, en gran medida, lo que repetirás periódicamente para repasar la salud de tus backlinks.


En realidad son los dos mismos aspectos que hay siempre y en toda circunstancia que vigilar para estar a salvo de cualquier pingüino:


Estrategia de Linkbuilding


Como ya mencioné ya antes, la primera cosa que debemos tener claro al lograr enlaces para un sitio es que todos y cada uno de los links que apunten a nuestra web han de ser “naturales” ...o al menos parecerlo de manera muy convincente.


Para que tu perfil de links sea “convincentemente natural” hay determinados aspectos que debes cuidar:



  • Calidad frente a cantidad



Calidad frente a cantidad


Es siempre y en todo momento mejor tener pocos links pero buenos que muchos malos.



  • Enlaces Dofollow y Nofollow



Enlaces Dofollow y Nofollow


Obviamente un perfil de enlaces en el que todos son Dofollow llama un tanto la atención.


Si para cualquier persona está claro que no es natural… para Google Penguin no cabe la menor duda de que ahí hay spam.


Lo mejor es hallar un equilibrio entre ambos géneros de links.


La pregunta del millón: ¿qué proporción de links hay que tener de cada tipo?


Bueno, pues aquí hay margen de más.


Pero por mi experiencia lo ideal es que los enlaces “Dofollow” estén siempre y en toda circunstancia sobre el cincuenta por cien del total de links, pero que no alcancen cifras superiores al 75 por cien


Pero también te digo que si tus links son todos naturales prácticamente seguro que estarán entre estas cifras.



  • Enlazar desde páginas de la misma temática



Enlazar desde páginas de exactamente la misma temática


Si las webs que te enlazan son de la misma temática el link te dará más relevancia ante Google.


Linkbaiting


Sin duda, la mejor estrategia para conseguir enlaces naturales es que los enlaces sean verdaderamente naturales.


Para lograr que nos enlacen así, la mejor estrategia es el Linkbaiting.


Esta estrategia se basa en definir muy bien a nuestro “buyer persona” para ser capaces de definir qué géneros de contenido le resultarán irreprimibles y le incitarán a compartir y enlazarlo.


Lo que llamamos generar el cebo (bait) más efectivo.


Auditoría de Backlinks


Siempre que te caiga un Pingüinazo acabarás haciendo este proceso de auditoría y limpieza de enlaces.


Pero esta es también una tarea que deberíamos efectuar periódicamente,sobre todo, en tanto que el pingüino de Google va a rastrear los links sin parar.


También es una buena idea efectuarla ahora mismo si queremos caerle bien al nuevo Penguin sin perder ni un minuto más.


De lo que se trata es de revisar nuestro perfil de enlaces y eliminar aquellos que nos puedan dañar.


Pero veremos los pasos que hay que seguir para realizar una auditoría y limpieza de links tóxicos.


Paso 1.- Recopilación de backlinks


No por obvio es menos preciso tener un listado lo más extenso posible de todos y cada uno de los enlaces que apuntan a nuestra web.


Para ello vamos a poder utilizar multitud de herramientas… y yo recomiendo emplearlas todas y cada una (o bien por lo menos múltiples de ellas) pues ninguna será capaz de localizar la totalidad de enlaces entrantes.


Dos de las herramientas que puedes emplear para compendiar estos enlaces son:


Así, el listado que obtengamos de una herramienta podrá completar el que hayamos conseguido de la otra.


Paso dos.- Afianzar y clasificar los links entrantes


Ahora que ya tenemos una lista extensa de enlaces (o bien más bien varias listas conseguidas de distintas herramientas) que apuntan a nuestra web, tendremos que consolidar estos listados y también identificar cuáles nos pueden dañar y cuáles no.


Para ello, puedes utilizar algunas de las herramientas que existen en el mercado, pero yo te invito a que pruebes la herramienta Enlace Audit de SEMrush, y que merece la pena por varios motivos:


1.- Enlaza con los datos de Search Console, con lo cual evitas tener que recurrir a la fuente información más esencial en lo que se refiere a enlaces entrantes se refiere: Google. Sin duda los enlaces que conoce Google deberían de ser los que más nos interesen por razones obvias.


2.- Te deja importar de forma sencilla los enlaces que hayas podido recopilar en cualquier otra herramienta de las nombradas.


3.- El “Toxic Score” que ofrece valora de 0 a 100 en nivel de confianza de cada link y está calculado basándose en el número de enlaces de sitios de confianza que recibe el dominio que nos enlaza.


Así que, lo primero que debemos hacer, si no lo hicimos ya, es vincular nuestro proyecto de SEMrush con la cuenta de Search Console pertinente.








Ahora, debemos importar los enlaces que compendiamos de otras fuentes y afianzarlos con los de Search Console y SEMrush.


Tendremos que añadirlos a la herramienta de SEMrush importándolos en un fichero CSV en el que simplemente se incluirá una URL por línea.


Pulsamos en añadir backlinks








….y en dependencia del número de links añadidos le llevará más o bien menos tiempo analizarlos.








Enseguida tendremos todos los links que recopilamos consolidados y analizados en nuestra herramienta.








Una vez analizados todos y cada uno de los links entrantes en SEMrush (tanto los detectados por la herramienta como los importados de Search Console) deberíamos clasificar cada link de forma individual comenzando por los que tienen un índice de toxicidad más alto.








En esta fase de la clasificación de enlaces, debemos hacer una revisión de forma manual para comprobar si cada uno de ellos de los links procede de un lugar que pueda dañar nuestro perfil de links.


Lo vamos a hacer, eso sí, comenzando con los clasificados con un índice de toxicidad I (“Toxic Score”).


Durante esta revisión podemos ir clasificando los links según distintos criterios que más tarde nos ayudarán a tomar la decisión de quitarlos o no.


Paso tres.- Quitar enlaces tóxicos


Una vez identificados todos los enlaces tóxicos debemos intentar quitarlos.


A la hora de quitarlos nos podemos encontrar con 2 escenarios bien diferentes:


Si verdaderamente fuimos nosotros los que pusimos el link en otra página o bien en una PBN propia será más sencillo puesto que tendremos control sobre estos enlaces.


Sin embargo, si los links están en sitios de terceros, deberemos hacer un pequeño trabajo de investigación para conseguir una dirección de contacto del administrador web de la web que nos enlaza y solicitarle que suprima el link.


Bueno, esto es lo que desea Google que hagamos cuando la penalización es manual.


En ese caso no nos queda más remedio que procurar eliminar los links, puesto que tendremos que informar de estos intentos alque será revisada por una persona real.


Este vídeo es del año 2012, pero su contenido prosigue plenamente actual y en él Matt Cutts explica cómo deberíamos de documentar los intentos de eliminación de enlaces que hemos realizado.


Lo que desea Google realmente, es que dediquemos por lo menos un mínimo esmero a quitar los links como el que efectuamos al ponerlos.


Sí, Google siempre estima que somos malos y los hemos puesto .


Sin embargo, si lo que tenemos es una penalización algorítmica no deberemos reportar a nadie, con lo que podríamos desautorizar estos links directamente… si bien no debemos.


¿Por qué empresa publicidad sem barcelona ?


Pues por el hecho de que no es exactamente lo mismo eliminar un link que desautorizarlo.


Cuando conseguimos quitar un enlace este desaparece y con él desaparecerá la penalización cuando Google Penguin detecte que ya no está… lo que con Penguin cuatro será “ya” (o algo parecido).


Sin embargo, cuando desautorizamos un link lo que hacemos es pedirle a Google que no tenga en cuenta ese enlace.


Esto es sencillamente una sugerencia que Google puede tener en cuenta o bien no (si bien generalmente lo hace).


Paso cuatro.- Desacreditar links tóxicos con Disavow Tool


De cualquier forma, la verdad es que la mayoría de las veces ponerse en contacto con los administrador web de estos sitios acostumbra a ser una misión imposible.








Tenemos que tener claro que cuando charlamos de desacreditar enlaces ante Google lo vamos a hacer usando la herramientade Search Console.


Tal y como acabo de explicarte en el punto precedente, esta herramienta debería ser un último recurso y deberás emplearla con aquellos links que estimas que son tóxicos y que no has podido quitar o bien pedir su eliminación.








Formato del archivo para Disavow Tool


Para emplear esta herramienta de, simplemente tenemos que producir y subir un fichero de texto (con extensión .txt) que incluye las páginas y dominios de los que queramos que no se tengan presente los enlaces cara nuestra web.








Este fichero debe de tener un único dato (registro) por línea y estos datos pueden ser:


  • Enlaces (p.e.: -toxico/pagina-que-enlaza.html) cuando desautorizamos una página específica que nos enlaza.
  • Dominios (p.e.: dominio-toxico) cuando tenemos múltiples páginas que necesitamos desautorizar de un mismo dominio es mejor desacreditar de esta manera el dominio completo.
  • Comentarios, que empiezan por # (p.e.: #Esto es un comentario). Estos comentarios no son tenidos en cuenta por Google pero nos sirven para organizar el fichero apartando dominios de páginas e incluyendo alguna anotación.

El funcionamiento es bien simple, pero aún así son bastante corrientes los ficheros con fallos que luego Google no podrá validar.


Pero despreocúpate pues late lo pone fácil.


Si has ido clasificando en ella los enlaces tóxicos tendrás el apartado Disavow una lista de páginas y dominios que querrás desacreditar.


Pulsando en el botón “Export” nos descargamos el fichero txt para enviar a Search Console perfectamente formateado.


Para subirlo sencillamente entramos en la herramienta Disavow Tool eny escogemos la propiedad de Search Console sobre la que vamos a trabajar.








En la próxima ventana se nos avisa de que Disavow Tool se trata de una función avanzada y que únicamente se debería de emplear si se sabe lo que se está haciendo y en caso de tener un número notable de enlaces.








Y en la siguiente ventana ya podemos subir nuestro fichero con las URLs y dominios que queremos desautorizar.








¿Y si me equivoco al desautorizar links?


Bueno, lo primero que te diré es que no puedes subir un segundo archivo.


La herramienta únicamente permite un archivo de texto por cada propiedad de Search Console.


Lo que puedes hacer es regresar a subir el fichero original modificado.


En el en caso de que quieras modificarlo y no hayas preservado el fichero original siempre podrás descargarte el listado de páginas y dominios enviados.


Eso sí, que sepas que no te estarás descargando el fichero txt que mandaste.


Lo que te descargarás será únicamente el listado de URLs y dominios (sin los comentarios) y en formato CSV o bien Google Docs.








También tienes la posibilidad de suprimir el archivo si deseas que Google vuelva a considerar los enlaces que habías desautorizado.


Y ahora a esperar… ¿o no?


Efectivamente.


Hasta ahora, cuando se enviaba un fichero había que esperar… y por lo general había que aguardar mucho.


En teoría, las desautorizaciones de los links mandados no surgían efecto hasta el momento en que Google volvía a rastrear e indexar esas URLs pero, la verdad es que en muchas ocasiones había que esperar a que se refrescara el pingüino y sacasen una nueva versión.


Éstas esperas son cosa del pasado por el hecho de que con el nuevo Penguin cuarenta, Google promete revisión incesante de los enlaces.


Esto puede suponer una mayor agilidad a la hora de desacreditar y reautorizar los enlaces que incluyamos en este fichero.








Y tú, ¿qué piensas de Google Penguin 4.0? ¿Es un algoritmo realmente ágil examinando enlaces?


Foto (de Google):Shutterstock