¿Cómo será el SEO en el 2014?

¿Cómo será el SEO en el 2014? Esta pregunta sólo la puede responder nuestro amigo Matt Cutts. Hace unos pocos días se celebró en Las Vegas el Pubcon 2013, uno de los congresos SEO más importantes que se realizan y aquí os dejo unas pinceladas de la ponencia de nuestro amigo. Lamentablemente no estuve 🙁 pero la gente de Search Engine Land han hecho un buen resumen. Fue una de las ponencias más esperadas, no en vano lo que dice Matt, es lo que hace Google y lo que marca el buscador es lo que pasará.SEO en el 2014 Pubcon 2013

El SEO en el 2014

De entrada hubo una cierta tensión cuando el Jason Calacanis otro de los “gurus” empezó la primera conferencia diciendo que, Google manda sobretodo lo malo. Mediante twitter Matt pregunto si queria una respuesta cortés o una “thorough” (quiero pensar que significa mas detallada, al grano, no tan “polite”). En fin que la cosa empezó caliente.

Principales cambios en calidad

  • Hummingbird el nuevo algoritmo con mejora en lenguaje natural. La búsqueda es algo más que una sucesión de palabras; hay que saber cuales son las palabras más relevantes. Esto afecta a cuando haces búsquedas por voz de “¿Cual es la capital de Texas cariño?” el “cariño” no es tan importante como saber la capital de Texas. Parece una tonteria pero pensad que estamos hablando de una máquina y Hummingbird lo puede detectar y este sutil cambio puede mejorar, aun más, la experiencia en la búsqueda.
  • Suavizar Panda: es algo que se va a llevar a cabo para ayudar a algunos sitios que han sido castigados duramente por este algoritmo.
  • Detección y potenciación en la “autoridad”: Otra cosa que influye en el SEO, es el conocimiento o “expertise” que esa web demuestre en un tema concreto, sólo un experto puede ayudarnos.
  • Smartphones, mejor sin flash

Cambios en el webspam

  • Penguim 2.0 & 2.1 Cuando lanzaron el 2.0, los Black Hat dijeron que no era muy fuerte, entonces sacaron el 2.1 con muchisimos más cambios
  • Nuevos algoritmos contra el spam, para bloquear sitios como los de pornografia infantil, falsos prestamos, etc.
  • Publicidad y advertorials advierte a los sitios con excesiva publicidad, los artículos pagados han de estar muy bien identificados para no confundir al usuario y los clique pensándose que es información, etc.
  • Redes de spam: sigue con su lucha, tiene una gran lista de sitios para bloquear e hizo bromas sobre que haría una encuesta para ver cual seria el siguiente.

El futuro de las búsquedas

  • El objetivo de la Máquina de Aprender es proporcionar la información mundial. Quieren ser capaces de responder a preguntas cada vez más específicas
  • La importancia de los Smartphones , cada vez mas la navegación a traves de mobiles va cogiendo importancia, google puede llegar a penalizar un sitio que no sea responsive. Nada menos que el 40% del tráfico de youtube llega a través del móvil !
  • Social, Identidad y Authorship Matt empezó diciendo que Facebook había hecho un gran trabajo para saber quienes son las personas. Las marcas sociales son signos de autoridad, una persona con muchas recomendaciones seguro que es alguien que vale la pena escuchar

Tendencias de webspam

  • Hacking, en los próximos 6 meses parecerá que no están trabajando. Ahora ya estan trabajando en la nueva generación de hacking. Términos como “comprar Viagra”se seguirán viendo como malos porque se violan las leyes
  • Se están abordando temas calientes como la pornografía infantil, los problemas internacionales, y otras consultas desagradables
  • El fin del PageRankno habrá actualización y seguramente acabará desapareciendo el númerito público que aparecía en la barra del navegador. Se le presta demasiada atención.

Consejos

  • Móviles, estate preparado
  • Autocompletado activado en Chrome. Permite a los usuarios ganar tiempo en sus búsquedas.
  • Publicidad en la parte superior. Muchas webs concentran gran parte de su publicidad en la parte de arriba, no se debe abusar de esta práctica.
  • Endurecimiento de la autoría, que puede proporcionar mejores resultados, quieren reducirla un 15% para garantizar que la calidad de la autoría sigue siendo alta y relevante.
  • Rich Snippets: la habilidad de tener y usar estos fragmentos enriquecidos por sitios de baja calidad no les servirá de nada, Google se los quitará.
  • JavaScript: Google lee cada vez mejor pero advirtió que no es recomendable hacer webs enteras con este lenguaje.

Resumiendo

Son muchas cosas las que se hablaron, no solo en la ponencia sino despues en el turno de preguntas y respuestas. Al final, para nosotros, que no estamos en la ola del Blackhat ni tenemos nada que ver con sitios fraudulentos, la tres conclusiones para mejorar de SEO en el 2014 son:

  1. Contenido de calidad, que nos librará del castigo del “Panda”
  2. Autorship: digamos al mundo quienes somos y que somos expertos en este tema
  3. Web mobile: que ni se nos ocurra tener una web que no sea responsive!

En fin, ya veremos que pasa…

Josep M Tapia

ESIC & UAB (Barcelona)

También te podría gustar...

1 respuesta

  1. 1 marzo, 2017

    […] difícil de demostrar pero poco a poco el binomio DMOZ y Google , o lo que es lo mismo DMOZ y SEO ha ido perdiendo relevancia, el descenso de interés y la mejora constante del algoritmo de Google […]

Deja una respuesta

Tu dirección de correo electrónico no será publicada.