Artículos publicados en otras Webs*

Artículos publicados en otras Webs*

Javier Pérez: Cómo promocionar un blog: SEO

Cómo promocionar un blog


Índice


0. Introducción

1. SEO

2. SEM

3. Social Media

4. Emailing

5. Usabilidad

6. Analítica Web

7. Afiliación


SEO


SEO es un acrónimo de Search Engine Optimization (optimización para motores de búsqueda). En la actualidad, los mortales que hacemos SEO lo hacemos exclusivamente para el buscador de Google, aunque existen más ámbitos del SEO, como Bing, Yahoo!, e incluso redes sociales como Facebook o Google+.


Además, el SEO tradicional es cada vez menos útil para posicionar una web debido a la influencia en los buscadores del componente social, es decir, el valor único e individual de cada enlace para cada usuario dependiendo de su actividad y sus relaciones en las redes sociales. Aún así la importancia del SEO sigue siendo básico para posicionar una web en lo más alto de los resultados de búsqueda, sin un buen SEO tu blog difícilmente estará arriba.


El algoritmo que usa Google para posicionar a un enlace en sus resultados de búsqueda se llama Pagerank ©, y aunque no es público totalmente, más o menos funciona de la siguiente manera:



  • A cada página se le asigna un valor, en base a la cantidad de enlaces que recibe y del valor de cada una de esas páginas. Ese valor es lo que se conoce como Pagerank, y tiene un valor entre 0 y 10.

  • Si una página tiene un Pagerank de 5, éste se divide entre todos los enlaces que tenga, enviando esa parte a cada una de esas páginas. Por lo tanto, cuanto más Pagerank tenga una página, y cuanto menos enlaces externos tenga, mayor puntuación dará a la página que enlace.

  • Por otro lado está la densidad de palabra. Si alguien busca “javier pérez” en Google, se posicionarán mejor las páginas que más veces tengan contenidas esas palabras clave.

  • Es importante que esas palabras clave estén contenidas además en el título ( del


Ten en cuenta que para que Google comience a indexar tus páginas debes recibir al menos un enlace a tu blog, aunque sea un enlace nofollow. Esto es muy fácil, basta con poner un enlace en tu perfil de YouTube, en un tweet, o en un comentario en otro blog que ya esté siendo indexado por Google, por ejemplo.


Estos consejos sobre SEO son muy básicos, pero es fundamental que los cumplas al 100%:



  1. Enlaces, consigue enlaces… de tus amigos, de otros blogs, de donde sea. Sin enlaces a tu blog el SEO no vale para mucho. Es importante que quien te enlace tenga más Pagerank que tú. Es decir, no vale que te crees un blog para poner enlaces a tu blog, lo cual además está penalizado por Google (se denominan link farms). A más enlaces mayor pagerank, y a mayor pagerank más arriba aparecerás en los resultados de búsqueda.

  2. Usa un nombre de dominio propio, ni miblog.blogspot.com ni miblog.wordpress.com, usa siempre miblog.com. Un dominio no cuesta más de 10-15 € al año.

  3. Usa URL’s semánticas. Es decir, en lugar de http://miblog.com/?p=1, que sea http://miblog.com/marketing/mi-ultimo-articulo-chupiguay/. De esta manera aumentarás la densidad de palabra.

  4. Usa un sitemap.xml de Google y añádelo a las Herramientas para Webmasters. De este modo Google tendrá a su disposición todo tu mapa web y lo indexará más rápidamente. Usa el plugin Google XML Sitemaps.

  5. Usa palabras clave en el contenido poniéndolas en negrita. No demasiadas, que no sea molesto para el lector. Importantísimo es además las palabras claves que uses para el título del artículo. Ten en cuenta que tu blog aparecerá en los resultados de búsqueda cuando alguien busque esas palabras.

  6. No cometas faltas de ortografía. Si escribes marketin como palabras clave, y alguien busca la palabra marketing, posiblemente no aparezcas en los resultados de búsqueda.

  7. Y lo más importante, procura que tu contenido sea de interés, de calidad y enlazable (que alguien desee enlazar ese artículo en su blog).

  8. El vídeo es muy importante, y está bien que lo uses en tus artículos, pero siempre debes acompañarlo de contenido en texto. Aplica lo mismo para las imágenes, aunque contengan texto.


Debes tener unos mínimos conocimientos sobre HTML. Por ejemplo, debes seguir estas tres reglas fundamentales:



  1. Cada artículo debe mostrar un meta description con un resumen del artículo. Algunos temas de WordPress no crean este meta. Este contenido es lo que aparecerá bajo el enlace en los resultados de búsqueda de Google, o la entradilla automática que aparece al compartirlo en Google+ o Facebook.

  2. Sólo puedes poner un solo H1 en cada página. Es la cabecera más importante, lo que pongas aquí tendrá mucha relevancia para Google.

  3. La página principal (inicio/home) puede tener un H1 con el título del blog, pero cada página de artículo debe tener en el H1 el título del artículo. La mayoría de temas de WP lo hacen bien. Y usa cabaceras H2 para dividir el artículo. De esta manera podrás dar más densidad de palabra y además hacer la lectura mucho más sencilla y fluida.


Si además quieres mostrar unos resultados bien profesionales, el siguiente paso es aplicar Rich Snippets en tus contenidos, pero para hacer esto necesitarás a un desarrollador web experimentado, o bien que tengas amplios conocimientos en HTML y CSS. Puedes documentarte aquí: Rich Snippets Testing Tool.


Con WordPress y los plugins SEO Tools y Google XML Sitemaps tienes todo lo que puedas necesitar para aplicar el mínimo de SEO necesario para promocionar un blog, y mucho más.

Submit URLs to Google with Fetch as Googlebot



The Fetch as Googlebot feature in Webmaster Tools now provides a way to submit new and updated URLs to Google for indexing. After you fetch a URL as Googlebot, if the fetch is successful, you’ll now see the option to submit that URL to our index. When you submit a URL in this way Googlebot will crawl the URL, usually within a day. We’ll then consider it for inclusion in our index. Note that we don’t guarantee that every URL submitted in this way will be indexed; we’ll still use our regular processes—the same ones we use on URLs discovered in any other way—to evaluate whether a URL belongs in our index.



This new functionality may help you in several situations: if you’ve just launched a new site, or added some key new pages, you can ask Googlebot to find and crawl them immediately rather than waiting for us to discover them naturally. You can also submit URLs that are already indexed in order to refresh them, say if you’ve updated some key content for the event you’re hosting this weekend and want to make sure we see it in time. It could also help if you’ve accidentally published information that you didn’t mean to, and want to update our cached version after you’ve removed the information from your site.



How to submit a URL

First, use Diagnostics > Fetch As Googlebot to fetch the URL you want to submit to Google. If the URL is successfully fetched you’ll see a new “Submit to index” link appear next to the fetched URL.

Once you click “Submit to index” you’ll see a dialog box that allows you to choose whether you want to submit only the one URL, or that URL and all its linked pages.

When submitting individual URLs, we have a maximum limit of 50 submissions per week; when submitting URLs with all linked pages, the limit is 10 submissions per month. You can see how many submissions you have left on the Fetch as Googlebot page. Any URL submitted should point to content that would be suitable for Google Web Search, so if you're trying to submit images or videos you should use Sitemaps instead.



Submit URLs to Google without verifying

In conjunction with this update to Fetch as Googlebot, we've also updated the public 'Add your URL to Google' form. It's now the Crawl URL form. It has the same quota limits for submitting pages to the index as the Fetch as Googlebot feature but doesn't require verifying ownership of the site in question, so you can submit any URLs that you want crawled and indexed.



Note that Googlebot is already pretty good about finding and crawling new content in a timely fashion, so don’t feel obligated to use this tool for every change or update on your site. But if you’ve got a URL whose crawling or indexing you want to speed up, consider submitting it using the Crawl URL form or the updated Fetch as Googlebot feature in Webmaster Tools. Feel free to comment here or visit our Webmaster Help Forum if you have more detailed questions.



Written by Jonathan Simon & Susan Moskwa, Webmaster Trends Analysts

7 claves para un buen SEO en twitter


Que twitter revolucionó el concepto del posicionamiento asociado a las URL es una cualidad innegable, considerado al máximo por lo breve de sus mensajes por los robots de los buscadores, twitter logra que el buscador por excelencia incluya un área específica de SEO para twitter, pensando en todas las marcas que ya han logrado un posicionamiento eficiente y que logran a través de las URLs donde se vincula el contenido, hacer llegar los mismos a sus seguidores y usuarios.

Es esencial por lo tanto abordar el SEO dentro de cada una de las acciones tendentes a incrementar el tráfico hacia el portal corporativo y ampliar la red social a través de la gestión eficiente de los usuarios.

1.- El SEO en el nombre de la cuenta


¿Recuerdan que cuando se analiza el posicionamiento en buscadores el dominio ejerce un papel muy determinante?… de igual forma, al trasladar las acciones, campañas y estrategias de las marcas a Facebook, el nombre de la comunidad es ciertamente relevante a la hora de establecer un perfil de la marca que pueda posicionarse en los buscadores…es evidente que el SEO de twitter no iba a dejar al margen a la cuenta y su vinculación con la marca, cuanto más próxima y mnémica mejor.

Tenga en cuenta las palabras y combinación de éstas con las que su marca posiciona dentro de la competencia y evalúe el mejor nombre para su cuenta twitter, como aquél con el que los usuarios se vinculen con su marca.

Las URL siempre presentes, es un error frecuente utilizar los acortadores de URL desde la cuenta Twitter, sólo utilizando la URL real del contenido aumentará su reputación y la confianza de los usuarios en la marca.



2.- Bio de twitter, alimento de Google para posicionar


En su rastreo y búsqueda de la calidad, Google extrae la descripción de la etiqueta de su perfil, por lo que

Vídeos de Matt Cutts: ¿Cómo es de importante tener palabras claves en el nombre de dominio?

¿Qué es mejor tener un dominio basado en palabras claves o en la marca? Matt Cutts profundiza en las ventajas e incovenientes de ambos tipos de dominios con diversos ejemplos. Así como dedica algunas palabras a la importancia que se le da en la clasificación de Google.







Transcripción de: ¿Cómo es de importante tener palabras claves en el nombre de dominio?

Pilot Webmaster Tools’ Search Queries data in Google Analytics

Webmasters have long been asking for better integration between Google Webmaster Tools and Google Analytics. Today we’re happy to announce a limited pilot for Search Engine Optimization reports in Google Analytics, based on Search Queries data from Webmaster Tools.



In addition to including Search Queries data found in Webmaster Tools, these Search Engine Optimization reports also take advantage of Google Analytics’ advanced filtering and visualization capabilities for deeper data analysis. For example, you can filter for queries that had more than 100 clicks and see a chart for how much each of those queries contributed to your overall clicks from top queries.





To enable these Search Engine Optimization reports, you should sign up for the pilot and you must be both a Webmaster Tools verified site owner and a Google Analytics administrator. Each additional user who would like to view them also needs to individually sign up for the pilot.



Posted by Christina Chen & Torrey Hoffman, Webmaster Tools Team

Google, Bing y Yahoo! lanzan schema.org


Los tres gigantes se unen esta vez lanzando hoy schema.org, noticia que podéis leer en uno de los blogs oficiales de google.


Se trata de una nueva iniciativa de Google, Microsoft y Yahoo! para crear y apoyar un vocabulario común de datos estructurados en las páginas web.


Con schema.org, propietarios de sitios web y los desarrolladores pueden aprender acerca de los datos estructurados y mejorar la forma en que sus sitios aparecen en los principales buscadores. El sitio pretende ser un recurso para los webmasters que buscan agregar marcado a sus páginas.


Con esta nueva web podremos crear sitios con mapas de contenido mucho más completos y perfectos, ayudando a todos los buscadores a encontrar lo que publicamos.


Con schema.org, los propietarios de sitios pueden ayudar a los robots de Google, Bing, Yahoo y otros motores de búsqueda que puedan llegar en el futuro.


schema.org también presenta esquemas de más de un centenar de nuevas categorías, incluyendo películas, música, programas de televisión, productos, lugares y más. De esta forma podemos clasificar facilmente nuestro contenido en el lugar adecuado.


Ahora los programadores tienen mucho trabajo por delante, actualizando extensiones, reformulando códigos y haciendo todo lo posible para que la web sea más fácil de leer por parte de los robots.

Vídeos de Matt Cutts: ¿Es necesario validar el HTML para el posicionamiento?

Vídeos de Matt Cutts: ¿Es necesario validar el HTML para el posicionamiento?: "
¿Influye la validación del HTML de un sitio web en el posicionamiento en los resultados de búsqueda? En esta ocasión Matt Cutts tiene como invitado a Danny Sullivan, de Search Engine Land, para contestar a esta vídeo pregunta. Parece que ambos lo tienen claro.

Nota: Os recuerdo que los vídeos tienen subtítulos en español y estos deberían aparecer por defecto.




Danny Sullivan y Matt Cutts responden conjuntamente en este vídeo


Transcripción de: ¿Es necesario validar el HTML para el posicionamiento?



MATT: Hola. Tenemos a un invitado para responder a la pregunta en vídeo de hoy para webmasters (Danny Sullivan). La pregunta es de Jimmy @Feldon, Wirsberg. Buen trabajo al colocar tu nombre de Twitter aquí, por cierto. Jimmy pregunta, 'Hola, Matt. En un vídeo anterior, dijiste que la validación del HTML no era realmente importante para su clasificación o para SEO. Esto me tiene confundido. ¿Quiere realmente Google enviar a sus usuarios a sitios web que pueden aparecer rotos a muchos de ellos?'. Danny, ¿cómo responderías a eso?

DANNY: Bien, muchos sitios web pueden tener código inválido pero verse correctamente, porque muchos navegadores actuales hacen un buen trabajo a la hora de tratar con código deficiente. Así que no es tan importante que el código sea absolutamente perfecto, sino que la página se muestre correctamente a los usuarios en general.

Por este motivo tiene sentido listar estos sitios web. Tiene sentido no ser tan específico. Es más: mucha gente comete errores porque usa distintos editores de HTML, o incluso escribe el código a mano. Hay pequeños detalles que no tienen un impacto tan importante. Si quisieras ser muy, muy específico, sospecho (y, ciertamente, Google lo debe saber) que tendríamos un montón de sitios web que quedarían fuera sin una razón de peso, ya que continuarían pasando la validación perfectamente.

MATT: En valedictorio. Incluso has estado bromeando en este sentido.
DANNY: Sí, es cierto. Por ejemplo, en esta pregunta hay un error gramatical, pero puedo entenderla perfectamente. Sin embargo, si pretendiese invalidar las preguntas planteadas que no tuviesen una gramática perfecta, entonces se habrían perdido. En ese caso, si quieres, Google puede entender y manejar páginas que son perfectas gramaticalmente hablando, y con un código HTML perfectamente correcto, y también puede entender las que son un poco más informales. Porque básicamente entiende sobre qué trata la página.

MATT: Con esto, Danny lo ha dejado muy claro. No tengo mucho más que añadir, salvo que, normalmente, si una página no pasa la validación, aún puede verse perfectamente en los navegadores, que es exactamente lo que dijiste al principio de todo. Así que, ha sido una pregunta excelente. Gracias por enviárnosla.


Publicado por Esperanza, equipo de Calidad de búsqueda