Consola de búsqueda de Google
Para tu página web de «Política de privacidad», te recomiendo que escribas tu propio texto (acude a un abogado especializado para que te ayude). Y para su página web «Contacto», puede añadir algún texto personal (antes del formulario, por ejemplo) para dar más peso SEO a esta página web.
En cuanto a los enlaces, estas dos páginas web pueden estar disponibles desde todas las páginas web de su sitio. Por lo tanto, poner enlaces en el pie de página es una buena práctica. Vas a dar link juice a estas páginas web y es normal porque son dos páginas web importantes (por eso cuidar el texto en ellas es importante).
También he leído que hay gente que dice que hay que añadir una etiqueta noindex a la página de «Política de privacidad», ¿sería buena idea? Lo digo porque muchos sitios web tienen políticas de privacidad similares y no quiero problemas de contenido duplicado.
Además, los comentarios relativos a pensar demasiado significan que estás yendo en la dirección correcta y dejando a tus competidores en la cuneta. Sigue en esta dirección y nunca mires atrás. Cualquiera que comente lo contrario simplemente está utilizando este blog como un medio para construir link juice de vuelta a su cuenta de perfil.
¿Debe indexar la página de política de privacidad?
Sí, porque estas páginas son importantes para sus usuarios.
Los enlaces deben ir sin el atributo «nofollow» y «noindex» en la etiqueta «rel», para que Google pueda indexar estas páginas. Esto se aplica incluso si no recopila grandes cantidades de datos personales y su Política de privacidad sería una página muy corta.
¿Debe indexarse la página de términos y condiciones?
La política de privacidad y los términos y condiciones son sólo páginas informativas para sus visitantes. Basta con añadir enlaces en el pie de página de su sitio web. No es necesario indexar esas páginas.
¿Ayuda la indexación al SEO?
Una reindexación después de revisar el contenido también puede mejorar la clasificación, ya que Google se verá obligado a indexar el contenido más relevante o actualizado. Se trata de una buena opción para los profesionales del marketing que se hayan hecho cargo recientemente de los esfuerzos de marketing y SEO de un sitio web con resultados mediocres.
¿Debo noindexar la política de privacidad?
La optimización para motores de búsqueda (SEO) es el proceso de mejorar la calidad y la cantidad de tráfico a un sitio o una página web desde los motores de búsqueda[1][2]. El SEO se centra en el tráfico no remunerado (conocido como resultados «naturales» u «orgánicos») más que en el tráfico directo o de pago. El tráfico no remunerado puede proceder de diferentes tipos de búsquedas, como la búsqueda de imágenes, la búsqueda de vídeos, la búsqueda académica,[3] la búsqueda de noticias y los motores de búsqueda verticales específicos del sector.
Como estrategia de marketing en Internet, el SEO tiene en cuenta el funcionamiento de los motores de búsqueda, los algoritmos programados por ordenador que dictan el comportamiento de los motores de búsqueda, lo que busca la gente, los términos de búsqueda reales o las palabras clave que se escriben en los motores de búsqueda y qué motores de búsqueda son los preferidos por su público objetivo. El SEO se lleva a cabo porque un sitio web recibirá más visitas de un motor de búsqueda cuando los sitios web se sitúen más arriba en la página de resultados del motor de búsqueda (SERP). Estos visitantes pueden convertirse en clientes[4].
Los webmasters y los proveedores de contenidos empezaron a optimizar sitios web para los motores de búsqueda a mediados de la década de 1990, cuando los primeros buscadores estaban catalogando la Web primitiva. Al principio, todos los webmasters sólo tenían que enviar la dirección de una página, o URL, a los distintos motores, que enviaban un rastreador web para que rastreara esa página, extrajera de ella enlaces a otras páginas y devolviera la información encontrada en la página para que fuera indexada[5]. El proceso implica que una araña del buscador descargue una página y la almacene en el propio servidor del buscador. Un segundo programa, conocido como indexador, extrae información sobre la página, como las palabras que contiene, dónde están situadas y el peso que tienen determinadas palabras, así como todos los enlaces que contiene la página. Toda esta información se coloca en un programador para su rastreo en una fecha posterior.
Política de privacidad de Seo
La densidad de palabras clave se refiere a la frecuencia de aparición de estas expresiones en el contenido. Utilizando la numerología, equivale al porcentaje de apariciones de una palabra clave en comparación con el número total de palabras de todo el texto.
En el pasado, la densidad de una palabra clave se utilizaba para obtener una posición favorable en las páginas de resultados de búsqueda y adelantarse a los competidores. Sin embargo, esta técnica ha quedado obsoleta debido al desarrollo de los algoritmos de los motores de búsqueda.
La densidad de palabras clave solía ser el índice clave que utilizaban los profesionales de la indexación para determinar la posición que ocupaba su contenido en una consulta determinada. Aunque este índice fue muy popular en las prácticas SEO de la década de 2000, ya no lo es.
El gigante de la web también especifica que ya no toma la densidad de palabras clave como criterio para indexar sitios. Por el contrario, el keyword stuffing se convierte en una técnica de penalización «black hat», que puede llevar a la desindexación del sitio web.
El índice de densidad debe servir para evaluar si la inserción de la frase clave en el texto se hace de forma meditada o exagerada. De este modo, podrá optimizar su distribución en el contenido y construir un texto que ofrezca una experiencia de lectura natural.
Debo indexar las paginas de aviso legal seo del momento
La optimización para motores de búsqueda (SEO) suele consistir en realizar pequeñas modificaciones en partes de su sitio web. Cuando se ven individualmente, estos cambios pueden parecer mejoras incrementales, pero cuando se combinan con otras optimizaciones, podrían tener un impacto notable en la experiencia del usuario y el rendimiento de su sitio en los resultados de búsqueda orgánica. Es probable que ya esté familiarizado con muchos de los temas de esta guía, porque son ingredientes esenciales para cualquier página web, pero puede que no les esté sacando el máximo partido.
Un archivo robots.txt indica a los motores de búsqueda si pueden acceder y, por tanto, rastrear partes de su sitio. Este archivo, que debe llamarse robots.txt, se coloca en el directorio raíz de su sitio. Es posible que las páginas bloqueadas por robots.txt sigan siendo rastreadas, por lo que, para las páginas sensibles, utilice un método más seguro.
Es posible que no desee que se rastreen determinadas páginas de su sitio porque podrían no ser útiles para los usuarios si se encuentran en los resultados de búsqueda de un motor de búsqueda. Tenga en cuenta que si su sitio utiliza subdominios y desea que no se rastreen determinadas páginas en un subdominio concreto, deberá crear un archivo robots.txt independiente para ese subdominio. Para obtener más información sobre robots.txt, le sugerimos esta guía sobre el uso de archivos robots.txt.
Relacionados

Soy Romuald Fons, en mi viaje a Peru descubri FluyezCambios y desde entonces soy redactor jefe de la seccion de Posicionamiento Web. Gracias por leer mis excelentes posts sobre FluyezCambios. Saludos y hasta otra.