Recrear en local su blog de wordpress


Una instalación local de WordPress puede ser útil por varias razones:

  1. Desarrollo de Temas y Plugins: Proporciona un entorno seguro y aislado para desarrollar y probar temas y plugins de WordPress antes de implementarlos en un sitio en vivo. Esto permite a los desarrolladores experimentar sin riesgo de afectar un sitio web en producción.
  2. Pruebas de Actualizaciones: Los desarrolladores y administradores pueden probar nuevas versiones de WordPress, temas y plugins sin preocuparse por posibles problemas de compatibilidad o errores que puedan surgir en un sitio en vivo.
  3. Aprendizaje y Práctica: Permite a los principiantes aprender a usar WordPress sin la necesidad de un servidor en vivo. Pueden experimentar con la plataforma, probar diferentes configuraciones y prácticas de diseño sin temor a dañar un sitio real.
  4. Desarrollo de Contenido: Los creadores de contenido pueden utilizar una instalación local para escribir y diseñar nuevas publicaciones, páginas y contenido multimedia antes de publicarlos en su sitio en vivo.
  5. Pruebas de Seguridad: Los administradores de sitios pueden realizar pruebas de seguridad y análisis de vulnerabilidades en una instalación local sin poner en riesgo un sitio real.
  6. Desarrollo Multisitio: Para aquellos que desean configurar una red multisitio de WordPress, una instalación local ofrece un entorno controlado para desarrollar y probar esta funcionalidad antes de implementarla en un entorno de producción.

Para instalar WordPress, necesitará algunos requisitos previos y seguir algunos pasos básicos. Aquí hay una guía general sobre qué necesita y cómo instalar WordPress:

  1. Servidor Web: La mayoría de los hosts de alojamiento web proporcionan servidores web como Apache o Nginx que son compatibles con WordPress.
  2. Base de Datos MySQL o MariaDB: WordPress utiliza una base de datos para almacenar su contenido y configuración. Asegúrese de tener acceso a una base de datos MySQL o MariaDB en tu servidor.
  3. PHP: WordPress está escrito en PHP, por lo que necesitará una versión compatible de PHP instalada en su servidor.
  4. Descargue WordPress: Visite el sitio web oficial de WordPress (wordpress.org) y descargue la última versión de WordPress.
  5. Cree una Base de Datos: Utilizando herramientas como phpMyAdmin o a través de la línea de comandos, cree una base de datos MySQL o MariaDB para tu instalación de WordPress.
  6. Configure wp-config.php: Renombre el archivo wp-config-sample.php que viene con la descarga de WordPress a wp-config.php. Edite este archivo con la información de su base de datos, como nombre de la base de datos, nombre de usuario y contraseña.
  7. Suba WordPress a su Servidor: Suba los archivos de WordPress a su servidor web utilizando FTP, SFTP o el administrador de archivos proporcionado por tu proveedor de alojamiento. En caso de instalación local lógicamente esto será mucho mas sencillo y no necesitaremos usar FTP.
  8. Instale WordPress: Visita la carpeta donde subio WordPress en su navegador web. Siga las instrucciones de instalación de WordPress, que incluyen configurar el título de tu sitio, crear un nombre de usuario y contraseña para el administrador, y proporcionar la información de la base de datos.
  9. Acceda a su Sitio de WordPress: Una vez completada la instalación, podrá acceder al panel de administración de WordPress utilizando la URL proporcionada durante la instalación (generalmente /wp-admin).

Para recrear su blog de WordPress.com en su máquina con Windows 11 o simplemente crear un blog nuevo puede seguir estos pasos que vamos a ver mas en detalle, que como vamos a ver con XAMPP se simplifica notablemente:

PASO 1

Descargue e instale un servidor local como XAMPP (o WAMP en tu máquina) que puede encontrar estos programas de forma gratuita en línea.

XAMPP es un paquete de software libre, que consiste principalmente en el sistema de gestión de bases de datos MySQL, el servidor web Apache y los intérpretes para lenguajes de script PHP y Perl. El nombre es en realidad un acrónimo: X, Apache, MariaDB/MySQL.

instalacion XAmpp

Vaya al sitio de descarga https://www.apachefriends.org/es/index.html, así que descargaremos el fichero correspondiente a nuestro sistema operativo ( en nuestro caso Windows 64 bits) y tras esto procederemos a ejecutar el fichero de instalación.

image 64

Al terminar de la instalación nos aparece una lista de servicios disponible que podemos arrancar /parar gestionar o ver los logs de eventos.

Para una instalación «normal» nos puede bastar arrancar solo el servidor web( Apache) , la BBDD ( MySql).

image 65

Arrancaremos la BBDD desde el botón Start de Xampp y crearemos una base de datos MySQL para el nuevo sitio web local, para lo cual podemos hacerlo a través de la interfaz de administración de XAMPP o WAMP, pero para poder acceder a la pagina de administración de MySql tendremos que arrancar primero el servicio Apache ( accesible desde http://localhost/phpmyadmin/ )

Pulsando en admin podremos gestionar asimismo el servidor MySQL.

image 66

PASO 2

Antes de continuar debemos Instalar WordPress en nuestro servidor local. Puede descargar la última versión de WordPress desde su sitio web oficial. No confundir con wordpress desktop.

Lo descargamos desde si sitio https://es.wordpress.org/download/

instalacion del servidor  wordpress

PASO 3

Asimismo también descargaremos la exportación de nuestro sitio web en formato XML desde WordPress.com (podemos hacer esto a través de la sección de exportación en la herramienta de administración de tu sitio web en WordPress.com).

Descomprima el archivo de WordPress que acaba de descargar y copie los archivos en la carpeta raíz de su servidor local.

Extraiga los archivos de WordPress en la carpeta de documentos del servidor web que instaló en el paso 1. En nuestro caso, como estamos usando XAMPP en Windows, deberemos extraer los archivos en la carpeta «htdocs» en la ruta «C:\xampp\htdocs»

Abra el archivo «wp-config-sample.php» y cambia el nombre a «wp-config.php»

image 71

Abra su navegador web y escriba la dirección «localhost/nombre_de_la_carpeta_de_wordpress» en la barra de direcciones. El nombre de la carpeta de WordPress es el que le haya dado en el paso anterior ( wordpress en nuestro caso)

image 70

PASO 4

Para hacer la instalación de WordPress en un servidor local usando MySQL, necesitaremoss las siguientes credenciales de MySQL:

  1. Nombre de usuario de MySQL: Este es el nombre de usuario que usas para acceder a tu base de datos de MySQL. Por lo general, el nombre de usuario predeterminado es «root».
  2. Contraseña de MySQL: Esta es la contraseña que usas para acceder a tu base de datos de MySQL. Si no has creado una contraseña para el usuario «root», deje este campo en blanco.
  3. Nombre de la base de datos de MySQL: Este es el nombre de la base de datos que va a usa para WordPress. Puedes darle el nombre que quieras, pero el nombre debe existir en MySQL.
  4. Host de MySQL: Este es el servidor de MySQL que estás usando. Si estás haciendo la instalación en local, el host será «localhost«.

Después de obtener estas credenciales de MySQL, deberás ingresarlas en el archivo «wp-config.php» de WordPress para que WordPress pueda conectarse a la base de datos y realizar la instalación.

image 74

Recuerde que también deberá configurar el idioma, la clave secreta de WordPress y otros detalles en el mismo archivo antes de iniciar la instalación.

image 75

Acceda a su servidor local a través de tu navegador web y siga las instrucciones en pantalla para configurar su instalación de WordPress. Durante la configuración, deberá proporcionar la información de la base de datos que creo anteriormente.

image 76

Un paso importante es la configuración del titulo del sitio y el nombre de usuario y la contraseña para acceder al panel de administración.

image 77
Y eso es todo, ya solo nos queda entrar con las credenciales que a acabamos de crear:
image 78

Una vez que haya configurado WordPress en su servidor local, puede importar el archivo XML que descargó de WordPress.com. Para hacer esto, vaya a la sección de importación en la herramienta de administración de WordPress y seleccione el archivo XML que descargó.

image 79

Asegúrese de marcar la opción para importar la biblioteca de medios también.

image 80

Después de que la importación haya finalizado, debería tener una versión local de su sitio web de WordPress.com en su máquina con Windows 11.

No olvide por cierto instalar el mismo tema que tenia en su blog original para que la copia sea exacta ( obviamente mas adelante puede probar otros temas si le interesa probarlos antes de hacerlo con su blog).

Asimismo no esta de mas revisar la sección de ajustes (generales , escritura, lectura, etc.) . Mención ESPECIAL tiene la sección de Enlaces permanentes , que de NO mantenerlo del mismo modo impedirá acceder a su entradas

Una vez hecho esto ya puede acceder a él a través de su navegador web y trabajar en él como lo haría en WordPress.com.

Espero que estos pasos le sean útiles para recrear tu sitio web de WordPress.com en su máquina con Windows 11. ¡Buena suerte!

Como actualizar robots.txt en wordpress


WordPress es una plataforma de gestión de contenidos (CMS, por sus siglas en inglés) de código abierto que se utiliza para crear y administrar sitios web. Es muy popular entre los usuarios y es utilizado por un gran porcentaje de sitios web en Internet.

WordPress ofrece una gran cantidad de características y herramientas que facilitan la creación y gestión de un sitio web, incluyendo plantillas y diseños personalizables, un editor de contenidos intuitivo, la posibilidad de agregar plugins para añadir funcionalidades adicionales y una completa integración con redes sociales. También es fácil de usar y se puede utilizar tanto para sitios personales como profesionales.

Es difícil determinar con certeza cuántos sitios web hay en el mundo que utilizan WordPress, ya que no se tienen registros exhaustivos de todos los sitios web existentes. Sin embargo, se estima que WordPress es utilizado por alrededor del 35% de todos los sitios web en Internet, lo que significa que hay millones de sitios web que utilizan esta plataforma.

WordPress es una plataforma muy popular y ampliamente utilizada debido a sus características y herramientas intuitivas, así como a su gran comunidad de usuarios y desarrolladores que contribuyen con plugins y temas para mejorar la funcionalidad y el diseño de los sitios web.

Fundamentalmente existen dos vías para alojar nuestra web en wordpress: a traves del servicio WordPress.com o alojandolo en un sitio aparte siendo por tanto la principal diferencia entre WordPress.com y los sitios web que utilizan WordPress es cómo se alojan y se administran:

  • WordPress.com es un servicio de alojamiento y gestión de sitios web que utiliza la plataforma de WordPress. Con este servicio, no tiene que preocuparse por el alojamiento o la configuración del sitio, ya que todo es manejado por WordPress.com. Además, no tiene acceso al código fuente de WordPress (suele alegarse que es por motovos de seguridad), por lo que no puede instalar plugins o temas personalizados.
  • Por otro lado, los sitios web que utilizan WordPress pero no están alojados en WordPress.com se instalan en un servidor web propio o en un servicio de alojamiento externo. Esto significa que tiene acceso total al código fuente de WordPress y puede instalar plugins y temas personalizados para mejorar la funcionalidad y el diseño del sitio. Sin embargo el usuario , debe encargarse de la configuración, actualizacion , seguridad y el alojamiento del sitio

En resumen, WordPress.com es un servicio de alojamiento y gestión de sitios web que utiliza la plataforma de WordPress, mientras que los sitios web que utilizan WordPress pero no están alojados en WordPress.com son sitios autohospedados que tienen acceso total al código fuente de WordPress.

hablemos de wordpress

Una pieza clave de nuestro sitio web con wordpress es el fichero robots.txt, pero antes de explicar qué es el archivo robots.txt y para qué sirve, hay que tener claro qué son los robots y por qué es tan importante este pequeño archivo para el SEO de su web.

Un robot de búsqueda, bot o araña (para los entendidos también se le llama crawler), es un software que se encarga de rastrear las páginas web en busca de diferentes cosas según el tipo de bot (contenido nuevo, cambios en la estructura web, enlaces, etc.).

Aunque existan bots de muchos tipos, siempre que hablamos de ellos nos viene a la mente los robots o arañas de Google y de otros buscadores, que se encargan de recorrer nuestras webs para indexar su contenido y poder posicionarlos.

Ahora bien, todos queremos indexar en Google y en otros buscadores nuestra web, pero hay ciertas páginas que no nos interesa que las rastreen como archivos internos, páginas no importantes, etc. ¿Cómo hacemos para que los bots solo pasen por las zonas de nuestra web que queramos? Pues Con el archivo robots.txt. Veamos ahora qué es robots.txt y para qué sirve.

para que sirve ropots.txt

El archivo robots.txt

El archivo robots.txt es un archivo de texto plano que puede crear con un simple bloc de notas con el nombre robots.txt (de ahí su nombre). Este archivo contiene la información que leerán las arañas de los buscadores con el fin de rastrear las partes de la web que este archivo les permita.

Algunos robots hacen lo que les da la gana, así que más que permitir, el archivo robots.txt recomienda qué páginas visitar para rastrearlas o indexarlas.

Cuando un bot entra en nuestra web, lo primero que hace es mirar si existe el archivo robots.txt y, si así es, lo analiza para saber qué partes de la web puede o debe rastrear y qué partes están bloqueadas para él.

Digamos que el archivo robots.txt contiene las zonas de la web no permitidas para que estos bots no pasen por ahí y las rastreen.

Por lo tanto, este archivo nos permite seleccionar qué partes de tu sitio web tienen acceso “restringido” para estos bots. Incluso se puede restringir el acceso solo para un tipo de bot..

En resumen, el archivo robots.txt sirve para:

  • Bloquear el acceso de los buscadores a ciertas páginas y directorios de tu web.
  • Denegar a los bots el acceso a archivos de tu sitio.
  • No permitir el acceso a tu web a unos bots determinados.
  • Impedir que se indexe contenido duplicado (páginas duplicadas, por ejemplo) o páginas que tengas de prueba.
  • Prohibir el rastreo de URLs que hayas eliminado y que ahora reporten el error 404.
  • Disminuir los recursos gastados del servidor (algunos bots consumen muchos recursos).
  • Facilitar la indexación de tu web indicando el directorio de tu mapa del sitio o sitemap XML.
  • A pesar de esto debemos saber que hay algunos bots (sobre todo los ilegales y maliciosos) que se pasan por alto este archivo.

IMPORTANTE: No olvide que este archivo es público y lo puede ver en muchísimas webs poniendo /robots.txt al final de su dominio. Así que, por su bien, ni se le ocurra usarlo para ocultar información privada a los buscadores o cosas por el estilo, porque cualquiera que se meta en su robots.txt podrá ver qué URLs estás intentando bloquear a los bots.

Cómo crear el archivo robots.txt en WordPress

Crear el robots.txt para WordPress es muy fácil: abra un bloc de notas y guárdalo con el nombre robots.txt. Solo tendrá que subirlo al directorio raíz de tu dominio a través del cPanel o por un cliente FTP como Filezilla.

También puede crearlo con el plugin Yoast SEO (tan solo debe ir a la sección de “Herramientas” >> “Editor de archivos” y crear o modificar tu archivo robots.txt).

Por regla general, en todas las instalaciones de WordPress ya viene este archivo creado, aunque bastante simple.

El archivo robots.txt de WordPress tendrá por defecto un aspecto parecido a este:

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Para crear un archivo robots.txt en un sitio de WordPress en caso de que no lo tenga en su sitio, primero necesita acceder al panel de administración de tu sitio. Luego, siga estos pasos:

  1. Haga clic en «Ajustes» en el menú de la izquierda.
  2. En la página de ajustes, haga clic en la pestaña «Lectura».
  3. En la sección «Archivo robots.txt», verá un cuadro de texto donde puede escribir las directivas que quiera incluir en tu archivo robots.txt.
  4. Introduzca las directivas que quiera en el cuadro de texto. Asegúresee de seguir la sintaxis correcta para las directivas de robots.txt.
  5. Cuando haya terminado de escribir las directivas, haga clic en «Guardar cambios».

Recuerde que para saber si tiene el archivo creado solo tendrá que introducir /robots.txt al final de tu dominio. Por ejemplo: http://www.tudominio.net/robots.txt. Cabe destacar que este archivo no es obligatorio. Pero sí es bastante recomendado sobre todo si quieres mejorar el seo de tu sitio web. Veamos a continuación qué parámetros y configuraciones tienes que tener en cuenta para crear el archivo robots.txt para WordPress.

Parámetros y comandos aceptados en el robots.txt

Los comandos del archivo robots.txt son pocos y muy sencillos. Estos parámetros fueron fijados por el robots exclusión protocol o Estándar de exclusión de robots en español. La sintaxis que debemos utilizar está basada en este protocolo y hay que aplicarla bien si no queremos equivocarnos al crear el archivo robots.txt.

Comandos:

  • User-agent (spider name): le indica qué tipo de rastreador debe cumplir las indicaciones que colocarás.
  • Disallow (ruta no permitida): informa al rastreador las páginas que no debe rastrear.
  • Allow (ruta permitida): le dice al rastreador las páginas que sí deben ser rastreadas.
  • Sitemap (mapa del sitio): indica la ubicación del sitemap de tu sitio web, importante para que los rastreadores te encuentren.
  • Crawl-delay: le indica al rastreador el tiempo en segundos que debe esperar entre cada página que rastrea. Con este comando podrás reducir la carga de tu servidor en caso de que lo necesites. El tiempo recomendado es de 5-10 segundos.
  • Insertar Notas: Si quiere, para mejorar el orden en sus archivos, puede incluir una nota usando el signo “#”. Ejemplo: # Este archivo se creó en enero de 2018.

Commodities:

  • Asterisco () – Se usa en una secuencia cualquiera de caracteres. Por ejemplo, los directorios que comienzan por “privado” quedarían “/privado/”
  • Dólar ($) – Se usa para indicar el final de una URL. Por ejemplo, para indicar un archivo que termina con la extensión .php usarías “/*.php$”.

Restricciones

  • Incluir todos los rastreadores – User-agent: *
  • Especificar el rastreador de Google – User-agent: Googlebot
  • Para especificar el rastreador de Bing – User-agent: Bingbot
  • Para restringir el rastreo de todo el sitio web – Disallow: /
  • Para restringir un único directorio – Disallow: /directorio/
  • Si quiere que no rastreen directorios que comienzan por “algo” – Disallow: /algo/ Evitar el rastreo de una página – Disallow: /pagina-web.html Restringir la extensión .gif – Disallow: /.gif$
  • Permitir un subdirectorio – Allow: /directorio/subdirectorio/
  • Señalar el mapa del sitio – Sitemap: http://www.example.com/sitemap.xml

Además de los comandos, debe tener en cuenta estas reglas:

  • No utilice otros comandos diferentes a los permitidos.
  • Distingue mayúsculas, minúsculas, signos de puntuación y espacios. Presta atención al escribir los comandos y al nombrar el archivo.
  • Puede utilizar la almohadilla (#) seguida de una frase para escribir comentarios.
  • Deje una línea en blanco para separar los grupos de comandos que utilices por User-agent.


Estos son los parámetros principales para utilizar en el robots.txt:

  • User-agent: especifica a qué tipo de robots van dirigidos los comandos que pongas a continuación. Aquí tienes una lista de todos los User-agent que hay.
  • Disallow: Bloquea el acceso del User-agent (el bot) al directorio o url que pongas.
  • Allow: Lo contrario de Disallow. Permite el acceso a la url o al directorio que indiques. Normalmente se utiliza para permitir el acceso a una parte más específica del directorio que se haya bloqueado en el Disallow.
  • Sitemap: Sirve para indicar a los bots dónde se encuentra el sitemap o mapa del sitio XML del sitio web.
  • Crawl-delay: Se utiliza para indicar un tiempo de retardo (en segundos) entre cada página que el bot rastree. Se suele utilizar para evitar consumos exagerados de recursos. No todos los crawlers (bots) harán caso a este comando.

Además de todo esto, existe dos caracteres extra que se usan como comodines:

  • El asterisco (*): Se utiliza como comodín para indicar “todos”. Se usa mucho en User-agent: *, para todos los bots; o // para indicar todos los directorios.
  • El símbolo del dólar ($): Este símbolo se usa en las extensiones de los archivos y sirve para especificar cualquier archivo que acabe con dicha extensión. Por ejemplo: /.css$ para indicar todos los archivos acabados en .css.

Solucionar recursos bloqueados en Google Search Console

Hace tiempo que Google informó que bloquear el acceso a los archivos CSS y Javascripts en el robots.txt es perjudicial para el SEO y empezó a enviar mensajes desde Google Search Console informando de este error si tenías bloqueado este tipo de archivos.

Por ello, necesitamos desbloquear recursos CSS y JS. Para ello abra el archivo robots.txt y copia y pegue lo siguiente:

User-agent: Googlebot
Allow: /.css$ Allow: /.js$


Como ya vimos, estos comandos indican al robot de Google que tiene el acceso permitido a todos los recursos CSS y JS.

No existe el robots.txt perfecto para WordPress

Cada página web tiene páginas diferentes y necesidades distintas. Es imposible poner el robots.txt perfecto para cada página ya que es algo que hay que mirar web por web, pero lo que sí podemos es proponer el archivo robots.txt para WordPress de manera general y que funcionará en todas las webs.

A continuación vamos a ver el mejor archivo robots.txt estándar para cualquier web de WordPress. También se pueden añadir otros comandos para bloquear algo en particular de tu web (recuerde que si ya tiene un robots.txt solo tiene que descargarlo por FTP o desde el cPanel el archivo robots.txt que viene por defecto).

Una vez tengamos el archivo, ábralo y modifíquelo por lo siguiente:

Primer Bloque, impedimos que se rastree carpetas de WordPress, el feed, los comentarios, las búsquedas, las etiquetas…

User-agent: *
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-login
Disallow: /wp-admin
Disallow: //feed/ Disallow: //trackback/
Disallow: /*/attachment/
Disallow: /author/
Disallow: *?replytocom
Disallow: /tag//page/ Disallow: /tag//feed/
Disallow: /comments/
Disallow: /xmlrpc.php
Disallow: /?s= Disallow: ////feed.xml
Disallow: /?attachment_id*
Disallow: /search

Segundo Bloque

User-Agent: Googlebot
Allow: /.css$ Allow: /.js$

Sitemap, puede añadir más de uno

Sitemap: http://www.tudominio.com/sitemap.xml

Aclaraciones:

  • En el primer bloque especificamos que, para todos los bots (User-agent: *), se permita el acceso al AJAX (se recomienda permitir el acceso) y se deniegue a directorios que no nos interesa que los rastreen, como las páginas internas del WordPress, páginas de búsquedas, etiquetas, comentarios, etc.
  • En el segundo bloque desbloqueamos los recursos CSS y JS tal y como vimos anteriormente.
  • Por último, añadimos la URL de nuestro archivo XML sitemap para indicar a los robots dónde está todo lo que deberían rastrear.

Para saber si tiene un sitemap y cuál es su URL solo tendrá que ir a Google Search Console e ir a Rastreo >> Sitemaps.(si no lo tiene creado, el plugin Yoast SEO es útil para crear sitemaps).

El probador de robots.txt de Google Search Console

Una vez haya conseguido crear el archivo robots.txt y guardarlo en el directorio raíz de su web, queda comprobar que esté todo bien y los robots puedan acceder perfectamente al resto de la web. Para ello nos volvemos a dirigir a Google Search Console, y entramos en Rastreo >> Probador de robots.txt.

En este punto debería salir lo que había puesto dentro del robots.txt. Si no es así dele al botón de enviar y vuelve a darle al botón de enviar del paso 3 que pone Solicita a Google la Actualización.

Ahora solo queda darle al botón rojo que pone probar y si todo está correcto, este botón se cambiará por un mensaje que pone PERMITIDO.

Conclusiones finales sobre el archivo robots.txt

Ya hemos visto que el archivo robots.txt nos ayuda a recomendar a los crawlers qué páginas indexar en Google (u otro navegador) o qué zonas de nuestra web no queremos que sean rastreadas. No obstante, también hay otras formas alternativas de impedir la indexación de cualquier página como las metaetiquetas robots y el atributo “noindex”.

Destacar que si bien el archivo robots.txt es muy importante, para páginas específicas se puede usar el noindex. Usar el noindex es la forma más correcta de impedir la indexación en ciertas páginas. El robots.txt se utiliza más para impedir rastrear ciertos directorios, archivos y páginas que hayas borrado y no pueda acceder de ninguna otra forma.

feliz año 2023

¡Feliz año nuevo! amigo lector , espero que el próximo año traiga alegrías, éxitos y muchas cosas positivas . ¡Que tenga un año maravilloso!