Como crear una red wifi sin congestiones gracias a dispositivos Alexa


Eero es una marca de dispositivos de red y enrutadores Wi-Fi adquirida por Amazon en 2019 que destaca por su enfoque en la creación de sistemas de Wi-Fi domésticos simples y efectivos para mejorar la conectividad en el hogar.

El sistema Eero generalmente consta de varios puntos de acceso (llamados Eero Beacons o Eero Pro) que se distribuyen en toda la casa para crear una red Wi-Fi de malla. Estos puntos de acceso trabajan juntos para proporcionar una cobertura Wi-Fi más uniforme y fuerte en comparación con un solo router, siendo el objetivo final pues eliminar las zonas muertas y proporcionar una experiencia de red más estable en toda la casa, todo ello sin eliminar ni reemplazar el router de casa básicamente por el soporte de tecnologia WI-FI6 y WI-FI-7.

Wi-Fi 6, también conocido como 802.11ax, es la última generación de estándares de Wi-Fi que fue introducida para mejorar la eficiencia y el rendimiento de las redes inalámbricas. Fue lanzado oficialmente en 2019 y trae consigo varias mejoras con respecto a las generaciones anteriores, como Wi-Fi 5 (802.11ac).

Aquí hay algunas características clave de Wi-Fi 6:

  • Mayor Velocidad: Wi-Fi 6 ofrece velocidades de transferencia de datos más rápidas en comparación con Wi-Fi 5. Esto es beneficioso especialmente en entornos con múltiples dispositivos conectados simultáneamente.
  • Mayor Capacidad: Mejora la capacidad para manejar un mayor número de dispositivos conectados al mismo tiempo, lo que es útil en hogares u oficinas con una gran cantidad de dispositivos Wi-Fi.
  • Mejora de Rendimiento en Entornos Congestionados: Introduce tecnologías que mejoran el rendimiento en entornos con muchos dispositivos inalámbricos, como la tecnología OFDMA (Acceso Múltiple por División de Frecuencia Ortogonal).
  • Mayor Eficiencia Energética: Wi-Fi 6 incorpora tecnologías que reducen el consumo de energía de los dispositivos conectados, lo que puede ser beneficioso para la duración de la batería en dispositivos móviles.
  • Mejora en la Cobertura: Ofrece una mejor cobertura, lo que significa que la señal puede llegar más lejos y penetrar mejor a través de paredes y obstáculos.
  • Seguridad Mejorada: Wi-Fi 6 incluye mejoras en la seguridad, como el protocolo WPA3, que proporciona un mayor nivel de protección para las conexiones inalámbricas.

En caunto al estándar Wi-Fi 7 aún no había sido oficialmente lanzado o ratificado por la Wi-Fi Alliance, la organización que supervisa los estándares Wi-Fi. Por lo tanto, no se pueden proporcionar detalles específicos sobre Wi-Fi 7 en términos de características y especificaciones exactas. Dicho esto, la evolución de los estándares de Wi-Fi es continua, y es probable que Wi-Fi 7 sea la próxima generación después de Wi-Fi 6 (802.11ax). Se espera que Wi-Fi 7 ofrezca mejoras adicionales en velocidad, capacidad, eficiencia energética y rendimiento en entornos densos con múltiples dispositivos conectados. Según el fabricante en cuanto a la tecnología Wi-Fi 7 hace el simil de que es como pasar de una autopista de red de tres carriles (Wi-Fi 6) a una autopista de seis carriles, duplicando la cantidad de tráfico que puede soportar su red proporcionando menor latencia, mayor capacidad y más eficiencia para todos sus dispositivos.

La tecnología de malla permite que los dispositivos se conecten al punto de acceso más cercano, optimizando la señal y mejorando la velocidad y la cobertura en comparación con un solo enrutador central. Además, el sistema Eero incluye una aplicación móvil que permite a los usuarios gestionar y controlar su red de manera más fácil..

Esta solución para mejorar nuestra cobertura wifi en casa sin prescindir de nuestro router domestico de nuestro proveedor parece muy interesante ¿verdad? El problema de instalar un sistema basado en EEro , como siempre, es el económico o de infraestructura, porque para crear una red en malla necesitamos múltiples dispositivos compatibles con esta tecnología, lo cual supone desplegar, configurar, etc. lo cual lógicamente encarece la adopción de esta solución tecnológica pero ¿Y si existiera algun modo de reducir el numero de dispositivos necesarios? . Pues si cuenta con algun dispositivo de la familia Amazon Echo, ya es posible como vamos a ver a continuación. Además aprovechando el black friday , ciertamente es mucho mas asequible ( de unos 80€ que cuesta habitualmente un solo dispositivo solo, ahroa en Black Friday el precio ronda los 49,99€)


El Echo Dot, con la asistente virtual Alexa, ha facilitado la gestión de dispositivos inteligentes en el hogar mediante una conexión Wi-Fi compartida. Ahora, se presenta un dispositivo igualmente funcional llamado Eero, un repetidor de Wi-Fi que posibilita la conexión entre varios dispositivos, permitiendo una cobertura completa en todos los rincones de la casa. Estos dispositivos trabajan en conjunto para hacer que su hogar inteligente sea más accesible y conveniente. La tecnología de Wi-Fi en malla se extiende por toda la casa para optimizar la conectividad.Eero pues se presenta como un router compacto con una amplia cobertura inalámbrica, ofreciendo conectividad de primera categoría para todo el hogar.

Con la promesa de cubrir hasta 140 metros cuadrados por dispositivo en su versión mínima , brinda la opción de integrarse en sistemas Wi-Fi eero para extender la cobertura. Puede conectar varios dispositivos para eliminar puntos muertos y disfrutar de una experiencia de conexión sin interrupciones, minimizando el buffering. Además, Eero se integra con Apple HomeKit, proporcionando una capa adicional de seguridad para los accesorios de tu HomeKit y facilitando la gestión de dispositivos tanto en casa como en Internet. La tecnología TrueMesh dirige de manera inteligente el tráfico para evitar congestiones y garantizar una conexión confiable.

Pasos a seguir

Bien , si estamos interesados en esta solución, al menos deberemos adquirir un dispositivo ( unos 50€ en Black Friday) , lo cual reducirá sustancialmente el precio de la instalación total gracias al uso combinado de la familia Amazon Echo como extensores, lo cual no hace necesario invertir en múltiples Eeero usando la infraestructura ya existentes de Amazon Echo Dot, Echo Pop, Echo Show, Echo Studio ,etc.

Además, la seguridad de su red será más confiable, y experimentará menos errores, todo a un precio notablemente conveniente. Con una inversión inicial ( que por cierto en Amazon Black Friday suele ser muy ventajoso al ser un producto propio de Amazon ) , y cuidando adecuadamente estos dispositivos, no será necesario reemplazarlos durante muchos años.

Configuración Inicial

Configurar un dispositivo Eero para extender su red Wi-Fi es un proceso sencillo y aquí una guía paso a paso para aprovechar al máximo esta tecnología:

  • Desempaquete su dispositivo Eero y asegúrese de tener todos los componentes necesarios.
  • Conecte uno de los Eero a su router del hogar de su proveedor utilizando un cable Ethernet.
  • No necesariamente tiene que conectarse al router directamente pues si tiene un cableado ethernet por su localización puede usarlo para conectar este ya que estos dispositivos tienen dos conexiones ethernet (uno para el router del hogar y otro para una conexión adicional por cable) .
  • Conecte el Eero a una fuente de alimentación y enciéndalo.
  • Descargue la aplicación Eero desde la tienda de aplicaciones de su dispositivo móvil.
  • Abra la aplicación y regístrese para obtener una cuenta Eero si aún no la tiene.
  • Siga las instrucciones en la aplicación para agregar un nuevo dispositivo Eero a su red.
  • La aplicación le guiará para configurar la red Wi-Fi, asignarle un nombre y una contraseña.
  • Coloque sus otros dispositivos Eero (si los tiene) en ubicaciones estratégicas para mejorar la cobertura.
  • Verifique si hay actualizaciones de firmware y aplíquelas para garantizar un rendimiento óptimo.

Una vez completada la configuración, podrá disfrutar de una red Wi-Fi mejorada en todo su hogar.

Añadir Amazon Echo como extensores de eero

Si desea agregar dispositivos Amazon Echo como extensores de su sistema Eero (recuerde que debe contar con al menos uno que redirija) , siga estos pasos:

  • Abra nuevamente la aplicación Eero en su dispositivo móvil.
  • Acceda a la herramienta «Discover» dentro de la aplicación Eero.
  • Seleccione la opción «Amazon Connected Home».
  • Habilite la función «Eero Built-in» para establecer la conectividad entre los dispositivos Eero y los Echo.
  • Después de activar esta función, aparecerá en pantalla una lista de los dispositivos Echo compatibles que posea. Desde aquí, seleccione los Echo que desea convertir en extensores de Wi-Fi.

Siguiendo estos pasos, podrá integrar sus dispositivos Amazon Echo como extensores en tu red Eero, ampliando así la cobertura de tu conexión Wi-Fi de manera conveniente y eficaz.

Como actualizar robots.txt en wordpress


WordPress es una plataforma de gestión de contenidos (CMS, por sus siglas en inglés) de código abierto que se utiliza para crear y administrar sitios web. Es muy popular entre los usuarios y es utilizado por un gran porcentaje de sitios web en Internet.

WordPress ofrece una gran cantidad de características y herramientas que facilitan la creación y gestión de un sitio web, incluyendo plantillas y diseños personalizables, un editor de contenidos intuitivo, la posibilidad de agregar plugins para añadir funcionalidades adicionales y una completa integración con redes sociales. También es fácil de usar y se puede utilizar tanto para sitios personales como profesionales.

Es difícil determinar con certeza cuántos sitios web hay en el mundo que utilizan WordPress, ya que no se tienen registros exhaustivos de todos los sitios web existentes. Sin embargo, se estima que WordPress es utilizado por alrededor del 35% de todos los sitios web en Internet, lo que significa que hay millones de sitios web que utilizan esta plataforma.

WordPress es una plataforma muy popular y ampliamente utilizada debido a sus características y herramientas intuitivas, así como a su gran comunidad de usuarios y desarrolladores que contribuyen con plugins y temas para mejorar la funcionalidad y el diseño de los sitios web.

Fundamentalmente existen dos vías para alojar nuestra web en wordpress: a traves del servicio WordPress.com o alojandolo en un sitio aparte siendo por tanto la principal diferencia entre WordPress.com y los sitios web que utilizan WordPress es cómo se alojan y se administran:

  • WordPress.com es un servicio de alojamiento y gestión de sitios web que utiliza la plataforma de WordPress. Con este servicio, no tiene que preocuparse por el alojamiento o la configuración del sitio, ya que todo es manejado por WordPress.com. Además, no tiene acceso al código fuente de WordPress (suele alegarse que es por motovos de seguridad), por lo que no puede instalar plugins o temas personalizados.
  • Por otro lado, los sitios web que utilizan WordPress pero no están alojados en WordPress.com se instalan en un servidor web propio o en un servicio de alojamiento externo. Esto significa que tiene acceso total al código fuente de WordPress y puede instalar plugins y temas personalizados para mejorar la funcionalidad y el diseño del sitio. Sin embargo el usuario , debe encargarse de la configuración, actualizacion , seguridad y el alojamiento del sitio

En resumen, WordPress.com es un servicio de alojamiento y gestión de sitios web que utiliza la plataforma de WordPress, mientras que los sitios web que utilizan WordPress pero no están alojados en WordPress.com son sitios autohospedados que tienen acceso total al código fuente de WordPress.

hablemos de wordpress

Una pieza clave de nuestro sitio web con wordpress es el fichero robots.txt, pero antes de explicar qué es el archivo robots.txt y para qué sirve, hay que tener claro qué son los robots y por qué es tan importante este pequeño archivo para el SEO de su web.

Un robot de búsqueda, bot o araña (para los entendidos también se le llama crawler), es un software que se encarga de rastrear las páginas web en busca de diferentes cosas según el tipo de bot (contenido nuevo, cambios en la estructura web, enlaces, etc.).

Aunque existan bots de muchos tipos, siempre que hablamos de ellos nos viene a la mente los robots o arañas de Google y de otros buscadores, que se encargan de recorrer nuestras webs para indexar su contenido y poder posicionarlos.

Ahora bien, todos queremos indexar en Google y en otros buscadores nuestra web, pero hay ciertas páginas que no nos interesa que las rastreen como archivos internos, páginas no importantes, etc. ¿Cómo hacemos para que los bots solo pasen por las zonas de nuestra web que queramos? Pues Con el archivo robots.txt. Veamos ahora qué es robots.txt y para qué sirve.

para que sirve ropots.txt

El archivo robots.txt

El archivo robots.txt es un archivo de texto plano que puede crear con un simple bloc de notas con el nombre robots.txt (de ahí su nombre). Este archivo contiene la información que leerán las arañas de los buscadores con el fin de rastrear las partes de la web que este archivo les permita.

Algunos robots hacen lo que les da la gana, así que más que permitir, el archivo robots.txt recomienda qué páginas visitar para rastrearlas o indexarlas.

Cuando un bot entra en nuestra web, lo primero que hace es mirar si existe el archivo robots.txt y, si así es, lo analiza para saber qué partes de la web puede o debe rastrear y qué partes están bloqueadas para él.

Digamos que el archivo robots.txt contiene las zonas de la web no permitidas para que estos bots no pasen por ahí y las rastreen.

Por lo tanto, este archivo nos permite seleccionar qué partes de tu sitio web tienen acceso “restringido” para estos bots. Incluso se puede restringir el acceso solo para un tipo de bot..

En resumen, el archivo robots.txt sirve para:

  • Bloquear el acceso de los buscadores a ciertas páginas y directorios de tu web.
  • Denegar a los bots el acceso a archivos de tu sitio.
  • No permitir el acceso a tu web a unos bots determinados.
  • Impedir que se indexe contenido duplicado (páginas duplicadas, por ejemplo) o páginas que tengas de prueba.
  • Prohibir el rastreo de URLs que hayas eliminado y que ahora reporten el error 404.
  • Disminuir los recursos gastados del servidor (algunos bots consumen muchos recursos).
  • Facilitar la indexación de tu web indicando el directorio de tu mapa del sitio o sitemap XML.
  • A pesar de esto debemos saber que hay algunos bots (sobre todo los ilegales y maliciosos) que se pasan por alto este archivo.

IMPORTANTE: No olvide que este archivo es público y lo puede ver en muchísimas webs poniendo /robots.txt al final de su dominio. Así que, por su bien, ni se le ocurra usarlo para ocultar información privada a los buscadores o cosas por el estilo, porque cualquiera que se meta en su robots.txt podrá ver qué URLs estás intentando bloquear a los bots.

Cómo crear el archivo robots.txt en WordPress

Crear el robots.txt para WordPress es muy fácil: abra un bloc de notas y guárdalo con el nombre robots.txt. Solo tendrá que subirlo al directorio raíz de tu dominio a través del cPanel o por un cliente FTP como Filezilla.

También puede crearlo con el plugin Yoast SEO (tan solo debe ir a la sección de “Herramientas” >> “Editor de archivos” y crear o modificar tu archivo robots.txt).

Por regla general, en todas las instalaciones de WordPress ya viene este archivo creado, aunque bastante simple.

El archivo robots.txt de WordPress tendrá por defecto un aspecto parecido a este:

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Para crear un archivo robots.txt en un sitio de WordPress en caso de que no lo tenga en su sitio, primero necesita acceder al panel de administración de tu sitio. Luego, siga estos pasos:

  1. Haga clic en «Ajustes» en el menú de la izquierda.
  2. En la página de ajustes, haga clic en la pestaña «Lectura».
  3. En la sección «Archivo robots.txt», verá un cuadro de texto donde puede escribir las directivas que quiera incluir en tu archivo robots.txt.
  4. Introduzca las directivas que quiera en el cuadro de texto. Asegúresee de seguir la sintaxis correcta para las directivas de robots.txt.
  5. Cuando haya terminado de escribir las directivas, haga clic en «Guardar cambios».

Recuerde que para saber si tiene el archivo creado solo tendrá que introducir /robots.txt al final de tu dominio. Por ejemplo: http://www.tudominio.net/robots.txt. Cabe destacar que este archivo no es obligatorio. Pero sí es bastante recomendado sobre todo si quieres mejorar el seo de tu sitio web. Veamos a continuación qué parámetros y configuraciones tienes que tener en cuenta para crear el archivo robots.txt para WordPress.

Parámetros y comandos aceptados en el robots.txt

Los comandos del archivo robots.txt son pocos y muy sencillos. Estos parámetros fueron fijados por el robots exclusión protocol o Estándar de exclusión de robots en español. La sintaxis que debemos utilizar está basada en este protocolo y hay que aplicarla bien si no queremos equivocarnos al crear el archivo robots.txt.

Comandos:

  • User-agent (spider name): le indica qué tipo de rastreador debe cumplir las indicaciones que colocarás.
  • Disallow (ruta no permitida): informa al rastreador las páginas que no debe rastrear.
  • Allow (ruta permitida): le dice al rastreador las páginas que sí deben ser rastreadas.
  • Sitemap (mapa del sitio): indica la ubicación del sitemap de tu sitio web, importante para que los rastreadores te encuentren.
  • Crawl-delay: le indica al rastreador el tiempo en segundos que debe esperar entre cada página que rastrea. Con este comando podrás reducir la carga de tu servidor en caso de que lo necesites. El tiempo recomendado es de 5-10 segundos.
  • Insertar Notas: Si quiere, para mejorar el orden en sus archivos, puede incluir una nota usando el signo “#”. Ejemplo: # Este archivo se creó en enero de 2018.

Commodities:

  • Asterisco () – Se usa en una secuencia cualquiera de caracteres. Por ejemplo, los directorios que comienzan por “privado” quedarían “/privado/”
  • Dólar ($) – Se usa para indicar el final de una URL. Por ejemplo, para indicar un archivo que termina con la extensión .php usarías “/*.php$”.

Restricciones

  • Incluir todos los rastreadores – User-agent: *
  • Especificar el rastreador de Google – User-agent: Googlebot
  • Para especificar el rastreador de Bing – User-agent: Bingbot
  • Para restringir el rastreo de todo el sitio web – Disallow: /
  • Para restringir un único directorio – Disallow: /directorio/
  • Si quiere que no rastreen directorios que comienzan por “algo” – Disallow: /algo/ Evitar el rastreo de una página – Disallow: /pagina-web.html Restringir la extensión .gif – Disallow: /.gif$
  • Permitir un subdirectorio – Allow: /directorio/subdirectorio/
  • Señalar el mapa del sitio – Sitemap: http://www.example.com/sitemap.xml

Además de los comandos, debe tener en cuenta estas reglas:

  • No utilice otros comandos diferentes a los permitidos.
  • Distingue mayúsculas, minúsculas, signos de puntuación y espacios. Presta atención al escribir los comandos y al nombrar el archivo.
  • Puede utilizar la almohadilla (#) seguida de una frase para escribir comentarios.
  • Deje una línea en blanco para separar los grupos de comandos que utilices por User-agent.


Estos son los parámetros principales para utilizar en el robots.txt:

  • User-agent: especifica a qué tipo de robots van dirigidos los comandos que pongas a continuación. Aquí tienes una lista de todos los User-agent que hay.
  • Disallow: Bloquea el acceso del User-agent (el bot) al directorio o url que pongas.
  • Allow: Lo contrario de Disallow. Permite el acceso a la url o al directorio que indiques. Normalmente se utiliza para permitir el acceso a una parte más específica del directorio que se haya bloqueado en el Disallow.
  • Sitemap: Sirve para indicar a los bots dónde se encuentra el sitemap o mapa del sitio XML del sitio web.
  • Crawl-delay: Se utiliza para indicar un tiempo de retardo (en segundos) entre cada página que el bot rastree. Se suele utilizar para evitar consumos exagerados de recursos. No todos los crawlers (bots) harán caso a este comando.

Además de todo esto, existe dos caracteres extra que se usan como comodines:

  • El asterisco (*): Se utiliza como comodín para indicar “todos”. Se usa mucho en User-agent: *, para todos los bots; o // para indicar todos los directorios.
  • El símbolo del dólar ($): Este símbolo se usa en las extensiones de los archivos y sirve para especificar cualquier archivo que acabe con dicha extensión. Por ejemplo: /.css$ para indicar todos los archivos acabados en .css.

Solucionar recursos bloqueados en Google Search Console

Hace tiempo que Google informó que bloquear el acceso a los archivos CSS y Javascripts en el robots.txt es perjudicial para el SEO y empezó a enviar mensajes desde Google Search Console informando de este error si tenías bloqueado este tipo de archivos.

Por ello, necesitamos desbloquear recursos CSS y JS. Para ello abra el archivo robots.txt y copia y pegue lo siguiente:

User-agent: Googlebot
Allow: /.css$ Allow: /.js$


Como ya vimos, estos comandos indican al robot de Google que tiene el acceso permitido a todos los recursos CSS y JS.

No existe el robots.txt perfecto para WordPress

Cada página web tiene páginas diferentes y necesidades distintas. Es imposible poner el robots.txt perfecto para cada página ya que es algo que hay que mirar web por web, pero lo que sí podemos es proponer el archivo robots.txt para WordPress de manera general y que funcionará en todas las webs.

A continuación vamos a ver el mejor archivo robots.txt estándar para cualquier web de WordPress. También se pueden añadir otros comandos para bloquear algo en particular de tu web (recuerde que si ya tiene un robots.txt solo tiene que descargarlo por FTP o desde el cPanel el archivo robots.txt que viene por defecto).

Una vez tengamos el archivo, ábralo y modifíquelo por lo siguiente:

Primer Bloque, impedimos que se rastree carpetas de WordPress, el feed, los comentarios, las búsquedas, las etiquetas…

User-agent: *
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-login
Disallow: /wp-admin
Disallow: //feed/ Disallow: //trackback/
Disallow: /*/attachment/
Disallow: /author/
Disallow: *?replytocom
Disallow: /tag//page/ Disallow: /tag//feed/
Disallow: /comments/
Disallow: /xmlrpc.php
Disallow: /?s= Disallow: ////feed.xml
Disallow: /?attachment_id*
Disallow: /search

Segundo Bloque

User-Agent: Googlebot
Allow: /.css$ Allow: /.js$

Sitemap, puede añadir más de uno

Sitemap: http://www.tudominio.com/sitemap.xml

Aclaraciones:

  • En el primer bloque especificamos que, para todos los bots (User-agent: *), se permita el acceso al AJAX (se recomienda permitir el acceso) y se deniegue a directorios que no nos interesa que los rastreen, como las páginas internas del WordPress, páginas de búsquedas, etiquetas, comentarios, etc.
  • En el segundo bloque desbloqueamos los recursos CSS y JS tal y como vimos anteriormente.
  • Por último, añadimos la URL de nuestro archivo XML sitemap para indicar a los robots dónde está todo lo que deberían rastrear.

Para saber si tiene un sitemap y cuál es su URL solo tendrá que ir a Google Search Console e ir a Rastreo >> Sitemaps.(si no lo tiene creado, el plugin Yoast SEO es útil para crear sitemaps).

El probador de robots.txt de Google Search Console

Una vez haya conseguido crear el archivo robots.txt y guardarlo en el directorio raíz de su web, queda comprobar que esté todo bien y los robots puedan acceder perfectamente al resto de la web. Para ello nos volvemos a dirigir a Google Search Console, y entramos en Rastreo >> Probador de robots.txt.

En este punto debería salir lo que había puesto dentro del robots.txt. Si no es así dele al botón de enviar y vuelve a darle al botón de enviar del paso 3 que pone Solicita a Google la Actualización.

Ahora solo queda darle al botón rojo que pone probar y si todo está correcto, este botón se cambiará por un mensaje que pone PERMITIDO.

Conclusiones finales sobre el archivo robots.txt

Ya hemos visto que el archivo robots.txt nos ayuda a recomendar a los crawlers qué páginas indexar en Google (u otro navegador) o qué zonas de nuestra web no queremos que sean rastreadas. No obstante, también hay otras formas alternativas de impedir la indexación de cualquier página como las metaetiquetas robots y el atributo “noindex”.

Destacar que si bien el archivo robots.txt es muy importante, para páginas específicas se puede usar el noindex. Usar el noindex es la forma más correcta de impedir la indexación en ciertas páginas. El robots.txt se utiliza más para impedir rastrear ciertos directorios, archivos y páginas que hayas borrado y no pueda acceder de ninguna otra forma.

feliz año 2023

¡Feliz año nuevo! amigo lector , espero que el próximo año traiga alegrías, éxitos y muchas cosas positivas . ¡Que tenga un año maravilloso!