Sistema de reconocimiento de colores para personas con discapacidades visuales


ColorDec  es un interesantismo  proyecto  que representará  al colegio Lope de Vega de 3ª de el ESO  para el concurso RetoTech que organiza ENDESA    creado por   Esther Scott, Irene Yebra, Irene Jimenez,Lucia Gomez y Paula  Vidal  ,  con el propósito de   ayudar  a  personas con discapacidad  visual para  mejorar su percepción de los colores,  gracias  a un hardware de bajo coste basado en Arduino   y una aplicación móvil  que ellas mismas han escrito usando el Mit App Inventor, una herramienta de la que por cierto hemos hablado en numerosas ocasiones en este blog .

El proyecto  tiene  pues su base  en un Arduino Nano, al que le han acoplado  un modulo bluetooth  para el envío de datos a  un smartphone  mediante los pines 9 (Rxd)  , 8(Txd)  para los datos  vía serie,   así como  VCC y gnd para la alimentación desde Arduino al  propio modulo  Bluetooth.

Para el reconocimiento de colores cuenta con un sensor especializado como es  el GY33 ( unos 15€ en Amazon)  el cual conectan al propio Arduino via I2C  por los pines A4,A5  alimentándose desde el propio Arduino  desde los pines  5v y GND.

El  GY-33 es un modulo  de reconocimiento de color de bajo costo que puede alimentarse  entre  3-5 V, con bajo consumo de energía, de  tamaño pequeño y facilidad de instalación.
Su principio de funcionamiento radica en que la iluminación de la irradiación de luz LED debe medirse  hacia el objeto de modo que la  luz de retorno es  detectada por los filtros de valores RGB y el propio modulo identifica los colores según los valores RGB.
Este módulo, soporta dos maneras de envió de  datos:

  • Via serie,  es decir mediante UART en serie (nivel TTL) configurando la conexión a 9600bps y 115200bps  siendo la velocidad en baudios del puerto en serie  configurable.
  • I2C (mediante 2 líneas) que es el que han empleado en este circuito mediante  lso pnes A4 y A5 .

El modulo puede hacer  un reconocimiento simple de 7 colores y no es necesario calcular el valor RGB o se puede gestionar  el dato de una manera compleja como vamos a ver.

Se complementa  el circuito   final con un pulsador(pin2)  con su respectiva resistencia para evitar rebotes    y la alimentación de  todo el conjunto  por un pila de 9v desde los pines VIN y GND de Arduino.

El diagrama   final  lo  podemos ver en  la imagen de mas abajo:

 

esquema

 

El dispositivo esta pensado para ser portátil de modo que sujetándolo con una mano se apoya en el objeto del que se  desea conocer el color , se pulsa el botón para que este lo transmita (tras convertirlo de RBG a HSV) por bluetooth al teléfono móvil del usuario, desde donde una APP   lo  reproduce hablando en inglés o castellano.

En cuanto al software para este  proyecto ha sido realizado utilizando el IDE de Arduino para programar un Arduino Nano, al que se le ha conectado un módulo Bluetooth, un Pulsador y un módulo GY-33 para el reconocimiento de color  lo cual es tarea del firmware de Arduino gestionarlo

El programa del Arduino, en su inicialización realiza un balance de blanco, y después espera a que se pulse el pulsador para leer el color, convertirlo a HSV y enviarlo por Bluetooth al móvil.

El código provisional para el firmware de Arduino que aun esta es proceso de mejora  nos lo comparten en estas lineas:

 

Colorview4-ino_1.png

Colorview4-ino_2.png

Colorview4-ino_3

Ya desde el teléfono, se conecta al Arduino por Bluetooth, se cargan dos arrays con los datos de dos ficheros CSV, uno con los códigos RGB de los colores y otro con los nombre de esos colores .

Se busca el color en el array y si se encuentra ese será el que el teléfono lea en voz alta.

Sino se encuentra entre los más de 600 códigos RGB, se usa el código en HVS para construir una frase que describe como es el color y se envía al sistema de síntesis de voz del teléfono.

La conversión a HVS han tenido que hacerla al no poder ordenar los códigos RGB para poder situarse sobre el color más cercano al leído.

Amablemente nos han compartido sin código escrito con el MIt App Inventor  para desplegarlo en un terminal Android

 

App-Inventor-Blocks 2-page.png

 

Es sin duda  un sistema  de mínimo coste  que puede ser de muchísima ayuda para  identificar  los colores para personas con deficiencias visuales,  así que le deseamos desde este blog  toda la suerte posible . El premio es una plaza para cada una de las cinco en un campamento de verano donde seguirán aprendiendo robótica y programación , así que queridos lectores porfavor  si os parece interesante  todo el esfuerzo de esta   chicas y  merece vuestra confianza, esta es la dirección para  votar   su proyecto:

https://pr.easypromosapp.com/voteme/826101/630232517

Personalmente  ya he votado porque me ha parecido impresionante el trabajo realizado , así que desde esta lineas  les deseamos toda la suerte en este concurso  y ojala puedan seguir aprendiendo  y perfeccionando sus conocimientos  tecnicos de modo que puedan seguir ayudando a construir un mundo mucho mejor gracias al uso de la tecnología y su ingenio

Anuncios

Como crear musica gracias a machine learning con Raspberry Pi


La tecnología siempre ha desempeñado un papel en la creación de nuevos tipos de sonidos que inspiran a los músicos, desde los sonidos de distorsión hasta los sonidos electrónicos de los sintetizadores,sin embargo gracias a los avances en el aprendizaje automático y las redes neuronales han abierto nuevas posibilidades para la generación de sonido  como los demuestra el  grupo Magenta de Google que es el que ha creado NSynth Super,   basandonase en una Raspberry Pi 3  y utilizando Machine Learning con TensorFlow para explorar nuevos sonidos y melodías a músicos y artistas(TensorFlow es una biblioteca de código abierto para aprendizaje automático a través de un rango de tareas, y desarrollado por Google para satisfacer sus necesidades de sistemas capaces de construir y entrenar redes neuronales para detectar y descifrar patrones y correlaciones, análogos al aprendizaje y razonamiento usados por los humanos).

 

El proyecto es  totalmente abierto y “cualquiera” familiarizado con  la electronica debería podérselo construir en su propia casa o en el taller, aunque esto es la teoría pues en la practica todos los componentes son SMD ,lo cual complica las cosas bastante a la hora de ponerse a soldar los diferentes componentes que  constituyen ese proyecto.

Usando TensorFlow , han   construido herramientas e interfaces que permiten a artistas y músicos utilizar el aprendizaje automático en su trabajo. El algoritmo NSynth Super AI usa redes neuronales profundas para investigar el carácter de los sonidos y luego construye nuevos sonidos basados ​​en estas características en lugar de simplemente mezclar los sonidos.

Usando un autoencoder, extrae 16 características temporales definitorias de cada entrada. Estas características se interpolan linealmente para crear nuevas incrustaciones (representaciones matemáticas de cada sonido).

Estas nuevas incrustaciones se decodifican en nuevos sonidos, que tienen las cualidades acústicas de ambas entradas (se pueden encontrar más detalles en la página NSynth: Neural Audio Synthesis ).

 


Open NSynth Super luego toma el audio generado y proporciona una interfaz física o instrumento con:

    • Entrada MIDI para conectar un teclado de piano, un secuenciador o una computadora, etc.
    • Cuatro codificadores giratorios utilizados para asignar instrumentos a las esquinas del dispositivo
    • Pantalla OLED para el estado del instrumento y la información de control
    • Controles finos para:
      • La posición estableciendo la posición inicial de la onda.
      • Attack establece el tiempo necesario para el inicio inicial del nivel.
      • Decay establece el tiempo necesario para el posterior agotamiento.
      • Sustain establece el nivel durante la secuencia principal del sonido.
      • Release establece el tiempo necesario para que el nivel disminuya desde el nivel de sostenido a cero.
      • El volumen establece el volumen de salida.
    • Interfaz táctil para explorar las posiciones entre los sonidos.

Obviamente la Rasbpeberry   es usada  para  administrar las entradas físicas y esto se programa antes del primer uso.

 

 

El equipo publica todos los diseños de hardware y software que son parte de su investigación en curso bajo licencias de código abierto, lo que le permite  que cuaqluiera  que tenga los medios adecuados  puedas construirse  su propio sintetizador usando esta tecnlogia .

 

Utilizando estas herramientas de código abierto, Andrew Black ha producido su propia NSynth Super, mostrada en el video anterior.

La lista de materiales de construcción de Andrew incluye:

    • 1x Raspberry Pi 3 Model B (896-8660)
    • 6x Alps RK09K Series Potentiometers (729-3603)
    • 4x Bourns PEC11R-4315F-N0012 Rotary Encoders
    • 2x Microchip AT42QT2120-XU Touch Controller ICs (899-6707)
    • 1x STMicroelectronics STM32F030K6T6, 32bit ARM Cortex Microcontroller (829-4644)
    • 1x TI PCM5122PW, Audio Converter DAC Dual 32 bit (814-3732)
    • 1x Adafruit 1.3″ OLED display

 

El equipo de Magenta también proporciona archivos de Gerber para que se  pueda fabricar la placa de circuito impreso , de modo que una vez se haya fabricado, se pueda comenzar con el soldado de componetes  em la PCB (incluye una tabla de contenidos para agregar componentes)

Como adelantabmos ,laa construcción no es trea fácil: requiere habilidades de soldadura o acceso a alguien que pueda ensamblar PCB pues la mayoría de los componentes son SMT de modo que el paso de componentes se reduce a alrededor de 0,5 mm, que aun se se pueden soldar a mano si se tiene cuidado. Sin embargo, aunque algunos podrían argumentar que no es absolutamente necesario, es aconsejable tener un microscopio estéreo y una estación de aire caliente disponibles también. ¡Y no hace falta decir que también debería tener suficiente flujo y mecha de soldadura!

Para probar  este diseño , descargamos un archivo MIDI de Internet y luego lo reproducimos a través de una computadora portátil Linux y una interfaz USB / MIDI usando el comando “aplaymidi”. Efectivamente, el NSynth Superarrncara  y  ya podremos asignar instrumentos a cada esquina y luego interpolar a través de la maravilla del aprendizaje automático para crear nuevas, hasta ahora desconocidas, 

 

Puede echar un vistazo a la publicación de blog de Andrew y al informe oficial de NSynth GitHub para ver si está preparado para el desafío.

Aquí información útil para montarlo:https://www.rs-online.com/designspark/building-the-google-open-nsynth-super

 

Tres servicios gratuitos de transcripción de voz a texto


Puede parecer algo futurista, pero lo cierto es que probablemente el teclado y ratón tal como los conocemos hoy en día tenga sus días contados gracias al espectacular avance sufrido estos años en el apartado de reconocimiento de voz usando redes neuronales  y las técnicas de aprendizaje automático

En efecto ,gracias a  la tecnología del aprendizaje automático ,se aplican los algoritmos más avanzados de redes neuronales del aprendizaje profundo al audio de sus ficheros o del procedente de un micrófono  para conseguir un reconocimiento de voz de máxima precisión.

Mencionar que en todos los  sistemas de aprendizaje con redes neuronales la precisión de la API Speech mejora con el tiempo, es decir conforme perfeccionan la tecnología interna de reconocimiento de voz que usa los diferentes productos que vamos   a ver , lo cual significa que en realidad usando estos servicios estamos “entrenado”a estos sistemas para que su porcentaje  de aciertos sea cada vez mayor

Veamos algunas soluciones de reconocimiento de voz liderados por grandes proveedores como pueden ser Google ,Microsoft o IBM.

Reconocimiento de voz de bing

En efecto,   mediante la  nube  de Microsoft ( Azure)   y el servicio Bing Search  se puede convertir audio con voz en texto mediante streaming en tiempo real mediante la cual, al mismo tiempo que se envía el audio al servidor, se devuelven resultados parciales de reconocimiento.

De igual modo podría reconocer el texto a partir del audio almacenado en un archivo pero desde la pagina de demostración no es posible,pero como  “truco” casero para  probar   la funcionalidad  se  puede inyectar  el audio  ya grabado desde un dispositivo externo  por  medio de un cable de audio que lo  introduciría en el pc  pero no olvide seleccionar como dispositivo grabador la entrada de audio donde conecte la señal de audo externa .De este modo regulando adecuadamente el nivel de esta señal  debería funcionar exactamente igual que si habláramos por un micrófono

Para probar el servicio vaya a la url   https://azure.microsoft.com/es-es/services/cognitive-services/speech/

No olvide  seleccionar el idioma de destino en Language, haga clic en el micrófono en Iniciar grabación y empiece a hablar.

bibg

También tiene la opción de hacer clic en las dos frases de voz de ejemplo para ver cómo funciona el reconocimiento de voz.

Como en todos estos tipos de servicios ,si usa esta demostración, significa que consiente ofrecer datos de entrada de voz a Microsoft para fines de mejora del servicio.De  hecho al cargar datos para esta demostración, acepta que Microsoft puede guardarlos y usarlos para mejorar los servicios Microsoft, entre los que se encuentra el  API. A fin de facilitar la protección de la privacidad, se adoptan medidas para desperzonalizar los datos y protegerlos. Los datos no se publicarán ni se permitirá que terceros los usen.

IBM

También esta disponible para efectos de pruebas  la version de IBM por Watson  que permite  igualmente el dictado de voz a texto

El servicio IBM Watson Speech to Text utiliza capacidades de reconocimiento de voz para convertir el árabe, el inglés, el español, el francés, el portugués de Brasil, el japonés y el mandarín en texto.

Lo mas destacable de  Watson es asimismo la capacidad de transcribir audio done se puede usa su micrófono para grabar audio o cargar audio pregrabado (.mp3, .mpeg, .wav, .flac o .opus solamente).

Incluso puede subir  archivos de audio o probar ficheros de muestra para probar el servicio , ( los archivos de audio de muestra  son en inglés de EE. UU y están cubiertos por la licencia de Creative Commons.)

El resultado devuelto incluye el texto reconocido, las alternativas de palabras y las palabras clave moteadas. Algunos modelos pueden detectar múltiples altavoces; lo cual  puede ralentizar el rendimiento.

A continuación esta es la url para probar el servicio en modo  demo: https://speech-to-text-demo.ng.bluemix.net/

No olvide  seleccionar el idioma de destino(Voice Model ) , haga clic en el micrófono(record Audio)   y empiece a hablar.

En unos instantes en tiempo real debería ir viendo las transcripciones  directamente desde esta pagina

Este sistema por el momento se usa  para fines de demostración y no está destinado a procesar datos personales ,así  que no se deben ingresar datos personales en este sistema, ya que puede no tener los controles necesarios para cumplir con los requisitos del Reglamento general de protección de datos (UE) 2016/679.

En teoría los primeros 1000 minutos al mes son gratis en el servicio estándar,   así que el limite es muy superior de uso gratuito al de Google o al  de Microsft .

Reconocmiento  de voz de Google

Tambien  Google dispone de su propio servicio de reconocimiento de voz  , el cual por cierto es el usado por  ejemplo desde los terminales Android.

En el caso de que este validado contra Google  y  tenga cuenta en Google Cloud , incluso se pueden subir directamente los ficheros que deseamos transcribir mediante la opción File Upload  teniendo en cuenta la limitación de 60 minutos en caso de no querer pasar por caja.

Si quiere probar esta funcionalidad esta es la url : https://cloud.google.com/speech-to-text/

No olvide  seleccionar el idioma de destino(Languaje ) ,seleccione el micrófono(Microphone)    y empiece a hablar.

En unos instantes ,en tiempo real debería ir viendo las transcripciones  directamente desde esta pagina:

Como no podía ser de otra manera, también  es posible reconocer el audio subido en la solicitud e integrarlo en su almacenamiento de audio de Google Cloud Storage

¿Pero cual elegimos?

Como hemos podido  ver todos estos servicios de reconocimiento de voz  están en fase de pruebas para demostrar por  ahora incluso en el estado inicial  lo que pueden llegar  a poder hacer.

De todas las opciones ,en caso de tener necesidad de usarlo por mucho tiempo,  el servicio de IBM tiene una oferta mas que generosa de 1000 minutos frente a los 100 de Google  , pero no olvidemos que si queremos integrar este servicio con una aplicación albergada en Azure o en la infraestructura de Google  entonces necesitaremos usar sus propios servicios  .

 

Transcripcion de ficheros de audio


Puede parecer algo anacrónico, pero  lo cierto es que probablemente el teclado y ratón tal como los conocemos  hoy en día tenga  sus días contados   gracias al espectacular avance  sufrido estos años   en apartado de  reconocimiento de voz   usando redes neuronales  claramente  propiciado  por en las ingentes subida de  capacidades de computo gracias al  Cloud  Commputing  ,el Big Data y el aprendizaje automático

Veamos algunas soluciones de reconocimiento de voz  liderado por grandes proveedores como pueden ser Google o IBM

speech-api-lead

Google Cloud Speech

En efecto desde Google proponen la API Speech de Google Cloud , la cual  permite que los desarrolladores conviertan audio en texto aplicando potentes modelos de redes neuronales en una API fácil de usar. La API Speech reconoce más de 80 idiomas y sus variantes para gestionar una clientela internacional. Asimismo, se puede filtrar el contenido inapropiado en los resultados de texto.

La API Speech de Cloud se tarifica por intervalos de 15 segundos de audio procesados después de los 60 primeros minutos, que son gratuitos.

USO MENSUAL PRECIO POR CADA 15 SEGUNDOS*
Hasta 60 minutos Gratuito
61 – 1.000.000 de minutos* 0,006 $

*Este precio es válido para aplicaciones de sistemas personales (por ejemplo, teléfonos, tablets, portátiles y ordenadores).  El uso mensual está limitado a un millón de minutos.

Se puede transcribir el texto que los usuarios dictan al micrófono de una aplicación, habilitar el control por voz o transcribir archivos de audio, entre muchas otras funciones.

La API Speech puede transmitir resultados de texto conforme vaya reconociendo el audio, de forma que el texto reconocido aparece inmediatamente mientras la persona habla  asi que consigue resultados de texto en tiempo real

De igual modo, la API puede reconocer el texto a partir del audio almacenado en un archivo pero solo si se tiene cuenta en Google Cloud.

Como   “truco” casero para  probar   la funcionalidad del API se  puede inyectar  el audio  ya grabado desde un dispositivo externo  por  medio de un cable de audio que lo  introduciría en el pc  seleccionando como dispositivo grabador la entrada de audio :debería funcionar exactamente igual que si hablamos por un micrófono

En el caso de que este validado contra Google  y  tenga cuenta en Google Cloud este paso se puede obviar porque se pueden subir directamente los ficheros que deseamos transcribir mediante la opción File Upload  teniendo en cuenta la limitación de 60 minutos en caso de no querer pasar por caja

Si quiere probar esta funcionalidad esta es la url : https://cloud.google.com/speech-to-text/

 

Como no podía ser de otra manera, también  es posible reconocer el audio subido en la solicitud e integrarlo en su almacenamiento de audio de Google Cloud Storage. 

Gracias a  la tecnología del aprendizaje automático ,se aplican los algoritmos más avanzados de redes neuronales del aprendizaje profundo al audio de sus ficheros  para conseguir un reconocimiento de voz de máxima precisión. Mencionar que como todos los  sistemas de aprendizaje con redes neuronales la precisión de la API Speech mejora con el tiempo, conforme perfeccionan la tecnología interna de reconocimiento de voz que usa los productos de Google.

No se necesitan pues  sistemas avanzados de procesamiento de señales ni reducción de ruido antes de enviar el audio a la API Speech. El servicio es capaz de procesar audio ruidoso procedente de diversos entornos de forma satisfactoria.

El reconocimiento de voz se puede adaptar al contexto suministrando un conjunto independiente de palabras clave con cada llamada a la API, lo que resulta especialmente útil para las situaciones de control de dispositivos y aplicaciones.

La API Speech es compatible con cualquier dispositivo que pueda enviar solicitudes REST o gRPC, incluidos teléfonos, ordenadores, tablets y dispositivos con Internet de las Cosas (por ejemplo, coches, televisores o altavoces).

CARACTERÍSTICAS DE LA API SPEECH

Conversión de voz en texto gracias al aprendizaje automático

El reconocimiento automático de voz (ASR) basado en redes neuronales de aprendizaje profundo dota a las   aplicaciones , la funcionalidad  de búsqueda por voz o transcripción de voz.Reconoce más de 80 idiomas y variantes, con un amplio vocabulario proporcionando resultados de reconocimiento mientras los usuarios siguen hablando.
Es posible personalizar el reconocimiento de voz según un contexto específico suministrando un conjunto de palabras y frases que tienen muchas probabilidades de aparecer. Esto resulta especialmente útil para añadir palabras y nombres personalizados al vocabulario, así como en situaciones de control por voz.
El sonido puede proceder del micrófono de una aplicación o de un archivo de audio grabado previamente. Se admiten diversas codificaciones de audio, como FLAC, AMR, PCMU y Linear-16.
Es capaz de procesar audio de diversos entornos ruidosos sin necesidad de reducción de ruido adicional así que puede filtrar contenido inapropiado en los resultados de texto para algunos idiomas.
El  API como vemos esta integrada:los archivos de audio se pueden subir en la solicitud o integrar en Google Cloud Storage.

Transcripción de archivos de audio cortos

Es muy sencillo transcribir un archivo de audio corto a texto utilizando el reconocimiento de voz sincrónico.

El reconocimiento de voz síncrona devuelve el texto reconocido para audio corto (menos de ~ 1 minuto) en la respuesta tan pronto como se procese(para procesar una solicitud de reconocimiento de voz para audio largo, use el Reconocimiento de voz asincrónico ).

El contenido de audio se puede enviar directamente a Cloud Speech-to-Text, o puede procesar contenido de audio que ya reside en Google Cloud Storage.

Speech-to-Text v1 se lanzó oficialmente y, en general, está disponible desde el extremo https://speech.googleapis.com/v1/speech . Las bibliotecas de cliente se lanzan como alfa y es probable que se modifiquen de formas incompatibles hacia atrás. Las bibliotecas del cliente actualmente no se recomiendan para uso de producción.

Estas muestras requieren que haya configurado gcloud y haya creado y activado una cuenta de servicio.

Realización de reconocimiento de voz síncrono en un archivo local

Aquí hay un ejemplo de cómo realizar el reconocimiento de voz sincrónico en un archivo de audio local mediantes comados de GCLOUD

Consulte el comando de recognize para obtener detalles completos.Para realizar el reconocimiento de voz en un archivo local, use la herramienta de línea de comandos de gcloud , pasando la ruta de archivo local del archivo para realizar el reconocimiento de voz.

 gcloud ml speech reconoce CAMINO-AL-LOCAL-FILE --language-code = 'en-US'

Si la solicitud es exitosa, el servidor devuelve una respuesta en formato JSON:

{
  "results": [
    {
      "alternatives": [
        {
          "confidence": 0.9840146,
          "transcript": "how old is the Brooklyn Bridge"
        }
      ]
    }
  ]
}

Realización de reconocimiento de voz síncrono en un archivo remoto

Para su comodidad, la API de voz a texto puede realizar el reconocimiento de voz sincrónico directamente en un archivo de audio ubicado en Google Cloud Storage, sin la necesidad de enviar el contenido del archivo de audio en el cuerpo de su solicitud.

Aquí hay un ejemplo de cómo realizar el reconocimiento de voz sincrónico en un archivo ubicado en Cloud Storage  usando comandos  GCLOUD

Consulte el comando de recognize para obtener detalles completos.Para realizar el reconocimiento de voz en un archivo local, use la herramienta de línea de comandos de gcloud , pasando la ruta de archivo local del archivo para realizar el reconocimiento de voz.

 gcloud ml speech reconoce 'gs: //cloud-samples-tests/speech/brooklyn.flac' \
 --language-code = 'en-US'

Si la solicitud es exitosa, el servidor devuelve una respuesta en formato JSON:

{
  "results": [
    {
      "alternatives": [
        {
          "confidence": 0.9840146,
          "transcript": "how old is the Brooklyn Bridge"
        }
      ]
    }
  ]
}

Mas  informacion en https://cloud.google.com/speech-to-text/docs/sync-recognize?hl=es#speech-sync-recognize-gcloud

IBM

También esta disponible para testeo  Watson de IBM, que permite  dictado a texto

El servicio IBM Watson Speech to Text utiliza capacidades de reconocimiento de voz para convertir el árabe, el inglés, el español, el francés, el portugués de Brasil, el japonés y el mandarín en texto.Este sistema por el momento se usa o para fines de demostración y no está destinado a procesar datos personales ,así  que no se deben ingresar datos personales en este sistema, ya que puede no tener los controles necesarios para cumplir con los requisitos del Reglamento general de protección de datos (UE) 2016/679.

Lo mas destacable DE Watson es asimismo la capacidad de transcribir audio done se puede usa su micrófono para grabar audio o cargar audio pregrabado (.mp3, .mpeg, .wav, .flac o .opus solamente).

Incluso puede reproduzca uno de los archivos de audio de muestra para probar el servicio , ahora eso si los archivos de audio de muestra de banda ancha son en inglés de EE. UU y están cubiertos por la licencia de Creative Commons.

El resultado devuelto incluye el texto reconocido, las alternativas de palabras y las palabras clave moteadas. Algunos modelos pueden detectar múltiples altavoces; esto puede ralentizar el rendimiento.

A continuación esta es la url para probar el servicio en modo  demo: https://speech-to-text-demo.ng.bluemix.net/

 

En teoría los primeros 1000 minutos al mes son gratis en el servicio estándar,   así que el limite es muy superior de uso gratuito al de Google .

¿Le parece mejor opción la de IBM  que la de Google?¿Conoce algún otro servicio gratuito que podamos usar desde nuestras apps? Sin duda  la carrera por copar este mercado no acaba mas que empezar

 

Sistema de ayuda a la conducción de Garmin


ADAS , cuyas siglas provienen de Advance Driver Asistance Systems o traducido al español ” Sistemas de Asistencia a la Conducción” , se ha convertido en la revolución en materia de seguridad activa del vehículo  incidiendo en la prevención de los siniestros, se ha convertido en una asistencia clave para evitar accidentes o mitigar sus consecuencias.

Es interesante mientras adquirimos nuevos vehículos que integren estas tecnologías, aprovechar al máximo nuestros actuales vehículos equipándolos estos con algunos dispositivos que el mercado ya nos ofrece pues ne en efecto es posible ver sistemas ADAS integradas en cámaras portátiles diseñadas para ir en el parabrisas y ser alimentadas por el enchufe de mechero a 12V DC ( en ingles son llamadas Dash Cam) , de tal manera que cuando se conecta al contacto del vehículo, estos dispositivos empiezan a utilizar algoritmos de inteligencia artificial y reconocimiento de patrones sobre las imágenes captadas por la las cámaras digitales para hacer estimaciones de posibles peligro y avisar así al conductor.

Los sistemas ADAS mas usuales en cámaras integradas son las siguientes:

  • FCWS del ingles Forward Colission Warning Sytem (advertencia de colisión delantera) ayuda al conductor a mantenerse a una distancia segura del vehículo delantero y alerta a los conductores de una colisión inminente con advertencias visuales y audibles.
  • LDWS del inglés Lane Departure Warning System ( SISTEMA DE ADVERTENCIA DE SALIDA DE CARRIL) monitorea las marcas del carril y avisa al conductor con advertencias visuales y audibles cuando ocurre una salida involuntaria del carril sin la notificación de la señal de giro.
  • HMW( VIGILANCIA Y ADVERTENCIA DEL AVANCE DE PISTA)- Ayuda al conductor a mantener una distancia segura de conducción. Alerta al conductor al entrar en una zona predefinida de “avance peligroso”
  • FVSA (ALARMA DE INICIO DEL VEHICULO DELANTERO ) Notifica al conductor si el vehículo delantero comienza a avanzar en el estado parado completo y el coche del conductor no se mueve en 2 segundos.

En otros post anteriores habíamos visto  soluciones sobre algunas dash-cam que ya implementan ADAS. Desgraciadamente estas cámaras procedentes del mercado asiático cuya funcionalidades ADAS se limitan a FCWS y LDWS , su cobertura es limitada y por tanto su funcionamiento en cuanto a alertas a la conducción es relativamente pobre .

Veamos ahora una solución de unos de los  fabricantes más reconocidos como es Garmin con sus   modelos   Garmin Dash CAm 45/55/65W,  cuyas funcionalidades ADAS tienen otro nivel de fiabilidad  respecto a otras soluciones procedentes de mercados asiáticos

 

 


Garmin ha aplicado su conocimiento de las cámaras de acción y aptitud seguidores al mundo de la dashcams, y su modelo de gama media 55 ofrece imágenes definidas y suficientes características adicionales para hacer esta cámara digna de consideración, eso si ,  si se esta dispuesto a pagar  un cierto sobrecoste  a cambio de una mayor fiabilidad  y calidad.

El campo de visión puede ser más estrecho que el de algunas de las cámaras rivales ,pero la calidad de vídeo y audio capturada son excelentes.

La tecnología de posicionamiento de GPS integrada ,lo cual por cierto no suele ser lo habitual pues en otras cámaras la antena GPS va aparte , contribuye a dar mayor fiabilidad a  las funciones adas  permitiendo registrar velocidad  lugar, hora y fecha.

Los vídeos de incidentes se almacenan automáticamente mediante la tecnología G-sensor incorporada, ( como otros  modelos de camaras. Asimismo en este sentido incluye el software de Garmin (disponible gratis para la mayoría de portátiles y PC) para optimizar las marcas de revisión, organizar archivos con la adición de un mapa digital que le ayuda a identificar donde se produjo un incidente.

A parte de la calidad de imagen y sonido, las funciones de asistencia a la conducción como la alerta de salida de carril, la alerta de colisión y la alerta de avance de vehículos  son  unas de las características mas importantes  de este modelo ofreciendo advertencias tanto audibles como visuales en la propia pantalla como vamos a ver  .

 

Sistema de alerta de colisión directa

El sistema de alerta de colisión directa (FCWS) es para información solamente y no sustituye a su responsabilidad de observar todos los camino y las condiciones de conducción, acatar todas las normas de tráfico y uso juicio de conducción segura en todo momento. El FCWS depende de la cámara para proporcionar una advertencia de los vehículos próximos y, como resultado, puede haber una funcionalidad limitada en condiciones de baja visibilidad.
 fcw.png

La función FCWS le avisa cuando el dispositivo detecta que no está manteniendo una distancia segura entre su vehículo y el vehículo delante de usted. El dispositivo determina la velocidad de vehículos mediante GPS, y calcula una distancia estimada de siguiente segura basada en su velocidad. El FCWS se activa automáticamente cuando la velocidad del vehículo supera los 48 kph (30 mph).

Cuando el dispositivo detecta que estás demasiado cerca al vehículo delante de usted, el dispositivo reproduce una alerta audible, y aparece una advertencia en la pantalla.

Alerta de  cámaras de velocidad

Esta cámara  también puede  ofrecer información sobre ubicaciones de cámaras de velocidad y  el dispositivo le avisa cuando se aceque  a una cámara de velocidad o a un radar .

Para mantener una base de datos actualizada  y ubicaciones de cámara de velocidad, lo malo es que tenemos que comprar una suscripción para descargar y almacenar datos de la cámara de seguridad en su dispositivo(unos 20€ al año) . Ir a  garmin.com/speedcameras para comprobar la disponibilidad y compatibilidad, o para comprar una suscripción o actualización de una sola vez. Usted puede comprar una nueva región o ampliar una suscripción existente en cualquier momento.

En algunas regiones, algunos paquetes de producto incluyen cargados datos de cámara de velocidad y luz roja con actualizaciones de por vida.

Usted puede utilizar el software de Garmin Express™ (garmin.com/express) para actualizar la base de datos de cámara guardado en su dispositivo. Debe actualizar el dispositivo con frecuencia para recibir la información más actualizada de la cámara.

FVSA

Esa alerta toca un tono y muestra una alerta cuando hay tráfico parado delante de su vehículo  y se vuelve a mover. Esta alerta aparece sólo después de que el vehículo precedente ha movido una distancia considerable y su vehículo ha quedado detenido.

fvsa

Esto puede ser útil en semáforos o en demoras de tráfico. Esta característica utiliza la cámara del salpicadero para detectar el vehículo parado o en movimiento y requiere una visión clara del camino.

 

Garmin Express

Lo primero que hay que realizar una vez recibida la camara  es conectarlo a un ordenador por Garmin Express para ponerlo al día actualizando el firmware y para añadirle los radares actualizados( esto ultimo si está dispuesta a  pagar por ello ).

A partir de ahí con la app móvil GARMIN VIRB se pueden realizar todas las actualizaciones menos los radares que deberán realizarse por PC periódicamente.
Garmin Express es una aplicación informática para fácilmente, registro y gestión de su dispositivo Garmin  que permite gestionar los dispositivos desde su escritorio. Asimismo permite mantenerse al día con notificaciones de escritorio y con las instrucciones paso a paso permiten actualizar sus dispositivos.

Para descargarla vaya a esta url:https://www.garmin.com/en-US/software/express/

garminexp.PNG

Tras descargar la  aplicación ,ejecute el instalador  y espere  hasta su finalización:

En breves momentos  lo habrá instalado ,  por lo que puede empezar con el registro de la cámara  pulsar  el botón “Comenzar”

comenzar.PNG

Lo primero es añadir la cámara  como dispositivo para lo cual pulsaremos en  “Añadir un   dispositivo”

añadir.PNG

Conectaremos  vía USB  nuestra cámara  nuestro ordenador:

buscando.PNG

Puede que no ser reconocida por por el programa, pero e este caso  nos pide una pista  del  modelo , que en nuestro caso seria Automoción

error.PNG

Nos ofrece varias  pistas del motivo por lo que no se reconoce , siendo un de los  principales motivos el conectar la  cámara  mediante un hub usb   lo cual como se ve nos puede dar problemas a la hora de reconocer esta por el sw

automocion

Solucionado el problema ,pulsaremos Buscar de nuevo:

dashcam.PNG

Una vez reconocida , pulsaremos  en  “Añadir dispositivo”.
Ahora ya nos  tocaría  registrar el dispositivo, pero es un proceso muy sencillo   pues se registra  rápidamente la cámara  con sólo una dirección de correo electrónico.

 

paso1.PNG

Ahora nos pedirá un alias ( nos propone uno por defecto) para facilitar al visualizarlo en Garmin Express. Esto es especialmente útil si cuenta con varios dispositivos

Finalmente nos preguntará si permitimos que Garmin puede procesar y utilizar los datos recopilados del dispositivo y compartirlos de forma anónima  con socios estratégicos (si no  le interesa  pulse NO)

Una opción   muy  util  y recomendable  es actualizar el software de la cámara bien usando la aplicación móvil Garmin VIRB( después de emparejar la aplicación con su cámara, la aplicación busca actualizaciones automáticamente y muestra un mensaje cuando una actualización está disponible) o bien desde Garmin  Express .

Desde  Garmin Expres   ahora  vaya a herramientas  y Contenidos   y pulse en Actualizaciones disponibles.  Nos interesa actualizar todo

 

Siga la pantalla instrucciones para completar la actualización de procesos.

actualizaciones.PNG

No se debe desconectar el dispositivo del ordenador mientras haya actualizaciones pudiendo tardar unos minutos en concluir el proceso

finalizado

Desde este menú  de  herramientas  y contenido  permite otras opciones como hacer una copia de seguridad en local de los archivos de la micro-sd de la cámara  o por ejemplo acceder al manual de la cámara.

copia de seguridad.PNG

Como opción interesante  en  Tienda tras seleccionar el país  donde nos interese , nos ofrece la compra de radares ,lo cual  permite  recibir alertas sobre límites de velocidad y radares.

 

alarmas.PNG

Instalación

La cámara requiere un microSD™ o microSDHC tarjeta de memoria de hasta 64GB con una velocidad máxima de clase  10 o superior. Puede utilizar la tarjeta de memoria incluida, o puede comprar una tarjeta de memoria de recambio compatible de un proveedor de electrónica.

  1. Inserte la tarjeta de memoria glyph icon en la ranura glyph icon .
  2. Pulse en hasta clics.

Menus

La cámara no est táctil  y se maneja únicamente con 4 botones;

glyph icon

Presione para encender el dispositivo.

Mantenga pulsado durante 3 segundos para apagar el dispositivo.

Seleccione para volver a la página anterior.

glyph icon

Seleccione esta opción para desplazarse por menús o páginas.

glyph icon

Seleccione esta opción para desplazarse por menús o páginas.

glyph icon

 

En el visor, seleccione para guardar una foto.

Mantenga presionado para guardar un clip de vídeo.

Seleccione esta opción para elegir una opción en un menú.

Instalación en el parabrisas

El soporte adhesivo es extremadamente difícil de eliminar después de su instalación  asi que debe considerar cuidadosamente el lugar de instalación antes de instalar el soporte.

Antes de instalar el soporte adhesivo en el parabrisas, la temperatura ambiente debe ser de 21° a 38° C (de 70° a 100° F).

Puede conectar el dispositivo a la energía y mantener el dispositivo en el lugar de montaje recomendado: para comprobar el campo de visión en ese lugar.
  1. Limpie el parabrisas con agua o alcohol y un paño sin pelusa.

    El parabrisas debe estar libre de polvo, cera, aceites o pinturas.

  2. Quite la película protectora del adhesivo de montaje. Coloque el soporte sobre la ubicación de montaje. El adhesivo es muy pegajoso. No toque el adhesivo para el parabrisas hasta el monte correctamente colocado y alineado.
  3. Presione la montura firmemente en el parabrisas y mantener la presión durante 30 segundos. El disco del metal permanece adherido al parabrisas.Con su dedo, presione firmemente el disco durante 30 segundos: esto ayuda a asegurar que el adhesivo del disco tiene contacto con el parabrisas.
  4. Esperar 24 horas antes de instalar el  Garmin Dash Cam™ Tarda 24 horas para que el adhesivo adherir correctamente al parabrisas.

 Configuración

Antes de instalar el Garmin Dash Cam , debe instalar el soporte y deje que el adhesivo adhiera  al parabrisas pasadas 24 horas pues de no respetar este tiempo  puede causar  que caiga la camara  
  1. Coloque la cámara y montar en el disco del metal.
  2. Enchufe el cable de alimentación del vehículo en el puerto USB del dispositivo.
  3. Vía el cable de alimentación a la toma de corriente del vehículo. El cable de alimentación del vehículo incluido está diseñado para enviarse fuera de la vista. Es suficiente para la ruta alrededor del parabrisas en la mayoría de los vehículos, y puede ocultar el cable delgado a lo largo de o detrás de la moldura o forro del techo.
  4. Conecte el otro extremo del cable de alimentación del vehículo a un enchufe eléctrico en su vehículo.
  5. Si es necesario, gire el interruptor de ignición del vehículo para proporcionar energía a la salida de potencia en su vehículo. El dispositivo se enciende.
  6. Siga la pantalla instrucciones para completar la configuración inicial del dispositivo. Aparece la vista de cámara.
  7. Ajustar la posición de la cámara para capturar el campo de visión deseado.

Ajuste la colocación de la cámara

Se puede montar el dispositivo en la izquierda, centro o derecha de su parabrisas. Para el mejor desempeño, se debe establecer la colocación de la cámara de opción para indicar la ubicación de su dispositivo en el vehículo.

  1. Seleccione  configuración de >asistencia de conductor >colocación de cámara.
  2. Seleccione  colocación Horizontal y seleccionar la posición horizontal de la cámara.
  3. Seleccione altura del vehículoSeleccione una opción: Si usted está conduciendo un vehículo grande, como un van de tamaño completo o un carro, seleccione  alto.Si usted está conduciendo un coche, seleccione Normal.

  App movil

Puede guardar imágenes y grabaciones de vídeo mediante la conexión de tu smartphone o tablet a la aplicación gratuita de VIRB de Garmin.

  1. Vaya a la tienda de aplicaciones en su dispositivo móvil y bisque Garmin VIRB.En Abdroid es este https://play.google.com/store/apps/details?id=com.garmin.android.apps.virb&rdid=com.garmin.android.apps.virb
  2. En el menú principal en la Dash Cam, seleccione  Galería >  participación Galería.

    La  Garmin Dash Cam™ muestra el nombre de red y contraseña de red.

  3. Desde su dispositivo móvil, seleccione la  Dash Cam Wi-Fi® red.
  4. Introduzca la contraseña de red. 
  5. Su  Dash Cam acciones guardadas fotos y video a su dispositivo móvil.
  6. En su dispositivo móvil, lanzar la aplicación Garmin VIRB.

gramin.PNG

Caracteristicas:

  •  Fácil de ver y editar 360 vídeos, añadir 4K Estabilización esférica, ver imágenes en modo VR y añadir la realidad aumentada superposiciones de datos G-Metrix ™ *
    encuadre – Ver lo que la cámara ve con visor en directo
  •  Control remoto – Control remoto completo de funciones de la cámara y los ajustes
  •  Navegar contenido – Reproducción de vídeos grabados y fotografías
  • editar vídeos – Recortar un clip, ajustar la velocidad de reproducción, añadir superposiciones ™ G-Metrix y música
  •  Detección Resalte – Encuentra las partes más interesantes del vídeo rápidamente usando aspectos más destacados en la línea de tiempo editor
  •  compartir su contenido – Empuje fotos y vídeos a servicios para compartir
  •  administrar sus archivos – hojee y eliminar archivos en la tarjeta microSD

Grabación  de aparcamiento

La función aparcado de grabación de vídeo permite grabación de vídeo automáticamente   cuando se apaga el interruptor de ignición del vehículo de modo que la cámara comienza a grabar cuando esta  detecta movimiento.

La función aparcado de grabación de vídeo sólo es accesible cuando la cámara está conectada al  accesorio de la Dash Cam  del cable de modo estacionamiento. 
Parking Mode Cable

Travelapse

La función de Travelapse captura un video de rápido movimiento de su viaje, que le permite compartir un corto video de todos los lugares donde viajó.

 Travelapse de grabación no detiene grabación de dash cam

 Conclusión

Unos de los aspectos que quizás más se note de   esta dash cam  es el precio del último modelo  disponible  (unos 200€ en Amazon )  si optamos por el último modelos con detección de voz, a no ser que se opte por modelos más antiguos que aún se pueden conseguir por  un precio algo menor .
Quizás la fiabilidad    de  todos los sistemas ADAS  que esta cámara incluye si tenga un precio,  pues  para nada sirven otros sistemas de origen asiáticos  que hemos comentado en este blog   si no van a responder con la maxima celeridad y efeciciencia  ante casos  potencialmente peligrosos tanto para la seguridad del  conductor  como para la seguridad  de sus pasajeros.

Consiga su Raspberry Pi 3 por 34€ con la carcasa gratis


Con  más de ocho millones de unidades vendidas , incluyendo tres millones de unidades de Raspberry  Pi 2 , nadie duda  que Raspberry es una plataforma  muy exitosa ,  tanto que de hecho la Fundación Raspberry Pi ha crecido de unos pocos  voluntarios a llegar a más de sesenta empleados a tiempo completo, ! e incluso  han enviado una Raspberry Pi a la Estación Espacial Internacional !

Destaca de la familia  Raspberry pi la ultima  Raspberry Pi 3 Modelo B   ,la última placa de la familia de Raspberry Pi  ,una placa 10 veces más potente que la original (es decir la primera versión) ,  donde   lo mas destacable  es que se ha añadido   conectividad inalámbrica integrada, tanto por wifi (soportando los estándares  802.11 b/g/n) ,  como  por  Bluetooth ( versión 4.1).

El precio  normalmente de esta versátil   placa con gastos de envíos,  ronda  los 50€  ,pero ahora de forma puntual  su precio es de 34.20 €  en Amazon

Hablando de conectividad ,la nueva placa  incorpora el chip de Broadcom BCM2837 junto el chip inalámbrico “combo” BCM43438 . Gracias  a esta combinación de CI,  ha permitido  adaptar la funcionalidad inalámbrica en casi el mismo factor de forma de los modelos anteriores como  Raspberry Pi Modelo B + 1 y Raspberry Pi 2 Modelo B. De  hecho ,  el único cambio es que la posición de los LEDs los  han trasladado al otro lado de la ranura de la tarjeta SD para hacer espacio para la antena. Respecto al nuevo SoC, el  BCM2837, este   conserva la misma arquitectura básica que sus predecesores BCM2835 y BCM2836, por lo que todos los proyectos y tutoriales que se basan en este  hardware de la Raspberry  Pi continuarán funcionando.

broadcom 

Esta nueva placa  a diferencia de todas la anteriores  usa un procesador   de  64  bits : un  ARM Cortex-A53  de  cuatro núcleos  a una velocidad de reloj  de 1,2 GHz  en lugar de un  Quad-Core Cortex A7 de 32 bits  a 900 MHz de su antecesor ( Raspberry Pi  2 modelo B), por lo  que vemos que el cambio de procesador  ha sido espectacular no solo por la velocidad de reloj superior (de 900 Mhz  a   1,2 GHz) ,  sino básicamente  por el cambio de arquitectura también ARM ,pero  de 64 bits en lugar de la antigua de 32 bits .

La combinación final   de un aumento del 33% en la velocidad de reloj con varias mejoras en la arquitectura,  permitiendo  proporcionar un aumento del 50-60% en el rendimiento en el modo de 32 bits frente a la Raspberry Pi 2, o aproximadamente un factor de diez sobre la original Raspberry Pi.

Sobre la memoria  RAM cuenta  con 1GB LPDDR2 ( la versión anterior también contaba con 1GB)  y a nivel de gráficos también han mejorado   pues cuenta con  un Dual Core VideoCore IV ® Multimedia Co-procesador.

Sobre los conexiones disponibles, sin embargo ,  no ha cambiado sustancialmente  , contando  como en la versión anterior  con las siguientes posibilidades:

  • 4 Puertos  USB 2.0
  • Puerto de  GPIO de 40  pin,
  • Salida HDMI rev 1.3 y 1.4
  • Toma  Ethernet
  • Jack de audio de 2  1/2″ ,
  •  Interfaz de cámara (CSI)
  • Interfaz de Pantalla (DSI)
  • Lector  micro SD

 

Todos los conectores anteriores  están en el mismo lugar y tienen  la misma funcionalidad, y para alimentar la placa  todavía se puede usar un  adaptador de alimentación de 5V micro-USB, pero en esta ocasión, están recomendando un adaptador 2.5A por si desea conectar dispositivos USB que consuman mucha energía  de la Raspberry Pi.

Caja

Una  de las ventajas  de la Raspberry Pi es que es fácilmente  personalizable, no solo por dentro gracias a  las múltiples distribuciones  compatibles ( incluso W10) , sino también por fuera, por ejemplo  con la carcasa , que esta abierta   completamente a nuestra  creatividad.

Si dispone de una impresora  3D  una de la las mejores opciones   gratuitas     es  el diseño con soporte VESA   de  0110-M-P   compatible con los siguientes modelos de Raspberry Pi: Raspberry Pi 3 ,Raspberry Pi 2,Raspberry Pi Modelo B +,  Además, para facilitar la impresión  cuenta con dos mitades para ajustar facilmente  uy  que ademas  se puede ajustar el diseño para su propio uso.

Esta esta nueva carcasa para la Rasperry Pi 3 presenta:

  • Ranura de acceso para la cámara Pi
  • El diseño es atornillable  por dentro (la pcb )  y por   fuera
  • Atornille el montaje de Raspberry Pi al estuche usando agujeros en PCB
  • Construido en pestañas de montaje VESA de 75 mm
  • Diseño de ventilación del motor rotatorio (triángulo reuleaux)
  • Malla STL de alta resolución

Este es el aspecto de como queda  la pcb atornillada    a la base inferior del diseño , donde se puede apreciar claramente el radiador  pasivo, el cual   aunque no es obligatorio , si lo es de forma muy   recomendable para evitar calentamientos excesivos  a la placa  y así alargaremos la vida de esta versatil  placa

Y este es el aspecto de como queda ya montada y cerrada :

 Usos  Y Aplicaciones

Usted necesitará una imagen reciente NOOBS o de Raspbian  que puede descargar desde la pagina  de  descargas . En la pagina de descargas  esta  disponible  la versión de 32 bits Raspbian usada en otros dispositivos Raspberry Pi, pero se suponen que próximamente   deberían crear  una nueva imagen con soporte al modo de 64 bits.

La forma de instalar el sw en la sd no puede ser mas sencillo ,pues una vez descargada la  ISO de  la distribución que nos  interese   , solo necesitamos la utilidad Win32DiskImager d( se puede descargar desde la página del proyecto en SourceForge como un archivo zip),seleccionar el archivo de imagen que ha extraído anteriormente de Raspbian, seleccionar la letra de la unidad de la tarjeta SD en la caja del dispositivo . hacer  clic en Escribir y esperar a que la escritura se complete.(mas detalles  aqui )

 

La nueva placa no es solo un dispositivo estupendo para programar sino que también es   ideal para jugar  usando directamente la distribución de Raspbian citada  o  bien por medio de la distribución RetroPie

Especialmente interesante  para experimentar  para sus futuros proyectos de IoT  tal y como hemos visto  en este blog , es e usar la Raspberry Pi    a través de la plataforma Cayenne

Asimismo en este blog también hemos hablado de las posibilidades de la Raspberry Pi para emular el sistema Ambilight de Philips gracias a la distribución LightBerry

 

Hay infinitas posibilidades  muchas de las cuales hemos intentado  hablar en este blog   de modo que seria  pretencioso intentar condensarlas todas en un único post, sin duda el limite solo esta  en nuestra imaginacion

 

Por cierto, no sabemos  hasta cuando se mantendrá el precio , pero  si le   interesa este modelo   por unos  de 34€  con gastos de envío incluido ,  no se lo piense pues puede conseguirlo  todavia en Amazon facilmente

Muy pronto la fibra optica plastica en el hogar


La fibra óptica plástica (o POF, por Plastic -o Polymer- Optical Fibre) es un tipo de fibra óptica hecha esencialmente de plástico que generalmente se construye con un núcleo de polimetilmetacrilato y un revestimiento de polímeros fluoruros.

​ Este tipo de fibra optica fue descubierta por investigadores coreanos del Korea Institute of Science and Technology buscando una alternativa económica a la fibra óptica tradicional. Respecto a su hermana mayor, la fibra optica plastica en fibras de gran diámetro, el 96% de su sección está destinada a la transmisión de la luz ,en claro contraste con la fibra optica convencional, tanto es asi que el tamaño del núcleo es entre 20 y 100 veces mayor que el de la fibra de vidrio. Otra  gran diferencia respecto a la fibra es  la gran flexibilidad que tiene, pues  soporta  hasta 20 mm de radio de curvatura en clara contraposición con la fibra óptica construida a base de fibra de vidrio  , la cual  es bastante quebradiza.

Indudablemente todas estas ventajas  hacen que pensemos en que sea una opción  muy interesante  para la conexión en los hogares, contraponiéndose a la rigidez de la fibra óptica tradicional la cual es bastante compleja de instalar en instalaciones que carecen de canalizaciones adecuadas cuando hay que salvar ángulos muy pronunciados .

El uso de la fibra óptica de plástico  no es nuevo , pues tiene  muchísimas aplicaciones  sobre todo en electrónica automovilística y aeronáutica,pero  también se está usando para el control industrial, iluminación , medicina y   el mercado aeroespacial, entre otras aplicaciones.

Hasta ahora en algunos paises se esta instalando  este tipo de fibra  en los hogares entre el punto de acceso (interfaz con el proveedor de servicios) y los puntos de uso (rosetas o bases de toma) pues  aunque  no ha sido  tan rápida como la fibra óptica tradicional  no obstante  ofrece una  velocidad máxima teorica  de hasta 2,5 Gbit/s, lo cierto es  mas que suficiente   para  transmitir  video en 4k   un hogar y por supuesto dar acceso a Internet a alta velicidad   todo ello sin interferencias  y sin tener que realizar costosas instalaciones de cable fast ethernet

En el caso de Telefónica la FOP  elegida  es una fibra de 1mm de núcleo y 2.2mm de diámetro en total que ofrece conectividad dentro del hogar a través de una instalación sencilla dado  que no se requieren herramientas especiales como en el caso de la fibra optica tradicional  , ya que se corta con un cutter, no necesita  conectores especiales  y ademas tiene un coste bastante inferior al de la fibra de vidrio.

Dadas sus características, para su instalación tan solo se requiere introducirla en la  canalizaciones de la instalación eléctrica convencional  de un forma muy similar a como lo hace un electricista  con las famosas “guías” que introducen en los tubos de las instalaciones para introducir cableado nuevo Es fácil vislumbrar que al solo introducir plástico no  haya ningún riesgo o inconveniente y por supuesto es segura al no poder ser interceptada e inmune a las interferencias.

La idea es pues llevar al hogar hasta cuatro tomas de fibra en cada una de ellos con un despliegue de red híbrida POF (backbone cableado) + Wifi con amplificador Smart wifi como punto de acceso para ampliar la cobertura.

El socio tecnológico de Telefónica en esta iniciativa es el proveedor del chipset, KDPOF, una startup española cuya tecnología ha logrado convertirse en el estándar Ethernet sobre fibra óptica plástica según el IEEE (The Institute of Electrical and Electronics Engineers) y ETSI  (The European Telecommunications Standards Institute)

 

enchufe.jpg

Los elementos básicos de la instalación, además de la fibra de plástico que irá sobre las canalizaciones de corriente alaterna son las nuevas  rosetas/media-converter  con el chipset de KDPOF en su interior , las cuales ademas permiten también incluso el uso de un enchufe shuko hembra.

La nueva roseta mantiene pues el enchufe, proporcionando ademas  dos puertos Ethernet

Otras característica  muy importante es que  permite conectar dos ramas distintas de POF para apoyarse desde ese punto para llegar  a otro nueva roseta  de una forma muy similar a como se hace con el cable de antena en una instalación de hogar.

 

enchufe.png