Smarthand


En el impulso por desarrollar sistemas robóticos que puedan sentir e interactuar con su entorno, se han realizado enormes inversiones en visión artificial. Hemos visto los frutos de estas inversiones en una amplia gama de aplicaciones, desde automóviles autónomos hasta la automatización de robots industriales. Si bien estos esfuerzos han tenido mucho éxito, los sensores ópticos no son la solución ideal para todos los casos de uso. Las tareas de manipulación de objetos, por ejemplo, suelen requerir información táctil para manipular con precisión y seguridad los objetos de interés. Puede imaginar un enfoque híbrido en el que los métodos de visión por computadora localicen el objeto y dirijan un robot a la posición correcta. A partir de ahí, los sensores táctiles dentro de una mano robótica brindan información sobre la fragilidad o robustez del objeto y ayudan a crear un plan para llevar a cabo las intenciones del robot.

En comparación con la visión por computadora, se ha dedicado mucha menos atención al desarrollo de sensores táctiles, lo que los hace generalmente menos sofisticados que sus contrapartes ópticas. Esto ha dificultado el desarrollo de robots que sean capaces de generar una comprensión de alta resolución de su entorno mediante la integración de datos de múltiples tipos de sensores.

 En un esfuerzo por comenzar a abordar las deficiencias en la tecnología de detección táctil actual, un equipo de ingenieros de ETH Zürich ha desarrollado un dispositivo que llaman SmartHand .

 SmartHand es un sistema integrado de hardware y software creado para recopilar y procesar información táctil de alta resolución de una matriz de sensores múltiples en forma de mano en tiempo real.

System architecture (📷: X. Wang et al.)

Arquitectura del sistema (📷: X. Wang et al.)

El dispositivo SmartHand utiliza una rejilla sensora táctil resistiva de bajo costo, basada en un compuesto de polímero conductor, que se pega a un guante. Se adjunta una unidad de medición inercial (IMU) en la parte posterior del guante para proporcionar información adicional sobre el movimiento. Los datos de los 1024 sensores táctiles (dispuestos en una cuadrícula de 32 por 32) y la IMU se introducen en una placa de descubrimiento STM32F769NI conectada a la muñeca a través de una serie de cables. Esta placa contiene un núcleo Arm Cortex-M7 que funciona a 216 MHz, con 2 MB de memoria flash y 532 kB de RAM.

Para demostrar SmartHand, los investigadores querían poder detectar qué tipo de objeto sostenía la mano. Para ello, se creó y entrenó una red neuronal convolucional, basada en la arquitectura ResNet-18, para reconocer la relación entre los datos de los sensores y un conjunto de dieciséis objetos cotidianos. Se creó un conjunto de datos usando el dispositivo físico para que sirviera como datos de entrenamiento para el modelo. Recopilando mediciones a 100 cuadros por segundo (13,7 veces más rápido que el trabajo anterior), se generó un conjunto de datos táctiles que consta de 340.000 cuadros.

The sensor grid (📷: X. Wang et al.)

La red de sensores (📷: X. Wang et al.)

Al validar la red neuronal, se encontró que el modelo requiere un orden de magnitud menos de memoria y 15,6 veces menos cálculos, en comparación con los dispositivos actuales. Esto se logró manteniendo la red neuronal lo más compacta posible, sin sacrificar la precisión de las predicciones. Hablando de predicciones, se encontró que la precisión de clasificación top 1 del modelo alcanzó el 98,86% en el reconocimiento de objetos. Al mantener el procesamiento en el límite, el tiempo de inferencia se mantuvo en unos muy razonables 100 milisegundos.

Se observó que, debido a las propiedades inherentes de los materiales que componen la rejilla del sensor táctil, habrá cierto nivel de degradación con el uso repetido. Los primeros indicios sugieren que la degradación puede estabilizarse, lo que permitiría recalibrar el diseño actual después de un período de rodaje inicial sin ningún otro cambio. Actualmente están evaluando si este es el caso, o si la degradación del sensor continúa más allá de la meseta aparente, lo que requeriría más cambios de diseño antes de que sea posible el uso del dispositivo en el mundo real.

El equipo prevé que las técnicas de SmartHand se utilicen en futuras aplicaciones robóticas y protésicas de manos. Con un poco más de esfuerzo, este trabajo puede acercarnos a un mundo en el que los robots no parecen tan robóticos.

Fuente hackester.io

Anuncio publicitario

Cámara trasera inteligente con Raspberry Pi. Parte 1


El término «Coche inteligente» puede tener miles de significados diferentes dependiendo a quién le preguntemos., así que empecemos con una definición   modesta  de algunos componentes que podemos añadir :

  • Información básica sobre el coche, como la marcha engranada, eficiencia de combustible, horas de conducción ,etc.
  • Ayudas a la conducción de tipo ADAS , siendo   los mas comunes la puesta en marcha del  coche delantero, acceso involuntario a línea de separación de carril o aviso de colisión por vehículo delantero que circula  muy próximo
  • Cámara trasera inteligente que avise si un objeto está demasiado cercano
  • etc

Del primer punto lo hemos comentado en diferentes post , explicando que para automóviles de unos 10 años, es decir que cuentan con interfaz ODB2,  es relativamente simple añadir un HUD con toda esta información  con  un HUD conectado por ODB2

Resumidamente los sistemas ADAS  de ayuda  a  la conducción  mas usuales son las siguientes:

  • FCWS   del ingles  Forward Colission Warning Sytem (advertencia de colisión delantera) ayuda al conductor a mantenerse a una distancia segura del vehículo delantero y alerta a los conductores de una colisión inminente con advertencias visuales y audibles.Este sistema permite al dispositivo detectar cuando no se mantiene una distancia segura entre su vehículo y el vehículo delante de usted. El dispositivo determinará la velocidad de su vehículo calculando una distancia estimada de siguiente segura basada en su velocidad.Normalmente para que esta  función pueda estar habilitada se  debe estar  viajando a más de 48KM/H ( a una velocidad de menos de 32 KM/H, se suele  desactivar la función). Precisamente por esta limitacion el FCWS no puede detectar los vehículos que están  alejados más de 40m  o más cerca de 5m.

fcw.png

  • LDWS  del inglés Lane Departure Warning  System  ( SISTEMA DE  ADVERTENCIA DE SALIDA DE CARRIL) monitorea las marcas del carril y avisa al conductor con advertencias visuales y audibles cuando ocurre una salida involuntaria del carril sin la notificación de la señal de giro.Es un mecanismo diseñado para advertir al conductor cuando el vehículo empieza a moverse fuera de su carril (salvo que una señal de la vuelta en esa dirección) en las autopistas y carreteras de la zona. Este sistema está diseñado para minimizar los accidentes por abordar las principales causas de colisiones: error del conductor , distracción y somnolencia.

ldw

  • HMW( VIGILANCIA Y ADVERTENCIA DEL AVANCE DE PISTA)- Mide la distancia al vehículo que está por delante (“headway”) en segundos. Ayuda al conductor a mantener una distancia segura de conducción. Alerta al conductor al entrar en una zona predefinida de “avance peligroso”

.hmw.png

  • FVSA (ALARMA DE INICIO DEL VEHÍCULO DELANTERO ) Notifica al conductor si el vehículo delantero comienza a avanzar en el estado parado completo y el coche del conductor no se mueve en 2 segundos.

fvsa

Casi todas estas ayudas ADAS  están implementadas  en  numerosas cámaras  disponibles en el mercado como vismo en este post destacando por voz propia  el modelo Dash de Garmin

Respecto al ultimo punto de cámaras traseras  , hay muchos kits para  añadir una cámara  trasera a  nuestro vehículos usando una conexión analógica de video compuesto , lo cual se traduce en  que la mayoría de ellas requieren hacer modificaciones al coche  ,por  ejemplo para ubicar la cámara en el porta-matriculas  , o fijar la pantalla especifica   de modo que no siempre en sencilla su instalación .Además las cámaras traseras comentadas requieren una  fuente de alimentación externa alimentándose con los  cables de las luces de atrás de su coche para que automáticamente se enciendan cuando el coche está en marcha lo cual tampoco le  gusta a muchas personas .

Dado que el mercado no ofrece por  el momento soluciones mas avanzadas una idea es usar la Raspberry Pi pues es la plataforma perfecta  porque básicamente es un mini ordenador con un montón de entradas y salidas.

Al conectar una cámara a la Pi, se puede utilizar prácticamente cualquier webcam USB genérica, o  por supuesto  mejor puede usar una  Cámara Pi conectada al conector DSI pues estas ofrecen una mayor calidad , versatilidad y  no  requiere una fuente de alimentación separada (pero asegúrese de tener un montón de cable para ir a la parte posterior del coche)

Solución con Raspberry Pi

Gracias a una Raspberry Pi  por medio del procesamiento de imágenes en efecto  podemos  hacer más inteligente nuestro vehículo y añadir  nuevas funcionalidades

Para esta idea  podemos  usar  los siguientes componentes:

 

Conexión del módulo de cámara

El modulo de cámara de Pi  tiene un mayor rendimiento que una cámara USB  por lo que lo ideal es usar una cámara del tipo compatibles con Raspberry Pi  (se puede comprar por unos 15€ en Amazon) 

No es  problema  la distancia pues con un cable plano  de 200 cm suele ser suficiente para llevar la cámara  hasta la  posición de conducción (puede comprarlo   aqui en Amazon por unos 7,29€ )

Se puede pues llevar el cable plano al l frente del coche y luego conectado a una pantalla de táctil de 7″ de modo que  la Pi y la pantalla táctil pueden ser alimentados por el adaptador USB en el coche.

Estos  son los pasos para instalar la cámara especifica para su uso , con la Raspberry Pi 

    • Localice el puerto de la cámara y conecte la cámara:Connect the camera
    • Poner en marcha la Raspberry Pi 
    • Abra la Herramienta de configuración de frambuesa Pi desde el menú principal:Raspberry Pi Configuration Tool
    • Asegúrese de que está activado el software de la cámara:Camera software enabled
    • Si no está activado, habilítelo y reinicie su Pi para comenzar. Asimismo si va utilizar una pantalla táctil también necesitara activar I2C  y SPI

Es decir resumidamente;  con la Raspberry Pi apagada, debe conectar el módulo de la cámara al puerto de la cámara de la Raspberry Pi,ahora encienda el Pi  y asegúrese de que se activa el software.

Conexión de un pantalla táctil(opcional)

Existen pantallas TFT para Raspberry Pi con  resolución de 320×240 (16-bits) que además son táctiles con una pantalla resistiva. Se entregan montadas y suelen ser  compatible con los modelos Raspberry Pi Model A+, B+ y Pi 2  disponiendo  además de de un conector de 40 pines para los GPIO.

La pantalla y el digitalizador   utilizan los pines I2C (SDA y SCL), SPI (SCK, MOSI, MISO, CE0) y los pines GPIO #24 y #25. Todos los demás pines GPIO no se utilizan así que podrá conectar más cosas como sensores, LEDs etc. Algunos modelos disponen deposiciones para pulsadores miniatura (no incluidos) por si quiere hacer algún otro tipo de interfaz de usuario.

Puede utilizarla utilizar la librería PyGame u otra librería SDL para dibujar directamente en el frame buffer y hacer interfaces propios.

Tenga en cuenta que para que funcione debe tener activado el I2C en tu Pi o se quedará en blanco. Si utiliza la imagen de Adafruit funcionará sin problema, sino puedes ver su tutorial para ver cómo hacerla funcionar.

La conexión de este tipo de pantallas suele ser por el  propio conector de 25 pines  y por hdmi con un adaptador

Respecto al sw, estos son los pasos  que puede  seguir;

!Ojo el conector plano de la pantalla pues es MUY frágil y debe manejarse con cuidado.!

Montaje final

Una vez montada  la pantalla y la cámara , encender el coche, la Pi y la pantalla . Para ver la camara   de la Pi, abra el terminal y ejecute simplemente  el  siguiente  script:

raspivid -t 0

o

raspivid -t 0 --mode 7

Después de entrar esto ,   la imagen captada por la cámara debería aparecer  en pantalla  completa , pero  !ojo !  no lo veremos  si estamos conectado via VNC!, es decir ,solo si estamos conectados a la propia  Raspberry Pi .

Lo bueno de a Raspberry Pi  es que se puede mejorar  esta forma básica , y tal vez incluso establecer un sistema de alerta si un objeto esta   demasiado cerca , así que, ! vamos a trabajar en ese lado!

 

DETECCIÓN DE OBJETOS

Cuando se trata de aplicaciones de  cámaras de seguridad comerciales, generalmente hay al menos dos versiones  .La primera utiliza una superposición de una imagen estática con gamas de color para que visualmente puede determinarse cuánto de  cerca está un objeto. El segundo método utilizara una cámara junto con sw  que puede detectar un objeto qué tan cerca esta al coche y luego avisa cuando algo está demasiado cerca
Veamos en este post en primer lugar le método de overlay, el cual por cierto es el mas usado en los implementaciones de cámaras traseras de coches actuales.

 

 

Tecnologia española en Kickstarter


La EBT de la Universidad de Almería, NeuroDigital Technologies acaba de lanzar su campaña de crowdfunding para Gloveone en la plataforma norteamericana Kickstarter.

En menos de 24h ya se ha superado la cifra de $10.000 de los $150.000 necesarios para el éxito del proyecto , de hecho a día de hoy ya cuentan  con 47.452 $. Este  tope   de financiación requerida por NeuroDigital es para  destinarla a llevar a cabo el proceso de fabricación en serie del primer lote de unidades del guante háptico que revolucionará el mundo de la Realidad Virtual.

 

guante

Es  quizás  uno de los dispositivos más vanguardistas en la realidad virtual. Hasta ahora, la mayoría de los desarrollos dentro de la industria se han centrado sólo en el sentido de la vista en las experiencias de realidad virtual. Sin embargo, ¿qué es lo primero que la gente hace después de que ponen en un auricular VR? Ellos tratan de tocar y sentir todo! Ahora esto es posible con Gloveone!

Gloveone permite a los usuarios sentir y tocar cualquier objeto virtual que se puede ver en la pantalla o en sus auriculares de realidad virtual. Si una manzana virtual se muestra en la pantalla, con Gloveone usted será capaz de sentir su forma o peso, sentir todas sus características físicas, e incluso romperlo!

Se trata de la traducción de las sensaciones táctiles en vibraciones. Hay 10 actuadores distribuidos a lo largo de la palma y los dedos de Gloveone, que vibran de forma independiente en diferentes frecuencias e intensidades, que reproducen las sensaciones táctiles precisos.
https://vimeo.com/129434792
Han completado con éxito nuestra etapa inicial de prototipos, y ahora necesitan el apoyo  económico para construir una comunidad de desarrolladores alrededor Gloveone para crear sensaciones que nunca se sintieron antes. Por otra parte, es muy caro de producir pequeños lotes de prototipos.Es por eso que necesitan e fabricar más de 700 unidades con el fin de que sea asequible para cualquier usuario.

Gracias a más de un año de desarrollo, han  identificado las características que son importantes para los desarrolladores, gamers y profesionales. A pesar de que estan en una fase de prototipo avanzado, la  visión de este equipo siempre ha sido convencer al usuario final.

Estas son algunas de las características del prototipo que quieren llevar al mercado:

Gloveone tiene que ver con retroalimentación háptica. No proporciona funciones de seguimiento espacio aún así, en la actualidad, que se basan en sensores auxiliares como Leap Motion o Intel REALSENSE para el seguimiento de la mano, pero también se puede integrar Gloveone con cualquier otro sensor o la tecnología (por ejemplo, Microsoft Kinect, OpenCV).Por otra parte, estamos estudiando la posibilidad de integrar Gloveone con sistemas de localización absolutos como Faro de Valve.

En otras palabras, Gloveone es virtualmente compatible con cualquier tecnología con la que le gustaría integrarse.

Gloveone también incluye un sensor IMU 9 ejes por lo que podría hacer uso de esos datos para mejorar la experiencia con Gloveone.

Gloveone permite ejecutar comandos con sólo tocar los dedos. Cuatro sensores situados en su palma, pulgar, índice y dedo medio detectan el contacto entre ellos, y se puede utilizar para disparar una pistola, agarra un pétalo o para controlar el menú. A diferencia de otros sistemas de reconocimiento de gestos, comandos de contacto activados por no sufren de falsos positivos o negativos, que puede ser muy frustrante para los usuarios.

Hn  creado un sitio de desarrolladores disponibles para usted en : http://www.gloveonevr.com/developer.  De esa manera podría comprobar que una gran cantidad de trabajo ya está hecho y que Gloveone está listo para la fiesta! De hecho, hay algunas unidades de Gloveone distribuidos entre algunas de las empresas más importantes de Perceptual Computing y VR sólo para hacer su tecnología compatible con el nuestro y estar listo para el nuevo tocable-VR.

Actualmente el prototiopo es compatibel con windows . Hay Release Candidate API, Docs, tiempo de ejecución y el SDK para desarrolladores y aún más, hay una «Gloveone Manager» para Windows, donde los usuarios son capaces de emparejar configurar y poner a prueba su gloveone de.

En caso de éxito, Gloveone será compatible con Windows, Linux y OS X, así como C ++ Lib y C # Wrapper. En función de la compatibilidad de los sensores del sistema operativo, la Unidad 5.x guiones listos serán publicados con el fin de utilizar Gloveone con Leap Motion e Intel REALSENSE en la forma más fácil y óptima.

 

 

 

Mas información aqui

Novedades Gooogle IO 2015


Google I / O reúne a los mejores desarrolladores de Android del mundo y muestra lo mejor de lo que viene después para Android. Es una gran fiesta friki pero tiene ramificaciones enormes para el resto de nosotros también, nos da nuestros primeros atisbos de lo que estará haciendo Google   no solo en nuestros teléfonos inteligentes en los próximos meses sino en muchísimas  más  cosas  como vamos a ver a continuación:

 

Android M 

Ya sabemos que la vista previa para desarrolladores de Android M llega en E / S , pero los últimos rumores de Android Police  son para tener la versión final listo para el lanzamiento en agosto, septiembre no, como habíamos pensado en un principio.

Mientras tanto, un Fast Company entrevista con Google vicepresidente de ingeniería, Hiroshi Lockheimer, vio la confirmación ejecutivo que Android M de hecho será lanzado en 2015 – no exactamente inesperado, pero la confirmación, no obstante. La vista previa Android M se centrará en las optimizaciones de la batería y la gestión de memoria RAM .

Así que, ¿cómo va todo el trabajo? Cuando la versión Android M aparece en la I / O, es porque que sólo será una acumulación de vista previa para ayudar a los desarrolladores a que comiencen actualizar  sus aplicaciones, por lo que Android 5.2 / Android 6.0, serán   la acumulación de Android M  que  sólo se llegará como una versión final más adelante en el año.

 Android Wear

Esta es una de las áreas que realmente parece que Google debería concentrarse en este año en el I / O. Al menos, esta es el área que necesita la mayor atención de todos modos.

Android Wear sigue siendo una plataforma muy joven, pero con el Apple Watch  ahora fuera y varios socios de Android ya desarrollando (o abierto a desarrollar) su propia plataforma portátil para compensar el fracaso de Google para mejorar Wear suficientemente rápido, esto tiene que ser en Google de radar para 2015.

Sólo hay soporte Wi-Fi para los relojes de desgaste, con la ayuda del altavoz entrante, así y todo lo que hemos escuchado los rumores de que Google está trabajando en apoyo iOS para Android Wear . La sesión de E / S para desgaste se centrará en la siempre activa la funcionalidad de pantalla introducido recientemente en la últimaactualización de Android Wear , pero lo que queremos saber es: ¿cuándo es la próxima gran versión de Android Use establecido en llegar y lo que hará que llevar?

 

 Nuevos smartwatches

En Google I / O 2014, no uno, sino tres nuevos smartwatches se dieron a conocer: el tan esperado Moto 360, el LG G Watch y el Samsung Gear. Los dos últimos eran los proyectos de Google, diseñado para mostrar Android Wear en sus primeras etapas.

El Moto 360 parece  completo y durante mucho tiempo fue el SmartWatch  para tener (y en muchos aspectos, sigue siendo). Sabemos que el Moto 360 segunda generación se acerca a la línea de meta de la liberación y LG y Samsung siempre están bombeando a cabo nuevos relojes, por lo que cualquier anuncio de desgaste Android bien podríamos ir acompañado de un par de nuevos smartwatches en los que una demostración de ellos.

 

Google Fotos

Todos sabemos que Google está dando vueltas a la fuga, con planes en marcha para despojar a cabo diversos elementos de la plataforma social y dejar el esqueleto a la putrefacción. El primer paso en este proceso también puede ver la luz del día en la I / O con el lanzamiento de propia plataforma para compartir fotos y almacenamiento de servicio de Google , la intención de rivalizar con Facebook e Instagram. No sabemos mucho todavía, pero éste está pareciendo más seguro cada día.

 

 Proyecto Ara

El smartphone project modular tiene ahora su propia conferencia de desarrolladores y ya se entreve  lo que viene después de Proyecto Ara , así que no hay razón para esperar demasiadas noticias Ara en Google I / O 2015.

Ya sabemos que se dará a conocer en agosto, pero aún queda una sesión prevista en la I / O, lo que significa por lo menos deberíamos obtener una práctica con una unidad de funcionamiento. Quién sabe, I / O asistentes podría incluso conseguir un dispositivo de liberación temprana Ara (o la promesa de uno) en la bolsa de regalos de E / S infame.

 

 Proyecto Fi

Google se convirtió recientemente en un mismo soporte, a través del lanzamiento de su meta-portadora Proyecto Fi .Proyecto Fi básicamente le permite cambiar entre los clientes la mejor señal – independientemente de la red – dependiendo de su ubicación, así como utilizar gratis hotspots Wi-Fi siempre que sea posible, esencialmente, que proporcionan un » mejor de los mundos ‘servicio de transporte.

Actualmente sigue restringida a la Nexus 6 en los EE.UU., estamos esperando oír un poco más acerca del Proyecto Fi en I / O 2105.

 Proyecto Tango

La tableta sensible al contexto que tiene una percepción espacial casi-humano se muestra fuera de prototipos en el medio del año pasado por la tecnología avanzada y Proyectos grupo de Google (ATAP). Desde entonces, sin embargo, cuando los prototipos fueron distribuidos a los desarrolladores, Proyecto Tango tipo de ha guardado silencio.

Proyecto Tango no es claramente listo para el horario estelar por el momento, por lo que no esperaría ningún gran noticia en la I / O, pero, como Ara, esperamos que esté ahí en alguna forma. Hay una sesión de ATAP planeada que promete » soplar con la boca abierta », así que no podemos esperar para saber lo que es eso.

 

Chromecast 2

El Chromecast fue uno de los éxitos sorpresa de los últimos tiempos. El pequeño dongle sin pretensiones simplemente se conecta a su televisor y permite que usted eche remotamente el contenido de su teléfono o tableta a la pantalla grande. Bastante simple, pero engañosamente impresionante. De todos los posibles dispositivos nuevos que puedan aparecer en la I / O, la Chromecast 2 parece la más probable.

 Android Auto

Si tuviéramos que poner dinero, nos gustaría decir E / S será principalmente de tres cosas: Android M, Android Auto y Android Home. Ya hemos visto estos empujado fuertemente en toda la ferias de este año y tiene sentido para Google que  estén empujando ellos también.

La diferencia es que Google debe empujar al siguiente nivel. Esperar a ver un coche de auto-conducción de Google en la I / O y para algunos más grandes noticias que Android Auto: posiblemente incluso un anuncio o presentación de Android Auto como sistema operativo independiente, en lugar de una interfaz de streaming desde su teléfono.

La realidad virtual

Carton Google glasess  del que hemos hablado en este blog  fue  una peculiar oferta que sorprendió a todo el mundo en el año pasado de E / S. El casco de do-it-yourself VR volvió cualquier smartphone en un bajo presupuesto interfaz de realidad virtual. Con varios personal clave de Google recientemente cambiando departamentos de la unidad responsable de Google Cartón, estamos pensando que podría ser un enfoque mucho más fuerte en la VR en este año de E / S.

 

 Google Home

El tercer pilar de nuestras expectativas Google I / O, Google Home es probable que obtenga una gran cantidad de atención también. Google ha estado tratando de conseguir Android en su casa – o más específicamente de su sala de estar – por el tiempo que podemos recordar.

Casas inteligentes, entretenimiento y dispositivos conectados en el Internet de las cosas que seguramente será una alta prioridad para Google en el 2015 también. Si tenemos suerte veremos grandes noticias en torno Nest, el termostato inteligente del hogar. En cualquier caso, el hogar conectado estará en el orden del día.

 

 

  Android TV

Android TV es  el último intento de Google para entrar en su sala de estar – seguramente compartir algo de la luz de calcio también. Ya hay un montón de nuevos televisores inteligentes, el Nexus player  está fuera de los mercados clave y en los próximos años todos estaremos actualizando nuestros tubos del boob existentes a los que tienen Android TV incorporado.  TV Android  estará en la alineación de E / S de este año.

 

Pagos  Android 

La respuesta de Google a Apple Pagso bien puede ser con una extensión de Google Wallet llamado Android de pago.Los detalles son vagos en este momento, pero un servicio de pago táctil basado en Android es sin duda en las obras.Estamos esperando una API de Android Pague con una actualización de Google Wallet, junto con un anuncio de apoyo a los minoristas y puntos de venta.

 

 Maps más universal

Google Maps no estaba disponible para todos los usuarios del mundo de forma en linea. Ahora Google Maps pasará a estar disponible offline.  En realidad, Google Maps no estaba disponible para descargar offline en lo que se refiere a todo el mundo. Y eso es un problema para usuarios que no tienen conexiones a Internet o que viven en zonas donde es fácil que cuando necesiten conexión, no la tengan. Ahora Maps permitirá descargar mapas offline y utilizar el navegador sin conexión. ¿Estarán disponibles todas las zonas por fin? Desgraciadamente, es un dato que Google no ha acabado de especificar, aunque lo más lógico sería pensar que sí, al fin y al cabo en eso consistía el anuncio. Pronto lo sabremos…

 

..Y un poca más

También estamos esperando / la esperanza de otras cosas interesantes como el diseño de materiales de apoyo a las bibliotecas, nuevas mejoras en el tiempo de ejecución ART para dispositivos Lollipop, Chromebook aplicación de noticias, la API de Android de huellas digitales, AndroidWork y tal vez algunos más noticias sobre el nuevo Android API cámara.

En cuanto a un nuevo dispositivo Nexus – el Nexus 5 (2015) o el Nexus 7 (2015) – que pensamos que tendrá que esperar hasta octubre o noviembre para nada en ese frente. Google Glass podría hacer acto de presencia, y nos podría incluso oír algo sobre el misterioso Google Rights Watch.

 

 

Fuente aqui

LLegan los guantes de realidad aumentada


En el CES de las Vegas,una spin off española     llamada  NeuroDigital Technologies  afincada  en Almeria , fundada por Francisco Nieto (Almería, 1971) y Luis Castillo (Almería, 1984), acaban de presentar  un  nuevo  guante mejorado de realidad virtual  que lo han bautizado con el nombre de   «GloveOne» al que  ya han solicitado la patente de la tecnología en Estados Unidos, China y Europa y que están realizando los ensayos con personas desde antes del verano con el objetivo de publicar un estudio. La siguiente parada será en el Mobile World Congress que se celebrará en marzo en Barcelona.

Aunque  tienen previsto  presentarlo  la división de capital riesgo de Intel en Estados Unidos antes de que acabe este año,su principal vía de financiación la quieren obtener  por  Kickstarter, en la que esperan conseguir al menos unas 700 reservas iniciales.  El objetivo es poder ofrecer una versión del guante para desarrolladores a 199 €, aunque  a mediados del próximo año tienen previsto lanzar una versión mejorada y lanzarían la versión definitiva en enero del año  que viene.

Asimimo también  están  en conversaciones con Panasonic y Sony para ver la posibilidad de integrar su tecnología en la electrónica de consumo y los productos de realidad virtual de estas marcas -como sería el casco de VR de Sony, Morpheus-.

Aunque los guantes de realidad aumentada ya existían (de hecho hay un prototipo con ese mismo nombre ) ,el gran factor diferencial es  su característica de  transmitir sensaciones táctiles de  forma inalámbrica   al portador del guante  gracias a unos pequeños sensores que toman contacto con cada dedo.

Aunque    tiene interesantisimas  aplicaciones en el campo del e-health han decidido  darlo a conocer primero  a través de los videojuegos ya que  el guante se puede integrar con juegos que ya existen sin tener que rehacerlos y, de ese modo, «enriquecer la experiencia de los títulos que están en el mercado».

El guante permitiría tocar y sentir lo que aparece en la pantalla. Por ejemplo, si ve una fruta puedes sentir su textura, el volumen,e  interactuar con ella. Y si está con un videojuego de lucha por ejemplo  puede sentir el impacto de un golpe en la mano. Si además usa unas gafas de realidad virtual, la inmersión ya sería  total de  modo que GloveOne podrían revolucionar el sector de los videojuegos (de hecho, aspiran a es que la industria del videojuego “adopte el guante” a sus títulos punteros, de forma que el usuario sólo tenga que conectarlo a la consola. )

 

Especialmente interesante  es  todo lo relacionado  con  el campo de la biomedicina, pues de hecho  ya cuentan con una aplicación para rehabilitación oftalmológica que consigue que pacientes de ojo vago, hasta ahora irrecuperables, vuelvan a ver. Para ello, a través de un videojuego, permiten que el paciente pueda entrenar de forma diferenciada cada uno de los ojos.  Por otra parte, también han realizado pruebas con terapia de la enfermedad de Alzheimer recreando entornos familiares para los pacientes.

Asimismo, GloveOne se podría usar en líneas de rehabilitación física, visual y neurológica.

Ojalá todas esas ideas especialmente een el campo de la salud muy pronto se hagan una realidad

Mas información aqui

 

Nuevas gafas caseras de realidad aumentada de Google


David Coz y Damien Henry en el Instituto Cultural de Google en París construyeron  una vivienda de teléfonos inteligentes de cartón para crear prototipos de experiencias de realidad virtual como parte de un proyecto de 20%. Los resultados provocaron tantas exclamaciones y ahs que inspiraron a un grupo más grande para trabajar en un SDK experimental de modo que  la  comunidad de desarrolladores de Google quieren que todos experimenten la realidad virtual de un modo sencillo, divertido y barato. Ese es el objetivo del proyecto de cartón.

La realidad virtual ha hecho progresos emocionantes en los últimos años. Sin embargo, el desarrollo de VR aún requiere costosos hardware especializado. Pensando en cómo hacer VR accesible a más personas, un grupo de entusiastas de RV en Google experimentó con el uso de un teléfono inteligente para impulsar experiencias de realidad virtual.

El resultado es de cartón, una caja de bajo coste que transforma un smartphone  Android   en un dispositivo de realidad virtual básica, y lo acompaña  la herramienta de software libre que hace que la escritura de software VR tan simple como la construcción de una web o aplicación móvil.

Por lo que es fácil y barato para experimentar con VR, esperan animar a los desarrolladores a construir la próxima generación de experiencias digitales envolventes y ponerlos a disposición de todos.

Construir un visor VR de artículos de uso diario que puede encontrar en su garaje, en línea o en su ferretería local.

Esto es lo que necesita para empezar:

Ingredientes de cartón
  1. Cartón
    Lámina de cartón corrugado, preferiblemente E Flute (cartón corrugado viene en una variedad de espesores llamado «flautas»), disponible en muchas tiendas de artículos de arte y en línea. Para obtener los mejores resultados, usted debe buscar cartón fuerte y delgado (caja de zapatos resistentes en lugar de cuadro en movimiento). Tamaño mínimo: 8.75in (22 cm) por 22in (56cm) y 0.06in (1,5 mm) de espesor. Fuentes en línea aquí y aquí
  2. Lentes
    Este es el componente más difícil. Los objetivos que estén a una distancia focal de 40 mm deben trabajar. Lentes biconvexas funcionan mejor, ya que impiden la distorsión en los bordes. Se utilizó el Durovis Kit OpenDive Lente disponible aquí (EE.UU.) y aquí (UE).
  3. Imanes
    Un imán de anillo de neodimio – como esta o esta – y un imán de disco de cerámica – como esta o esta . Tamaño aproximado: 0.75in (19 mm) de diámetro y 0.12in (3 mm) de espesor.
  4. Velcro
    Dos tiras de velcro fuerza adhesiva normal . Tamaño aproximado: 0.75in (20 mm) por 1,25 in (30 mm).
  5. Banda elástica
    Una banda de goma , para evitar que el teléfono se deslice fuera. La longitud mínima de 3.2in (8 cm).
  6. Tag NFC (opcional)
    Una etiqueta NFC etiqueta . Programa con el cartón URL :/ / v1.0.0

Usted también necesitará una regla, pegamento, y tijeras, una navaja X-acto, o el acceso a una cortadora láser.


Software

 

Utilice el kit de herramientas de VR experimental para construir experiencias de inmersión que trabajan con cartón y otros espectadores.

Han creado un tutorial y aportado  documentación para ayudarle a empezar. Debido a que este SDK es experimental, no va a recibir el mismo nivel de apoyo como núcleo SDKs y bibliotecas Android.

Las cosas pueden cambiar o romper a medida que continuantrabajando, pero los proyectos que construya  y la retroalimentación que usted proporcione guiarán versiones posteriores.


Preguntas más frecuentes

¿Funciona el prototipo  con con cualquier teléfono?

Funciona con la mayoría de los teléfonos Android modernos. Teléfonos deben estar ejecutando Android 4.2 (Jelly Bean) o superior. Idealmente deben apoyar NFC también.Aquí hay una lista de los teléfonos que han probado que son compatibles con cartón.


¿Puedo usar el cartón, incluso si me pongo las gafas?

Sí. Es posible que desee cortar las aletas a ambos lados del espectador. Hay una línea de plegado pre-cortado en ambos lados del espectador a hacer esto más fácil.


¿Qué pasa si mi teléfono no hace nada cuando inserto en cartón?

Asegúrese de que usted tiene NFC activado. También asegúrese de que usted tiene la aplicación Cartón Android instalado.


¿Cómo puedo probar mi propia aplicación sin tener la demo popup cartón al insertar el teléfono?

El mejor método es configurar su aplicación para manejar la URL NFC: cartón :/ / v.1.0.0. Como alternativa, puede desactivar NFC en los ajustes del teléfono.


Cuando trato de ver el sitio Chrome VR utilizando cartón, lanza la demo. ¿Cómo puedo evitar esto?

Instale la aplicación Android de cartón y se deja siempre controlar el evento NFC desde el visor de cartón. La aplicación de cartón no se iniciará cuando se tiene otra aplicación en primer plano.También puede desactivar NFC en los ajustes del teléfono.


¿Cuáles son los imanes para y puedo usar cartón sin ellos?

El imán se utiliza para hacer clic dentro de demos. Cuando tire y suelte el anillo, el magnetómetro de su teléfono detecta los cambios en el campo magnético. experimentos Chrome actualmente no utilizan el imán, pero usted va a necesitar probar la aplicación Android de cartón .

No todos los teléfonos serán capaces de detectar tirones imán. Usted puede utilizar cartón sin el imán pegando cinta de cobre a lo largo del lado del espectador y hacer que entre en contacto con la pantalla del teléfono. Al puntear dos veces en la cinta de cobre con el dedo, el teléfono va a reaccionar como si se hubiera detectado un tirón imán.


¿Qué significa la etiqueta NFC hacer y puedo usar la aplicación de cartón sin NFC?

NFC se utiliza para activar el lanzamiento de la aplicación Android de cartón de forma automática. También puede iniciar la aplicación de cartón desde el iniciador de Android antes de poner su teléfono en el interior de la caja


¿Qué significa que el kit de herramientas de realidad virtual es experimental?

Significa que no van a apoyar el Kit de herramientas de realidad virtual en el mismo nivel o la calidad que apoyan SDKs y bibliotecas de núcleo Android. Y las cosas pueden cambiara medida que siguen trabajando en ello.

Estan compartiendo en esta etapa temprana para dar a los desarrolladores la oportunidad de experimentar con él .


¿Dónde están los videos esféricas en el Experimento VR Chrome desde?

Los videos esféricas son proporcionados por cortesía de AirPano .


¿Puedo utilizar una caja de pizza para el cartón?

Sí.! Asegúrese  de que pedir una extra grande!

 

 

Fuente aqui

Magia 2.0


Marco Tempest  (que es bien conocido en el mundo de la mágia por apoyarse en la tecnología para realizar sus ilusiones )  esta vez   teje una hermosa historia de lo que la magia es, cómo nos entretiene y cómo se destaca nuestra humanidad contando una bonita historia llena de trucos muy visuales, al mismo tiempo que trabaja ilusiones extraordinarias con las manos y gracias a una máquina de realidad aumentada.

 

TEDTalks son   podcast de vídeo todos los días de las mejores charlas y actuaciones de la Conferencia TED , donde los principales pensadores y hacedores del mundo dan la charla de su vida en 18 minutos . Entre los oradores han incluido Al Gore sobre el cambio climático , Philippe Starck en el diseño, Jill Bolte Taylor en la observación de su propio recorrido, Nicholas Negroponte en One Laptop per Child , Jane Goodall sobre los chimpancés , Bill Gates sobre la malaria y los mosquitos , Pattie Maes en el «Sexto Sense » tecnología portátil , y» Lost » productor JJ Abrams en el encanto del misterio. TED significa Tecnología , Entretenimiento y Diseño , y TEDTalks cubrir estos temas , así como la ciencia , los negocios , el desarrollo y las artes. Los subtítulos y los subtítulos traducidos en varios idiomas están disponibles en TED.com , en http://www.ted.com/translate