En el impulso por desarrollar sistemas robóticos que puedan sentir e interactuar con su entorno, se han realizado enormes inversiones en visión artificial. Hemos visto los frutos de estas inversiones en una amplia gama de aplicaciones, desde automóviles autónomos hasta la automatización de robots industriales. Si bien estos esfuerzos han tenido mucho éxito, los sensores ópticos no son la solución ideal para todos los casos de uso. Las tareas de manipulación de objetos, por ejemplo, suelen requerir información táctil para manipular con precisión y seguridad los objetos de interés. Puede imaginar un enfoque híbrido en el que los métodos de visión por computadora localicen el objeto y dirijan un robot a la posición correcta. A partir de ahí, los sensores táctiles dentro de una mano robótica brindan información sobre la fragilidad o robustez del objeto y ayudan a crear un plan para llevar a cabo las intenciones del robot.
En comparación con la visión por computadora, se ha dedicado mucha menos atención al desarrollo de sensores táctiles, lo que los hace generalmente menos sofisticados que sus contrapartes ópticas. Esto ha dificultado el desarrollo de robots que sean capaces de generar una comprensión de alta resolución de su entorno mediante la integración de datos de múltiples tipos de sensores.
En un esfuerzo por comenzar a abordar las deficiencias en la tecnología de detección táctil actual, un equipo de ingenieros de ETH Zürich ha desarrollado un dispositivo que llaman SmartHand .
SmartHand es un sistema integrado de hardware y software creado para recopilar y procesar información táctil de alta resolución de una matriz de sensores múltiples en forma de mano en tiempo real.
Arquitectura del sistema (📷: X. Wang et al.)
El dispositivo SmartHand utiliza una rejilla sensora táctil resistiva de bajo costo, basada en un compuesto de polímero conductor, que se pega a un guante. Se adjunta una unidad de medición inercial (IMU) en la parte posterior del guante para proporcionar información adicional sobre el movimiento. Los datos de los 1024 sensores táctiles (dispuestos en una cuadrícula de 32 por 32) y la IMU se introducen en una placa de descubrimiento STM32F769NI conectada a la muñeca a través de una serie de cables. Esta placa contiene un núcleo Arm Cortex-M7 que funciona a 216 MHz, con 2 MB de memoria flash y 532 kB de RAM.
Para demostrar SmartHand, los investigadores querían poder detectar qué tipo de objeto sostenía la mano. Para ello, se creó y entrenó una red neuronal convolucional, basada en la arquitectura ResNet-18, para reconocer la relación entre los datos de los sensores y un conjunto de dieciséis objetos cotidianos. Se creó un conjunto de datos usando el dispositivo físico para que sirviera como datos de entrenamiento para el modelo. Recopilando mediciones a 100 cuadros por segundo (13,7 veces más rápido que el trabajo anterior), se generó un conjunto de datos táctiles que consta de 340.000 cuadros.
La red de sensores (📷: X. Wang et al.)
Al validar la red neuronal, se encontró que el modelo requiere un orden de magnitud menos de memoria y 15,6 veces menos cálculos, en comparación con los dispositivos actuales. Esto se logró manteniendo la red neuronal lo más compacta posible, sin sacrificar la precisión de las predicciones. Hablando de predicciones, se encontró que la precisión de clasificación top 1 del modelo alcanzó el 98,86% en el reconocimiento de objetos. Al mantener el procesamiento en el límite, el tiempo de inferencia se mantuvo en unos muy razonables 100 milisegundos.
Se observó que, debido a las propiedades inherentes de los materiales que componen la rejilla del sensor táctil, habrá cierto nivel de degradación con el uso repetido. Los primeros indicios sugieren que la degradación puede estabilizarse, lo que permitiría recalibrar el diseño actual después de un período de rodaje inicial sin ningún otro cambio. Actualmente están evaluando si este es el caso, o si la degradación del sensor continúa más allá de la meseta aparente, lo que requeriría más cambios de diseño antes de que sea posible el uso del dispositivo en el mundo real.
El equipo prevé que las técnicas de SmartHand se utilicen en futuras aplicaciones robóticas y protésicas de manos. Con un poco más de esfuerzo, este trabajo puede acercarnos a un mundo en el que los robots no parecen tan robóticos.
El término «Coche inteligente» puede tener miles de significados diferentes dependiendo a quién le preguntemos., así que empecemos con una definición modesta de algunos componentes que podemos añadir :
Información básica sobre el coche, como la marcha engranada, eficiencia de combustible, horas de conducción ,etc.
Ayudas a la conducción de tipo ADAS , siendo los mas comunes la puesta en marcha del coche delantero, acceso involuntario a línea de separación de carril o aviso de colisión por vehículo delantero que circula muy próximo
Cámara trasera inteligente que avise si un objeto está demasiado cercano
etc
Del primer punto lo hemos comentado en diferentes post , explicando que para automóviles de unos 10 años, es decir que cuentan con interfaz ODB2, es relativamente simple añadir un HUD con toda esta información con un HUD conectado por ODB2
Resumidamente los sistemas ADAS de ayuda a la conducción mas usuales son las siguientes:
FCWS del ingles Forward Colission Warning Sytem (advertencia de colisión delantera) ayuda al conductor a mantenerse a una distancia segura del vehículo delantero y alerta a los conductores de una colisión inminente con advertencias visuales y audibles.Este sistema permite al dispositivo detectar cuando no se mantiene una distancia segura entre su vehículo y el vehículo delante de usted. El dispositivo determinará la velocidad de su vehículo calculando una distancia estimada de siguiente segura basada en su velocidad.Normalmente para que esta función pueda estar habilitada se debe estar viajando a más de 48KM/H ( a una velocidad de menos de 32 KM/H, se suele desactivar la función). Precisamente por esta limitacion el FCWS no puede detectar los vehículos que están alejados más de 40m o más cerca de 5m.
LDWS del inglés Lane Departure Warning System ( SISTEMA DE ADVERTENCIA DE SALIDA DE CARRIL) monitorea las marcas del carril y avisa al conductor con advertencias visuales y audibles cuando ocurre una salida involuntaria del carril sin la notificación de la señal de giro.Es un mecanismo diseñado para advertir al conductor cuando el vehículo empieza a moverse fuera de su carril (salvo que una señal de la vuelta en esa dirección) en las autopistas y carreteras de la zona. Este sistema está diseñado para minimizar los accidentes por abordar las principales causas de colisiones: error del conductor , distracción y somnolencia.
HMW( VIGILANCIA Y ADVERTENCIA DEL AVANCE DE PISTA)- Mide la distancia al vehículo que está por delante (“headway”) en segundos. Ayuda al conductor a mantener una distancia segura de conducción. Alerta al conductor al entrar en una zona predefinida de “avance peligroso”
.
FVSA (ALARMA DE INICIO DEL VEHÍCULO DELANTERO ) Notifica al conductor si el vehículo delantero comienza a avanzar en el estado parado completo y el coche del conductor no se mueve en 2 segundos.
Casi todas estas ayudas ADAS están implementadas en numerosas cámaras disponibles en el mercado como vismo en este post destacando por voz propia el modelo Dash de Garmin
Respecto al ultimo punto de cámaras traseras , hay muchos kits para añadir una cámara trasera a nuestro vehículos usando una conexión analógica de video compuesto , lo cual se traduce en que la mayoría de ellas requieren hacer modificaciones al coche ,por ejemplo para ubicar la cámara en el porta-matriculas , o fijar la pantalla especifica de modo que no siempre en sencilla su instalación .Además las cámaras traseras comentadas requieren una fuente de alimentación externa alimentándose con los cables de las luces de atrás de su coche para que automáticamente se enciendan cuando el coche está en marcha lo cual tampoco le gusta a muchas personas .
Dado que el mercado no ofrece por el momento soluciones mas avanzadas una idea es usar la Raspberry Pi pues es la plataforma perfecta porque básicamente es un mini ordenador con un montón de entradas y salidas.
Al conectar una cámara a la Pi, se puede utilizar prácticamente cualquier webcam USB genérica, o por supuesto mejor puede usar una Cámara Pi conectada al conector DSI pues estas ofrecen una mayor calidad , versatilidad y no requiere una fuente de alimentación separada (pero asegúrese de tener un montón de cable para ir a la parte posterior del coche)
Solución con Raspberry Pi
Gracias a una Raspberry Pi por medio del procesamiento de imágenes en efecto podemos hacer más inteligente nuestro vehículo y añadir nuevas funcionalidades
Para esta idea podemos usar los siguientes componentes:
Adafruit CSI or DSI Cable Extender Thingy for Raspberry Pi (opcionalmente)
Conexión del módulo de cámara
El modulo de cámara de Pi tiene un mayor rendimiento que una cámara USB por lo que lo ideal es usar una cámara del tipo compatibles con Raspberry Pi (se puede comprar por unos 15€ en Amazon)
Se puede pues llevar el cable plano al l frente del coche y luego conectado a una pantalla de táctil de 7″ de modo que la Pi y la pantalla táctil pueden ser alimentados por el adaptador USB en el coche.
Estos son los pasos para instalar la cámara especifica para su uso , con la Raspberry Pi
Localice el puerto de la cámara y conecte la cámara:
Abra la Herramienta de configuración de frambuesa Pi desde el menú principal:
Asegúrese de que está activado el software de la cámara:
Si no está activado, habilítelo y reinicie su Pi para comenzar. Asimismo si va utilizar una pantalla táctil también necesitara activar I2C y SPI
Es decir resumidamente; con la Raspberry Pi apagada, debe conectar el módulo de la cámara al puerto de la cámara de la Raspberry Pi,ahora encienda el Pi y asegúrese de que se activa el software.
Conexión de un pantalla táctil(opcional)
Existen pantallas TFT para Raspberry Pi con resolución de 320×240 (16-bits) que además son táctiles con una pantalla resistiva. Se entregan montadas y suelen ser compatible con los modelos Raspberry Pi Model A+, B+ y Pi 2 disponiendo además de de un conector de 40 pines para los GPIO.
La pantalla y el digitalizador utilizan los pines I2C (SDA y SCL), SPI (SCK, MOSI, MISO, CE0) y los pines GPIO #24 y #25. Todos los demás pines GPIO no se utilizan así que podrá conectar más cosas como sensores, LEDs etc. Algunos modelos disponen deposiciones para pulsadores miniatura (no incluidos) por si quiere hacer algún otro tipo de interfaz de usuario.
Puede utilizarla utilizar la librería PyGame u otra librería SDL para dibujar directamente en el frame buffer y hacer interfaces propios.
Tenga en cuenta que para que funcione debe tener activado el I2C en tu Pi o se quedará en blanco. Si utiliza la imagen de Adafruit funcionará sin problema, sino puedes ver su tutorial para ver cómo hacerla funcionar.
La conexión de este tipo de pantallas suele ser por el propio conector de 25 pines y por hdmi con un adaptador
Respecto al sw, estos son los pasos que puede seguir;
!Ojo el conector plano de la pantalla pues es MUY frágil y debe manejarse con cuidado.!
Montaje final
Una vez montada la pantalla y la cámara , encender el coche, la Pi y la pantalla . Para ver la camara de la Pi, abra el terminal y ejecute simplemente el siguiente script:
raspivid -t0
o
raspivid -t0 --mode7
Después de entrar esto , la imagen captada por la cámara debería aparecer en pantalla completa , pero !ojo ! no lo veremos si estamos conectado via VNC!, es decir ,solo si estamos conectados a la propia Raspberry Pi .
Lo bueno de a Raspberry Pi es que se puede mejorar esta forma básica , y tal vez incluso establecer un sistema de alerta si un objeto esta demasiado cerca , así que, ! vamos a trabajar en ese lado!
DETECCIÓN DE OBJETOS
Cuando se trata de aplicaciones de cámaras de seguridad comerciales, generalmente hay al menos dos versiones .La primera utiliza una superposición de una imagen estática con gamas de color para que visualmente puede determinarse cuánto de cerca está un objeto. El segundo método utilizara una cámara junto con sw que puede detectar un objeto qué tan cerca esta al coche y luego avisa cuando algo está demasiado cerca
Veamos en este post en primer lugar le método de overlay, el cual por cierto es el mas usado en los implementaciones de cámaras traseras de coches actuales.
Metodo con overlay
Ya que el primer método parece más fácil, vamos a intentar implementarlo de ese modo pues esencialmente, es sólo una imagen que sobresale sobrepuesta a un flujo de vídeo, así que vamos a ver si recreándolo es tan fácil como parece.
Lo primero que necesitaremos es una superposición de imagen transparente,así que debemos usar una imagen calibrada que Gigafide ha dejado en el repositorio de github:
La imagen de arriba es exactamente 640 x 480, justa la misma resolución que la cámara estará retransmitiendo .
Esto se hizo intencionalmente, pero no dude en cambiar las dimensiones de la imagen si está transmitiendo en una resolución diferente(no se precoupe , esta imagen se puede descargar en fprmato original desde https://github.com/gigafide/pi-smart-car/tree/master/backup_overlay) .
Lo siguiente es que crearemos un sencillo script en Python utilizando el editor de imágenes de python PIL y PiCamera3
Este es el código escrito por GigaFide traducido por un servido y que tambien puede descargar de su github :
#Importar las dependencias requeridas import picamera from PIL import Image from time import sleep
#Iniciar un bucle con la cámara Pi with picamera.PiCamera() as camera:
#Ajustar la resolución , fps, giramos 180º y arrancar previsualizacion camera.resolution = (640, 480) camera.framerate = 24
#opcional si la imagen esta girada
camera.rotation=180
camera.start_preview()
#El tamaño de la imagen DEBE coincidir con la resolución de la cámara (640 x 480) # De lo contrario el código no funcionará img = Image.open(‘bg_overlay.png’)
#Haga la superposición semitransparente y cambie la
#defecto de capa de 0 (debajo de la capa de la cámara) a 3 (sobre la capa de la cámara) img_overlay.alpha = 128 img_overlay.layer = 3
# Esperar a que el usuario termine el script. while True: sleep(1)
Este fichero lo debemos guardar ,por ejemplo nombrándolo como image_overlay.py
Observe que se ha comentado en el código del script anterior que si se ve la vista previa al revés, se puede rotar dinámicamente la imagen con el siguiente código: camera.rotation=180
Lo he probado y es sorprendente porque no se observa prácticamente ningún retraso.
Una cosa muy importante tener en cuenta, sin embargo, es que debe tomar especial cuidado en calibrar su cámara para asegurarse de que la base de la vista del vídeo esta tan cerca de su parachoques como usted puede conseguirlo.
Este método de la prueba fue muy exitoso, pero también es muy básico asi que sería bueno tener un sistema que puede detectar hasta qué punto esta de cerca el objeto del coche y nos notifique si se pone demasiado cerca superpuesto a la señal de video así que dejamos para un segundo post si podemos detectar objetos mediante visión artificial gracias a la potencia de nuestra Raspberry Pi.
La EBT de la Universidad de Almería, NeuroDigital Technologies acaba de lanzar su campaña de crowdfunding para Gloveone en la plataforma norteamericana Kickstarter.
En menos de 24h ya se ha superado la cifra de $10.000 de los $150.000 necesarios para el éxito del proyecto , de hecho a día de hoy ya cuentan con 47.452 $. Este tope de financiación requerida por NeuroDigital es para destinarla a llevar a cabo el proceso de fabricación en serie del primer lote de unidades del guante háptico que revolucionará el mundo de la Realidad Virtual.
Es quizás uno de los dispositivos más vanguardistas en la realidad virtual. Hasta ahora, la mayoría de los desarrollos dentro de la industria se han centrado sólo en el sentido de la vista en las experiencias de realidad virtual. Sin embargo, ¿qué es lo primero que la gente hace después de que ponen en un auricular VR? Ellos tratan de tocar y sentir todo! Ahora esto es posible con Gloveone!
Gloveone permite a los usuarios sentir y tocar cualquier objeto virtual que se puede ver en la pantalla o en sus auriculares de realidad virtual. Si una manzana virtual se muestra en la pantalla, con Gloveone usted será capaz de sentir su forma o peso, sentir todas sus características físicas, e incluso romperlo!
Se trata de la traducción de las sensaciones táctiles en vibraciones. Hay 10 actuadores distribuidos a lo largo de la palma y los dedos de Gloveone, que vibran de forma independiente en diferentes frecuencias e intensidades, que reproducen las sensaciones táctiles precisos. https://vimeo.com/129434792
Han completado con éxito nuestra etapa inicial de prototipos, y ahora necesitan el apoyo económico para construir una comunidad de desarrolladores alrededor Gloveone para crear sensaciones que nunca se sintieron antes. Por otra parte, es muy caro de producir pequeños lotes de prototipos.Es por eso que necesitan e fabricar más de 700 unidades con el fin de que sea asequible para cualquier usuario.
Gracias a más de un año de desarrollo, han identificado las características que son importantes para los desarrolladores, gamers y profesionales. A pesar de que estan en una fase de prototipo avanzado, la visión de este equipo siempre ha sido convencer al usuario final.
Estas son algunas de las características del prototipo que quieren llevar al mercado:
Gloveone tiene que ver con retroalimentación háptica. No proporciona funciones de seguimiento espacio aún así, en la actualidad, que se basan en sensores auxiliares como Leap Motion o Intel REALSENSE para el seguimiento de la mano, pero también se puede integrar Gloveone con cualquier otro sensor o la tecnología (por ejemplo, Microsoft Kinect, OpenCV).Por otra parte, estamos estudiando la posibilidad de integrar Gloveone con sistemas de localización absolutos como Faro de Valve.
En otras palabras, Gloveone es virtualmente compatible con cualquier tecnología con la que le gustaría integrarse.
Gloveone también incluye un sensor IMU 9 ejes por lo que podría hacer uso de esos datos para mejorar la experiencia con Gloveone.
Gloveone permite ejecutar comandos con sólo tocar los dedos. Cuatro sensores situados en su palma, pulgar, índice y dedo medio detectan el contacto entre ellos, y se puede utilizar para disparar una pistola, agarra un pétalo o para controlar el menú. A diferencia de otros sistemas de reconocimiento de gestos, comandos de contacto activados por no sufren de falsos positivos o negativos, que puede ser muy frustrante para los usuarios.
Hn creado un sitio de desarrolladores disponibles para usted en : http://www.gloveonevr.com/developer. De esa manera podría comprobar que una gran cantidad de trabajo ya está hecho y que Gloveone está listo para la fiesta! De hecho, hay algunas unidades de Gloveone distribuidos entre algunas de las empresas más importantes de Perceptual Computing y VR sólo para hacer su tecnología compatible con el nuestro y estar listo para el nuevo tocable-VR.
Actualmente el prototiopo es compatibel con windows . Hay Release Candidate API, Docs, tiempo de ejecución y el SDK para desarrolladores y aún más, hay una «Gloveone Manager» para Windows, donde los usuarios son capaces de emparejar configurar y poner a prueba su gloveone de.
En caso de éxito, Gloveone será compatible con Windows, Linux y OS X, así como C ++ Lib y C # Wrapper. En función de la compatibilidad de los sensores del sistema operativo, la Unidad 5.x guiones listos serán publicados con el fin de utilizar Gloveone con Leap Motion e Intel REALSENSE en la forma más fácil y óptima.
Google I / O reúne a los mejores desarrolladores de Android del mundo y muestra lo mejor de lo que viene después para Android. Es una gran fiesta friki pero tiene ramificaciones enormes para el resto de nosotros también, nos da nuestros primeros atisbos de lo que estará haciendo Google no solo en nuestros teléfonos inteligentes en los próximos meses sino en muchísimas más cosas como vamos a ver a continuación:
Android M
Ya sabemos que la vista previa para desarrolladores de Android M llega en E / S , pero los últimos rumores de Android Police son para tener la versión final listo para el lanzamiento en agosto, septiembre no, como habíamos pensado en un principio.
Mientras tanto, un Fast Company entrevista con Google vicepresidente de ingeniería, Hiroshi Lockheimer, vio la confirmación ejecutivo que Android M de hecho será lanzado en 2015 – no exactamente inesperado, pero la confirmación, no obstante.La vista previa Android M se centrará en las optimizaciones de la batería y la gestión de memoria RAM .
Así que, ¿cómo va todo el trabajo?Cuando la versión Android M aparece en la I / O, es porque que sólo será una acumulación de vista previa para ayudar a los desarrolladores a que comiencen actualizar sus aplicaciones, por lo que Android 5.2 / Android 6.0, serán la acumulación de Android M que sólo se llegará como una versión final más adelante en el año.
Android Wear
Esta es una de las áreas que realmente parece que Google debería concentrarse en este año en el I / O.Al menos, esta es el área que necesita la mayor atención de todos modos.
Android Wear sigue siendo una plataforma muy joven, pero con el Apple Watch ahora fuera y varios socios de Android ya desarrollando (o abierto a desarrollar) su propia plataforma portátil para compensar el fracaso de Google para mejorar Wear suficientemente rápido, esto tiene que ser en Google de radar para 2015.
Sólo hay soporte Wi-Fi para los relojes de desgaste, con la ayuda del altavoz entrante, así y todo lo que hemos escuchado los rumores de que Google está trabajando en apoyo iOS para Android Wear .La sesión de E / S para desgaste se centrará en la siempre activa la funcionalidad de pantalla introducido recientemente en la últimaactualización de Android Wear , pero lo que queremos saber es: ¿cuándo es la próxima gran versión de Android Use establecido en llegar y lo que hará que llevar?
Nuevos smartwatches
En Google I / O 2014, no uno, sino tres nuevos smartwatches se dieron a conocer: el tan esperado Moto 360, el LG G Watch y el Samsung Gear.Los dos últimos eran los proyectos de Google, diseñado para mostrar Android Wear en sus primeras etapas.
El Moto 360 parece completo y durante mucho tiempo fue el SmartWatch para tener (y en muchos aspectos, sigue siendo).Sabemos que el Moto 360 segunda generación se acerca a la línea de meta de la liberación y LG y Samsung siempre están bombeando a cabo nuevos relojes, por lo que cualquier anuncio de desgaste Android bien podríamos ir acompañado de un par de nuevos smartwatches en los que una demostración de ellos.
Google Fotos
Todos sabemos que Google está dando vueltas a la fuga, con planes en marcha para despojar a cabo diversos elementos de la plataforma social y dejar el esqueleto a la putrefacción.El primer paso en este proceso también puede ver la luz del día en la I / O con el lanzamiento de propia plataforma para compartir fotos y almacenamiento de servicio de Google , la intención de rivalizar con Facebook e Instagram.No sabemos mucho todavía, pero éste está pareciendo más seguro cada día.
Proyecto Ara
El smartphone project modular tiene ahora su propia conferencia de desarrolladores y ya se entreve lo que viene después de Proyecto Ara , así que no hay razón para esperar demasiadas noticias Ara en Google I / O 2015.
Ya sabemos que se dará a conocer en agosto, pero aún queda una sesión prevista en la I / O, lo que significa por lo menos deberíamos obtener una práctica con una unidad de funcionamiento.Quién sabe, I / O asistentes podría incluso conseguir un dispositivo de liberación temprana Ara (o la promesa de uno) en la bolsa de regalos de E / S infame.
Proyecto Fi
Google se convirtió recientemente en un mismo soporte, a través del lanzamiento de su meta-portadora Proyecto Fi .Proyecto Fi básicamente le permite cambiar entre los clientes la mejor señal – independientemente de la red – dependiendo de su ubicación, así como utilizar gratis hotspots Wi-Fi siempre que sea posible, esencialmente, que proporcionan un » mejor de los mundos ‘servicio de transporte.
Actualmente sigue restringida a la Nexus 6 en los EE.UU., estamos esperando oír un poco más acerca del Proyecto Fi en I / O 2105.
Proyecto Tango
La tableta sensible al contexto que tiene una percepción espacial casi-humano se muestra fuera de prototipos en el medio del año pasado por la tecnología avanzada y Proyectos grupo de Google (ATAP).Desde entonces, sin embargo, cuando los prototipos fueron distribuidos a los desarrolladores, Proyecto Tango tipo de ha guardado silencio.
Proyecto Tango no es claramente listo para el horario estelar por el momento, por lo que no esperaría ningún gran noticia en la I / O, pero, como Ara, esperamos que esté ahí en alguna forma.Hay una sesión de ATAP planeada que promete » soplar con la boca abierta », así que no podemos esperar para saber lo que es eso.
Chromecast 2
El Chromecast fue uno de los éxitos sorpresa de los últimos tiempos.El pequeño dongle sin pretensiones simplemente se conecta a su televisor y permite que usted eche remotamente el contenido de su teléfono o tableta a la pantalla grande.Bastante simple, pero engañosamente impresionante.De todos los posibles dispositivos nuevos que puedan aparecer en la I / O, la Chromecast 2 parece la más probable.
Android Auto
Si tuviéramos que poner dinero, nos gustaría decir E / S será principalmente de tres cosas: Android M, Android Auto y Android Home.Ya hemos visto estos empujado fuertemente en toda la ferias de este año y tiene sentido para Google que estén empujando ellos también.
La diferencia es que Google debe empujar al siguiente nivel.Esperar a ver un coche de auto-conducción de Google en la I / O y para algunos más grandes noticias que Android Auto: posiblemente incluso un anuncio o presentación de Android Auto como sistema operativo independiente, en lugar de una interfaz de streaming desde su teléfono.
La realidad virtual
Carton Google glasess del que hemos hablado en este blog fue una peculiar oferta que sorprendió a todo el mundo en el año pasado de E / S.El casco de do-it-yourself VR volvió cualquier smartphone en un bajo presupuesto interfaz de realidad virtual.Con varios personal clave de Google recientemente cambiando departamentos de la unidad responsable de Google Cartón, estamos pensando que podría ser un enfoque mucho más fuerte en la VR en este año de E / S.
Google Home
El tercer pilar de nuestras expectativas Google I / O, Google Home es probable que obtenga una gran cantidad de atención también.Google ha estado tratando de conseguir Android en su casa – o más específicamente de su sala de estar – por el tiempo que podemos recordar.
Casas inteligentes, entretenimiento y dispositivos conectados en el Internet de las cosas que seguramente será una alta prioridad para Google en el 2015 también.Si tenemos suerte veremos grandes noticias en torno Nest, el termostato inteligente del hogar.En cualquier caso, el hogar conectado estará en el orden del día.
Android TV
Android TV es el último intento de Google para entrar en su sala de estar – seguramente compartir algo de la luz de calcio también.Ya hay un montón de nuevos televisores inteligentes, el Nexus player está fuera de los mercados clave y en los próximos años todos estaremos actualizando nuestros tubos del boob existentes a los que tienen Android TV incorporado. TV Android estará en la alineación de E / S de este año.
Pagos Android
La respuesta de Google a Apple Pagso bien puede ser con una extensión de Google Wallet llamado Android de pago.Los detalles son vagos en este momento, pero un servicio de pago táctil basado en Android es sin duda en las obras.Estamos esperando una API de Android Pague con una actualización de Google Wallet, junto con un anuncio de apoyo a los minoristas y puntos de venta.
Maps más universal
Google Maps no estaba disponible para todos los usuarios del mundo de forma en linea. Ahora Google Maps pasará a estar disponible offline. En realidad, Google Maps no estaba disponible para descargar offline en lo que se refiere a todo el mundo. Y eso es un problema para usuarios que no tienen conexiones a Internet o que viven en zonas donde es fácil que cuando necesiten conexión, no la tengan. Ahora Maps permitirá descargar mapas offline y utilizar el navegador sin conexión. ¿Estarán disponibles todas las zonas por fin? Desgraciadamente, es un dato que Google no ha acabado de especificar, aunque lo más lógico sería pensar que sí, al fin y al cabo en eso consistía el anuncio. Pronto lo sabremos…
..Y un poca más
También estamos esperando / la esperanza de otras cosas interesantes como el diseño de materiales de apoyo a las bibliotecas, nuevas mejoras en el tiempo de ejecución ART para dispositivos Lollipop, Chromebook aplicación de noticias, la API de Android de huellas digitales, AndroidWork y tal vez algunos más noticias sobre el nuevo Android API cámara.
En cuanto a un nuevo dispositivo Nexus – el Nexus 5 (2015) o el Nexus 7 (2015) – que pensamos que tendrá que esperar hasta octubre o noviembre para nada en ese frente.Google Glass podría hacer acto de presencia, y nos podría incluso oír algo sobre el misterioso Google Rights Watch.
En el CES de las Vegas,una spin off española llamada NeuroDigital Technologies afincada en Almeria , fundada por Francisco Nieto (Almería, 1971) y Luis Castillo (Almería, 1984), acaban de presentar un nuevo guante mejorado de realidad virtual que lo han bautizado con el nombre de «GloveOne» al que ya han solicitado la patente de la tecnología en Estados Unidos, China y Europa y que están realizando los ensayos con personas desde antes del verano con el objetivo de publicar un estudio. La siguiente parada será en el Mobile World Congress que se celebrará en marzo en Barcelona.
Aunque tienen previsto presentarlo la división de capital riesgo de Intel en Estados Unidos antes de que acabe este año,su principal vía de financiación la quieren obtener por Kickstarter, en la que esperan conseguir al menos unas 700 reservas iniciales. El objetivo es poder ofrecer una versión del guante para desarrolladores a 199 €, aunque a mediados del próximo año tienen previsto lanzar una versión mejorada y lanzarían la versión definitiva en enero del año que viene.
Asimimo también están en conversaciones con Panasonic y Sony para ver la posibilidad de integrar su tecnología en la electrónica de consumo y los productos de realidad virtual de estas marcas -como sería el casco de VR de Sony, Morpheus-.
Aunque los guantes de realidad aumentada ya existían (de hecho hay un prototipo con ese mismo nombre ) ,el gran factor diferencial es su característica de transmitir sensaciones táctiles de forma inalámbrica al portador del guante gracias a unospequeños sensores que toman contacto con cada dedo.
Aunque tiene interesantisimas aplicaciones en el campo del e-health han decidido darlo a conocer primero a través de los videojuegos ya que el guante se puede integrar con juegos que ya existen sin tener que rehacerlos y, de ese modo, «enriquecer la experiencia de los títulos que están en el mercado».
El guante permitiría tocar y sentir lo que aparece en la pantalla. Por ejemplo, si ve una fruta puedes sentir su textura, el volumen,e interactuar con ella. Y si está con un videojuego de lucha por ejemplo puede sentir el impacto de un golpe en la mano. Si además usa unas gafas de realidad virtual, la inmersión ya sería total de modo que GloveOne podrían revolucionar el sector de los videojuegos (de hecho, aspiran a es que la industria del videojuego “adopte el guante” a sus títulos punteros, de forma que el usuario sólo tenga que conectarlo a la consola. )
Especialmente interesante es todo lo relacionado con el campo de la biomedicina, pues de hecho ya cuentan con una aplicación para rehabilitación oftalmológica que consigue que pacientes de ojo vago, hasta ahora irrecuperables, vuelvan a ver. Para ello, a través de un videojuego, permiten que el paciente pueda entrenar de forma diferenciada cada uno de los ojos. Por otra parte, también han realizado pruebas con terapia de la enfermedad de Alzheimer recreando entornos familiares para los pacientes.
Asimismo, GloveOne se podría usar en líneas de rehabilitación física, visual y neurológica.
Ojalá todas esas ideas especialmente een el campo de la salud muy pronto se hagan una realidad
David Coz y Damien Henry en el Instituto Cultural de Google en París construyeron una vivienda de teléfonos inteligentes de cartón para crear prototipos de experiencias de realidad virtual como parte de un proyecto de 20%.Los resultados provocaron tantas exclamaciones y ahs que inspiraron a un grupo más grande para trabajar en un SDK experimental de modo que la comunidad de desarrolladores de Google quieren que todos experimenten la realidad virtual de un modo sencillo, divertido y barato.Ese es el objetivo del proyecto de cartón.
La realidad virtual ha hecho progresos emocionantes en los últimos años.Sin embargo, el desarrollo de VR aún requiere costosos hardware especializado.Pensando en cómo hacer VR accesible a más personas, un grupo de entusiastas de RV en Google experimentó con el uso de un teléfono inteligente para impulsar experiencias de realidad virtual.
El resultado es de cartón, una caja de bajo coste que transforma un smartphone Android en un dispositivo de realidad virtual básica, y lo acompaña la herramienta de software libre que hace que la escritura de software VR tan simple como la construcción de una web o aplicación móvil.
Por lo que es fácil y barato para experimentar con VR, esperan animar a los desarrolladores a construir la próxima generación de experiencias digitales envolventes y ponerlos a disposición de todos.
Construir un visor VR de artículos de uso diario que puede encontrar en su garaje, en línea o en su ferretería local.
Esto es lo que necesita para empezar:
Cartón Lámina de cartón corrugado, preferiblemente E Flute (cartón corrugado viene en una variedad de espesores llamado «flautas»), disponible en muchas tiendas de artículos de arte y en línea.Para obtener los mejores resultados, usted debe buscar cartón fuerte y delgado (caja de zapatos resistentes en lugar de cuadro en movimiento).Tamaño mínimo: 8.75in (22 cm) por 22in (56cm) y 0.06in (1,5 mm) de espesor.Fuentes en línea aquí y aquí
Lentes Este es el componente más difícil.Los objetivos que estén a una distancia focal de 40 mm deben trabajar.Lentes biconvexas funcionan mejor, ya que impiden la distorsión en los bordes.Se utilizó el Durovis Kit OpenDive Lente disponible aquí (EE.UU.) y aquí (UE).
Imanes Un imán de anillo de neodimio – como esta o esta – y un imán de disco de cerámica – como esta o esta .Tamaño aproximado: 0.75in (19 mm) de diámetro y 0.12in (3 mm) de espesor.
Utilice el kit de herramientas de VR experimental para construir experiencias de inmersión que trabajan con cartón y otros espectadores.
Han creado un tutorial y aportado documentación para ayudarle a empezar.Debido a que este SDK es experimental, no va a recibir el mismo nivel de apoyo como núcleo SDKs y bibliotecas Android.
Las cosas pueden cambiar o romper a medida que continuantrabajando, pero los proyectos que construya y la retroalimentación que usted proporcione guiarán versiones posteriores.
¿Funciona el prototipo con con cualquier teléfono?
Funciona con la mayoría de los teléfonos Android modernos.Teléfonos deben estar ejecutando Android 4.2 (Jelly Bean) o superior.Idealmente deben apoyar NFC también.Aquí hay una lista de los teléfonos que han probado que son compatibles con cartón.
¿Puedo usar el cartón, incluso si me pongo las gafas?
Sí.Es posible que desee cortar las aletas a ambos lados del espectador.Hay una línea de plegado pre-cortado en ambos lados del espectador a hacer esto más fácil.
¿Qué pasa si mi teléfono no hace nada cuando inserto en cartón?
Asegúrese de que usted tiene NFC activado.También asegúrese de que usted tiene la aplicación Cartón Android instalado.
¿Cómo puedo probar mi propia aplicación sin tener la demo popup cartón al insertar el teléfono?
El mejor método es configurar su aplicación para manejar la URL NFC: cartón / v.1.0.0.Como alternativa, puede desactivar NFC en los ajustes del teléfono.
Cuando trato de ver el sitio Chrome VR utilizando cartón, lanza la demo.¿Cómo puedo evitar esto?
Instale la aplicación Android de cartón y se deja siempre controlar el evento NFC desde el visor de cartón.La aplicación de cartón no se iniciará cuando se tiene otra aplicación en primer plano.También puede desactivar NFC en los ajustes del teléfono.
¿Cuáles son los imanes para y puedo usar cartón sin ellos?
El imán se utiliza para hacer clic dentro de demos.Cuando tire y suelte el anillo, el magnetómetro de su teléfono detecta los cambios en el campo magnético. experimentos Chrome actualmente no utilizan el imán, pero usted va a necesitar probar la aplicación Android de cartón .
No todos los teléfonos serán capaces de detectar tirones imán.Usted puede utilizar cartón sin el imán pegando cinta de cobre a lo largo del lado del espectador y hacer que entre en contacto con la pantalla del teléfono.Al puntear dos veces en la cinta de cobre con el dedo, el teléfono va a reaccionar como si se hubiera detectado un tirón imán.
¿Qué significa la etiqueta NFC hacer y puedo usar la aplicación de cartón sin NFC?
NFC se utiliza para activar el lanzamiento de la aplicación Android de cartón de forma automática.También puede iniciar la aplicación de cartón desde el iniciador de Android antes de poner su teléfono en el interior de la caja
¿Qué significa que el kit de herramientas de realidad virtual es experimental?
Significa que no van a apoyar el Kit de herramientas de realidad virtual en el mismo nivel o la calidad que apoyan SDKs y bibliotecas de núcleo Android.Y las cosas pueden cambiara medida que siguen trabajando en ello.
Estan compartiendo en esta etapa temprana para dar a los desarrolladores la oportunidad de experimentar con él .
¿Dónde están los videos esféricas en el Experimento VR Chrome desde?
Los videos esféricas son proporcionados por cortesía de AirPano .
Marco Tempest (que es bien conocido en el mundo de la mágia por apoyarse en la tecnología para realizar sus ilusiones ) esta vez teje una hermosa historia de lo que la magia es, cómo nos entretiene y cómo se destaca nuestra humanidad contando una bonita historia llena de trucos muy visuales, al mismo tiempo que trabaja ilusiones extraordinarias con las manos y gracias a una máquina de realidad aumentada.
TEDTalks son podcast de vídeo todos los días de las mejores charlas y actuaciones de la Conferencia TED , donde los principales pensadores y hacedores del mundo dan la charla de su vida en 18 minutos . Entre los oradores han incluido Al Gore sobre el cambio climático , Philippe Starck en el diseño, Jill Bolte Taylor en la observación de su propio recorrido, Nicholas Negroponte en One Laptop per Child , Jane Goodall sobre los chimpancés , Bill Gates sobre la malaria y los mosquitos , Pattie Maes en el «Sexto Sense » tecnología portátil , y» Lost » productor JJ Abrams en el encanto del misterio. TED significa Tecnología , Entretenimiento y Diseño , y TEDTalks cubrir estos temas , así como la ciencia , los negocios , el desarrollo y las artes. Los subtítulos y los subtítulos traducidos en varios idiomas están disponibles en TED.com , en http://www.ted.com/translate
Debe estar conectado para enviar un comentario.