5000 patentes - Futurizable | Sngular
Enlaces rápidos
  • Blockchain
  • Big Data
  • Educación
  • Robótica
  • Espacio

5000 patentes

Hoy vamos a conocer a Sterling Crispin un desarrollador de software, especializado en neurotecnología y AR/VR/XR  que ha trabajado en el desarrollo de las Apple Vision Pro, contribuyendo a su lanzamiento a través de estas patentes: método de biofeedback para modular contenido digital y provocar una mayor respuesta del radio pupilar; utilización de cambios en la luminancia para determinar características del usuario; y creación de entornos de trabajo, aprendizaje y descanso óptimos en dispositivos electrónicos.

Patentes que se enmarcan dentro del trabajo que realizó para Apple entre 2018 y 2021 a través de las siguientes actividades: diseño de experiencias audiovisuales inmersivas en 3D; construcción de sistemas de adquisición de datos multimodales de vanguardia; instrumentación e interfaces humano-máquina habilitadas por sistemas de aprendizaje automático; desarrollo de herramientas para medir y evaluar los correlatos cuantitativos de una experiencia; realización una recolección y análisis de datos multi-sensor de alta calidad; implementación y despliegue de algoritmos en tiempo real en diversas plataformas; y contribución a la visión, investigación de usuarios y desarrollo de una investigación en una nueva categoría de servicio a escala internacional de Apple.

De lo que nos cuenta Sterling en su Twitter vamos a quedarnos con lo que concierne al desarrollo tecnológico necesario para que la visión de Apple en lo que a realidad inversiva se refiere sea ya una realidad: gran parte del trabajo que realicé implicaba detectar el estado mental de los usuarios basándose en datos de su cuerpo y cerebro cuando estaban en experiencias inmersivas. Cuando un usuario está en una experiencia de realidad mixta o realidad virtual, los modelos de Inteligencia Artificial intentan predecir si se siente curioso, divagando, asustado, prestando atención, recordando una experiencia pasada o en otro estado cognitivo. Y esto se puede inferir a través de mediciones como el seguimiento ocular, la actividad eléctrica en el cerebro, los latidos y ritmos cardíacos, la actividad muscular, la presión arterial y la conductancia. Uno de los resultados más interesantes fue predecir que un usuario iba a hacer clic en algo antes de que realmente lo hiciera, ya que su pupila reacciona antes de hacer clic en parte porque espera que algo suceda después de hacerlo. Entonces se pude crear retroalimentación biológica con el cerebro del usuario mediante el monitoreo de su comportamiento ocular y rediseñando la interfaz de usuario en tiempo real. Básicamente se trata de leer la mente.

Muchas preguntas y algunas respuestas

Lo que ocurre siempre que se presenta una nueva tecnología en el marco de la realidad inmersiva, es que se generan más preguntas que respuestas. ¿Querrá usarlo la gente? ¿Será tan incómodo que lo dejaremos de usar de inmediato? ¿Tendrá utilidad más allá de los videojuegos? ¿Valdrá la pena pagar el alto precio que tiene? ¿Saldrá en poco tiempo otra tecnología que lo deje obsoleto?

Estas preguntas vuelven a la palestra cada vez que se lanza uno de estos nuevos dispositivos: oculus, google glass, hololens, gear vr, htc vive, snap spectacles, … pero la diferencia en este caso es que el efecto wow ha sido considarablemente mayor y no solo por la promesa de todo lo que se va a poder hacer con este dispositivo, algo que con algunos de los anteriores también se había hecho, sino sobre todo por su cuidado diseño y por el gran despliegue técnico con el que se ha dotado a las Apple Vision Pro.

A saber:

  • Pantallas: 2 pantallas micro-OLED, una para cada ojo, que tienen cada una 23 millones de píxeles, tasa de refresco de 96 Hz disponible para vídeo de 24 fps, una pantalla externa que muestra nuestros ojos a otras personas cuando usamos un modo de realidad aumentada menos inmersivo.
  • Cámaras: 12 cámaras, dos de las cuales transmiten más de mil millones de píxeles por segundo a la pantalla para representar el mundo que te rodea con claridad. El resto de cámaras se utilizan para ofrecer un seguimiento preciso de la cabeza y las manos y para el mapeo 3D en tiempo real.
  • Sensores: 5 sensores para monitorear los gestos de las manos y mapear el entorno, además de rastrear con precisión el movimiento de los ojos. Sensor de profundidad LiDAR para determinar el tamaño y la ubicación de los objetos, así como escanear la cara para crear la persona digital que se utiliza en FaceTime.

¿Será todo esto suficiente como para que triunfen las gafas de Apple? me temo que no, a no ser que los desarrolladores, para los cuales ha sido especialmente pensado este dispositivo, se lancen a crear aplicaciones que las doten de una enorme utilidad. ¿Habría tenido tanto éxito el iPhone sin Whatsapp, Instagram o Waze? probablemente no. ¿Cuales serán las aplicaciones correspondientes que dotarán de utilidad a las Apple Vision?

Lo que parece claro en este caso es que las Apple Vision Pro van más allá de ser unas simples gafas de AR/VR, ya que el uso de técnicas de neurotecnología les reporta un valor que ya hemos observado en el Apple Whatch en lo relativo a sensores que permiten monitorizar determinadas constantes vitales, hasta el punto de haberse convertido en un gran aliado en cuestión de salud cardiovascular. ¿Veremos algo parecido con este nuevo dispositivo en lo relativo a salud sensorial e incluso psicológica?

 

¡Comparte!

Tags: , , ,

Últimos Post