Rabbit's AI Assistant Is Here. And Soon a Camera Wearable Will Be Too

Lyu también hizo una demostración del modo de enseñanza del R1, que le permite apuntar la cámara del R1 a la pantalla de una computadora mientras le indica cómo completar una tarea. Una vez que aprenda, puede pedirle que realice dicha tarea para ahorrarse tiempo y molestias. Sin embargo, esta función aún no está disponible y, cuando lo esté, Rabbit dice que comenzará con una pequeña selección de usuarios para probarla en versión beta.

Pero el objetivo del R1 es más o menos reemplazar sus aplicaciones. En lugar de buscar un ícono, simplemente presione el botón y pídale al R1 que maneje algo.

En CES, parecía que podrías acceder múltiple aplicaciones de terceros a través del R1 en el momento del lanzamiento, pero, en este momento, solo hay cuatro servicios: Uber, DoorDash, Midjourney y Spotify.

Te conectas a estos a través del portal web Rabbit Hole, lo que significa que sí, estás iniciando sesión en estos servicios a través de lo que parece ser un máquina virtual alojada por Rabbit, entregando sus credenciales, y luego puede pedirle al R1 que llame a un Uber, pida un McDonald’s, genere una imagen o reproduzca una canción. Está utilizando las interfaces de programación de aplicaciones (API) de estos servicios para abordar estas tareas, y el R1 ha sido entrenado previamente para usarlas.

Lyu naturalmente promete que hay mucho más en camino, por supuesto. En verano, se nos dice que esperemos un despertador, un calendario, contactos, GPS, recuperación de memoria, planificación de viajes y otras funciones. Actualmente se encuentran en desarrollo integraciones de Amazon Music y Apple Music y, más adelante, deberíamos ver más integraciones de servicios de terceros, incluidos Airbnb, Lyft y OpenTable.

Quizás se esté preguntando: “Espera un momento, eso suena como un teléfono”, y no estarías equivocado.

Como hemos visto con el torpe y limitado Humane Ai Pin, un teléfono inteligente puede realizar todas estas tareas mejor, más rápido y con interacciones más ricas. Aquí es donde debes empezar a observar detenidamente la visión general de Rabbit.

La idea es hablar y luego calcular. No se necesitan aplicaciones: la computadora simplemente lo entenderá. Estamos muy lejos de eso, pero, en el evento de lanzamiento, Rabbit mostró un dispositivo portátil que entendería lo que estás señalando.

Lyu sugirió que este dispositivo portátil podría entender que usted señala un termostato Nest y pide bajar la temperatura, sin tener que decir las palabras “Nest” o “termostato”. Sin embargo, la imagen del dispositivo portátil que supuestamente todo lo ve estaba borrosa, por lo que no tenemos mucha información para continuar.

Lyu mencionó las interfaces de usuario generativas, donde un usuario podrá tener una interfaz de su propia elección (botones en una pantalla colocados donde los desee y en el tamaño de visualización perfecto) y luego afirmó que Rabbit está trabajando en una IA nativa. sistema operativo de escritorio llamado Rabbit OS. Nuevamente, no tenemos muchos detalles, pero mi mente inmediatamente fue a teo en Su instalando OS1 en su PC.

Un sistema operativo que pone al asistente de voz personal al frente y al centro. ¿Qué puede ir mal?

Fuente