Meta abre las Ray-Ban Display a desarrolladores externos por primera vez
Seis meses después de su lanzamiento al precio de $800, las lentes con pantalla de Meta ya permiten apps de terceros. La empresa publicó un SDK móvil y soporte para web apps dentro de un Developer Preview que marca el inicio de una plataforma abierta.
Desde el otoño de 2025, las Ray-Ban Display glasses de Meta se vendían a $800 con una limitación bastante obvia: solo corrían apps propias de Meta. Eso cambia ahora. Según Engadget, la empresa abrió su plataforma de lentes con pantalla a desarrolladores externos por primera vez, a través de un Mobile SDK y soporte para web apps bajo un programa llamado Developer Preview.
La apertura era el paso que faltaba para que los lentes pasaran de gadget interesante a plataforma real. Hasta ahora, alguien que cocinaba no podía ver su app de recetas favorita en la pantalla monocular de 20 grados. Esa era la limitación más citada en los primeros meses del dispositivo. Los usuarios con $800 gastados en hardware podían ver lo que Meta decidiera mostrarles y nada más. Eso, para una empresa que quiere construir el siguiente sistema operativo de computación, no era suficiente.
Andrew Bosworth, CTO de Meta, presentó el Developer Preview con un video de una de las primeras apps de demostración: "Darkroom Buddy", una guía interactiva para el revelado de película fotográfica. El ejemplo es específico hasta el punto de parecer deliberado. No eligieron una app de mensajería ni un dashboard financiero, eligieron algo que solo funciona bien con las manos ocupadas y los ojos en otra parte. Es exactamente el nicho para el que una pantalla de 20 grados tiene sentido.
Bosworth describió el momento en términos que raramente se escuchan en presentaciones corporativas. "La brecha entre idea y prototipo nunca fue tan pequeña. Sumá las gafas y los controles como el Neural Band, y se siente como los primeros días de construir algo que no habíamos visto en más de una década", afirmó el ejecutivo según el reporte de Engadget. La frase tiene el tono de quien está genuinamente entusiasmado y no solo cumpliendo con un comunicado de prensa.
La plataforma es compatible con apps que tengan una contraparte en iOS o Android, además de soporte para web apps. Eso reduce la fricción para los desarrolladores que ya tienen una app existente: no necesitan reescribir todo desde cero, sino construir una experiencia companion para las gafas. El Mobile SDK y el soporte web son el primer paso de lo que Meta espera se convierta en un ecosistema de aplicaciones.
El campo visual de 20 grados es el dato técnico que define todo lo demás. No es un display inmersivo al estilo de un headset de realidad aumentada de alto costo. Meta lo posiciona explícitamente para "information overlays": capas de datos sobre el mundo real, no reemplazos de él. En ese rango entra lo que la empresa espera que construyan los desarrolladores: experiencias de streaming multimedia, displays en tiempo real con marcadores deportivos o actualizaciones de estado de sistemas, y micro-apps pensadas para consumo rápido en contextos donde sacar el teléfono no es práctico.
La empresa también está evaluando minijuegos. Los ejemplos que mostró incluyen ajedrez, snake y un juego estilo brick breaker. No es una propuesta para competir con una consola, sino para ofrecer algo que se pueda usar mientras uno espera el café, el colectivo, o una reunión que va tarde. Las Ray-Ban Display ya traen un minijuego propio de Meta desde su lanzamiento, lo que sugiere que el segmento siempre estuvo en el plan.
El Neural Band controller, el accesorio de control gestual que Meta lanzó junto con las gafas, también está disponible para los desarrolladores dentro del Developer Preview. Es el tipo de detalle que suena menor pero que en la práctica define si la plataforma se vuelve coherente o queda como una colección de demos inconexas.
Antes de abrir a terceros, Meta había agregado funciones propias a las gafas: un teleprompter integrado y soporte para escritura a mano entre las más destacadas. Esas adiciones funcionaron como una prueba interna de lo que el hardware podía procesar y mostrar. El Developer Preview es la siguiente fase, la que le entrega el problema a gente de afuera.
El contexto del mercado ayuda a entender el movimiento. Meta lanzó las Ray-Ban Display en un segmento que prácticamente no existía con estas características. A $800, están por debajo de las AR glasses de realidad aumentada completa, pero muy por encima de los lentes inteligentes sin pantalla. Google y otros jugadores del espacio AR están mirando el mismo punto de precio y el mismo caso de uso. Abrir la plataforma antes de que la competencia consolide su propuesta es una jugada de ecosistema, no solo de producto.
O al menos esa es la versión oficial. Lo que Meta realmente está apostando es a que los desarrolladores encuentren casos de uso que el equipo interno no imaginó. Es exactamente cómo funcionaron las plataformas móviles en su primer ciclo: alguien construye una linterna, alguien más inventa Instagram. Si un fotógrafo analógico puede tener una guía interactiva en sus lentes, alguien ya está pensando en la versión para quirófanos, aulas, o simplemente para el ciclista que no quiere sacar el teléfono en el semáforo.
El Developer Preview es una señal de dirección más que un lanzamiento completo. Pero la dirección está clara: Meta quiere que estas gafas sean una plataforma con desarrolladores externos, y ese paso nunca es menor.