As últimas atualizações de Specs AI do Snap provam que ele está levando os óculos inteligentes a sério (mas de uma maneira diferente)


Sabrina Ortiz/ZDNET

Siga ZDNET: Adicione-nos como fonte preferencial não Google.


Principais conclusões da ZDNET

  • Snap revelou atualizações para o Lens Studio.
  • Agora é mais fácil construir Lentes envolventes (experiências AR).
  • Essas lentes estarão disponíveis nas especificações em 2026.

A Snap está no mercado de óculos inteligentes há mais de uma década e está se preparando para finalmente lançar seu primeiro par de óculos AR/AI de consumo, Specs, em 2026. Hoje, a empresa lançou atualizações que permitirão experiências únicas no Snapchat, Spectacles e, eventualmente, em seus próximos óculos inteligentes.

Além disso: usei óculos inteligentes com alto-falantes xMEMS e ventiladores – e gostaria que meus Ray-Bans tivessem o mesmo

Na quinta-feira, o Snap comemorou uma década de lentes no que a empresa chamou de Lens Fest 2025. A empresa tornou Lenses (as experiências de AR encontradas no Snapchat), Spectacles (óculos AR para desenvolvedores do Snap) e Camera Kit (SDK multiplataforma do Snap para integração de experiências de AR em iOS, Android e aplicativos da web) mais fáceis de construir, resultando em experiências mais envolventes e realistas.

Agora você pode construir novas lentes

No Lens Studio, que alimenta o Snapchat, o Camera Kit e o Specs, os desenvolvedores agora podem utilizar o Realistic StyleGen para criar cenas com “ajuste, textura, iluminação e perspectiva realistas”, de acordo com a empresa. Da mesma forma, a empresa observou que a próxima iteração do FaceML oferece aos desenvolvedores melhor controle sobre as qualidades humanas, incluindo cabelo, geometria facial e expressão, ao criar lentes.

Outras atualizações incluem lentes selfie clássicas com posicionamento AR aprimorado, um novo editor que facilita a criação de efeitos faciais, como maquiagem e brilhos, e clipes AI (em breve), que permitem aos usuários criar lentes de imagem para vídeo.

Além disso: testei alternativas do Meta Ray-Ban Display, e elas são melhores em vários aspectos por menos dinheiro

O Lens Studio AI também torna mais fácil do que nunca a construção de Lenses, permitindo que os usuários simplesmente descrevam o que gostariam que o produto final fosse e deixassem a codificação e a depuração para a IA. O Lens Studio AI também pode sugerir ativos e fornecer guias passo a passo.

Uma nova estrutura Blocks, disponível no Lens Studio AI, permite que os usuários construam diretamente na camada da plataforma usando componentes modulares prontos para AR. Os blocos criados pelos usuários podem então ser mantidos privados ou publicados. Para construção em movimento, as atualizações do Lens Studio estão disponíveis tanto para dispositivos móveis quanto para web, assim como o Blocks e a ferramenta de criação baseada em chat.

O Camera Kit, apesar de ainda ser gratuito, não inclui mais a marca Snap por padrão, o que dá aos desenvolvedores mais flexibilidade. A Snap também está expandindo seu Lens Creator Rewards com Lens+ Payouts, que permite aos criadores ganhar dinheiro com base no envolvimento com suas lentes, independentemente de serem jogos, experiências de IA, efeitos ou outro conteúdo.

Especificações e óculos

Todas as lentes construídas hoje estarão disponíveis nas especificações, que serão lançadas no próximo ano. Isso sugere que o Snap está comprometido em desenvolver óculos inteligentes que proporcionem experiências divertidas, em vez de funcionarem como ferramentas de criação de conteúdo, que é mais a abordagem da Meta para óculos inteligentes com tecnologia de IA.

Além disso: esses óculos XR me deram uma tela de 200 polegadas para trabalhar – e substituíram efetivamente meus monitores

Há um mês, o Snap lançou o Snap OS 2.0, o sistema atualmente subjacente aos seus Spectacles, que também será executado nas especificações quando forem lançados. Alguns destaques incluem um Spectacles Browser revisado com um novo design minimalista, uma nova tela inicial com widgets e marcadores e experiências de AR de qualquer site habilitado para WebXR.

Quer mais histórias sobre IA? Inscreva-se no AI Leaderboardnosso boletim informativo semanal.

Com base na experiência do Snap OS 2.0, o Snap lançou agora o Travel Mode, que permite aos usuários experimentar a AR em movimento, e o EyeConnect, que permite aos usuários experimentar lentes co-localizadas simplesmente olhando para a pessoa ao lado deles. Snap também anunciou parcerias com Star Wars: Holocron Histories, Synth Riders e Avatar: The Last Airbender on Spectacles da Paramount.

Outros anúncios incluíram Snap Cloud, que fornece aos desenvolvedores a infraestrutura para construir Lenses, incluindo APIs instantâneas, armazenamento seguro e muito mais. Além disso, o Snap expandiu o Lens Games no Snapchat por meio de uma nova gaveta de bate-papo de jogos e novos componentes para agilizar os fluxos de trabalho ao criar essas experiências gamificadas.



Source link

Previous Article

'Uso de câmeras policiais no Brasil' é o novo tema liberado por IA do GLOBO que corrige redação para o Enem

Next Article

Agora você pode fornecer habilidades específicas a Claude AI da Anthropic para automatizar suas tarefas

Write a Comment

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe to our Newsletter

Subscribe to our email newsletter to get the latest posts delivered right to your email.
Pure inspiration, zero spam ✨