Apple Reality Pro: WWDC 2023 revela o futuro da realidade mista!

Dispositivo de Realidade Mista da Apple Estreia na WWDC 2023

Segundo informações recentes divulgadas pela Bloomberg, a Apple planeja apresentar seu tão aguardado dispositivo de realidade mista durante a Conferência Mundial de Desenvolvedores (WWDC), que ocorrerá, como de costume, em junho de 2023.

O lançamento deste produto foi adiado diversas vezes devido a complexidades tecnológicas. A previsão inicial era para a primavera, mas agora o anúncio oficial ocorrerá na WWDC, antecedendo sua chegada ao mercado no final de 2023.

Rumores indicam que o fone de ouvido, possivelmente chamado de “Reality Pro”, será um aparelho de alto desempenho, com design similar a óculos de esqui, capaz de exibir conteúdo em 3D. Ele contará com diversas funcionalidades, como rastreamento avançado das mãos, reprodução realista de chamadas FaceTime e uma coroa digital para transitar entre a realidade virtual e o mundo real.

Informações atuais sugerem que a Apple pretende comercializar o dispositivo por aproximadamente US$ 3.000, tornando-o o produto vestível mais caro já lançado pela empresa.

Apesar de datas de lançamento de produtos inovadores estarem sujeitas a alterações, a Apple parece otimista em disponibilizar o dispositivo até o término de 2023. Se tudo ocorrer conforme o planejado, o lançamento global do Apple MR será na WWDC, com o produto chegando às lojas no final do ano.

É possível que o fone de ouvido de realidade mista da Apple não alcance o mesmo sucesso imediato de outros produtos da marca. No entanto, diversas análises técnicas apontam para um grande potencial de crescimento, podendo se tornar uma fonte de receita significativa para a Apple em um futuro próximo.

Empresas como Microsoft e Alphabet estão investindo bilhões no desenvolvimento de tecnologias de inteligência artificial para aumentar sua participação em diversos setores do mercado.

Para competir com o ChatGPT da OpenAI (empresa na qual a Microsoft investiu grandes somas), a Alphabet, controladora do Google, lançou o Bard AI, um serviço de inteligência artificial baseado em LaMDA.

O Google anunciou recentemente a integração de IA em diversos produtos do Workspace, permitindo a geração de textos e gráficos através do aprendizado de máquina. Várias funcionalidades futuras de IA generativa foram anunciadas para os aplicativos do Google Workspace, como Google Docs, Gmail, Sheets e Slides.

Entre as funcionalidades, destacam-se:

  • Novas ferramentas de IA no Google Docs para brainstorming, resumo e criação de conteúdo.
  • A capacidade do Gmail de criar e-mails completos a partir de tópicos fornecidos pelos usuários.
  • A funcionalidade do Apresentações Google para gerar imagens, áudio e vídeo através de IA, para ilustrar apresentações.

A empresa também demonstrou como clientes podem usar IA para enviar e-mails, criar apresentações e materiais de treinamento, além de fazer anotações durante reuniões. Desenvolvedores agora podem criar aplicações utilizando a tecnologia do Google, devido ao lançamento de alguns dos seus modelos de IA.

O ChatGPT estreou no ano passado e a Microsoft lançou seu motor de busca Bing com chatbot em fevereiro de 2023. Desde então, o Google tem demonstrado grande determinação em superar a concorrência na corrida da IA, anunciando várias atualizações de inteligência artificial para seus produtos.

Um grupo de “testadores confiáveis” nos EUA terá acesso a diversos recursos novos de IA lançados neste mês. O Google afirma que esses e outros recursos estarão disponíveis ao público no final do ano, mas a data exata ainda não foi divulgada.

OpenAI Apresenta GPT-4: Capacidade de Processar Texto e Imagem

A OpenAI lançou a versão mais recente do GPT-4 em seu blog de pesquisa. O GPT-4 é um sistema multimodal que pode receber informações tanto em forma de imagem quanto de texto, gerando apenas texto como resposta.

Após meses de especulações, a OpenAI finalmente apresentou o GPT-4, uma evolução significativa na capacidade de resolução de problemas.

A Open AI afirma que o GPT-4 é “mais inovador e colaborativo do que nunca” e “mais preciso ao lidar com situações complexas”. Apesar de entender tanto texto quanto imagens, ele produz apenas respostas em formato de texto.

Segundo a OpenAI, o GPT-4 passou por seis meses de treinamento em segurança, e em testes internos, se mostrou “82% menos propenso a responder a solicitações de conteúdo restrito” e “40% mais propenso a oferecer respostas factuais em comparação com o GPT-3.5.”

Em uma discussão informal, a OpenAI comentou que existe uma diferença “sutil” entre o GPT-4 e seu antecessor, o GPT-3.5 (modelo que alimenta o ChatGPT). Sam Altman, CEO da OpenAI, mencionou que o GPT-4 “ainda não é perfeito, ainda é limitado”, e que “parece mais impressionante no primeiro uso do que após um período mais longo de interação”.

A OpenAI adverte que os sistemas ainda apresentam muitas das mesmas limitações, sendo menos eficazes do que os humanos em diversas situações reais, embora atinjam níveis semelhantes em diversos critérios acadêmicos e profissionais.

O público pode acessar o GPT-4 atualizado através do ChatGPT Plus, o serviço de assinatura mensal de US$ 20 da OpenAI, que também alimenta o chatbot Bing da Microsoft. Ele também estará disponível como API para desenvolvedores criarem suas próprias aplicações.