Lançamento do novo Apple Headgear, ferramentas Google AI e GPT-4

Headgear de realidade mista da Apple será lançado na WWDC 2023

A Apple revelará o capacete de realidade mista de longa data na Conferência Mundial de Desenvolvedores (WWDC) deste ano, tradicionalmente realizada em junho de 2023, de acordo com o último relatório da Bloomberg.

A data de inauguração foi adiada várias vezes devido a dificuldades tecnológicas. Inicialmente deveria ser lançado na primavera, mas agora será anunciado na WWDC antes de ser colocado à venda no final de 2023.

Acredita-se que o fone de ouvido da empresa, supostamente chamado de “Reality Pro”, será um dispositivo muito potente que se assemelha a óculos de esqui e pode transmitir conteúdo 3D. Ele tem muitos recursos, como rastreamento manual avançado, a capacidade de renderizar chamadas do FaceTime de forma realista, uma coroa digital que permite que você saia da realidade virtual e muito mais.

De acordo com as últimas informações disponíveis, a Apple pretende vender o capacete por cerca de US$ 3.000, tornando-o o item vestível mais caro fabricado pela empresa até hoje.

Como todos sabemos, a data de lançamento desses produtos inovadores pode mudar, mas, desta vez, a Apple espera disponibilizar o produto até o final de 2023. Se tudo correr como planejado, os headwear Apple MR provavelmente farão seu lançamento internacional. na WWDC, e o gadget pode chegar às lojas no final de 2023.

  Configure SPF, DKIM, DMRAC e BIMI para uma melhor entrega de e-mail

O fone de ouvido de realidade mista da Apple pode não ganhar popularidade como os outros produtos da Apple assim que foi lançado. Ainda assim, de acordo com inúmeras opiniões técnicas, o fone de ouvido de realidade mista da Apple tem potencial para crescer e pode se tornar um gerador de receita mais significativo para a Apple em um futuro próximo.

Microsoft, Alphabet e outras empresas estão gastando bilhões de dólares no desenvolvimento e implementação de tecnologia de IA para ganhar participação de mercado em vários setores.

Para concorrer com o ChatGPT da OpenAI (a Microsoft investiu bilhões de dólares nesta empresa), a empresa controladora do Google, Alphabet, lançou um serviço de IA alimentado por LaMDA, Bard AI.

O Google anunciou recentemente várias integrações de IA para permitir que o aprendizado de máquina de seus produtos Workspace gere texto e gráficos. Vários recursos futuros de IA generativa para os aplicativos Workspace do Google, que incluem Google Docs, Gmail, Sheets e Slides, foram anunciados.

Os recursos incluem:

  • Novas formas para a IA do Google Documents fazer brainstorming, resumir e gerar conteúdo.
  • A capacidade do Gmail de criar e-mails inteiros a partir de marcadores rápidos dos usuários.
  • A capacidade do Apresentações Google de criar imagens, áudio e vídeo de IA para ilustrar apresentações.
  Como enviar e-mails Cco automaticamente usando regras no Outlook

A empresa demonstrou como os clientes em nuvem podem usar IA para enviar e-mails a colegas de trabalho, produzir apresentações e documentos de treinamento de vendas e fazer anotações durante as reuniões. Os desenvolvedores agora podem criar aplicativos utilizando a tecnologia do Google devido ao lançamento pela empresa de alguns de seus modelos de IA subjacentes.

O ChatGPT estreou no ano passado e a Microsoft lançou seu mecanismo de pesquisa habilitado para chatbot Bing em fevereiro de 2023. Desde então, o Google tem mostrado determinação para ultrapassar os concorrentes na nova corrida de IA, anunciando uma série de atualizações de IA para seus produtos.

Um conjunto de “testadores confiáveis” baseados nos EUA terá acesso a vários novos recursos de IA que a empresa introduziu este mês. O Google afirma que esses e outros recursos serão disponibilizados ao público no final do ano, mas não anunciou a data exata.

OpenAI anuncia GPT-4 capaz de aceitar entradas de texto ou imagem

A OpenAI lançou a versão mais recente do GPT-4 em seu blog de pesquisa. De acordo com o relatório, o GPT-4 é um sistema multimodal considerável que pode aceitar entradas de imagem e texto enquanto produz apenas saída de texto.

Após meses de rumores e especulações, a OpenAI finalmente revelou o GPT-4, uma melhoria revolucionária na capacidade de resolução de problemas.

  Como remover vírus do calendário do iPhone

A Open AI afirma que o GPT-4 é “mais inovador e colaborativo do que nunca” e é “mais preciso ao lidar com situações difíceis”. Embora possa entender a entrada de texto e imagem, apenas respostas de texto são produzidas.

O GPT-4 passou por seis meses de treinamento de segurança, de acordo com a OpenAI, que também afirmou que, em testes internos, era “82% menos propenso a responder a solicitações de conteúdo restrito” e “40% mais propenso a oferecer respostas factuais do que o GPT -3,5.”

Em uma conversa não oficial, a OpenAI afirmou que há uma diferença “sutil” entre o GPT-4 e seu antecessor GPT-3.5 (GPT-3.5 é o modelo que alimenta o ChatGPT). Sam Altman, CEO da OpenAI, afirmou que o GPT-4 “ainda é imperfeito, ainda é restrito”, acrescentando que “parece mais notável no primeiro uso do que depois de passar mais tempo com ele”.

Os sistemas ainda têm muitos dos mesmos problemas, inclusive sendo menos eficazes que os humanos em muitas circunstâncias do mundo real e atuando em níveis humanos em vários critérios profissionais e acadêmicos, adverte a OpenAI.

O público pode acessar o GPT-4 atualizado por meio do ChatGPT Plus, a associação ChatGPT de US$ 20 por mês da OpenAI, que alimenta o chatbot Bing da Microsoft. Ele estará disponível como uma API que os programadores podem usar para construir.