O arsenal oculto de IA do seu iPhone: recursos que você não sabia que existiam –

  • Inteligência artificial é amplamente discutida.
  • Apple revelou seu plano em junho.
  • Novos recursos do Apple Intelligence estão focados em produtividade.

Nos últimos anos, talvez não haja duas letras mais faladas do que AI. O surgimento da inteligência artificial generativa treinada em grandes modelos de linguagem deixou algumas pessoas empolgadas e outras preocupadas com o potencial de disruptura em suas vidas. A Apple finalmente revelou seus planos em torno da inteligência artificial generativa em junho, apresentando um framework chamado Apple Intelligence, mas outros tipos de inteligência artificial têm desempenhado um papel importante no iPhone há anos. A AI tem impulsionado recursos principais do iPhone em aplicativos populares como a Câmera, Fotos e Siri, entre outros, desde muito antes do ChatGPT chamar a atenção global em 2022. Vários dos novos recursos do Apple Intelligence são focados em produtividade, semelhantes às ferramentas que vimos do Google e da Microsoft no último ano. O Apple Intelligence pode ajudá-lo a reescrever e-mails em estilos diferentes, por exemplo, e pode destacar e resumir notificações prioritárias. A Apple também anunciou capacidades de geração de imagens e a habilidade de criar vídeos curtos, como parte de uma série de novos recursos sob o guarda-chuva do Apple Intelligence. “Acreditamos no poder de transformação e promessa da IA, e acreditamos que temos vantagens que nos diferenciarão nessa nova era, incluindo a combinação única da Apple de integração perfeita de hardware, software e serviços”, disse Cook durante a chamada de lucros da Apple em maio. Leia também: Rumores sobre o iOS 18 da Apple: Um Possível Salto Grande na IA. O Apple Intelligence não deverá ser lançado até o outono, e também de forma limitada. Enquanto isso, aqui estão algumas de nossas características baseadas em IA favoritas nos iPhones mais recentes agora. A Apple pode não ter um chatbot, mas já utiliza IA em um recurso que chegou com o iOS 17 no ano passado. A Voz Pessoal é uma configuração de acessibilidade que usa aprendizado de máquina em dispositivo para permitir que pessoas em risco de perda de fala repliquem sua voz, facilitando a comunicação com seus entes queridos. Para aprender sua voz, o iPhone pede para você ler em voz alta 150 frases. Em seguida, usa a IA para analisar sua voz e gera uma versão sintética dela. Para comunicar usando essa nova voz sintética, você usaria as ferramentas de digitação por voz do iPhone para transformar texto em fala no FaceTime e em aplicativos de terceiros compatíveis. Se você estiver interessado em aprender a clonar e armazenar sua voz no iPhone, aqui está um guia passo a passo. Live Text é um recurso de IA que já está disponível em iPhones rodando o software iOS 15 de 2021 ou posterior. É uma ferramenta de visão computacional que reconhece texto manuscrito e digitado em fotos, assim como o Google Lens. Texto de imagens pode então ser copiado e colado com apenas alguns toques rápidos. Live Text pode ser útil no dia a dia. Digamos que você tinha uma receita manuscrita que desejava digitalizar. Depois de tirar uma foto dessa receita com seu iPhone, você poderia copiar e colar esse texto em um documento do Word, por exemplo, e salvá-lo como backup digital. Aqui está um guia passo a passo sobre como fazer isso, caso esteja interesado. Fabricantes concorrentes de telefone também se juntaram à tendência. O Honor Magic 6 Pro e Magic V2, que rodam no software Magic OS 8 da empresa, introduziram um recurso de Texto Mágico com capacidades semelhantes. Com sua última atualização de software, a Apple também corrigiu uma das maiores reclamações sobre autocorreção. Agora você pode xingar sem a Apple trocar sua palavra de xingamento preferida por algo mais brando, como “pato” ou “chato”. Além de permitir que você xingue facilmente, a autocorreção também melhorou em um nível mais amplo. A autocorreção agora pode corrigir erros com mais precisão e oferecer texto preditivo em linha mais personalizado. Grande parte dessa melhoria é creditada ao novo modelo de linguagem transformadora do iOS 17, que usa aprendizado de máquina para predição de palavras de acordo com a Apple. Ele foi treinado por meio de um grande volume de dados, permitindo aprender contexto e padrões para fornecer resultados aprimorados, ou, neste caso, a capacidade de replicar como os humanos soam. O Modo Retrato foi um ponto de virada para os iPhones, pois ele consegue reconhecer objetos, entender a profundidade e criar um efeito bokeh na velocidade necessária para smartphones. Não é segredo que o iPhone depende de algoritmos avançados, bem como fotografia computacional para uma grande parte de seus recursos de câmera. O Modo Retrato, que usa IA para identificar assuntos e criar um efeito bokeh, é apenas um exemplo. Outro é o Modo Cinematográfico, que usa IA para simular a abertura desejada e ajusta dinamicamente o foco para manter nítido seu assunto em movimento. Uma das novas capacidades alimentadas por IA, cortesia do iOS 17, é a capacidade do app Fotos de identificar animais de estimação em uma foto, o que permite uma melhor organização de fotos.

This website uses cookies.