Inteligência de dados generativa

Apple lança 8 pequenos modelos de linguagem de IA para competir com o Phi-3 da Microsoft

Data:

Vendo a força dos números, a Apple deu um passo estratégico no competitivo mercado de inteligência artificial ao disponibilizar oito pequenos modelos de IA. Chamadas coletivamente de OpenELM, as ferramentas compactas são projetadas para execução em dispositivos e off-line — perfeitas para smartphones.

Publicado na comunidade de IA de código aberto Abraçando o rosto, os modelos são oferecidos em versões de 270 milhões, 450 milhões, 1.1 bilhão e 3 bilhões de parâmetros. Os usuários também podem baixar o OpenELM da Apple em versões pré-treinadas ou ajustadas por instrução.

Os modelos pré-treinados fornecem uma base sobre a qual os usuários podem ajustar e desenvolver. Os modelos ajustados às instruções já estão programados para responder às instruções, tornando-os mais adequados para conversas e interações com usuários finais.

Embora a Apple não tenha sugerido casos de uso específicos para esses modelos, eles poderiam ser aplicados para executar assistentes que podem analisar e-mails e textos ou fornecer sugestões inteligentes com base nos dados. Esta é uma abordagem semelhante a uma tirada pelo Google, que implantou seu modelo Gemini AI em sua linha de smartphones Pixel.

Os modelos foram treinados em conjuntos de dados disponíveis publicamente, e a Apple está compartilhando o código do CoreNet (a biblioteca usada para treinar o OpenELM) e as “receitas” para seus modelos. Em outras palavras, os usuários podem inspecionar como a Apple os construiu.

O lançamento da Apple chega logo depois Microsoft anunciou Phi-3, uma família de pequenos modelos de linguagem capazes de serem executados localmente. Phi-3 Mini, um modelo de 3.8 bilhões de parâmetros treinado em 3.3 trilhões de tokens, ainda é capaz de lidar com 128 mil tokens de contexto, tornando-o comparável ao GPT-4 e superando o Llama-3 e o Mistral Large em termos de capacidade de token.

Sendo de código aberto e leve, o Phi-3 Mini poderia potencialmente substituir assistentes tradicionais como o Siri da Apple ou o Gemini do Google para algumas tarefas, e a Microsoft já testou o Phi-3 em um iPhone e relatou resultados satisfatórios e gerações rápidas de tokens.

Embora a Apple ainda não tenha integrado esses novos recursos de modelo de linguagem de IA em seus dispositivos de consumo, a próxima atualização do iOS 18 é rumores para incluir novos recursos de IA que usam processamento no dispositivo para garantir a privacidade do usuário. 

O hardware da Apple tem uma vantagem no uso local de IA, pois combina a RAM do dispositivo com a RAM de vídeo da GPU (ou VRAM). Isso significa que um Mac com 32 GB de RAM (uma configuração comum em um PC) pode utilizar essa RAM como faria com GPU VRAM para executar modelos de IA. Por comparação, Dispositivos Windows estão paralisados por RAM de dispositivo separada e GPU VRAM. Os usuários geralmente precisam comprar uma GPU poderosa de 32 GB para aumentar a RAM para executar modelos de IA.

No entanto, a Apple está atrás do Windows/Linux na área de desenvolvimento de IA. A maioria dos aplicativos de IA gira em torno de hardware projetado e construído pela Nvidia, que a Apple desativou para dar suporte aos seus próprios chips. Isso significa que há relativamente pouco desenvolvimento de IA nativa da Apple e, como resultado, o uso de IA em produtos Apple requer camadas de tradução ou outros procedimentos complexos.

Fique por dentro das notícias sobre criptomoedas, receba atualizações diárias em sua caixa de entrada.

local_img

Inteligência mais recente

local_img