Meta e Microsoft lançam Llama 2, um modelo de linguagem AI para uso comercial
- A Meta e a Microsoft lançaram o Llama 2, um modelo de IA de linguagem grande e generalizada para fins comerciais e de pesquisa, com ênfase na responsabilidade;
- O Llama 2 está disponível como código aberto e também em versões pré-treinadas e orientadas para a conversação, sendo oferecido gratuitamente pela Meta e Microsoft;
- O Llama 2 permite que empresas personalizem a tecnologia para seus próprios fins, como chatbots e geradores de imagens, enquanto fornecem aos usuários externos uma maneira de verificar possíveis vieses, imprecisões e outras falhas.
Os rumores sobre um modelo de IA comercialmente orientado da Meta eram verdadeiros. A Meta e a Microsoft se uniram para lançar o Llama 2, um modelo de IA de linguagem grande e generalizada para fins comerciais e de pesquisa. O código aberto atualizado enfatiza a responsabilidade. Os desenvolvedores testaram os modelos para segurança e criaram um esquema de transparência para detalhar possíveis problemas. Também incluem um guia de uso responsável e uma política de uso aceitável para evitar abusos como atividade criminosa, representações enganosas e spam.
A Meta está disponibilizando o Llama 2 em versões pré-treinadas e orientadas para a conversação gratuitamente. A Microsoft o torna disponível através do catálogo de IA Azure para uso com ferramentas em nuvem, como filtragem de conteúdo. A ferramenta também pode ser executada diretamente em PCs com Windows e estará disponível por meio de provedores externos como Amazon Web Services e Hugging Face.
O modelo original de IA era de código aberto, mas destinado estritamente a acadêmicos e pesquisadores. O Llama 2 permite que empresas personalizem a tecnologia para seus próprios fins, como chatbots e geradores de imagens. Idealmente, isso permite que as empresas se beneficiem da modelagem enquanto fornecem aos usuários externos uma maneira de verificar possíveis vieses, imprecisões e outras falhas. O código aberto não é novo no mundo da IA – o Stable Diffusion da Stability é um exemplo notável. No entanto, grandes concorrentes como o GPT-4 da OpenAI tendem a ser bloqueados para obter receita de assinaturas ou licenças. Também há preocupações de que hackers e outros atores mal-intencionados possam ignorar as licenças de código aberto e usar essas ferramentas para fins perigosos.
Assim como o GPT-4 e o Claude 2 da Anthropic, a ênfase no uso responsável não é surpreendente. A indústria de tecnologia está preocupada que os grandes modelos de IA de linguagem possam sair do controle, levando a robôs assassinos ou à disseminação ainda maior de desinformação. Especialistas e líderes empresariais até pediram uma pausa de seis meses na experimentação para garantir que os desenvolvedores lidem com questões éticas e de segurança. Políticos também esperam regular a IA, com um projeto de lei do Senado destinado a responsabilizar os criadores de IA por conteúdo prejudicial.
Esta é uma história em desenvolvimento. Por favor, verifique as atualizações.