Llama Family: Modelos de IA de código aberto e comunidade

Llama Family

3.5 | 107 | 0
Tipo:
Projetos de Código Aberto
Última atualização:
2025/09/07
Descrição:
Junte-se à Llama Family, uma comunidade de código aberto dedicada a avançar a IA através dos modelos Llama. Explore vários modelos, contribua para o ecossistema e ajude a construir em direção à AGI.
Compartilhar:

Visão geral de Llama Family

Família Llama: O Ecossistema de Modelos de IA de Código Aberto

O que é a Família Llama? A Família Llama é uma comunidade de código aberto dedicada a promover o desenvolvimento da Inteligência Artificial Geral (IAG) através de esforços colaborativos centrados nos modelos Llama e tecnologias relacionadas. Visa criar uma plataforma onde desenvolvedores e entusiastas possam contribuir para um ecossistema de código aberto que abrange vários aspetos da IA, desde modelos de grande escala a modelos menores, de texto a capacidades multimodais e de software a otimizações de algoritmos de hardware.

Componentes-Chave da Família Llama

  • Modelos: A comunidade concentra-se em vários modelos Llama de código aberto pela Meta, incluindo Llama, Llama 2, Llama 3, Code Llama e Atom. Estes modelos cobrem uma variedade de tamanhos de parâmetros e conjuntos de dados de treino, atendendo a diferentes casos de uso e direções de pesquisa.

  • Computação: A comunidade incentiva a colaboração e a partilha de recursos para treino e experimentação de modelos. Isto inclui a utilização de recursos de GPU como a série GeForce RTX, NVIDIA H100 e A100 Tensor Core GPUs.

  • Comunidade: Central para a Família Llama é a sua vibrante comunidade de desenvolvedores, investigadores e entusiastas. A comunidade fomenta a colaboração, a partilha de conhecimento e a co-criação de recursos e ferramentas.

Modelos Llama

Meta Llama

O modelo Llama de código aberto pela Meta é amplamente utilizado tanto na indústria como na academia. As versões incluem 1B, 3B, 8B, 70B e 405B, com dados de treino que excedem os 15.0T tokens. Os modelos de visão incluem 11B e 90B, treinados em mais de 6 mil milhões de pares imagem-texto.

Model Training Data Params Tokens Release Date
LLaMA English CommonCrawl, C4, Github, Wikipedia, Gutenberg and Books3, ArXiv, Stack Exchange 7B (6.7B) 1.0T 2023/02/24
13B (13.0B) 1.0T
33B (32.5B) 1.4T
65B (65.2B) 1.4T
Llama 2 A new mix of publicly available online data 7B 2.0T 2023/07/18
13B 2.0T
34B 2.0T
70B 2.0T
Llama 3 A new mix of publicly available online data 8B 15.0T 2024/04/18
70B 15.0T
Llama 3.1 Collected from publicly available sources, over 5% of the Llama 3 pretraining dataset consists of high-quality non-English data that covers over 30 languages 8B 15.0T 2024/07/23
70B 15.0T
405B 15.0T
Llama 3.2 Llama 3.2-Text: A new mix of publicly available online data 1B (1.23B) 9.0T 2024/09/25
3B (3.21B) 9.0T
Llama 3.2-Vision Pretrained on image and text pairs. The instruction tuning data includes publicly available vision instruction datasets, as well as over 3M synthetically generated examples 11B (10.6B) 6B (image, text) pairs
90B (88.8B) 6B (image, text) pairs

Code Llama

Code Llama é treinado em cima do Llama 2 usando dados de código e é categorizado em Modelo Base, Modelo Python e Modelo Instruct, com tamanhos de parâmetros de 7B, 13B, 34B e 70B. Suporta continuação, preenchimento e programação baseada em instruções de código.

Model Training Data Params Type
Code Llama Based on Llama 2, trained using a public code dataset of 500B tokens. To help the model retain natural language understanding skills, 8% of the sample data comes from natural language datasets related to code. 7B Base Model: a foundational model for code generation tasks
Python: a version specialized for Python
Instruct: a fine-tuned version with human instructions and self-instruct code synthesis data
13B
34B
70B

Atom

Atom, desenvolvido em conjunto pela AtomEcho e Família Llama, é baseado na arquitetura Llama e treinado em 2.7T de corpus chineses e multilingues, com tamanhos de parâmetros incluindo 1B, 7B e 13B. Atom melhora as capacidades de língua chinesa do modelo Llama.

Model Training Data Params Tokens Release Date
Atom Chinese and multilingual encyclopedias, books, blogs, news, novels, financial data, legal data, medical data, code, paper, Chinese NLP competition datasets, etc. 1B 2.7T 2023/12/20
7B 2.7T 2023/08/28
13B 2.7T 2023/07/31

Como Contribuir para a Família Llama

  • Junte-se à Comunidade: Interaja com outros desenvolvedores e entusiastas através de fóruns, grupos de chat e eventos.
  • Contribua com Código: Submeta pedidos de pull com correções de bugs, novas funcionalidades ou melhorias de modelo.
  • Partilhe Recursos: Partilhe conjuntos de dados, scripts de treino e modelos pré-treinados com a comunidade.
  • Forneça Feedback: Ofereça feedback sobre os modelos e ferramentas existentes para ajudar a melhorar a sua qualidade e usabilidade.

Por que é que a Família Llama é importante?

A Família Llama é importante porque fomenta a colaboração e acelera o desenvolvimento de modelos de IA de código aberto. Ao fornecer uma plataforma para desenvolvedores e investigadores partilharem recursos e conhecimento, a Família Llama ajuda a democratizar o acesso à tecnologia de IA e a promover a inovação.

Conclusão

A Família Llama é uma comunidade crescente dedicada a promover a IA através da colaboração de código aberto. Junte-se à Família Llama hoje para contribuir para o futuro da IA!

Melhores ferramentas alternativas para "Llama Family"

Task Hub AI
Imagem não disponível
303 0

昇思MindSpore
Imagem não disponível
371 0

A estrutura de IA de código aberto MindSpore da Huawei. Diferenciação automática e paralelização, um treinamento, implantação multi-cenário. Estrutura de treinamento e inferência de aprendizado profundo que oferece suporte a todos os cenários da nuvem do lado do terminal, usada principalmente em visão computacional, processamento de linguagem natural e outros campos de IA, para cientistas de dados, engenheiros de algoritmos e outras pessoas.

Estrutura de IA
Aprendizado profundo
Finseo
Imagem não disponível
210 0

Finseo é uma plataforma de SEO alimentada por IA para otimizar o conteúdo para Google, ChatGPT, Claude e plataformas de IA. Fornece pesquisa avançada de palavras-chave, rastreamento de classificação e ferramentas de geração de conteúdo. Rastreie a visibilidade da IA e melhore sua presença na pesquisa de IA.

Plataforma de SEO de IA
Tradepost.ai
Imagem não disponível
318 0

Tradepost.ai: Inteligência de mercado orientada por IA para negociações mais inteligentes. Análise em tempo real de notícias, newsletters e arquivos SEC.

Trading de IA
análise de mercado
PerfAgents
Imagem não disponível
216 0

PerfAgents é uma plataforma de monitoramento sintético alimentada por IA que simplifica o monitoramento de aplicativos web usando scripts de automação existentes. Ele suporta Playwright, Selenium, Puppeteer e Cypress, garantindo testes contínuos e um desempenho confiável.

monitoramento sintético
Amanu
Imagem não disponível
458 0

Crie aplicativos Telegram para startups de IA rapidamente. Chatbots, Mini Apps e infraestrutura de IA. Da ideia ao MVP em 4 semanas.

IA
Telegram
Chatbots
AIEditor
Imagem não disponível
158 0

AIEditor é um editor de texto rico de código aberto de última geração para IA, oferecendo suporte a markdown, compatibilidade total com frameworks e poderosas capacidades de IA como tradução e interpretação de blocos de código.

editor de texto rico
editor de IA
Wan 2.2
Imagem não disponível
127 0

Wan 2.2 é o modelo líder de geração de vídeo com IA da Alibaba, agora de código aberto. Oferece controle de visão cinematográfica, suporta geração de texto para vídeo e imagem para vídeo e fornece TI2V híbrido de alta definição eficiente.

Geração de vídeo com IA
PhariaAI
Imagem não disponível
203 0

PhariaAI da Aleph Alpha capacita empresas com soluções de IA soberanas. Proteja seus dados, molde o trabalho do conhecimento orientado por IA. Explore PhariaAI para IA transparente, compatível e à prova do futuro.

IA empresarial
IA soberana
LLM