O ReCall é uma estrutura de código aberto projetada para treinar modelos de linguagem grande (LLMs) para invocação e inferência de ferramentas por meio do aprendizado por reforço, sem depender de dados supervisionados. Ele permite que os modelos usem e combinem de forma autônoma ferramentas externas, como pesquisa, calculadoras etc., para resolver tarefas complexas.
O GraphGen é uma estrutura de código aberto desenvolvida pelo OpenScienceLab, um laboratório de IA em Xangai, hospedado no GitHub, focado na otimização do ajuste fino supervisionado de LLMs (Large Language Models), orientando a geração de dados sintéticos por meio de gráficos de conhecimento. Ele constrói gráficos de conhecimento de granulação fina a partir do texto de origem, usando o erro de calibração esperado...
O MiniMind-V é um projeto de código aberto, hospedado no GitHub, criado para ajudar os usuários a treinar um modelo de linguagem visual (VLM) leve com apenas 26 milhões de parâmetros em menos de uma hora. Ele se baseia no modelo de linguagem MiniMind, no novo codificador visual e no módulo de projeção de recursos, no suporte ao processamento conjunto de imagens e textos. .....
O DeepCoder-14B-Preview é um modelo de geração de código-fonte aberto desenvolvido pela equipe da Agentica e lançado na plataforma Hugging Face. Ele se baseia no DeepSeek-R1-Distilled-Qwen-14B, otimizado por técnicas de aprendizado por reforço distribuído (RL)...
O WeClone é um projeto de código aberto que permite aos usuários criar doppelgängers digitais personalizados usando registros de bate-papo e mensagens de voz do WeChat, combinados com grandes modelos de linguagem e tecnologia de síntese de voz. O projeto pode analisar os hábitos de bate-papo de um usuário para treinar o modelo e também pode gerar clones de voz realistas com um pequeno número de amostras de voz. Em última análise, o modelo digital...
O Search-R1 é um projeto de código aberto desenvolvido por PeterGriffinJin no GitHub e baseado na estrutura veRL. Ele usa técnicas de aprendizagem por reforço (RL) para treinar um modelo de linguagem grande (LLM), de modo que o modelo aprenda de forma autônoma a raciocinar e invocar o mecanismo de busca para resolver problemas. Suporte ao projeto Qwen2....
O Optexity é um projeto de código aberto no GitHub, desenvolvido pela equipe do Optexity. Sua essência é usar dados de demonstração humana para treinar a IA para concluir tarefas de computador, especialmente operações de páginas da Web. O projeto consiste em três bibliotecas de código: ComputerGYM, AgentAI e Playwright...
O Bonsai é um modelo de linguagem de código aberto desenvolvido pela deepgrove-ai com um tamanho de parâmetro de 500 milhões, usando pesos ternários. Ele se baseia na arquitetura Llama e no design do classificador Mistral, com camadas lineares adaptadas para suportar pesos ternários. O modelo usa principalmente ...
O Second Me é um projeto de código aberto desenvolvido pela equipe Mindverse que permite criar uma IA em seu computador que atua como um "sósia digital", aprendendo seus padrões e hábitos de fala por meio de suas palavras e memórias e tornando-se um assistente inteligente que o entende. Seu melhor recurso é que todos os dados permanecem no...
O Easy Dataset é uma ferramenta de código aberto projetada especificamente para o ajuste fino de modelos grandes (LLMs), hospedada no GitHub. Ela oferece uma interface fácil de usar que permite aos usuários fazer upload de arquivos, segmentar automaticamente o conteúdo, gerar perguntas e respostas e, por fim, gerar conjuntos de dados estruturados adequados para o ajuste fino. O desenvolvedor, Cona...
O MM-EUREKA é um projeto de código aberto desenvolvido pelo Shanghai Artificial Intelligence Laboratory, pela Shanghai Jiao Tong University e por outras partes. Ele amplia os recursos de raciocínio textual para cenários multimodais por meio de técnicas de aprendizagem por reforço baseadas em regras para ajudar os modelos a processar informações de imagem e texto. O objetivo principal dessa ferramenta é aprimorar o modelo em...
O AI Toolkit by Ostris é um kit de ferramentas de IA de código aberto focado no suporte aos modelos Stable Diffusion e FLUX.1 para tarefas de treinamento e geração de imagens. Criado e mantido pelo desenvolvedor Ostris e hospedado no GitHub, o kit de ferramentas tem como objetivo fornecer aos pesquisadores e desenvolvedores uma modelagem flexível...
O X-R1 é uma estrutura de aprendizagem por reforço de código aberto no GitHub pela equipe dhcode-cpp, com o objetivo de fornecer aos desenvolvedores uma ferramenta eficiente e de baixo custo para modelos de treinamento com base na aprendizagem por reforço de ponta a ponta. Inspirado no DeepSeek-R1 e no open-r1, o projeto se concentra na criação de uma estrutura...
O OpenManus-RL é um projeto de código aberto desenvolvido em conjunto pelo UIUC-Ulab e pela equipe do OpenManus da comunidade MetaGPT, hospedado no GitHub. O projeto aprimora os recursos de raciocínio e tomada de decisão das inteligências do Large Language Model (LLM) por meio de técnicas de Aprendizado por Reforço (RL), com base no Deepseek-R1...
O TPO-LLM-WebUI é um projeto inovador de código aberto da Airmomo no GitHub que permite a otimização em tempo real de modelos de linguagem grandes (LLMs) por meio de uma interface da Web intuitiva. Ele usa a estrutura TPO (Test-Time Prompt Optimisation), dizendo adeus à ...
O Open-Reasoner-Zero é um projeto de código aberto voltado para a pesquisa de aprendizagem por reforço (RL), desenvolvido pela equipe do Open-Reasoner-Zero no GitHub. Seu objetivo é acelerar o processo de pesquisa no campo da inteligência artificial, fornecendo uma estrutura de treinamento eficiente, dimensionável e fácil de usar, especialmente para fins humanos de uso geral...
O conjunto de dados chinês de destilação DeepSeek-R1 é um conjunto de dados chinês de código aberto que contém 110 mil dados projetados para dar suporte à pesquisa de aprendizado de máquina e processamento de linguagem natural. O conjunto de dados foi lançado pela equipe de NLP de Liu Cong e contém não apenas dados matemáticos, mas também um grande número de tipos gerais de dados, como raciocínio lógico, Xiaohongshu...
O ColossalAI é uma plataforma de código aberto desenvolvida pela HPC-AI Technologies para fornecer uma solução eficiente e econômica para treinamento e inferência de modelos de IA em grande escala. Ao oferecer suporte a várias estratégias paralelas, gerenciamento de memória heterogênea e treinamento de precisão mista, o ColossalAI é capaz de reduzir significativamente o tempo de treinamento e inferência de modelos e...
O One Shot LoRA é uma plataforma voltada para a geração de modelos de LoRA de vídeo de alta qualidade a partir de vídeos. Os usuários podem treinar de forma rápida e fácil modelos LoRA de alta qualidade a partir de vídeos sem fazer login ou armazenar dados privados. A plataforma é compatível com Hunyuan Video, FLUX e SDXL...