Introdução abrangente O GraphGen é uma estrutura de código aberto desenvolvida pelo OpenScienceLab, um laboratório de IA em Xangai, hospedado no GitHub, com foco na otimização do ajuste fino supervisionado de modelos de linguagem grande (LLMs), orientando a geração de dados sintéticos por meio de gráficos de conhecimento. Ele constrói gráficos de conhecimento de granulação fina a partir do texto de origem, usando...
Introdução abrangente O MiniMind-V é um projeto de código aberto, hospedado no GitHub, criado para ajudar os usuários a treinar um modelo de linguagem visual (VLM) leve com apenas 26 milhões de parâmetros em menos de uma hora. Ele se baseia no modelo de linguagem MiniMind, com um novo codificador visual e um módulo de projeção de recursos para dar suporte à vinculação de imagens e textos. ....
Introdução abrangente O DeepCoder-14B-Preview é um modelo de geração de código-fonte aberto desenvolvido pela equipe da Agentica e lançado na plataforma Hugging Face. Ele se baseia no DeepSeek-R1-Distilled-Qwen-14B por meio do aprendizado por reforço distribuído (RL...
Introdução abrangente O WeClone é um projeto de código aberto que usa registros de bate-papo e mensagens de voz do WeChat, combinados com grandes modelos de linguagem e tecnologia de síntese de fala, para permitir que os usuários criem doppelgangers digitais personalizados. O projeto pode analisar os hábitos de bate-papo do usuário para treinar o modelo, mas também um pequeno número de amostras de voz para gerar clones de voz realistas ...
Introdução geral O Search-R1 é um projeto de código aberto desenvolvido por PeterGriffinJin no GitHub e baseado na estrutura veRL. Ele usa técnicas de aprendizagem por reforço (RL) para treinar grandes modelos de linguagem (LLMs), permitindo que os modelos aprendam de forma autônoma a raciocinar e invocar mecanismos de pesquisa para resolver problemas. O projeto oferece suporte ao Q...
Introdução geral O Optexity é um projeto de código aberto no GitHub, desenvolvido pela equipe do Optexity. Sua essência é usar dados de demonstração humana para treinar a IA para concluir tarefas de computador, especialmente operações de páginas da Web. O projeto contém três bibliotecas de código: ComputerGYM, AgentAI e Playw...
Introdução geral O Bonsai é um modelo de linguagem de código aberto desenvolvido pela deepgrove-ai com um tamanho de parâmetro de 500 milhões, usando pesos ternários. Ele se baseia na arquitetura Llama e no design do classificador Mistral, com camadas lineares adaptadas para suportar pesos ternários. O modelo ...
O Second Me é um projeto de código aberto desenvolvido pela equipe Mindverse que permite criar uma IA em seu computador que atua como um "sósia digital", aprendendo sua fala e seus hábitos por meio de suas palavras e memórias e transformando-o em um assistente inteligente que o entende. Seu melhor recurso é que todos os números...
Introdução abrangente O Easy Dataset é uma ferramenta de código aberto projetada especificamente para o ajuste fino de modelos grandes (LLMs), hospedada no GitHub. Ela oferece uma interface fácil de usar que permite aos usuários fazer upload de arquivos, dividir automaticamente o conteúdo, gerar perguntas e respostas e, por fim, gerar conjuntos de dados estruturados adequados para o ajuste fino. Abrir ...
Introdução abrangente O MM-EUREKA é um projeto de código aberto desenvolvido pelo Shanghai Artificial Intelligence Laboratory, pela Shanghai Jiao Tong University e por outras partes. Ele amplia os recursos de raciocínio textual para cenários multimodais por meio de técnicas de aprendizagem por reforço baseadas em regras para ajudar os modelos a processar informações textuais e de imagem. O objetivo principal dessa ferramenta é aprimorar...
Introdução geral O AI Toolkit da Ostris é um kit de ferramentas de IA de código aberto focado no suporte aos modelos Stable Diffusion e FLUX.1 para tarefas de treinamento e geração de imagens. Criado e mantido pelo desenvolvedor Ostris e hospedado no GitHub, o kit de ferramentas tem como objetivo fornecer aos pesquisadores e desenvolvedores...
Introdução geral O X-R1 é uma estrutura de aprendizagem por reforço de código aberto no GitHub pela equipe dhcode-cpp, com o objetivo de fornecer aos desenvolvedores uma ferramenta eficiente e de baixo custo para modelos de treinamento com base na aprendizagem por reforço de ponta a ponta. O projeto é inspirado no DeepSeek-R1 e no open-r1 e se concentra em...
Introdução geral O OpenManus-RL é um projeto de código aberto desenvolvido em conjunto pelo UIUC-Ulab e pela equipe do OpenManus da comunidade MetaGPT, hospedado no GitHub. O projeto aprimora os recursos de raciocínio e tomada de decisão das inteligências do Large Language Model (LLM) por meio de técnicas de Aprendizado por Reforço (RL), com base em técnicas de...
Introdução geral O TPO-LLM-WebUI é um projeto inovador de código aberto da Airmomo no GitHub que permite a otimização em tempo real de modelos de idiomas grandes (LLMs) por meio de uma interface da Web intuitiva. Ele usa a estrutura TPO (Test-Time Prompt Optimisation)...
Introdução geral O Open-Reasoner-Zero é um projeto de código aberto voltado para a pesquisa de aprendizagem por reforço (RL), desenvolvido pela equipe do Open-Reasoner-Zero no GitHub. Seu objetivo é acelerar o processo de pesquisa no campo da inteligência artificial, fornecendo uma estrutura de treinamento eficiente, dimensionável e fácil de usar, especialmente...
Introdução abrangente O conjunto de dados chinês de destilação DeepSeek-R1 é um conjunto de dados chinês de código aberto que contém 110 mil itens de dados projetados para dar suporte à pesquisa de aprendizado de máquina e processamento de linguagem natural. O conjunto de dados foi lançado pela equipe de NLP de Cong Liu e contém não apenas dados matemáticos, mas também um grande número de tipos gerais de dados, como raciocínio lógico...
Introdução abrangente O ColossalAI é uma plataforma de código aberto desenvolvida pela HPC-AI Technologies para fornecer uma solução eficiente e econômica para treinamento e inferência de modelos de IA em grande escala. Ao oferecer suporte a várias estratégias paralelas, gerenciamento de memória heterogênea e treinamento de precisão mista, o ColossalAI é capaz de reduzir significativamente o treinamento e a inferência de modelos...
Introdução geral O One Shot LoRA é uma plataforma voltada para a geração de modelos de LoRA de vídeo de alta qualidade a partir de vídeos. Os usuários podem treinar de forma rápida e fácil modelos LoRA de alta qualidade a partir de vídeos, sem fazer login ou armazenar dados privados. A plataforma é compatível com Hunyuan Video, FLUX e SDX...
Introdução abrangente O Kiln é uma ferramenta de código aberto que se concentra no ajuste fino de modelos de linguagem ampla (LLMs), na geração de dados sintéticos e na colaboração de conjuntos de dados. Ele fornece um aplicativo de desktop intuitivo com suporte para Windows, MacOS e Linux, permitindo que os usuários implementem modelos como Llama, GPT4o e Mixtral com código zero...