Fusion de modèles Mergekit

Mergekit est la boîte à outils définitive pour fusionner des modèles de langage pré-entraînés. Avec plus de 5 000 étoiles sur GitHub, il implémente tous les principaux algorithmes de fusion de modèles — SLERP, TIES, DARE, DARE-TIES, fusion MoE, et plus — vous permettant de créer de nouveaux modèles puissants sans données d'entraînement ni temps de formation GPU.

circle-check

Qu'est-ce que Mergekit ?

La fusion de modèles est une technique puissante qui combine les forces de plusieurs LLM en un seul modèle :

  • Aucun entraînement requis — la fusion se fait dans l'espace des poids, pas par rétropropagation

  • Combiner des capacités — mélanger un modèle de codage avec un modèle suiveur d'instructions

  • Réduire les faiblesses — lisser les échecs individuels des modèles au sein d'un ensemble

  • Créer une Mixture of Experts — combiner des modèles en une architecture MoE éparse

  • Adaptation au domaine — fusionner un modèle de base avec des modèles spécialisés par domaine

Mergekit implémente tous les algorithmes à la pointe :

Algorithme
Description
Idéal pour

SLERP

Interpolation linéaire sphérique entre deux modèles

Mélange fluide de deux modèles similaires

TIES

Élaguer les paramètres redondants, élire des signes, fusionner

Combiner plusieurs modèles avec une interférence minimale

DARE

Supprimer et re-échelonner des paramètres aléatoires

Réduire l'interférence des paramètres lors de grandes fusions

DARE-TIES

DARE + TIES combinés

Meilleur choix général pour les fusions multi-modèles

Linéaire

Moyenne pondérée simple

Fusions de référence rapides

Task Arithmetic

Ajouter/soustraire des vecteurs de tâche

Ajouter/supprimer des capacités spécifiques

Passthrough

Copier des couches directement

Construction MoE

circle-info

La fusion de modèles est étonnamment efficace. Les modèles fusionnés dépassent souvent leurs modèles parents sur les benchmarks en combinant des connaissances complémentaires. La communauté MergeKit sur HuggingFace héberge des milliers de modèles fusionnés.


Exigences serveur

Composant
Minimum
Recommandé

GPU

Non requis (fusion possible sur CPU)

A100 40 Go pour les grands modèles

VRAM

80 Go pour les fusions de modèles 70B

RAM

32 Go

64 Go+ (les modèles se chargent en RAM)

CPU

8 cœurs

16+ cœurs

Stockage

100 Go

500 Go+

OS

Ubuntu 20.04+

Ubuntu 22.04

Python

3.10+

3.11

circle-exclamation

Ports

Port
Service
Remarques

22

SSH

Accès au terminal et transfert de fichiers

Mergekit s'exécute comme un outil en ligne de commande — aucun serveur web nécessaire.


Installation sur Clore.ai

Étape 1 — Louer un serveur

  1. Filtrer par RAM ≥ 64 Go (critique pour les grandes fusions de modèles)

  2. Choisir Stockage ≥ 500 Go (les modèles fusionnés nécessitent de l'espace pour 2-4 modèles d'entrée + la sortie)

  3. Le GPU est optionnel mais utile si vous souhaitez tester le modèle fusionné ensuite

  4. Ouvrir le port 22 seulement

Étape 2 — Se connecter via SSH

Étape 3 — Installer l'environnement Python

Étape 4 — Installer Mergekit

Étape 5 — Installer le CLI HuggingFace

Étape 6 — Vérifier l'installation


Téléchargement des modèles à fusionner


Configurations de fusion

Mergekit utilise des fichiers de configuration YAML pour définir les fusions.

Exemple 1 : Fusion SLERP (Deux modèles)

SLERP mélange deux modèles le long d'un arc sphérique — idéal pour des modèles de la même architecture :

Exemple 2 : Fusion TIES (Plusieurs modèles)

TIES gère l'interférence entre plusieurs modèles fusionnés :

Exemple 3 : Fusion DARE-TIES (Meilleur choix général)

Exemple 4 : Task Arithmetic (Ajouter des capacités)

Ajouter un « delta de compétence » à un modèle de base :

Exemple 5 : MoE (Mixture of Experts)

Combiner des modèles en une architecture MoE éparse :


Exécution de la fusion

Commande de base

Surveiller la progression


Tester le modèle fusionné


Publication sur HuggingFace


Avancé : Fusion évolutive

Utilisez l'optimiseur évolutif de Mergekit pour trouver les poids de fusion optimaux :


Dépannage

Out of Memory (OOM) pendant la fusion

ValueError : les modèles ne sont pas compatibles

La fusion est très lente

Le modèle fusionné produit des absurdités

FileNotFoundError pour les fichiers du modèle


Recettes populaires de fusion

Assistant général + Codage

Boost multilingue


Liens utiles


Recommandations GPU Clore.ai

Cas d’utilisation
GPU recommandé
Coût estimé sur Clore.ai

Développement/Test

RTX 3090 (24GB)

~$0.12/gpu/hr

Fusion de modèles (7B–13B)

RTX 4090 (24GB)

~$0.70/gpu/hr

Grands modèles (70B+)

A100 80GB

~$1.20/gpu/hr

Fusion multi-GPU

2-4x A100 80GB

~2,40–4,80 $/heure

💡 Tous les exemples de ce guide peuvent être déployés sur Clore.aiarrow-up-right serveurs GPU. Parcourez les GPU disponibles et louez à l’heure — sans engagement, avec accès root complet.

Mis à jour

Ce contenu vous a-t-il été utile ?