FAQ

Questions fréquemment posées sur l'utilisation de Clore.ai pour les charges de travail IA

Questions courantes sur l'utilisation de CLORE.AI pour des charges de travail IA.

circle-check

Premiers pas

Comment créer un compte ?

  1. Cliquez S'inscrire

  2. Saisir l'email et le mot de passe

  3. Vérifiez votre email

  4. Terminé ! Vous pouvez maintenant déposer des fonds et louer des GPU

Quels modes de paiement sont acceptés ?

  • CLORE - Jeton natif (offre souvent les meilleurs tarifs)

  • BTC - Bitcoin

  • USDT - Tether (ERC-20, TRC-20)

  • USDC - USD Coin

Quel est le dépôt minimum ?

Il n'y a pas de minimum strict, mais nous recommandons 5–10 $ pour commencer à expérimenter. Cela couvre plusieurs heures sur des GPU économiques.

Combien de temps avant que mon dépôt n'arrive ?

Devise
Confirmations
Temps typique

CLORE

10

~10 minutes

BTC

2

~20 minutes

USDT/USDC

Dépend du réseau

1-15 minutes


Choisir le matériel

Quel GPU devrais-je choisir ?

Cela dépend de votre tâche :

Tâche
GPU recommandé

Discussion avec des modèles 7B

RTX 3060 12GB (0,15–0,30 $/jour)

Discussion avec des modèles 13B-30B

RTX 3090 24GB (0,30–1,00 $/jour)

Discussion avec des modèles 70B

RTX 5090 32GB (1,50–3,00 $/jour) ou A100 40GB (1,50–3,00 $/jour)

Génération d'images (SDXL)

RTX 3090 24GB (0,30–1,00 $/jour)

Génération d'images (FLUX)

RTX 4090/5090 (0,50–3,00 $/jour)

Génération vidéo

RTX 4090+ ou A100 (0,50–3,00 $/jour)

Modèles 70B+ (FP16)

A100 80GB (2,00–4,00 $/jour)

Voir Comparaison GPU pour les spécifications détaillées.

Quelle est la différence entre À la demande (On-Demand) et Spot ?

Type
Prix
Disponibilité
Idéal pour

À la demande

Prix fixe

Garanti

Production, tâches longues

Spot

30-50% moins cher

Peut être interrompu

Tests, tâches par lots

Les commandes Spot peuvent être terminées si quelqu'un propose plus. Enregistrez votre travail fréquemment !

De combien de VRAM ai-je besoin ?

Utilisez ce guide rapide :

Taille du modèle
VRAM minimale (Q4)
Recommandé

7B

6 Go

12Go

13B

8 Go

16Go

30B

16Go

24 Go

70B

35GB

48Go

Voir Compatibilité des modèles pour tous les détails.

Que signifie « Non vérifié » sur un serveur ?

Les serveurs non vérifiés n'ont pas complété la vérification matérielle de CLORE.AI. Ils peuvent :

  • Avoir des spécifications légèrement différentes de celles indiquées

  • Être moins fiables

Les serveurs vérifiés ont des spécifications confirmées et une meilleure fiabilité.


Connexion aux serveurs

Comment me connecter via SSH ?

Après le démarrage de votre commande :

  1. Aller à la Mes commandes

  2. Trouvez votre commande

  3. Copiez la commande SSH : ssh -p <port> root@<adresse-proxy>

  4. Utilisez le mot de passe indiqué dans les détails de la commande

Exemple :

Connexion SSH refusée - que faire ?

  1. Attendez 1-2 minutes - Le serveur peut encore démarrer

  2. Vérifiez le statut de la commande - Doit être « Running »

  3. Vérifiez le port - Utilisez le port indiqué dans les détails de la commande, pas 22

  4. Vérifiez le pare-feu - Votre réseau peut bloquer les ports non standard

Comment accéder aux interfaces web (Gradio, Jupyter) ?

  1. Dans les détails de la commande, trouvez le lien du port HTTP

  2. Cliquez sur le lien pour l'ouvrir dans le navigateur

  3. Ou manuellement : http://<adresse-proxy>:<port-http>

Puis-je utiliser VS Code Remote SSH ?

Oui ! Ajoutez à votre ~/.ssh/config:

Puis connectez-vous dans VS Code : Remote-SSH : Connect to Hostclore-gpu

Comment transférer des fichiers ?

Téléverser vers le serveur :

Télécharger depuis le serveur :

Pour les transferts volumineux, utilisez rsync :


Exécution de charges de travail IA

Comment installer des paquets Python ?

Pour des installations persistantes, incluez-les dans votre commande de démarrage ou l'image Docker.

Pourquoi mon modèle manque-t-il de mémoire ?

  1. Utiliser la quantification - Q4 utilise 4x moins de VRAM que FP16

  2. Activer le déchargement vers le CPU - Plus lent mais fonctionne

  3. Réduire la taille de batch - Utilisez batch_size=1

  4. Réduire la longueur du contexte - Réduire max_tokens

  5. Choisir un GPU plus grand - Parfois nécessaire

Comment utiliser les modèles Hugging Face qui demandent une connexion ?

Pour les modèles restreints (Llama, etc.), acceptez d'abord les conditions sur le site Hugging Face.

Puis-je exécuter plusieurs modèles en même temps ?

Oui, si vous avez assez de VRAM :

  • Chaque modèle a besoin de sa propre allocation de VRAM

  • Utilisez des ports différents pour différents services

  • Envisagez vLLM pour un service multi-modèles efficace

Comment conserver mon travail après la fin de la commande ?

Avant la fin de la commande :

  1. Téléchargez les sorties : scp -P <port> root@<proxy>:/root/outputs/* ./

  2. Poussez vers le cloud : aws s3 sync /root/outputs s3://bucket/

  3. Committez sur Git : git push

Les données sont perdues à la fin de la commande ! Sauvegardez toujours les fichiers importants.


Facturation et commandes

Comment la facturation est-elle calculée ?

  • Tarif horaire × heures utilisées

  • La facturation commence lorsque le statut de la commande est « Running »

  • Facturation minimale : 1 minute

  • Les heures partielles sont facturées à la minute

Comment arrêter une commande ?

  1. Aller à la Mes commandes

  2. Cliquez Arrêter sur votre commande

  3. Confirmer la terminaison

Vous ne serez facturé que pour le temps utilisé.

Puis-je prolonger ma commande ?

Oui, si personne n'a surenchéri sur votre commande spot. Ajoutez des fonds à votre solde et la commande se poursuit automatiquement.

Que se passe-t-il si mon solde est épuisé ?

  1. Notification d'avertissement envoyée

  2. Période de grâce (~5-10 minutes)

  3. Commande terminée

  4. Toutes les données perdues !

Ayez un solde suffisant ou téléchargez votre travail avant d'être à court.

Puis-je obtenir un remboursement ?

Contactez le support pour :

  • Problèmes matériels (GPU ne fonctionnant pas)

  • Temps d'arrêt significatif

  • Erreurs de facturation

Les remboursements ne sont pas fournis pour :

  • Erreurs utilisateur

  • Utilisation normale de la commande

  • Interruptions de commandes Spot


Docker et images

Quelles images Docker sont disponibles ?

Voir Catalogue d'images Docker pour des images prêtes à l'emploi :

  • ollama/ollama - Exécuteur LLM

  • vllm/vllm-openai - API LLM haute performance

  • universonic/stable-diffusion-webui - Génération d'images

  • yanwk/comfyui-boot - Génération d'images basée sur Node

Puis-je utiliser ma propre image Docker ?

Oui ! Spécifiez votre image lors de la commande :

Assurez-vous que l'image est publiquement accessible ou fournissez des identifiants.

Comment conserver les données entre les redémarrages ?

Utilisez les points de montage de volume fournis ou spécifiez des volumes personnalisés :


Dépannage

Erreur « CUDA out of memory »

  1. Vérifiez la VRAM - nvidia-smi

  2. Utiliser un modèle plus petit ou la quantification

  3. Activez l'offload - --cpu-offload

  4. Réduire la taille de batch - batch_size=1

  5. Tuez les autres processus - pkill python

Erreur "Délai d'attente de connexion dépassé"

  1. Vérifiez le statut de la commande - Doit être « Running »

  2. Attendez plus longtemps - Les grandes images prennent du temps à démarrer

  3. Vérifiez les ports - Utilisez le port correct depuis la commande

  4. Réessayez - Les problèmes réseau sont temporaires

L'interface web ne se charge pas

  1. Attendez le démarrage - Certaines interfaces prennent 2-5 minutes

  2. Vérifiez les logs: docker logs <container>

  3. Vérifiez le port - Utilisez le port HTTP depuis les détails de la commande

  4. Vérifiez la commande - Doit inclure --listen 0.0.0.0

Téléchargement du modèle bloqué

  1. Vérifier l'espace disque: df -h

  2. Utiliser un modèle plus petit - Commencez par 7B

  3. Pré-téléchargement - Inclure dans l'image Docker

  4. Vérifiez le token HF - Requis pour les modèles restreints

Vitesse d'inférence lente

  1. Vérifiez l'utilisation du GPU: nvidia-smi

  2. Activez le GPU - Le modèle peut être sur le CPU

  3. Utilisez Flash Attention - --flash-attn

  4. Optimisez les paramètres - Réduisez la précision, le batch


Sécurité

Mes données sont-elles sécurisées ?

  • Chaque commande s'exécute dans un conteneur isolé

  • Les données sont supprimées à la fin de la commande

  • Le trafic réseau passe par les proxies CLORE

  • Ne stockez pas de données sensibles sur des GPU loués

Dois-je changer le mot de passe root ?

Optionnel mais recommandé pour les commandes longues :

Comment protéger les clés API ?

  1. Utilisez des variables d'environnement - Pas des arguments en ligne de commande

  2. Ne pas commit sur Git - Utilisez .gitignore

  3. Supprimez après utilisation - Effacez l'historique : history -c


Besoin d'aide supplémentaire ?

Mis à jour

Ce contenu vous a-t-il été utile ?