

ClaraDesk
Détails techniques
Introduction
ClaraCore est un logiciel intelligent qui intègre plusieurs modèles IA personnalisables, avec un une architecture locale transparente et modulaire.
Nos modèles IA actuels et à venir
-
Gemma 3 (2B, 4B, 12B, 27B) → modèle favorisé pour sa stabilité en français, son orthographe soignée, sa capacité de traduction, son éthique et surtout sa faculté à répondre « je ne sais pas ».
-
Mistral 7B→ Un modèle Français très apprécier pour sa puissance de calcul et sa cohérence générale
-
SD 3.5 Pour la génération d'image de qualité hors ligne et gratuite.(à vemir)
-
Autres modèles à venir
Capacité et performances des modèles
-
2B → rapide, idéal pour tâches simples (notes, résumés).
-
4B → bon compromis vitesse/précision, conversations courantes.
-
12B → excellent pour rédaction, traduction, logique plus complexe.
-
27B → plus lent mais très avancé en raisonnement, utile pour des analyses ou de la recherche. (*voir minimum requis)
API externes
ClaraCore peut se connecter à plusieurs APIs externes pour étendre ses capacités :
-
Qwen
-
GPT et Dall-e Image (OpenAI)
-
Claude (Anthropic)
-
Perplexity
-
Autres à venir selon besoins.
Outils intégrés et à venir
-
Génération de PDF
-
Envoi de courriel (via IA hors-ligne)
-
Génération d'images cloud. (Images hors ligne à venir)
-
Traduction
-
Résumé
-
Lecture/écriture fichiers
-
Mémoire RAG privé par IA.
-
Recherche web (Perplexity gratuit via API)
-
Connecter vos propres outils.
Mémoires
-
Mémoire courte : contexte de la session active. (Mémoire derniers messages)
-
Mémoire longue : Mémoire RAG avec drop. (Mémoire pour vos documents)
-
Lecture One-Shot: Drop de documents PDF, Docx...
-
Prompts et persona : personnalisables pour ajuster le comportement de l’IA.
Spécifications minimales recommandées pour utiliser ClaraCore
ClaraCore a été conçu pour fonctionner même sur des machines modestes, mais comme toute IA locale, il a besoin d’un peu de puissance pour offrir une expérience fluide.
Minimum requis pour un fonctionnement de base 1x2b + API:
-
CPU x86-64 AVX2 (Ryzen 3000U/4000U/5000U/3450U/4500U) (Intel 8e gen et + i3-8100/i5-8250U/i5-10500)
-
4 coeurs / 8 threads
-
8 Go de Ram
-
10 Go espace libre (SSD/SATA)
-
OS 64-bit Windows 10+
-
carte graphique non obligatoire
-
* Internet + clé API nécessaire pour GPT 4o, Claude, Qwen, Perplexity (à vos frais)
Recommandé 2b-12b (*total max de modèles cumulés 24b)
-
CPU AMD Ryzen 5/7 (7000 series ou mieux) (Intel i5/i7 12e gen AVX2) + 3.0ghz
-
32/64 Go RAM DDR5 4800 MT/s
-
SSD NVME 1To
-
Optionnel : RTX 3050 / 4060 (6-8 Go de RAM)
-
Performances moyennes 12b: (CPU only: 4-7 token/s) (CPU+GPU: 7-10 token/s) Q4
-
Utilisation Pro
-
* Internet + clé API nécessaire pour GPT 4o, Claude, Qwen, Perplexity (à vos frais)
Optimal 2b-27b (*total max de modèles cumulés 48b):
-
AMD Ryzen 9 7950X / Intel i9 13900K (16-24 threads+)
- 64 Go RAM ou +
- SSD NVME-e Gen 4 1-2 To
- RTX 4090 / A6000 / RTX 5000 Ada (24 Go VRAM+)
- Performances moyennes 12b: (15-35 token/s Q4-Q6) 27b(10-25 token/s Q4)
- Usage Multi-IA, Production, multi-sessions
- * Internet + clé API nécessaire pour GPT 4o, Claude, Qwen, Perplexity (à vos frais)
*** Important: Ne jamais dépassez la RAM! ***
- Ex: 32 Go de RAM peut soutenir 2x2b + 2x4b + 12b maximum (ne pas mettre plus de .gguf dans les dossiers que la RAM disponible)
- Ex: 16 Go de RAM peut soutenir 2x2b + 2x4b ou 1x12b (ne pas mettre plus de .gguf dans les dossiers que la RAM disponible)
- Ex: 8 Go de RAM peut soutenir 1x2b + 1x4b (ne pas mettre plus de .gguf dans les dossiers que la RAM disponible)
