Les modules metiers : connectez vos outils a l'IA locale
Comment les modules Lockal pre-configurent prompts, MCP et API pour rendre l'IA locale immediatement utile dans votre contexte professionnel.
Le probleme des LLM generiques
Un LLM brut est impressionnant, mais il ne connait pas votre metier. Il ne sait pas ou sont vos documents, quelles API utiliser, ni quel ton adopter dans vos emails professionnels. Le configurer demande du temps et des competences techniques.
Les modules : l’IA pre-configuree pour votre usage
Un module Lockal est un pack qui reunit :
- Des prompts systeme optimises pour un cas d’usage precis
- Des connexions MCP (Model Context Protocol) vers vos outils locaux
- Des API pre-connectees pour enrichir les reponses du LLM
- Des templates de conversations recurrentes
Exemples de modules disponibles
Dev Assistant
Connecte a votre IDE via MCP, ce module permet au LLM de :
- Lire et comprendre votre codebase
- Proposer des revues de code contextuelles
- Generer des tests unitaires adaptes a votre stack
- Debugger en analysant les logs et stack traces
Doc Explorer
Transformez vos documents en base de connaissances interrogeable :
- Indexation locale de vos PDF, Markdown, exports Notion
- Recherche semantique via RAG
- Reponses sourcees avec references aux passages pertinents
- Fonctionne avec des milliers de documents
Data Analyst
Analysez vos donnees sans les envoyer dans le cloud :
- Connexion directe a vos fichiers CSV et bases SQLite
- Generation automatique de requetes SQL
- Visualisations et graphiques
- Resumes et insights en langage naturel
Creer son propre module
Lockal permet de creer des modules sur mesure :
# module.yaml
name: "Mon Module RH"
description: "Assistant RH pour la redaction d'offres d'emploi"
system_prompt: |
Tu es un assistant RH specialise dans la redaction
d'offres d'emploi pour le secteur tech en France.
mcp:
- source: local_documents
path: ~/Documents/RH/templates
api:
- name: convention_collective
type: rest
endpoint: http://localhost:8080/api/conventions
Partagez vos modules avec votre equipe ou publiez-les sur le catalogue communautaire.
MCP : le standard de connexion
Le Model Context Protocol (MCP) est le standard ouvert qui permet aux LLM de communiquer avec des outils externes. Lockal l’implemente nativement, ce qui signifie que :
- Vos outils MCP existants fonctionnent directement
- Les connexions restent locales (pas de serveur intermediaire)
- Vous gardez le controle total sur les permissions
Conclusion
Les modules transforment un LLM generique en assistant specialise pour votre metier, en quelques clics. Pas de configuration complexe, pas de code a ecrire.
Explorez le catalogue de modules sur lockal.ai ou creez le votre.
Related articles
Bienvenue sur le blog Lockal
Decouvrez Lockal, l'application qui permet d'executer vos LLM et outils d'IA directement sur votre machine, sans cloud.
Guide : installer et configurer Lockal sur macOS
Tutoriel pas a pas pour installer Lockal sur votre Mac, telecharger votre premier modele et lancer votre premiere conversation IA en local.
Pourquoi executer vos LLM en local en 2026
Vie privee, latence, couts, souverainete : les raisons de faire tourner ses modeles d'IA directement sur sa machine n'ont jamais ete aussi solides.