Découvrir OpenCode
et l’assistance au code multi-modèles
Cette formation pose les bases indispensables pour les équipes techniques souhaitant intégrer l’agent IA open source OpenCode directement dans leur terminal.
Elle allie compréhension des mécanismes de cet assistant en ligne de commande (CLI) agnostique et mise en pratique immédiate : configuration multi-fournisseurs (LLMs cloud ou locaux), utilisation des modes « Plan » et « Build », refactoring, et automatisation de votre cycle de développement sans dépendance à un seul éditeur.
INFORMATIONS PRATIQUES
Public
Développeurs, Tech Leads, DevOps, QA (Tech)
Durée
1 jour
Format
Sessions individuelles (inter-entreprises) ou pour vos équipes (intra-entreprise) …
Lieu
En présentiel (dans vos locaux ou les nôtres) ou en distanciel.
Tarif
915 € HT
Prochaines sessions
Sur demande
Présentiel ou Distanciel
Vos objectifs pédagogiques
À l’issue de cette formation, vous serez capable de :
- Comprendre le fonctionnement d’OpenCode et son intégration native dans le terminal.
- Configurer et basculer entre différents modèles d’IA (Claude, GPT, modèles locaux) selon vos besoins et contraintes.
- Interagir efficacement avec l’agent via la séparation des rôles de planification (Plan) et d’exécution (Build).
- Maîtriser les enjeux de confidentialité (« privacy-first »), l’extension via le Model Context Protocol (MCP) et l’optimisation des coûts.
Le programme de cette formation
1. Fondamentaux et Prise en main d’OpenCode
- Comprendre ce qu’est OpenCode (agent CLI open source) et ses avantages face aux solutions propriétaires centralisées.
- Maîtriser l’installation, l’interface terminal (TUI) et la gestion des sessions parallèles sur un même projet.
- Identifier la logique de l’outil : comment OpenCode lit le contexte du dépôt, gère les dépendances et navigue dans votre architecture.
- Éviter les erreurs : gestion de la facturation multi-fournisseurs, limites de la fenêtre de contexte et sécurisation du code source.
2. Stratégie multi-modèles et Confidentialité
- Objectif : Choisir la bonne IA pour la bonne tâche logicielle sans subir le « vendor lock-in ».
- Méthodologie : Basculer entre des modèles puissants (ex: Claude 3.5 Sonnet / GPT-4o) pour l’architecture, et des modèles moins coûteux pour les tâches simples.
- Configuration : Intégrer des LLMs locaux (via Ollama ou Docker Model Runner) pour garantir une confidentialité totale de vos données.
- Cas pratique : Configuration du fichier opencode.json (global et projet) pour router les requêtes et définir les règles de l’agent.
3. Développement, Planification et Exécution
- Objectif : Utiliser l’IA comme un collaborateur autonome pour concevoir et écrire du code.
- Méthodes : Maîtriser la séparation des modes de travail d’OpenCode avec le mode « Plan » (recherche et stratégie sans écriture) et le mode « Build » (écriture sur le système de fichiers).
- Techniques de résolution : Demander à l’agent d’auditer un bug, de lire les logs du terminal et d’itérer pour proposer un patch multi-fichiers.
- Analyse de la structure : Visualiser les modifications (diffs) générées dans le terminal et valider les changements en toute sécurité.
4. Extension et Intégration avancée (MCP)
- Objectif : Étendre les capacités d’OpenCode pour qu’il s’interface avec l’ensemble de vos outils.
- Architecture : Comprendre et exploiter le Model Context Protocol (MCP) pour connecter l’agent à des ressources externes (documentation interne, bases de données, navigateurs).
- Intégration : Combiner OpenCode avec votre stack existante (scripts shell, linting, tests automatisés).
- Sécurité : Contrôler rigoureusement les permissions accordées à l’agent lors de l’exécution automatique de commandes système.
5. Ateliers pratiques & Mise en application
- Travail concret sur votre propre stack technique (Go, Python, JavaScript, etc.) et vos dépôts locaux.
- Résolution de tickets réels : de la conception stratégique (Plan) à la validation du code (Build) avec l’assistance d’OpenCode.
Vos livrables en fin de formation
- Une documentation des commandes CLI et de la configuration (opencode.json) adaptées à votre équipe.
- Un guide de sélection des modèles (Cloud vs Locaux) pour optimiser les coûts et garantir la confidentialité de votre code.
- Un environnement de terminal configuré, étendu via MCP et prêt pour la production.
Une formation adaptée à votre entreprise (devis personnalisé)
Notre formation Open Code s’adapte à votre environnement technique et aux enjeux réels de vos équipes pour un impact immédiat.
Cadrage stratégique
Un expert Oxyl définit avec vous les objectifs techniques, la stack et les exigences de sécurité (Cloud vs On-premise) prioritaires pour votre entreprise.
Audit de maturité individuel
7 jours avant la session, chaque participant reçoit un questionnaire de niveau. Ce sondage nous permet d’évaluer la maîtrise de la ligne de commande et des autres assistants (Claude Code, GitHub Copilot, Cursor, etc.) afin de segmenter les ateliers pratiques.
Ajustement pédagogique
sur mesure
Le programme est affiné selon les résultats pour maximiser le temps passé sur la pratique et les problématiques réelles de vos équipes.
Nos autres formations en Intelligence Artificielle
Automation avec n8n
Tous publics :
Tech & Ops
Concevoir et automatiser des workflows métier avec n8n pour connecter vos outils et supprimer les tâches répétitives.
Claude Code
Tous publics :
Développeurs
Apprendre à rédiger des prompts efficaces et appliquer l’IA générative à des cas d’usage concrets en entreprise.
OpenAI Codex
Tous publics :
Développeurs
Maîtriser OpenAI Codex pour générer du code et accélérer vos développements. Codex Maîtriser
Découvrir l’IA générative et le prompt engineering
Tous publics :
(métiers, managers, tech)
Apprendre à rédiger des prompts efficaces et appliquer l’IA générative à des cas d’usage concrets en entreprise.
Découvrir
OpenCode et l’assistance au code multi-modèles
OpenCode
Cette formation pose les bases indispensables pour les équipes techniques souhaitant intégrer l’agent IA open source OpenCode directement dans leur terminal.
Elle allie compréhension des mécanismes de cet assistant en ligne de commande (CLI) agnostique et mise en pratique immédiate : configuration multi-fournisseurs (LLMs cloud ou locaux), utilisation des modes « Plan » et « Build », refactoring, et automatisation de votre cycle de développement sans dépendance à un seul éditeur.
INFORMATIONS PRATIQUES
Public : Développeurs, Tech Leads, DevOps, QA (Tech)
Durée : 1 jour / 7h
Format : Sessions individuelles (inter-entreprises) ou pour vos équipes (intra-entreprise)
Lieu : En présentiel (dans vos locaux ou les nôtres) ou en distanciel.
Tarif : 915 € HT
Prochaines sessions
Sur demande
Présentiel ou Distanciel
Vos objectifs pédagogiques
À l’issue de cette formation, vous serez capable de :
- Comprendre le fonctionnement d’OpenCode et son intégration native dans le terminal.
- Configurer et basculer entre différents modèles d’IA (Claude, GPT, modèles locaux) selon vos besoins et contraintes.
- Interagir efficacement avec l’agent via la séparation des rôles de planification (Plan) et d’exécution (Build).
- Maîtriser les enjeux de confidentialité (« privacy-first »), l’extension via le Model Context Protocol (MCP) et l’optimisation des coûts.
-
Le programme de cette formation
1. Fondamentaux et Prompt Engineering
- Comprendre le fonctionnement des grands modèles de langage (LLM).
- Maîtriser les techniques : zero-shot, few-shot, chain-of-thought.
- Identifier et structurer ses cas d’usage prioritaires en entreprise.
- Éviter les erreurs : hallucinations, biais et sécurité des données
1. Fondamentaux et Prompt Engineering
- Comprendre le fonctionnement des grands modèles de langage (LLM).
- Maîtriser les techniques : zero-shot, few-shot, chain-of-thought.
- Identifier et structurer ses cas d’usage prioritaires en entreprise.
- Éviter les erreurs : hallucinations, biais et sécurité des données
1. Fondamentaux et Prompt Engineering
- Comprendre le fonctionnement des grands modèles de langage (LLM).
- Maîtriser les techniques : zero-shot, few-shot, chain-of-thought.
- Identifier et structurer ses cas d’usage prioritaires en entreprise.
- Éviter les erreurs : hallucinations, biais et sécurité des données
1. Fondamentaux et Prompt Engineering
- Comprendre le fonctionnement des grands modèles de langage (LLM).
- Maîtriser les techniques : zero-shot, few-shot, chain-of-thought.
- Identifier et structurer ses cas d’usage prioritaires en entreprise.
- Éviter les erreurs : hallucinations, biais et sécurité des données
1. Fondamentaux et Prompt Engineering
- Comprendre le fonctionnement des grands modèles de langage (LLM).
- Maîtriser les techniques : zero-shot, few-shot, chain-of-thought.
- Identifier et structurer ses cas d’usage prioritaires en entreprise.
- Éviter les erreurs : hallucinations, biais et sécurité des données
Vos livrables en fin de formation
- Une documentation des commandes CLI et de la configuration (opencode.json) adaptées à votre équipe.
- Un guide de sélection des modèles (Cloud vs Locaux) pour optimiser les coûts et garantir la confidentialité de votre code.
- Un environnement de terminal configuré, étendu via MCP et prêt pour la production.
Prochaines sessions
Jeudi 11 juin 2026
Présentiel
Le programme de cette formation
1. Fondamentaux et Prompt Engineering
- Comprendre le fonctionnement des grands modèles de langage (LLM).
- Maîtriser les techniques : zero-shot, few-shot, chain-of-thought.
- Identifier et structurer ses cas d’usage prioritaires en entreprise.
- Éviter les erreurs : hallucinations, biais et sécurité des données
1. Fondamentaux et Prompt Engineering
- Comprendre le fonctionnement des grands modèles de langage (LLM).
- Maîtriser les techniques : zero-shot, few-shot, chain-of-thought.
- Identifier et structurer ses cas d’usage prioritaires en entreprise.
- Éviter les erreurs : hallucinations, biais et sécurité des données
1. Fondamentaux et Prompt Engineering
- Comprendre le fonctionnement des grands modèles de langage (LLM).
- Maîtriser les techniques : zero-shot, few-shot, chain-of-thought.
- Identifier et structurer ses cas d’usage prioritaires en entreprise.
- Éviter les erreurs : hallucinations, biais et sécurité des données
1. Fondamentaux et Prompt Engineering
- Comprendre le fonctionnement des grands modèles de langage (LLM).
- Maîtriser les techniques : zero-shot, few-shot, chain-of-thought.
- Identifier et structurer ses cas d’usage prioritaires en entreprise.
- Éviter les erreurs : hallucinations, biais et sécurité des données
1. Fondamentaux et Prompt Engineering
- Comprendre le fonctionnement des grands modèles de langage (LLM).
- Maîtriser les techniques : zero-shot, few-shot, chain-of-thought.
- Identifier et structurer ses cas d’usage prioritaires en entreprise.
- Éviter les erreurs : hallucinations, biais et sécurité des données
Vos livrables en fin de formation
- Une documentation des commandes CLI et de la configuration (opencode.json) adaptées à votre équipe.
- Un guide de sélection des modèles (Cloud vs Locaux) pour optimiser les coûts et garantir la confidentialité de votre code.
- Un environnement de terminal configuré, étendu via MCP et prêt pour la production.
Questions pratiques sur nos formations IA en entreprise
Où se déroulent les formations ?
Nous offrons une flexibilité totale pour répondre à votre organisation :
- En présentiel : Directement dans vos locaux pour une immersion totale, ou dans nos bureaux.
- En distanciel : Via nos outils de classe virtuelle, sans compromis sur l’interaction et la pratique. L’objectif reste le même : travailler sur votre environnement technique réel et vos problématiques de production concrètes.
Quel est le format d'une journée type ?
9h30 – 12h30 et 13h30 – 17h30. L’accent est mis sur la pratique et la résolution de cas réels vécus par nos consultants.
Peut-on adapter le programme à nos besoins ?
Oui seulement dans le cadre de la formation sur devis. Pour garantir l’efficacité de l’intervention, nous suivons un processus en deux étapes :
- Cadrage stratégique : Un échange préalable avec l’un de nos experts permet de fixer les objectifs de formation et d’ajuster le programme à vos enjeux métier.
- Évaluation des participants : Un questionnaire (ou sondage de niveau) est ensuite envoyé à chaque collaborateur pour aligner parfaitement le curseur technique sur la réalité de l’équipe.
Comment gérez-vous la confidentialité de nos données lors des formations ?
La sécurité n’est pas qu’une question de protocoles, c’est une question de compétences. Nous décryptons pour vous les risques liés à l’IA (fuites de données, biais, propriété intellectuelle) et nous vous enseignons les approches concrètes pour manipuler ces outils en toute sécurité.
L’objectif : transformer chaque collaborateur en un gardien averti de votre capital numérique.