Date et heure de dépôt : 25/04/2025 14:23:51
Formation négociée : 14937
Notre hotline est à votre disposition pour vous accompagner au 33 (0)1 55 58 04 20.
Présentation :
Entrez dans le monde captivant des grands modèles de langage (LLM) et de l’IA générative avec cette formation qui mêle théorie et pratique.
Découvrez comment ces technologies fonctionnent, personnalisez-les pour vos besoins, et déployez-les dans des contextes professionnels.
Avec des ateliers interactifs et un projet final simulant un cas d’entreprise, vous maîtriserez les outils et techniques pour exploiter leur potentiel de manière précise et innovante.
Objectifs :
Comprendre l’IA générative et LLM
Explorer les architectures des LLM
Personnaliser via prompts/RAG
Déployer les modèles LLM en entreprise
Appliquer ces modèles à des cas concrets
Programme :
1 - Introduction aux LLMs et IA générative
Définition des LLMs
Historique et évolutions
Paradigme du Transformer
Loi d’échelle
Travaux pratiques : tester GPT via API OpenAI
2 - Architecture des LLMs
Rôle du Transformer
Tokenisation et Embeddings
Mécanismes d'attention et propagation du contexte
Couches Encodeur/Décodeur
Travaux pratiques : visualiser des Embeddings de texte
3 - Premiers pas avec LLMs et APIs
Introduction aux modèles LLMs : GPT, LLaMA
Utilisation des APIs OpenAI et Hugging Face
Choisir un modèle selon les besoins
Découverte des modèles Open-Source
Travaux pratiques : interroger un LLM via Hugging Face
4 - Prompt Engineering
Structure et conception des prompts
Zero-shot et Few-shot learning
Chain of Thought et raisonnement guidé
Ajustement des paramètres, dont la température
Travaux pratiques : optimiser un prompt pour résumé
5 - Personnalisation des LLMs
Enjeux et avantages de la personnalisation d’un LLM
Prompt Engineering vs Fine-Tuning
Techniques PEFT et LoRA
Introduction à QLoRA
Travaux pratiques : fine-tuner un modèle sur un dataset
6 - Enrichissement avec RAG
Comprendre les limites des modèles statiques
Fonctionnement du mécanisme RAG
Utilisation des bases vectorielles
Outils RAG : LangChain, FAISS
Travaux pratiques : créer un RAG avec LangChain
7 - Déploiement en entreprise
Choix entre Cloud et On-Premise
Outils de gestion : MLflow, Azure AI
FinOps et stratégies d’optimisation des coûts
Sécurisation des modèles LLMs
Travaux pratiques : déployer un LLM avec MLflow
8 - Cas d’usage avancés
Automatisation de tâches avec un LLM
Analyse et synthèse de documents
Création d’assistants conversationnels
Génération de code et complétion automatique
Travaux pratiques : générer du code avec un LLM
9 - Projet : Agent IA pour entreprise
Configuration et paramétrage d’un LLM
Optimisation des prompts pour l’agent
Intégration d’un RAG avec des données internes
Déploiement de l’agent via une API
Tests et évaluation des performances
Présentation de la solution finale
Développeurs
Ingénieurs IA & ML
Data Analysts
Architectes IT
LLM
IA générative
Transformer
Prompt Engineering
OpenAI
Hugging Face
LangChain
FAISS
LoRA
QLoRA
RAG
Fine-tuning
PEFT
API LLM
GPT
LLaMA
Azure AI
MLflow
Déploiement IA
Agents conversationnels
Génération de code
Use case IA