Générative et Large Language Models (GPT, Gemini, etc.)
21 heures sur 3 jours
à Paris & à distance
(Zoom, Google Meet, etc.).
2 000 € HT / personne
Etudions ensemble vos options
de financement
Objectifs de la formation
Générative et Large Language Models (GPT, Gemini, etc.)
Identifier les principes des modèles de langage de grande taille (LLM).
Utiliser GPT, Gemini et d'autres LLM via leurs API respectives.
Adapter et fine-tuner des modèles de langage pour des cas d’usage spécifiques.
Évaluer et optimiser les performances des modèles génératifs.
Développer une application intégrant un modèle génératif avancé.
Pré-requis pour suivre cette formation
Maîtrise de Python et de ses bibliothèques standards (NumPy, Pandas) Notions de machine learning et deep learning Familiarité avec les API d’IA et les frameworks de NLP (Hugging Face, TensorFlow/PyTorch) Environnement Python installé avec Transformers (Hugging Face), OpenAI API, Google AI Studio (Gemini)
A qui s'adresse cette formation ?
Développeurs, ingénieurs en IA, data scientists, chercheurs et toute personne souhaitant explorer les modèles de langage de grande taille (LLM) et l'IA générative.
Formations recommandées
Aucun programme supplémentaire n'est requis pour suivre cette formation.
Au programme de la formation
Générative et Large Language Models (GPT, Gemini, etc.)
Jour 1 : Introduction aux LLM et IA générative
- Introduction aux modèles de langage de grande taille : concepts et architecture
- Comparaison des LLM : GPT, Gemini, Llama, Mistral, Claude
- Fonctionnement des transformers et attention mechanisms
- Utilisation des API OpenAI (GPT-4) et Google AI Studio (Gemini)
- Génération de texte et manipulation des paramètres (température, top-p, etc.)
- Exercices pratiques : création d’un chatbot basique avec GPT
Jour 2 : Fine-tuning et personnalisation des modèles
- Fine-tuning vs prompt engineering : quelle approche choisir ?
- Utilisation de Hugging Face Transformers pour entraîner un LLM
- Chargement et entraînement d’un modèle spécifique sur un dataset personnalisé
- Optimisation du prompt engineering pour améliorer les réponses
- Techniques d’ajustement des réponses (in-context learning, few-shot learning)
- Exercices pratiques : entraînement et test d’un modèle adapté à un domaine spécifique
Jour 3 : Applications avancées et intégration des LLMs
- Intégration des modèles génératifs dans une application web
- Création d’un assistant intelligent avec GPT/Gemini
- Déploiement et mise en production avec API et conteneurs
- Projet final : développement d’une application complète (ex : chatbot avancé, assistant rédactionnel, génération de code)
- Évaluation des performances et analyse des biais
- Conclusion et perspectives d’évolution des LLMs
Méthode pédagogique
8 participants maximum, un poste par stagiaire et un support de cours est remis en fin de stage. La formation est constituée d'apports théoriques, de démonstrations et de mises en pratique basées sur des exercices (méthode démonstrative).
Accessibilité
Cette formation est accessible aux personnes en situation de handicap.
Modalité de validation des acquis
Évaluation continue des connaissances via des exercices et/ou ateliers et des acquis via un questionnaire en fin de formation. Attestation de fin de stage (certificat de réalisation). Émargement quotidien d'une feuille de présence.
Demander des informations
Vous souhaitez en savoir plus ou directement vous inscrire à une session ?
Contactez-nous pour monter votre dossier !

Formations similaires
Ces formations pourraient vous intéresser