Vous souhaitez discuter avec nous à propos de votre projet de formation ?
Vous voulez plus d'information sur une formation ou notre fonctionnement ?
Rappel Email
Boostez les performances des LLM (ChatGPT, LLama3, Mistral…) et personnalisez-les avec vos propres données grâce au RAG !
Nous pouvons organiser des sessions à d'autres dates ou dans d'autres villes (Bordeaux, Lille, Lyon, Marseille, Montpellier, Nantes, Nice, Paris, Strasbourg, Toulouse...)
Dans cette formation autour des LLM (Large Language Models), vous apprendrez à maîtriser les modèles génératifs en développant une application RAG.
Vous découvrirez et implémenterez une application RAG (Retrieval Augmented Generation) vous permettant de personnaliser des LLM avec votre documentation (wiki/doc interne, fichiers texte, PDF, bases de données…). Votre LLM, disposera ainsi d’un contexte élargi, et sera donc en mesure de fournir des réponses personnalisées en s’appuyant sur votre base d’information personnalisée et sa logique et ses données d’entraînement.
Lors de cette formation sur les LLM, vous découvrirez les concepts fondamentaux des LLM, les enjeux du moment et la scène technologique actuelle, les différentes approches pour customiser un LLM (prompt engineering, fine-tuning, RAG), comment mettre des données à disposition d’un LLM via les vector embeddings, et vous mettrez en pratique ces notions dans un cas concret : mettre en place un chatbot spécialisé avec la documentation de la célèbre librairie de data science Hugging Face.
Cette formation s'adresse aux développeur·se·s, data scientists, data engineers, ML engineers.
La formation sur l'IA pour les développeurs est faite pour vous !
ChatGPT
, Gemini
), open-source (Mistral
, Llama3
)Langchain
, LLamaIndex
, APIs)Mises en pratique :
- Ingénierie de prompts pour fournir du contexte au chatbot
- Écrire un programme “hello world” avec LLamaIndex
LlamaIndex
, LanceDB
, API GPT-4
):
Mises en pratique :
- Indexer, vectoriser le texte de la documentation Hugging Face et le stocker dans une base de donnée vectorielle : LanceDB
- Retrouver des documents issus de la documentation Hugging Face via du langage naturel
- Créer une pipeline RAG avec LlamaIndex
Mises en pratique :
- Améliorer la recherche de documents de notre LLM grâce au re-ranking
- Déployer notre application LLM en production
Cyril Lay, est un formateur spécialisé dans les technologies liées à l'intelligence artificielle
et au machine learning
.
Il travaille avec Spark depuis 8 ans.
Grâce à Spark, il a notamment pu mettre en œuvre des pipelines de données permettant de traiter jusqu’à 50 To par jour afin de proposer des enchères en temps réel sur des emplacements de publicité en ligne.
Concernant les LLM, il exploite cette technologie depuis 2021.
Il a développé de nombreux outils s'appuyant sur des LLM dont voici quelques exemples :
- développer des RAG sur des outils de Geomapping
- construire des assistants conversationnels (Chatbot) basés sur la documentation de Hugging Face et Metaflow
Par ailleurs, Cyril rédige régulièrement des articles de blog techniques au sujet des LLMs et de l’implémentation de RAG.
L’expérience professionnelle et les compétences personnelles de Cyril vous permettront de mettre facilement en relation les notions étudiées avec votre domaine d’application afin que vous puissiez transposer vos nouvelles compétences dans votre entreprise.
Human Coders c'est un centre de formation pour développeurs avec :
Boostez les performances des LLM (ChatGPT, LLama3, Mistral…) et personnalisez-les avec vos propres données grâce au RAG !
Dans cette formation autour des LLM (Large Language Models), vous apprendrez à maîtriser les modèles génératifs en développant une application RAG.
Vous découvrirez et implémenterez une application RAG (Retrieval Augmented Generation) vous permettant de personnaliser des LLM avec votre documentation (wiki/doc interne, fichiers texte, PDF, bases de données…). Votre LLM, disposera ainsi d’un contexte élargi, et sera donc en mesure de fournir des réponses personnalisées en s’appuyant sur votre base d’information personnalisée et sa logique et ses données d’entraînement.
Lors de cette formation sur les LLM, vous découvrirez les concepts fondamentaux des LLM, les enjeux du moment et la scène technologique actuelle, les différentes approches pour customiser un LLM (prompt engineering, fine-tuning, RAG), comment mettre des données à disposition d’un LLM via les vector embeddings, et vous mettrez en pratique ces notions dans un cas concret : mettre en place un chatbot spécialisé avec la documentation de la célèbre librairie de data science Hugging Face.
Cette formation s'adresse aux développeur·se·s, data scientists, data engineers, ML engineers.
La formation sur l'IA pour les développeurs est faite pour vous !
ChatGPT
, Gemini
), open-source (Mistral
, Llama3
)Langchain
, LLamaIndex
, APIs)Mises en pratique :
- Ingénierie de prompts pour fournir du contexte au chatbot
- Écrire un programme “hello world” avec LLamaIndex
LlamaIndex
, LanceDB
, API GPT-4
):
Mises en pratique :
- Indexer, vectoriser le texte de la documentation Hugging Face et le stocker dans une base de donnée vectorielle : LanceDB
- Retrouver des documents issus de la documentation Hugging Face via du langage naturel
- Créer une pipeline RAG avec LlamaIndex
Mises en pratique :
- Améliorer la recherche de documents de notre LLM grâce au re-ranking
- Déployer notre application LLM en production
Cyril Lay, est un formateur spécialisé dans les technologies liées à l'intelligence artificielle
et au machine learning
.
Il travaille avec Spark depuis 8 ans.
Grâce à Spark, il a notamment pu mettre en œuvre des pipelines de données permettant de traiter jusqu’à 50 To par jour afin de proposer des enchères en temps réel sur des emplacements de publicité en ligne.
Concernant les LLM, il exploite cette technologie depuis 2021.
Il a développé de nombreux outils s'appuyant sur des LLM dont voici quelques exemples :
- développer des RAG sur des outils de Geomapping
- construire des assistants conversationnels (Chatbot) basés sur la documentation de Hugging Face et Metaflow
Par ailleurs, Cyril rédige régulièrement des articles de blog techniques au sujet des LLMs et de l’implémentation de RAG.
L’expérience professionnelle et les compétences personnelles de Cyril vous permettront de mettre facilement en relation les notions étudiées avec votre domaine d’application afin que vous puissiez transposer vos nouvelles compétences dans votre entreprise.
Human Coders c'est un centre de formation pour développeurs avec :
* Nombre de personnes ayant répondu au questionnaire de satisfaction sur cette formation depuis 2012