RNCP Level 7 Title

Master pipelines, cloud & AI to become an operational Data Engineer.

DataScientist.fr
The teamThe platform
Companies Offer

🇬🇧

Collection

Aucun article trouvé dans cette collection.

La combinaison de LangGraph et FastAPI permet de créer facilement des agents LLM pilotables via API. Que vous développiez un assistant intelligent, une interface de recherche augmentée ou une brique d’IA intégrée à une app existante, ce duo vous offre un cadre léger, rapide, et ultra-flexible.
Dans ce tutoriel, vous apprendrez à :
  1. Créer un agent ReAct avec LangGraph et LangChain
  1. Intégrer un outil de recherche web avec Tavily
  1. Déployer cet agent via une API REST avec FastAPI

🗂️ Structure du projet

Voici la structure minimale du projet :
shell

📦 Étape 1 – Préparer l’environnement

Commençons par définir nos variables d’environnement, qui permettront de connecter l’agent à l’API OpenAI et au moteur de recherche Tavily.
Nous utiliserons l'API d'OpenAI, vous devez vous inscrire sur OpenAI et récupérer une clé d'API.
Nous aurons aussi besoin d'une clé d'API pour le Tavily, vous devrez vous inscrire et récupérer une clé d'API.
Une fois les clés obtenues, créez votre fichier de variables d'environnement :

🔐 Fichier .env

shell
Ensuite, exportez ces variables dans votre shell :
shell

📥 Étape 2 – Installer les dépendances

Créez un fichier requirements.txt avec les bibliothèques suivantes :
python
Puis installez-les via pip :
shell
Cela vous garantit une compatibilité cohérente avec les dernières versions stables des modules LangChain et LangGraph.

🧠 Étape 3 – Créer l’agent LangGraph

L’agent que nous allons créer s’appuie sur le pattern ReAct, enchaînant raisonnement logique et actions via les outils. Ici, on lui connecte l’outil de recherche Tavily pour qu’il puisse s’informer en ligne.
agent.py
python
L’agent est ainsi capable d’utiliser Tavily comme source d’information. Le modèle utilisé ici est gpt-4o-mini, un choix efficace pour combiner rapidité et coût maîtrisé.

🧪 Étape 4 – Test intéractif

Avant de le déployer, testons l’agent, directement dans cette article :
python
Ce code permet de visualiser le raisonnement étape par étape de l’agent. Idéal pour le debug ou pour comprendre la chaîne de décisions.
🚀 Vous débutez avec l’IA Générative ? Initiez-vous à l’IA Générative pour les développeurs et data scientists

🌐 Étape 5 – Créer une API avec FastAPI

À présent, déployons notre agent sous forme d’API REST. Grâce à FastAPI, l’intégration est rapide et documentée automatiquement.
main.py
python
Ici, l’endpoint /chat accepte une liste de messages et un thread_id (identifiant de conversation), assurant la continuité contextuelle via LangGraph.

🚀 Lancer l’API localement

shell
Rendez-vous ensuite sur http://127.0.0.1:8000/docs pour tester votre API via l’interface Swagger auto-générée :

✅ Résultat : un agent LLM accessible via API

Vous avez maintenant un agent LLM intelligent et connecté à internet, accessible via un simple appel HTTP. Il est prêt à être :
  • intégré dans une interface web,

  • utilisé par une app mobile,

  • connecté à Zapier ou Make,

  • ou encore enrichi avec des outils personnalisés.

📌 Conclusion : ce qu’on a appris

En quelques étapes, vous avez :
  • Créé un agent LangGraph avec un modèle OpenAI,

  • Intégré un outil de recherche externe (Tavily),

  • Déployé le tout dans une API FastAPI prête à l’emploi.

Ce setup constitue une excellente base pour créer des assistants spécialisés, des copilotes métiers, ou des services IA à valeur ajoutée.

📚 Pour aller plus loin

🔍 LangGraph : Documentation officielle
🔍 LangChain : Documentation officielle
🧠 LangGraph : Agent ReAct
🌐 Tavily : API de recherche web
🛠️ FastAPI : Documentation officielle

FAQ

Take a moment to discuss your training project with an advisor.

Share with

💙 Thank you for reading the article until the end!

Photo de Romain DE LA SOUCHÈRE

Romain DE LA SOUCHÈRE

Lead Developer, Expert Cloud et DevOps

Ingénieur de formation avec plus de 11 ans d'expérience dans le développement back-end et le data engineering. Expert dans l’industrialisation des projets data dans le cloud.

» Learn More

DataScientist.fr

By AXI Technologies

128 Rue de la Boétie,
75008, Paris, France

Phone number :

WhatsApp :

© 2026 DataScientist.fr - AXI Technologies - All rights reserved