Objectif : Appeler les LLMs directement via API et comprendre les paramètres.
Théorie (15 min) :
- Lire : Anthropic API Getting Started
- Concepts clés :
- Tokens : Unité de mesure (1 token ≈ 0.75 mot) — impact direct sur les coûts
- System prompt : Instructions permanentes du comportement de l'agent
- Temperature : 0 = déterministe, 1 = créatif. Agents = 0-0.3.
- Max tokens : Longueur max de la réponse
- Context window : Limite de mémoire à court terme (Claude 3.5 = 200K tokens)
Pratique (45 min) :
import anthropic
client = anthropic.Anthropic(api_key="YOUR_KEY")
# Premier appel simple
message = client.messages.create(
model="claude-opus-4-6",
max_tokens=1024,
messages=[{"role": "user", "content": "Explique ce qu'est un agent IA en 3 phrases."}]
)
print(message.content[0].text)
- Installer le SDK :
pip install anthropic - Faire ton premier appel API Claude
- Faire la même chose avec OpenAI (
pip install openai) - Comparer les résultats, les latences et les coûts
- Calculer le coût d'un appel : tokens_in × prix_input + tokens_out × prix_output
Checkpoint : Tu appelles des LLMs via API et tu comprends les coûts.