par Lee Boonstra, traduit et réécris par Aymeric Baranowski

Tu n’as pas besoin d’être data scientist ou ingénieur en machine learning — tout le monde peut écrire un prompt. 👉 Mais bien écrire un prompt, c’est une autre histoire : ce n’est pas une question de diplôme, mais de clarté, de structure et d’intention.

🧠 Introduction — Le prompt, point d’entrée stratégique

Quand on travaille avec un modèle de langage, tout commence par une chose : le prompt.

C’est ce texte (parfois accompagné d’autres formats comme une image) que tu vas lui soumettre pour qu’il te prédise une réponse.

🛠 Ce qui va influencer la qualité de la réponse :

👉 Bref : le prompt engineering, c’est itératif.

Tu testes, tu ajustes, tu recommences.

Un prompt mal conçu peut te donner une réponse floue, à côté de la plaque, voire inutilisable. Et ça, ça t’empêche d’exploiter le potentiel du modèle.

Quand tu discutes avec le chatbot Gemini, en réalité, tu écris déjà des prompts — sans forcément le savoir.

Mais ce whitepaper va plus loin : il se concentre sur l’écriture de prompts directement pour le modèle Gemini, que ce soit dans Vertex AI ou via l’API.

Pourquoi ? Parce que c’est en accédant directement au modèle que tu peux régler les paramètres clés : température, top-K, top-P, longueur de sortie, etc.

C’est là que tu passes de l’usage “grand public” à l’art de piloter finement un LLM.