Liste non exhaustive des sources utilisées dans ce cours et des outils d'évaluation qui peuvent vous aider.
Sources
Nous nous sommes appuyés sur plusieurs sources pour rédiger cette série, y compris les suivantes :
- AI Engineering: Building Applications with Foundation Models, Chip Huyen
- De-risking QA for LLM-powered applications - Michael Hablich, Chrome DevTools
- Using LLM-as-a-Judge For Evaluation: A Complete Guide - Hamel Husain
Outils d'évaluation
Voici quelques exemples de solutions et d'outils d'évaluation :
- AlignEval
- Arize
- Braintrust
- Datadog
- DeepEval
- Gen AI evaluation service and API by Vertex AI
- Inspect Evals
- JudgeLM
- LangSmith
- Evaluation harness
- OpenEvals
Cette liste n'est pas exhaustive. Si vous utilisez d'autres outils d'évaluation, partagez-les avec nous.