EN
Long Talk (25min)
LLMs in Production Gone Wrong: A Story of Prompts and Observability
Description
Les applications LLM échouent rarement bruyamment - elles échouent bizarrement. Les coûts dérivent, les sorties se dégradent, les invites évoluent de manière réactive plutôt que par conception, et il devient difficile de comprendre ce qui se passe réellement en production. Cette présentation couvrira les pratiques essentielles pour maintenir la fiabilité des systèmes LLM : la surveillance de bout en bout, la visibilité des coûts et de la latence, le versionnement des invites, les évaluations hors ligne et en ligne, les tests A/B, et la protection des données utilisateur. Nous comparerons les principales options d'outillage disponibles aujourd'hui et montrerons comment chacune vous aide à mesurer, déboguer et améliorer un produit IA tout au long de son cycle de vie - avant que les petits problèmes ne se transforment en surprises coûteuses.
