LLM Guard: Boîte à outils Open Source pour Sécuriser les Modèles de Langage Volumineux
LLM Guard: Boîte à outils Open Source pour Sécuriser les Modèles de Langage Volumineux
21 September 2023
La boîte à outils open source fournit des évaluateurs pour les entrées et les sorties des LLM, offrant des fonctionnalités telles que la désinfection, la détection des langages nuisibles, la prévention des fuites de données et la protection contre les injections rapides et les attaques de jailbreak.