LLM Guard: Kit de Herramientas de Código Abierto para Proteger Modelos de Idiomas Grandes

El kit de herramientas de código abierto proporciona evaluadores para entradas y salidas de LLM, que ofrecen características como desinfección, detección de lenguaje dañino, prevención de fugas de datos y protección contra ataques de inyección rápida y jailbreak.

>>Más