Dialoq
Passerelle API unifiée pour plus de 200 modèles d'IA
Simplifiez l'accès à plus de 100 LLM avec LiteLLM de Berri AI. Surveillez l'utilisation, gérez les coûts, appliquez des limites de débit et fournissez un support de secours, le tout via une passerelle unique compatible OpenAI.
Berri AI propose une passerelle simplifiée, LiteLLM, qui offre aux développeurs et aux équipes plateformes un accès centralisé à plus de 100 grands modèles de langage (LLM). Grâce à sa compatibilité avec le format API OpenAI, elle élimine le besoin d'intégrations personnalisées et réduit le temps d'adoption de nouveaux modèles par les différents fournisseurs.
LiteLLM est utilisé avec confiance par des équipes d'entreprises comme Netflix, RocketMoney et Lemonade. Il permet une gestion professionnelle des opérations LLM, prenant en charge toutes les fonctionnalités, du suivi d'utilisation au contrôle d'accès précis, le tout dans une solution open source ou entreprise prête pour la production.
LiteLLM offre une connectivité transparente aux modèles des principaux fournisseurs, notamment OpenAI, Azure, Bedrock et GCP. Les développeurs peuvent changer de fournisseur ou intégrer de nouveaux modèles sans réécrire leur base de code, grâce à une API unique et cohérente.
Avec LiteLLM, les équipes peuvent suivre avec précision les coûts d'utilisation par utilisateur, équipe ou organisation. La solution prend en charge l'attribution des coûts par balises et s'intègre aux solutions de stockage cloud comme S3 et GCS pour la journalisation, permettant ainsi une meilleure supervision financière et une meilleure budgétisation.
Les équipes plateformes peuvent définir des limites de débit personnalisées (RPM/TPM) et appliquer des budgets d'utilisation par équipe ou clé. Ces contrôles garantissent l'efficacité opérationnelle tout en protégeant l'infrastructure contre les abus ou les dépassements.
LiteLLM intègre une prise en charge des modèles de secours, permettant un service ininterrompu en cas de défaillance d'un fournisseur ou de limitation de l'accès. Des garde-fous améliorent encore la fiabilité en proposant des règles pour une gestion sécurisée des messages et une utilisation sécurisée des API.
La version open source de LiteLLM est gratuite et prend en charge plus de 100 intégrations LLM, l'équilibrage de charge et la journalisation de la télémétrie. Les développeurs peuvent étendre les fonctionnalités grâce aux contributions de la communauté ou aux SDK pris en charge.
LiteLLM s'intègre à Prometheus, OpenTelemetry, Langfuse et d'autres outils d'observabilité. Les équipes peuvent surveiller les indicateurs d'utilisation de LLM, suivre les performances des requêtes et analyser les tendances à des fins d'optimisation ou de débogage.
LiteLLM réduit considérablement le temps d'intégration des nouveaux LLM. Grâce à une interface unifiée et à une couche de compatibilité, les équipes peuvent donner accès aux nouveaux modèles en quelques heures seulement.
L'offre Entreprise inclut des fonctionnalités telles que l'authentification unique (SSO), l'authentification JWT, la journalisation d'audit et des accords de niveau de service (SLA) personnalisés. Les entreprises peuvent déployer LiteLLM dans le cloud ou sur site, selon leurs besoins d'infrastructure et leurs exigences de conformité.