Dialoq
Passerelle API unifiée pour plus de 200 modèles d'IA
Simplifiez l'accès à plus de 100 LLM avec LiteLLM de Berri AI. Surveillez l'utilisation, gérez les coûts, appliquez des limites de débit et fournissez un support de secours, le tout via une passerelle unique compatible OpenAI.
Berri AI offers a streamlined gateway—LiteLLM—that gives developers and platform teams centralized access to over 100 large language models (LLMs). By offering compatibility with the OpenAI API format, it eliminates the need for custom integrations and reduces the time to adopt new models across providers.
LiteLLM is trusted by teams at companies like Netflix, RocketMoney, and Lemonade. It enables enterprise-grade management of LLM operations, supporting everything from usage tracking to fine-grained access control, all in a production-ready open-source or enterprise package.
LiteLLM offre une connectivité transparente aux modèles des principaux fournisseurs, notamment OpenAI, Azure, Bedrock et GCP. Les développeurs peuvent changer de fournisseur ou intégrer de nouveaux modèles sans réécrire leur base de code, grâce à une API unique et cohérente.
Avec LiteLLM, les équipes peuvent suivre avec précision les coûts d'utilisation par utilisateur, équipe ou organisation. La solution prend en charge l'attribution des coûts par balises et s'intègre aux solutions de stockage cloud comme S3 et GCS pour la journalisation, permettant ainsi une meilleure supervision financière et une meilleure budgétisation.
Platform teams can define custom rate limits (RPM/TPM) and enforce usage budgets per team or key. These controls ensure operational efficiency while protecting infrastructure against misuse or overage.
LiteLLM intègre une prise en charge des modèles de secours, permettant un service ininterrompu en cas de défaillance d'un fournisseur ou de limitation de l'accès. Des garde-fous améliorent encore la fiabilité en proposant des règles pour une gestion sécurisée des messages et une utilisation sécurisée des API.
The open-source version of LiteLLM is free to use and includes support for 100+ LLM integrations, load balancing, and telemetry logging. Developers can extend functionality with community-driven contributions or through supported SDKs.
LiteLLM s'intègre à Prometheus, OpenTelemetry, Langfuse et d'autres outils d'observabilité. Les équipes peuvent surveiller les indicateurs d'utilisation de LLM, suivre les performances des requêtes et analyser les tendances à des fins d'optimisation ou de débogage.
LiteLLM significantly reduces onboarding time for new LLMs. Teams can provide access to newly released models within hours, not days, thanks to a unified interface and compatibility layer.
The enterprise plan includes features such as SSO, JWT authentication, audit logging, and custom SLAs. Organizations can deploy LiteLLM in the cloud or on-premises, depending on their infrastructure needs and compliance requirements.