Dialoq
Dialoq : Passerelle API unifiée pour plus de 200 modèles d’IA
Simplifiez l'accès à plus de 100 LLM grâce à LiteLLM de Berri AI. Surveillez l'utilisation, gérez les coûts, appliquez des limites de débit et fournissez une assistance de secours, le tout via une passerelle unique compatible avec OpenAI.
Berri AI propose une passerelle simplifiée, LiteLLM, qui offre aux développeurs et aux équipes de plateforme un accès centralisé à plus de 100 modèles de langage (LLM). Grâce à sa compatibilité avec le format d'API OpenAI, elle élimine le besoin d'intégrations personnalisées et accélère l'adoption de nouveaux modèles provenant de différents fournisseurs.
LiteLLM est utilisé par les équipes d'entreprises comme Netflix, RocketMoney et Lemonade. Il permet une gestion professionnelle des opérations LLM, prenant en charge toutes les fonctionnalités, du suivi de l'utilisation au contrôle d'accès précis, le tout dans un package open source ou entreprise prêt pour la production.
LiteLLM assure une connectivité transparente aux modèles des principaux fournisseurs, notamment OpenAI, Azure, Bedrock et GCP. Les développeurs peuvent ainsi passer d'un fournisseur à l'autre ou intégrer de nouveaux modèles sans réécrire leur code, grâce à une API unique et cohérente.
Avec LiteLLM, les équipes peuvent suivre avec précision les coûts d'utilisation par utilisateur, équipe ou organisation. La solution prend en charge l'attribution des coûts par étiquette et s'intègre aux services de stockage cloud tels que S3 et GCS pour la journalisation, permettant ainsi un meilleur contrôle financier et une budgétisation plus efficace.
Les équipes de la plateforme peuvent définir des limites de débit personnalisées (RPM/TPM) et appliquer des budgets d'utilisation par équipe ou par clé. Ces contrôles garantissent l'efficacité opérationnelle tout en protégeant l'infrastructure contre les abus et les dépassements.
LiteLLM intègre une gestion native des modèles de secours, garantissant ainsi la continuité de service en cas de défaillance ou de limitation d'accès d'un fournisseur. Des garde-fous renforcent la fiabilité en proposant des règles pour une gestion sécurisée des requêtes et une utilisation optimale de l'API.
La version open source de LiteLLM est gratuite et prend en charge plus de 100 intégrations LLM, l'équilibrage de charge et la journalisation des données télémétriques. Les développeurs peuvent étendre ses fonctionnalités grâce aux contributions de la communauté ou via les SDK compatibles.
LiteLLM s'intègre à Prometheus, OpenTelemetry, Langfuse et à d'autres outils d'observabilité. Les équipes peuvent ainsi surveiller les indicateurs d'utilisation de LLM, suivre les performances des requêtes et analyser les tendances à des fins d'optimisation ou de débogage.
LiteLLM réduit considérablement le temps d'intégration des nouveaux LLM. Grâce à une interface unifiée et une couche de compatibilité, les équipes peuvent donner accès aux nouveaux modèles en quelques heures, et non plus en quelques jours.
L'offre Entreprise inclut des fonctionnalités telles que l'authentification unique (SSO), l'authentification JWT, la journalisation des audits et des SLA personnalisés. Les organisations peuvent déployer LiteLLM dans le cloud ou sur site, selon leurs besoins d'infrastructure et leurs exigences de conformité.