Dialoq
Единый API-шлюз для более чем 200 моделей ИИ
Упростите доступ к более чем 100 LLM с помощью LiteLLM от Berri AI. Контролируйте использование, управляйте расходами, устанавливайте ограничения по скорости и предоставляйте резервную поддержку — все через единый шлюз, совместимый с OpenAI.
Berri AI предлагает оптимизированный шлюз — LiteLLM, который предоставляет разработчикам и командам платформы централизованный доступ к более чем 100 большим языковым моделям (LLM). Предлагая совместимость с форматом API OpenAI, он устраняет необходимость в пользовательских интеграциях и сокращает время принятия новых моделей у разных поставщиков.
LiteLLM доверяют команды таких компаний, как Netflix, RocketMoney и Lemonade. Он обеспечивает управление операциями LLM на корпоративном уровне, поддерживая все: от отслеживания использования до детального контроля доступа, все в готовом к производству пакете с открытым исходным кодом или корпоративном пакете.
LiteLLM обеспечивает бесшовное подключение к моделям от основных поставщиков, включая OpenAI, Azure, Bedrock и GCP. Разработчики могут переключаться между поставщиками или интегрировать новые модели без переписывания своей кодовой базы, используя единый API.
С LiteLLM команды могут точно отслеживать расходы на использование по пользователю, команде или организации. Он поддерживает атрибуцию расходов на основе тегов и интегрируется с облачными хранилищами, такими как S3 и GCS, для ведения журнала, что позволяет улучшить финансовый надзор и бюджетирование.
Команды платформы могут определять собственные ограничения скорости (RPM/TPM) и применять бюджеты использования для каждой команды или ключа. Эти элементы управления обеспечивают эффективность работы, защищая инфраструктуру от неправильного использования или перерасхода.
LiteLLM включает встроенную поддержку откатов моделей, что позволяет обеспечить бесперебойное обслуживание в случае сбоя или ограничения доступа со стороны поставщика. Guardrails дополнительно повышает надежность, предлагая правила для безопасной обработки запросов и использования API.
Версия LiteLLM с открытым исходным кодом бесплатна для использования и включает поддержку более 100 интеграций LLM, балансировку нагрузки и регистрацию телеметрии. Разработчики могут расширить функциональность с помощью вкладов сообщества или через поддерживаемые SDK.
LiteLLM интегрируется с Prometheus, OpenTelemetry, Langfuse и другими инструментами наблюдения. Команды могут отслеживать показатели использования LLM, отслеживать производительность запросов и анализировать шаблоны для оптимизации или отладки.
LiteLLM значительно сокращает время адаптации для новых LLM. Команды могут предоставлять доступ к недавно выпущенным моделям в течение нескольких часов, а не дней, благодаря единому интерфейсу и слою совместимости.
План предприятия включает такие функции, как SSO, аутентификация JWT, журнал аудита и пользовательские SLA. Организации могут развернуть LiteLLM в облаке или локально, в зависимости от потребностей инфраструктуры и требований соответствия.