Serverspace анонсирует новый сервис: доступ к большим языковым моделям через API из панели управления

Международный облачный провайдер Serverspace анонсирует запуск нового сервиса, предоставляющего доступ к большим языковым моделям (LLM) через API. Этот сервис позволит разработчикам и предприятиям интегрировать передовые возможности искусственного интеллекта в свои приложения прямо из панели управления Serverspace.

Большие языковые модели (LLM) становятся все более важными инструментами в различных областях. По данным исследований, использование LLM позволяет сократить время на создание контента до 70% и повысить точность ответов на запросы клиентов до 85%. Исследования показывают, что более 40% компаний уже внедрили ИИ-технологии в свои бизнес-процессы, а рынок ИИ в мире к 2027 году достигнет 407 миллиардов долларов.

«Мы предлагаем нашим клиентам этот инструмент для того, чтобы значительно упростить процесс интеграции искусственного интеллекта в их приложения. Наше API открывает новые возможности для бизнеса, позволяя им автоматизировать процессы и повышать эффективность», — сообщил Евгений Свидерский, руководитель облачного бизнеса Serverspace.

В реализации проекта принимает участие проект Ainergy — интегратор решений для бизнеса на основе искусственного интеллекта. На текущий момент для использования доступен Openchat-3.5-0106. Эта модель языка с открытым исходным кодом настроена с использованием C-RLFT и превосходит Grok-1 и ChatGPT (версия 3.5 от марта 2023 года) по популярным бенчмаркам, предоставляя качественные ответы как на английском, так и на русском языках. В дальнейшем библиотека моделей, согласно заявлению представителей компании, будет расширяться. Ожидается, что к концу 2024 году в панель управления Serverspace будет интегрировано большинство доступных open-source моделей LLM.

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Медицинские задачи для ИИ

Подробнее
Спецпроект

Цифровой Росатом

Подробнее


Подпишитесь
на нашу рассылку