С начала 2025 года в новостях идет активное обсуждение новой языковой модели от китайских разработчиков DeepSeek. Особенно актуальной данная тема стала для разработчиков виртуальных помощников, которые интегрируют ИИ в функционал голосовых роботов и чат-ботов. Однако, несмотря на многочисленные преимущества, существуют и серьезные недостатки, связанные с управлением и прогнозированием действий робота, взаимосвязанного с ИИ. Эксперты компании САТЕЛ провели анализ работы различных нейросетей на базе собственной диалоговой платформы ZIAX и выявили, какие проблемы могут возникнуть при абсолютном использовании новых технологий.
Тестирование ИИ проводилось в рамках двух проектов: сервиса по предоставлению информации о страховых полисах для автомобилей и сервиса газификации жилых помещений. В анализе принимали участие несколько существующих на рынке LLM моделей, среди которых с наилучшей стороны показали себя модели Яндекса (Яндекс GPT) и Сбера (SBER Gigachat). В настоящее время новая модель от китайских разработчиков DeepSeek также проходит тестирование.
В рамках первого проекта (страховые полисы для автомобилей), боты отвечали на запросы клиентов, не выдавая контактные данные компании. Тестирование показало, что, несмотря на некоторые успехи в правильных ответах и введение большого количества правил, был выявлен ряд проблем, когда ИИ генерировал неактуальные или вымышленные ответы. Также ИИ обходил запрет на выдачу контактов компании (выдавал набор случайных чисел за телефонный номер) и в случайный момент времени менял тональность коммуникации.
Во втором проекте (газификация жилых помещений) был применен другой метод, а именно разграничение запросов между двумя технологиями — LLM и контекстно-интентной моделью, разработанной специалистами ZIAX. Вместо создания множественных веток, запрос пользователя загружался в единый диалог контекстно-интентной модели. Затем этот запрос обрабатывался LLM моделью, генерировавшей ответ только в части тех тем, которые ранее были загружены из базы знаний заказчика. Таким образом, если пользователю требовалась консультация или инструкция по дальнейшим действиям, подключалась генеративная модель, обученная обрабатывать запросы в рамках программы социальной газификации. В тот момент, когда пользователю требовалась какая-то конкретная услуга (например, передача показаний), запрос продолжала обрабатывать контекстно-интентная модель.
Такой гибридный подход с жесткими ограничениями робота сферой действия продемонстрировал более высокие результаты и позволил эффективно обрабатывать разнообразно сформулированные запросы в каждом конкретном контексте.
«Позднее аналогичную стратегию мы применили и в проекте страхования автомобилей, где генеративная модель предоставляла помощь пользователям по навигации в личном кабинете на основе документации. В обоих случаях ИИ проявил высокую эффективность в ответах на самые различные вопросы, оставаясь при этом в рамках конкретной области. Такая концепция позволяет экономить время на обучение и настройку ботов, а также улучшает качество взаимодействия с клиентами», – заключил Роман Милованов, руководитель направления разработки чат-ботов и голосовых роботов САТЕЛ.