Asystent AI to dziś już nie tylko bot, który odpowiada sztywno zaprogramowanym tekstem po wybraniu jednej z opcji w oknie czata. Rozmowy ze zautomatyzowanym asystentem AI mają być dziś dostępne przez dowolnie wybrane medium, równie naturalne jak te z człowiekiem, a jednocześnie bezpieczne, przewidywalne i zgodne z celami biznesowymi. Tworzenie nowoczesnych asystentów AI spełniających te wymagania umożliwia KODA Intelligence – moduł naszej platformy, który pozwala nie tylko rozpoznawać intencje rozmówców, ale też dopasowywać sposób odpowiedzi do konkretnych potrzeb i kontekstu.
W artykule wyjaśniamy, jak działa wielopoziomowe rozpoznawanie intencji w KODA Intelligence: od reguł, które gwarantują pełną kontrolę, przez uczenie maszynowe wychwytujące powtarzające się wzorce, aż po generatywną AI, którą osadzamy w bezpiecznych ramach dla biznesu.
Pokazujemy także, jak każdy z tych poziomów sprawdza się w różnego typu zadaniach i udzielaniu odpowiedzi na zróżnicowane pytania użytkowników.
Wielopoziomowe rozpoznawanie intencji rozmówcy

Poziom 1: Model regułowy
Na tym poziomie, KODA Intelligence weryfikuje, czy wiadomość spełnia określone warunki i próbuje wykryć intencje na ich podstawie.
Intencja zostanie wykryta, gdy wiadomość:
- Zawiera przynajmniej jedną zdefiniowaną frazę;
- Zawiera wyraz zaczynający się od frazy (np. fraza „bagaż” wykryje „bagaże” i „bagaży”);
- Jest identyczna z frazą;
- Zawiera wymagane encje (z możliwością definiowania encji opcjonalnych).
Encje to konkretne elementy w tekście, takie jak nazwy, daty czy liczby, które system wyodrębnia jako wartości pomocne do realizacji intencji (np. „jutro”, „odprawa”).

Dodatkowo, model regułowy w ramach platformy KODA zawiera moduł lematyzacji (sprowadzania do form podstawowych), automatyczną poprawę literówek oraz wsparcie dla różnych języków z osobnymi zestawami fraz. Dzięki temu system poradzi sobie z przetwarzaniem wiadomości, która nie jest idealnie sformatowana, poprawna gramatycznie, zawiera błędy lub zwroty obcojęzyczne. Po odpowiednim dostosowaniu, asystent zrozumie też pytania w różnych językach i adekwatnie odpowie.
Kiedy sprawdzi się model regułowy
Podejście oparte na regułach działa dobrze w prostych, dobrze przewidywalnych dialogach i systemach, gdzie zakres intencji oraz encji jest ograniczony i dobrze znany. Obsłuży więc z powodzeniem wiekszość często pojawiających się pytań (ang. FAQ – Frequently Asked Questions) czy zapytań związanych z obsługą reklamacji i zwrotów. Na tym poziomie, asystent zadziała w sposób precyzyjny i w pełni kontrolowany. Nie ma tutaj mowy o halucynacjach.
Nie wszystkie pytania i intencje jesteśmy jednak w stanie przewidzieć. Jeśli model regułowy nie wystarczy, aby udzielić odpowiedzi, wiadomość płynnie przejdzie do procesowania na kolejnym poziomie.
Poziom 2: Moduł machine learning
W przeciwieństwie do modelu regułowego, moduł machine learning potrafi rozpoznać intencje nawet w przypadku wcześniej niezdefiniowanych wypowiedzi, wyuczonych na podstawie przykładów treningowych.
Trenowanie intencji odbywa się poprzez dodawanie przykładowych wypowiedzi (training phrases) dla konkretnego języka w intencji. Cały proces konfiguracji i trenowania odbywa się w panelu KODA, co umożliwia klientowi wygodny dostęp do bazy materiałów treningowych oraz jej edycji z jednego miejsca.

Także z poziomu platformy, nasz zespół, lub zespół po stronie klienta, może konfigurować przypadki testowe NLU (Natural Language Understanding), czyli zestaw przykładowych wypowiedzi użytkowników wraz z dopasowanymi do nich oczekiwanymi intencjami. Ta funkcjonalność umożliwia weryfikację poprawności działania modelu rozumienia języka naturalnego.
Kiedy sprawdzi się moduł machine learning
Algorytmy machine learning sprawdzą się najlepiej tam, gdzie dane wejściowe zawierają ukryte zależności trudne do uchwycenia regułami czy generatywnymi modelami językowymi.
W automatyzacji procesów wewnętrznych sprawdzą się gdy celem będzie przewidywanie problemów i zapobieganie im z wyprzedzeniem oraz wspomogą proces ich analizy i optymalizacji. W obsłudze klienta umożliwią udzielenie spersonalizowanej odpowiedzi na podstawie wcześniejszych interakcji oraz zapewnią wysokopoziomową personalizację rekomendacji. Algorytmy machine learning potrafią także wykrywać anomalie w danych (np. nietypowe zachowania użytkowników), co pozwala na szybkie reagowanie i zapobieganie kryzysom.
Jeśli intencja nie została rozpoznana przez KODA Intelligence za pomocą reguł i modułu machine learning, wiadomość przejdzie na kolejny poziom, gdzie może być przetwarzana z wykorzystaniem generatywnej sztucznej inteligencji (Generative AI)
Poziom 3: Generative AI
Generatywna sztuczna inteligencja otwiera ogromne możliwości w obsłudze klienta, jednak jej nieumiejętne wykorzystanie może obniżać poziom doświadczenia użytkownika w rozmowie z asystentem. Dodatkowo brak odpowiednich zabezpieczeń i odpowiednich konfiguracji przy wykorzystaniu tej technologii może także powodować podatności systemu na zagrożenia.
Celem jest więc odpowiednie dostosowanie zakresu możliwości LLMów do konkretnych potrzeb klienta, a inaczej mówiąc, okiełznanie ich na potrzeby biznesowe: uzyskanie najwyższego poziomu bezpieczeństwa oraz poprawności generowanych przez nie odpowiedzi, które w efekcie trafiają do użytkowników.
Moduł Generative AI w platformie KODA to kompleksowe rozwiązanie do testowania, ewaluacji i monitorowania różnych modeli językowych (ang. Large Language Models – LLMs), które wykorzystujemy w budowaniu inteligentnych agentów AI dla naszych klientów.
Realna wartość biznesowa z modułu Generative AI płynie nie z samego faktu wykorzystania LLMów w procesie automatyzacji obsługi klienta, ale z indywidualnego dopasowania możliwości odpowiednio dobranych modeli językowych do typu biznesu, konkretnej organizacji, oraz wybranego procesu, który ma być zautomatyzowany. Nasz zespół buduje bezpieczne ramy dla efektywnego wykorzystania LLMów w automatyzacji procesów biznesowych dzięki zestawowi narzędzi dostępnych w platformie.

System umożliwia między innymi automatyczną ocenę jakości odpowiedzi AI, zarządzanie funkcjami wywoływanymi przez modele, kontrolę promptów (szablonów zapytań i instrukcji) oraz śledzenie konwersacji i zarządzanie bazą wiedzy.
Wkrótce planujemy też rozszerzenie modułu Generative AI o rozbudowane ewaluatory treści, dodatkowe możliwości testowania i analizy zapytań. Chcemy dzięki nim stale rozbudowywać kontrolę jakości odpowiedzi, a także podwyższać poziom bezpieczeństwa naszych rozwiązań. Więcej na ten temat w nadchodzących artykułach.
Kiedy sprawdzi się moduł Generative AI
Generatywna sztuczna inteligencja sprawdza się najlepiej tam, gdzie procesy wymagają elastyczności, kreatywności oraz umiejętności tworzenia treści w czasie rzeczywistym. To obszary, w których reguły i klasyczne algorytmy mogą być zbyt sztywne, a uczenie maszynowe zbyt ograniczone.
Dzięki Generative AI, asystent będzie mógł udzielić odpowiedzi kiedy użytkownik sformułuje zapytanie w sposób niespotykany, którego nie obejmują reguły ani dane treningowe. Umożliwi komunikację wielojęzyczną, dzięki automatycznemu tłumaczeniu rozmów i prowadzeniu ich w języku użytkownika bez potrzeby budowania osobnych zestawów fraz. W automatyzacji procesów wewnętrznych wygeneruje zwięzłe podsumowanie rozmowy czy dokumentacji dla zespołów. Może też asystować pracownikom, na przykład poprzez generowanie propozycji odpowiedzi dla konsultanta, który następnie może ją szybko zatwierdzić lub edytować.
W każdym z tych przypadków kluczowe jest jednak to, że w Generative AI w module KODA Intelligence działa w kontrolowanych ramach – odpowiedzi są testowane, monitorowane i osadzone w kontekście biznesowym, tak aby minimalizować ryzyko błędów czy halucynacji.
Elastyczność sekwencji w rozpoznawaniu intencji rozmówcy
Opisana powyżej 3-poziomowa sekwencja działania asystenta AI w rozpoznawaniu intencji rozmówcy jest przykładem możliwości KODA Intelligence. Sekwencję możemy dowolnie konfigurować pod względem doboru poszczególnych kroków oraz kolejności ich stosowania.
Przykładowo, możemy użyć na początku Generative AI do klasyfikacji typu zapytania, a gdy zostanie zidentyfikowany odpowiedni scenariusz, w kolejnym kroku uruchomić moduł machine learning do pobrania konkretnych danych niezbędnych do udzielenia szczegółowej odpowiedzi. Poniżej przykładowe możliwości tworzenia sekwencji z trzech modułów dostępnych w platformie:

Wszystko zależy od potrzeb klienta oraz procesu biznesowego, który dana sekwencja ma obsłużyć.
Korzyści wielopoziomowego rozpoznawania intencji i procesu tworzenia odpowiedzi
Trzyetapowy proces przetwarzania wiadomości i rozpoznawania intencji to kwestia milisekund. System błyskawicznie przetwarza zapytanie klienta i automatycznie dopasowuje sposób reakcji i generowania odpowiedzi. Klient nie musi więc sam decydować, jak asystent powinien reagować w jakim przypadku – to nasz odpowiednio skonfigurowany system zareaguje odpowiednio w zależności od celu prowadzonej konwersacji.
Co najważniejsze, z perspektywy użytkownika, rozmowa z asystentem AI będzie przebiegała tak jak naturalna, swobodna rozmowa z człowiekiem.
Z perspektywy klientów, którzy tworzą i rozwijają z nami automatyzacje procesów, platforma umożliwia nie tylko szybkie wdrożenie rozwiązania, ale także optymalizację jego utrzymania i bezpiecznego rozwijania, poprzez:
- scentralizowaną konfigurację asystenta – system przetwarza wiadomości centralnie, mimo że rozmawia z użytkownikami na wielu kanałach (czat, voice, mail);
- dostęp do środowiska testowego – nic nie wychodzi do użytkownika przed gruntownymi testami wewnętrznymi;
- ułatwioną analizę i kontrolę jakości odpowiedzi – z poziomu panelu możemy kontrolować czy agent rzeczywiście zapewnia najwyższy poziom doświadczenia użytkownika;
- możliwości wdrożenia wymaganych standardów bezpieczeństwa – które narzucamy z poziomu platformy.
Moc AI trzymana na wodzy
AI to nie wytrych, który zadziała w każdym przypadku. Tworząc rozwiązania automatyzujące procesy biznesowe dla naszych klientów zawsze staramy się znaleźć balans pomiędzy wykorzystaniem najnowszych rozwiązań w dziedzinie generative AI a opieraniem się na modelach deterministycznych. Kluczem jest dopasowanie rozwiązania do procesu w ramach konkretnych potrzeb biznesowych.
Generative AI można w tym przypadku porównać do zaawansowanej nawigacji GPS. Świetnie poprowadzi w nieznanym terenie, ale jeśli chcemy przejść kilka kroków w znajomym biurze nie potrzebujemy aplikacji z mapą w telefonie, a jedynie kilku prostych i sprawdzonych wskazówek.
Doświadczenie użytkownika i gotowość na zmiany
Dzisiejszy standard działania asystentów AI to przede wszystkim płynność w obsłudze klienta i trafność udzielanych odpowiedzi w jak najkrótszym czasie. Doświadczenie użytkownika, który wchodzi w konwersację z nowoczesnym czatem lub asystentem głosowym jest osią, wokół której tworzymy efektywną automatyzację procesów biznesowych.
Jednocześnie, zaraz obok perspektywy osoby, która będzie z asystentem AI rozmawiać, na liście priorytetów stawiamy doświadczenie klienta, który wspólnie z nami tworzy i rozwija automatyzację. W rozwijaniu Platformy 3.0, postawiliśmy na wielopoziomowe bezpieczeństwo tworzonych rozwiązań, ich niezawodność i gotowość na zmiany, zarówno te dyktowane przez nieustanny rozwój technologii AI jak i rozwój biznesu klienta.
W KODA tworzymy asystentów AI, którzy biegle rozpoznają intencje użytkownika, sprawnie generują trafne odpowiedzi korzystając nie tylko z informacji zawartych w pytaniu, ale także z szerszego kontekstu. KODA Intelligence – to tylko jeden z modułów platformy, który umożliwia nam sprawny proces budowania i optymalizowania automatyzacji dla biznesu: od obsługi klienta, przez procesy marketingowo-sprzedażowe do usprawnień wewnętrznych.