Czy można włamać się do chatbota? – zabezpieczenia wirtualnych asystentów

Czy można włamać się do chatbota? – zabezpieczenia wirtualnych asystentów

Chatboty są już obecne praktycznie w każdej branży – od bankowości, przez nieruchomości, po handel elektroniczny. Tak jak i inne platformy komunikacyjne, narzędzie to wymaga zastosowania odpowiednich zabezpieczeń, aby dostępu do posiadanych przez nie danych nie uzyskały niepowołane osoby.

Czy można włamać się do chatbota?

Chatboty są w dzisiejszych czasach ogólnodostępne. Korzysta z nich wiele branż, przede wszystkim w celu poprawy obsługi klienta. Współczesne chatboty korzystają z machine learning, dzięki czemu nie tylko prowadzą one z klientem dialog w naturalnym języku, ale także potrafią zapamiętać przebieg rozmów i później odnieść się do nich. Uczą się potrzeb i personalizują przesyłane treści. Jakie zagrożenia się z tym wiążą? Czy do chatbota można się włamać i spowodować, że zachowa się on inaczej, niż wymaga tego od niego algorytm? Jak zminimalizować ryzyko wykradzenia danych, które udało się pozyskać przez chatbota?

Czy można włamać się do chatbota? – zabezpieczenia wirtualnych asystentów

Jak zabezpieczyć chatbota?

Istnieje wiele metod zabezpieczania chatbotów przed nieupoważnionym dostępem. Jedną z nich jest szyfrowanie typu end-to-end. Metoda ta polega na tym, że nikt poza nadawcą i odbiorcą, nie może zobaczyć przesyłanych wiadomości, są one poufne. Metoda ta jest już stosowana w komunikatorach Facebook Messenger oraz WhatsApp.

Inny sposób na to, aby zabezpieczyć chatbota to uwierzytelnianie i autoryzacja. Uwierzytelnianie to inaczej weryfikacja tożsamości użytkownika, natomiast autoryzacja – nadanie uprawnień dostępu do danego narzędzia/platformy/portalu. Najczęściej wykorzystuje się uwierzytelnianie poprzez identyfikator użytkownika oraz tworzenie bezpiecznych danych logowania. Bardziej zaawansowaną metodą są limity czasu uwierzytelnienia – metoda ta zapobiega ponownemu podejmowaniu prób odgadnięcia hasła.

W KODA stosujemy także metody takie jak:

  • anonimizacja danych – podane przez użytkownika dane nie zostaną zapisane w bazie danych, nie pojawią się też w statystykach ani skrzynce odbiorczej;
  • formularz zbierania danych – funkcja pozwala utworzyć dedykowane zabezpieczone formularze.

Jeśli chodzi o RODO, użytkownik ustala cele i sposoby przetwarzania danych osobowych na etapie projektowania chatbota. Wtedy też określa się administratora, którego obowiązkiem jest zadbanie o poufność i bezpieczeństwo informacji.

Chatboty – zadaniem ich twórców jest dostarczenie produktu kompletnego

Współczesne chatboty to bardzo inteligentne narzędzie. Boty korzystają z AI (sztucznej inteligencji) oraz UBA (analizy zachowań użytkowników). Dzięki temu potrafią one przeszukać ogromne ilości danych, rozpoznać nietypowe zachowania i je odpowiednio wcześnie zablokować. Jeśli zaprojektowanie chatbota zostanie zlecone specjalistom, nie ma się czego obawiać, są oni zobowiązani do tego, by odpowiednio zabezpieczyć narzędzie.

Twórcy chatbotów mają obowiązek odpowiednio przetestować narzędzie przed wypuszczeniem go na rynek. Dokładnie sprawdzane są luki w zabezpieczeniach, testowana jest także integralność interfejsu programowania aplikacji (API). Bot dopiero wtedy jest dostarczany klientowi, gdy przejdzie pomyślnie również przez wszystkie etapy testów użyteczności.

Czy można włamać się do chatbota? – zabezpieczenia wirtualnych asystentów

Hakowanie chatbotów – eksperyment naukowców z Michigan State University

Na koniec warto wspomnieć o ciekawym eksperymencie naukowców z Michigan State University [1]. Naukowcy postanowili sprawdzić, czy uda się złamać bota tak, aby odpowiadał na pytanie w taki sposób, w jaki oni chcą, a nie podyktowany jego algorytmem. Badanie dotyczyło botów, które są oparte na modelach NLP i uczone za pomocą deep learning. Boty te posiadają sieci neuronowe wzorowane na ludzkim mózgu oraz korzystają z zaawansowanych algorytmów – dzięki temu mogą ciągle doskonalić umiejętności związane z przetwarzaniem naturalnego języka.

Eksperyment pokazał, że odpowiednio trenowany chatbot (zastosowano metodę uczenia poprzez wzmacnianie) może zostać złamany i generować oczekiwaną odpowiedź na zadane pytanie. Napisany przez naukowców program został zmanipulowany i w 9/10 przypadkach zareagował tak, jak tego oczekiwali. Badacze zapowiedzieli, że kolejne badania będą poświęcone innym zagrożeniom związanym z botami, takim jak np. wyciek poufnych informacji.

Prace naukowe takie jak Say What I Want: Towards the Dark Side of Neural Dialogue Models są bardzo istotne dla rozwoju cyberbezpieczeństwa – dzięki nim twórcy chatbotów mogą stosować jeszcze lepsze rozwiązania i zwiększyć bezpieczeństwo stosowania chatbotów. Decydując się na współpracę z dostawcą chatbotów, warto upewnić się, że firma stosuje najnowsze metody zabezpieczeń. Bardzo istotne jest także, aby przedsiębiorstwo było chętne do pomocy, by przeszkolić klienta z zakresu właściwego użytkowania narzędzia. Dzięki dopilnowaniu tych dwóch kwestii można zminimalizować ryzyko włamania praktycznie do zera.

Źródła:

Liu H, Derr T., Liu Z., Tang J, 2019. Say What I Want: Towards the Dark Side of Neural Dialogue Models. ArXiv: 1909.06044.