Zintegrowana Sztuczna Inteligencja


Marcin Kowalski, konsultant w GFT Poland, odpowiada na pytania dotyczące zastosowania rozwiązań opartych o sztuczną inteligencję w bankowości detalicznej i inwestycyjnej oraz wyjaśnia znaczenie procesu integracji – kluczowego warunku powodzenia przedsięwzięć związanych z AI.

Biorąc pod uwagę ogromne tempo cyfryzacji usług bankowych, jakie konsekwencje biznesowe niesie ze sobą AI?

Wraz z pojawieniem się technicznych możliwości aplikowania AI na dużą skalę, firmy dostały narzędzia pozwalające przyspieszyć, automatyzować i redukować koszty.

Mamy dziś biometrykę, samodzielnie jeżdżące samochody, usterki w systemach przemysłowych zgłaszane tygodnie przed tym jak wykryją je ludzie, programy antywirusowe potrafiące namierzyć nigdy wcześniej nie widzianego wirusa, firmy ubezpieczeniowe weryfikujące zgłoszenie szkody w kilka sekund…

Nowe możliwości dla biznesu są gigantyczne. Pojawia się szansa na zbudowanie przewagi konkurencyjnej w dotychczas ustabilizowanych i trudnych do przetasowania sektorach.

Wymieniłeś bardzo szerokie spektrum zastosowań. Nasuwa się pytanie: jaka jest granica między tym, co jest sztuczną inteligencją, a co jeszcze nią nie jest? Zwłaszcza w sektorze finansowym. I jak ma się do tego Machine Learning?

W obiegowej terminologii zrobiło się trochę bałaganu. Sztuczna inteligencja to pojęcie, które odnosi się do zdobywania przez maszyny umiejętności przypisywanych ludziom, na przykład rozumienia mowy. W kontekście biznesu jest podobnie – o sztucznej inteligencji mówi się w przypadku zadań, z którymi do tej pory tylko ludzie dawali sobie świetnie radę. Jednym z zastosowań rozpoznawania mowy w sektorze finansowym może być zautomatyzowane telefoniczne biuro obsługi klienta, gdzie rozmowę prowadzi komputer. Klasycznymi sposobami nie da się tego zaprogramować, bo każdy mówi nieco inaczej, z różnym akcentem, nieraz w hałaśliwym otoczeniu. Za dużo komplikacji. Potrzebna jest inna metoda.

Hasłem, które grupuje te metody jest machine learning. Wspólnym mianownikiem jest uczenie się na podstawie przykładów. Zamiast ręcznie definiować listę zasad odróżniania od siebie głosek, algorytmy machine learning dostają zestaw nagranych wypowiedzi razem z ich znaczeniem. Jeśli algorytm jest dobrze dobrany i ma wystarczająco dużo przykładów, po pewnym czasie będzie umiał zrozumieć wypowiedź, której wcześniej nie słyszał. Machine learning to metoda budowania sztucznej inteligencji, ale może się odnosić do zadań, w których to ludzie radzą sobie kiepsko. Przykładem jest pytanie: Czy Pan Kowalski weźmie pożyczkę jeśli do niego zadzwonimy? Ciężko powiedzieć, to zależy od mnóstwa czynników. A komputery radzą sobie z tym świetnie i potrafią znacznie ograniczać koszty kampanii marketingowych.

Natomiast gdyby w przypadku kampanii marketingowej zespół analityków ręcznie zbudował zestaw reguł na podstawie których zapada decyzja o telefonie do Kowalskiego, to nie byłoby mowy ani o machine learningu, ani o sztucznej inteligencji.

Słowem: automatyzacja?

Naszych klientów ten aspekt interesuje najbardziej, bo pozwala działać taniej i szybciej. Łatwiej też myśleć o usprawnieniu tego, co już funkcjonuje. Ale obok automatyzacji pojawiają się nowe możliwości. Przykład: OpenDoor, który przygotuje ofertę sprzedaży naszego domu w kilka minut. To jest rewolucja i jest to, naturalnie, trudne dla dużych instytucji. Ale sama automatyzacja też nie jest prosta.

Co jest największym wyzwaniem przy implementacji rozwiązań AI?

Machine learning uczy się na przykładach, więc największym wyzwaniem są dane. Szczególnie głośny ostatnio deep learning wymaga do nauki olbrzymich zbiorów. Nie bez powodu temat Big Data jest dziś taki ważny. AI przeżywa renesans między innymi dlatego, że komputery stały się dużo szybsze i są w stanie przetwarzać więcej. Danych nie zawsze potrzeba wiele, ale zawsze muszą być uporządkowane.

Sukces projektów AI zależy od danych w 80%. Analiza i dobór algorytmów nie są proste, choć w tym zakresie raczej nie pojawiają się problemy organizacyjne czy integracyjne – łatwiej to kontrolować. Ogólnie rzecz biorąc, problem integracji jest stary jak branża IT, ale w kontekście sztucznej inteligencji staje się wyjątkowo istotny.

Ciekawą analogią są projekty regulacyjne. Mają podobny cel: zebrać informacje z wielu miejsc, by regulator mógł analizować je pod kątem nieprawidłowości. Do analizy można wykorzystać np. AI, ale to dopiero następny krok. Wyzwaniem jest zebranie danych z bardzo wielu różnych systemów, które w organizacjach bywają niepowiązane. Banki nierzadko mają za sobą długą historię przejęć i połączeń korporacyjnych – integracja może być niekompletna.

Czyli w całym przedsięwzięciu jakim jest wprowadzenie AI w instytucji finansowej, opracowanie „myślenia” jest tylko wierzchołkiem góry lodowej, a to proces integracji jest tak naprawdę zasadniczy.

Tak jest. Nasze doświadczenie wyraźnie pokazuje, że wiele projektów rozbija się właśnie o brak dostępności danych. Nawet w przypadku prostszych rozwiązań, które jest w stanie stworzyć analityk bez doświadczenia z machine learningiem, konieczny jest materiał do przeanalizowania. Staramy się uświadamiać naszych klientów, że zatrudnienie człowieka po doktoracie ze statystki nie rozwiązuje problemu, ponieważ on musi mieć nad czym pracować.

Powiedz zatem dwa słowa o integracji systemów pod kątem stosowania AI.

Każda osoba odpowiedzialna za procesy integracji w działach IT wie jakie niosą ze sobą wyzwania. To, na co warto zwrócić uwagę w projektach, w których pojawia się zespół data science, to jego szczególne wymagania. Czy konieczne jest dostarczanie danych “online”, czy może wystarczy dzienny “zrzut”? Czy problemem jest niekompletność? Może wystarczy próbkowany podzbiór? W przypadku projektów deep learning niespodzianką może być wolumen, za którym pojawia się temat klastrowania. A jeśli mowa o skalowalności, to warto rozważyć przeniesienie rozwiązania do chmury. Dużo zależy też od struktury zespołu data science. Czy ma wsparcie w postaci inżynierów danych i devops? Jeśli nie, to może ludzie z takimi kompetencjami powinni się pojawić? W innym wypadku konieczne może być izolowanie zespołu od zagadnień technicznych. Warto zauważyć, że branża skłania się w tym kierunku. Przykładem jest przygotowywany do wydania Cloudera Data Science Workbench, który można potraktować jako referencyjną architekturę przedsięwzięć AI w oparciu o stos Hadoop. W podobnym kierunku zmierza Google DataProc.

Pomimo oczywistych wyzwań, rynek podjął już decyzję o inwestycji w AI.

Naturalnie. Jeśli na desku zajmującym się analizą transakcji pod kątem wykrywania prania brudnych pieniędzy pracuje, powiedzmy, tysiąc osób, poprawa sprawności algorytmu raportującego na desk podejrzane operacje o 10% pozwoli na redukcję wielu etatów. Prognozujemy, że AML będzie jednym z obszarów istotnych inwestycji w rozwiązania AI. A jest on tylko jednym z wielu takich obszarów.

To sprowadza nas do ostatniej kwestii. Sztuczna inteligencja jest źródłem obaw – nie zawsze racjonalnych, ale w pewnym zakresie jak najbardziej uzasadnionych – o to w jakim stopniu zastąpi ludzi. Jak postrzegasz ten problem w kontekście usług finansowych?

Człowiek, który wykonuje nudną, monotonną pracę nie jest zmotywowany. Sztuczna inteligencja pozwala naszym klientom i ich pracownikom skupiać się na budowie strategii, innowacyjnych rozwiązaniach, relacjach z klientem i zdobywaniu rynków. Biznes zawsze będzie się opierał na ludziach, ale nudne zadania można powierzyć komputerom. Masowa automatyzacja postępuje od czasu rewolucji przemysłowej i nie znam nikogo, kto chciałby ten postęp cofnąć.

Ostatecznie, jeżeli Ty nie wprowadzisz strategii AI, wprowadzi ją Twoja konkurencja. Jeżeli Twoja konkurencja będzie miała 50 osób, które zajmują się danym zagadnieniem, a u Ciebie będzie to 500 pracowników, będziesz po prostu droższy. Co zrobią wtedy Twoi klienci?