Predykcja zachowań klientów z wykorzystaniem uczenia maszynowego

Webinar dostępny na żądanie

Zdobądź wiedzę na temat Machine Learning i podejmuj lepsze decyzje biznesowe!

Uczenie maszynowe jest ciągle rozwijającą się dziedziną, która coraz mocniej przenika do świata biznesu. Dzieje się to z racji rosnącej świadomości potencjału, jaki za sobą niesie.

Wyobraź sobie sytuację, że masz wiedzę o tym, którzy klienci opuszczą Twoją firmę oraz co wpływa na taką ich decyzję. Mając tę wiedzę jesteś w stanie zareagować na czas i podjąć kroki mające na celu zatrzymanie tych klientów. Dodatkowo dzięki posiadaniu wiedzy, co wpływa na decyzję poszczególnych klientów jesteś w stanie szybciej i mniejszym kosztem przygotować dla nich alternatywną ofertę.

 

Predykcja zachowań klientów z wykorzystaniem uczenia maszynowego

Wypełnij formularz i uzyskaj nagranie

    Podczas webinaru nauczysz się między innymi:

    • Jak wykorzystać Qlik AutoML do wyznaczania prognoz,
    • Jak szybko zastosować uczenie maszynowe w całej organizacji,
    • Jak prosto testować różne scenariusze biznesowe,
    • W jakich obszarach działalności przedsiębiorstwa można wykorzystać uczenie maszynowe.
    Data Wizards

    Marcin Stawarz

    Expert Qlik Consultant
    Qlik Sense Business Analyst
    Qlik Educator Ambassador
    Qlik Sense Data Architect

    Certyfikowany konsultant Qlik Sense z kilkuletnim doświadczeniem, którego głównymi zainteresowaniami są analiza danych oraz zagadnienia związane z uczeniem maszynowym. Oprócz pracy w biznesie jest nauczycielem akademickim zajmujący się naukowo zastosowaniem uczenia maszynowego w finansach.

    Marcin Stawarz

    Transkrypcja materiału wideo

    [Przemysław Żukowski]: Dzień dobry, witam Was serdecznie na naszym kolejnym webinarze w ten piękny śnieżny dzień. Mam nadzieję, że dzisiejszy czas, który spędzicie razem z nami będzie bardzo Dla Was owocne. No i postaramy się we dwóch bo tym razem oprócz mnie w wydarzeniu będzie wybrał jeszcze nasz drugi kolega, we dwóch postaramy się Wam pokazać co jest możliwe z wykorzystaniem właśnie machine learning w ramach Qlika.

    Ja się nazywam Przemek Żukowski, na dzisiejszym webinarze będzie z nami również Marcin Stawarz, który cały webinar pokaże i tak jak zawsze w naszym przypadku będziecie mieli możliwość zobaczenia nie tylko tematów związanych z teorią związaną właśnie z tematem machine learning, a w szczególności AutoML, Ale też przede wszystkim zobaczycie dużo, dużo praktyki czyli jak to można wykorzystać w takim życiu codziennym w Waszych organizacjach, tak żeby natchnąć Was do tego, abyście mogli wykorzystać posiadane przez Was licencje jeszcze szerzej.

    Na samym wstępie dodam jeszcze tylko, że jeżeli będziecie mieli jakieś pytania to korzystajcie proszę z takiego panelu questions. Tam wrzucajcie wszystko to, co Wam przyjdzie do głowy o co chcielibyście zapytać, a na samym końcu naszego spotkania do tych pytań się też odniesiemy. Spotkanie też jest nagrywane, także w razie czego będzie można też do niego w dowolnej chwili wrócić.

    Tyle ode mnie Tytułem wstępu głos. Przekazuję do Marcina i Marcin poprowadzi już Was przez całą dalszą część webinara. Do usłyszenia.

    [Marcin Stawarz]: Dzień dobry Państwu, a więc tak, dzisiaj będziemy rozmawiać o Qlik AutoML w kontekście predykcji zachowań klientów z wykorzystaniem uczenia maszynowego. Może pokrótce spojrzymy na agendę, o czym będziemy się zajmować podczas naszego webinaru.

    Najpierw pokrótce tak naprawdę bez wchodzenia w jakieś mocne szczegóły teoretyczne, odpowiemy sobie na pytanie, co to jest uczenie maszynowe oraz co to jest ten AutoML. Następnie omówimy sobie kilka przypadków użycia wykorzystania tego rozwiązania jakim jest AutoML. Tak jak też powiedział Przemek nie będziemy,

    Tutaj dużo się skupiać na rzeczach teoretycznych tylko będziemy po prostu chcieli zrobić też live demo już w Qliku z wykorzystania AutoML. Będziemy chcieli zbudować prosty model, pokażę też jak taki model w ogóle jesteśmy w stanie zbudować w prosty sposób, tak bez pisania żadnego kodu skryptu jak taki model opublikować, jak taki model podłączyć do aplikacji w Qlik Sensie jak z takiego modelu korzystać chociażby z poziomu wizualizacji w naszej aplikacji.

    Później też powiemy kto może skorzystać z tego rozwiązania jakim jest Qlik AutoML. No i na końcu sesja Q&A. Ja już tutaj od razu zachęcam, że jeżeli w trakcie tutaj czy live demo, czy też tego krótkiego wstępu teoretycznego jeżeli pojawią się jakieś pytania to jak najbardziej zachęcamy do zadawania ich w Poprzez ten panel questions.

    I na pewno postaramy się na wszystkie odpowiedzieć. Jak nie w trakcie, to na pewno na końcu będziemy mieli odpowiednią część na Państwa pytania. No i przechodząc do pierwszego punktu agendy tak bardzo pokrótce co to jest uczenie maszynowe oraz AutoML. Tutaj na tym slajdzie skupiamy się na uczeniu maszynowym I tak naprawdę jest to gałąź sztucznej inteligencji, która skupia się na procesie znajdowania wzorców w danych historycznych.

    Czyli mamy jakieś dane historyczne, chcemy te dane historyczne wykorzystać w celu znalezienia różnych wzorców, które potencjalnie te modele uczenia maszynowego mają znaleźć i ma nam to pomóc w lepszym Przewidywaniu przyszłości albo w ogóle umożliwić nam przewidywanie jakichś przyszłych zdarzeń.

    Uczenie maszynowe składa się z różnych typów modeli uczenia maszynowego. Mamy uczenie maszynowe nadzorowane, nienadzorowane. Jakby nie będziemy się w to technicznie zgłębiać, to co musimy wiedzieć, że mamy w tych różnych typach modeli uczenia maszynowego różne techniki algorytmiczne, różne algorytmy uczenia maszynowego i tutaj też później live demo pokażę Państwu, że ten Qlik auto ML różne algorytmy uczenia maszynowego ma zaimplementowane.

    Te algorytmy uczenia maszynowego są zasadniczo zaprojektowane w celu klasyfikowania różnych obiektów rzeczy, przedmiotów i tak dalej, znajdowania wzorców, tak jak już powiedziałem w danych, przewidywania wyników i podejmowania świadomych decyzji. Czyli chcemy tak naprawdę wziąć nasze historyczne dane, Stworzyć taki model na podstawie przygotowanego modelu który wyłapie nam tak naprawdę jak najwięcej wzorców i zależności na podstawie historycznych danych być w stanie lepiej przewidywać przyszłe zdarzenia.

    No i tutaj już ten ostatni punkt spina, tak naprawdę to, co do tej pory powiedziałem, że ten główny cel wykorzystania uczenia maszynowego to jest prognozowanie przyszłych zdarzeń w celu tak jak tutaj też zapisałem, podejmowania decyzji biznesowych w sposób szybszy i trafniejszy, czyli głównie chodzi nam o to, żebyśmy byli w stanie zareagować szybciej żebyśmy mieli jakąś prognozę tego, co się może w przyszłości zdarzyć, dzięki temu jesteśmy w stanie podjąć decyzję szybciej możliwe, że też szybciej na przykład od konkurencji, która takiego machine learningu nie stosuje.

    No co najważniejsze, no chcielibyśmy żeby za tą szybkością podejmowania decyzji również stała trafność, tak, żeby ta decyzja była jak najbardziej trafna. No i teraz pokrótce co to jest ten AutoML, czyli automatyczne uczenie maszynowe to jest to takie podejście do uczenia maszynowego które pozwala nam zautomatyzować cały proces od pozyskania danych, od przygotowania danych do przygotowania modelu do opublikowania takiego modelu czy też możemy powiedzieć wdrożenia na produkcję po korzystanie z tego modelu dokonywanie prognoz przez użytkowników Normalnie jest to z reguły dosyć bym powiedział, bardzo rozbudowany proces, wymagający szeregu zaawansowanych umiejętności, też przede wszystkim programistycznych żeby całe to środowisko cały taki model przygotować napisać.

    Rozwiązanie AutoML pozwala nam zautomatyzować cały ten proces Szereg operacji, które w takim procesie mamy, czyli przetwarzanie danych wybór algorytmu, uczenie modelu publikacje i aż po wdrożenie modelu, czyli tak naprawdę rozwiązanie no-code, w którym nie musimy pisać żadnego kodu, skryptu. Po co zostały w ogóle takie rozwiązania AutoML wymyślone?

    Po co są implementowane na przykład tutaj w Qlik Sense? One są zaprojektowane przede wszystkim do zespołów zajmujących się analizą danych, ale do takich zespołów które nie mają może osób, które, Zajmują się zagadnieniami stricte związanymi z uczeniem maszynowym, nie ma powiedzmy jakichś wydzielonych osób, jakichś data scientistów którzy za to odpowiadają a mimo wszystko chcielibyśmy w różnych obszarach działania naszego przedsiębiorstwa takie modele zastosować.

    No to tutaj możemy wykorzystać ten potencjał AutoML, że jest to rozwiązanie w którym jakby nie musimy pisać żadnego kodu, skryptu, nie musimy też mieć super wiedzy związanej z uczeniem maszynowym. Oczywiście im więcej wiemy tak naprawdę jest lepiej, znowu też jesteśmy w stanie bardziej później wyniki otrzymywane zinterpretować i tak dalej, ale jakby ten próg wejścia w machine learning dzięki tym rozwiązaniom AutoML jest dużo niższy.

    Jesteśmy w stanie szybko taki model w różnych obszarach działania przedsiębiorstwa zaimplementować. No i umożliwia AutoML, analitykom i zespołom analitycznym, Tutaj pogrubiłem dwa wyrazy. Przewidywanie zdarzeń biznesowych, czyli jedna rzecz to my chcemy zrobić prognozę, chcemy przewidywać czy nasz pracownik odejdzie, nie odejdzie, czy nasz klient odejdzie, nie odejdzie, czy maszyna na linii produkcyjnej się zepsuje, czy nie zepsuje, albo może chcemy przewidywać jakieś przyszłe koszty przyszły poziom sprzedaży.

    Czyli to jest jedno, czyli chcemy przewidzieć jakąś przyszłość, czy to będzie jakieś zdarzenie, czy jakaś konkretna wartość oraz zrozumieć co i w jaki sposób wpływa na dokonywanie przez ten model prognozy, czyli tak naprawdę mamy tutaj dwie rzeczy, jedna to jest jakby sama ta prognoza, druga to jest co wpływa na tę prognozę i w jaki sposób, także tutaj też korzystając z tego Klikał to ML będziemy mieli informację na temat prognozy czyli jakiejś konkretnej Czy wartości, typu jakieś wartość sprzedaży, czy na przykład informacje, że ten klient od nas odejdzie z jakimś tam prawdopodobieństwem, ale mamy też miary, które pozwalają nam ocenić, dlaczego model prognozował w taki sposób, a nie inny sposób, czyli mamy tak naprawdę dwie rzeczy.

    Jedna informacja co może się zdarzyć w przyszłości, druga informacja dlaczego tak się może zdarzyć, wiemy co wpływa na taką prognozę i też mamy jakby od razu możliwość podjęcia różnych działań z różnych obszarów. Jest nam też łatwiej zrozumieć, dlaczego potencjalnie ten klient na przykład od nas odejdzie.

    To oczywiście też później te wszystkie mierniki Państwu w praktyce pokażę podczas live demo. Spójrzmy na taki krótki slajd pokazujący proces przygotowania i wdrażania modelu modelu uczenia maszynowego czyli co potrzebujemy tak naprawdę mieć, żeby taki model wdrożyć. Tutaj jakby, My skupiamy się na rozwiązaniu AutoML, czyli jest to rozwiązanie no code, tak naprawdę korzystamy już z przygotowanych rozwiązań wybieramy odpowiednie opcje i tak dalej, to na live demo zobaczymy, ale nie musimy pisać tego kodu skryptu, czyli jakby ten cały proces, ten flow tego procesu który się tutaj wykonuje, to tak naprawdę w takim klasycznym podejściu musielibyśmy to wszystko zapisać postaci kodu, żeby te operacje się wszystkie wykonywały.

    Czyli zaczynamy tak naprawdę od danych dane są tutaj najistotniejsze, no bo my chcemy na podstawie danych historycznych znaleźć zależności żeby lepiej przewidywać przyszłość czyli zaczynamy od danych, czyli mamy dane, dane oczywiście, jakby zebranie danych to jest jedna rzecz, druga rzecz, żeby te dane oczywiście w odpowiedni sposób przygotować do, Wykorzystania ich w jakimś modelu czynienia maszynowego, ale tutaj też ja na live demo pokażę, Qlik AutoML jest w stanie te dane odpowiednio przeprocesować.

    Następnie musimy wybrać które z tych naszych danych my chcemy wykorzystać. Danych możemy mieć bardzo dużo, ale musimy jakieś zmienne wybrać na podstawie których będziemy chcieli te przyszłe wartości prognozować. Tutaj też będziemy mieli pomoc w postaci wyliczenia różnych miar pokazujących ważność zmiennych, powiedzmy w takim dużym uproszczeniu z perspektywy modelu.

    Następnie musimy taki model stworzyć czyli model musi powstać. Najczęściej mamy kilka różnych algorytmów wykorzystanych nie tylko jeden i taki model jest, iteracyjnie się uczy. Mamy do obu różnych hiper parametrów i tak dalej, ten model musi się nauczyć tej zależności. Jeżeli ten model mamy przygotowany i ten model Daje prognozy różne mierniki dokładności prognoz mówią nam, że ten model wydaje się, że da nam wartość dodaną do naszego przedsiębiorstwa.

    Będziemy w stanie przewidzieć jakieś przyszłe wartości podejmować lepsze decyzje, no to taki model publikujemy, można powiedzieć, wdrażamy na produkcję, żeby na przykład inni użytkownicy mogli z niego korzystać, że nowe dane, które pojawiają się w jakichś systemach bazach danych, jesteśmy w stanie tego modelu wrzucić, żeby dokonać prognozy.

    I jak już mamy taki model opublikowany, no to tak jak też mówiłem, musimy, bo opublikowaliśmy poświęciliśmy jakiś czas na przygotowanie, no to na pewno też chcemy z tego modelu korzystać czyli chcemy dokonywać różnych prognoz. Kolejny punkt to jest integracja W tym przypadku mamy integrację z Qlik Sensem czyli integrację z jakimś narzędziem za pomocą którego będziemy w stanie w sposób zautomatyzowany wrzucać nowe dane do modelu żeby na podstawie tych nowych danych, które spływają do naszych różnych systemów dokonywać różnych prognoz.

    I przy okazji jesteśmy w stanie działając w obrębie narzędzia Business Intelligence, jesteśmy w stanie w sposób przystępny dla użytkowników wizualizować wyniki, które otrzymujemy z takich modeli Mamy tutaj tak naprawdę ten model już z tym narzędziem BA-owym połączony. Czyli jest łatwy sposób odświeżania danych, wrzucania danych do modelu no i też mamy łatwy sposób wizualizowania tych danych.

    Kolejna rzecz to jest What-if scenarios, czyli chcemy zasymulować sobie coś. Czyli mamy na przykład jakiegoś klienta I my chcemy zobaczyć jaką prognozę dałby nam model na podstawie jakichś danych, które byśmy po prostu wprowadzili dla tego klienta czyli zobaczylibyśmy a co się stanie, gdy na przykład, weźmy, że tutaj będziemy robić taki przykład danych telekomunikacyjnych i będziemy chcieli później docelowo na live demo sprawdzić, czy ten klient, jest duże prawdopodobieństwo, że od nas odejdzie, czy nie.

    I załóżmy że mamy na przykład kwotę abonamentu jaką ten klient płaci, no to możemy na przykład sobie spróbować zasymulować, a co się stanie jeżeli abonament zmniejszymy tę kwotę abonamentu o 10%, 20%, a co się stanie jak zwiększymy na przykład o 10-20%, czyli tutaj będziemy w stanie w czasie rzeczywistym różne kombinacje potencjalnie tych danych o tym kliencie do modelu wysyłać i zobaczyć co się stanie gdy.

    Także tutaj do takich symulacji też to wykorzystamy. I ostatni punkt. To jest tak naprawdę najważniejszy punkt z perspektywy tworzenia takich modeli to podejmowanie różnych akcji, czyli podejmowanie jakichś decyzji na bazie tych prognoz uzyskanych z modelu czyli to jest ten jeden punkt z poprzedniego slajdu, dla mnie najistotniejszy, czyli podejmowanie szybkich i trafnych decyzji.

    Mówiąc szybkich mam na myśli po prostu szybsze od na przykład konkurencji, żeby jednak dzięki takim metodom być ten krok przed. No i spójrzmy się na przypadki wykorzystania. Ja tutaj trochę mówiąc gdzieś, że jakieś przypadki między słowami podawałem. Tutaj to, co widzimy to jest tam raptem 4. Cztery wybrane, czyli tak naprawdę no machine learning wchodzi coraz mocniej pod dachy przeróżnych przedsiębiorstw na całym świecie, tak, kiedyś może to mogło nam się wydawać że to było zarezerwowane dla tych największych przedsiębiorstw, ale teraz tak naprawdę, chociażby korzystając z takich rozwiązań jak AutoML, tak, gdzie nie potrzebujemy tej wiedzy programistycznej jesteśmy w stanie jakby w dużej mierze zautomatyzować i uprościć sobie cały ten proces stworzenia modelu później publikowania tego modelu przesyłania danych dwukierunkowo między jakimś aplikacją a tym modelem, tak, jakby to wszystko może się wydarzyć w sposób automatyczny, tak, także takie rozwiązania pomagają wprowadzać uczenie maszynowe tak naprawdę też do zdecydowanie mniejszych przedsiębiorstw, które nie muszą mieć powiedzmy jakichś dedykowanych działów do takich rozwiązań jak uczenie maszynowe No i przykłady, Możemy prognozować chociażby jakieś odejścia pracowników naszych, czy naszych klientów, możemy prognozować przestoje linii produkcyjnych ze względu na awarię, które potencjalnie moglibyśmy przewidzieć dzięki korzystaniu z takich metod uczenia maszynowego.

    Co możemy prognozować? Możemy prognozować też jakieś konkretne wartości, czyli nie tylko, czy coś się wydarzy czy nie, tylko jaka będzie konkretna wartość w przyszłości, czyli na przykład wolumen sprzedaży, jakieś koszty prognoza jakichś cen produktów na podstawie jakichś różnych cenników jak powinny się kształtować, szanse zamknięcia danej transakcji handlowej czyli jakimś sprzedaż domkniemy, czy nie domkniemy, z jakim prawdopodobieństwem, co na to wpływa, też dzięki takim metodom jesteśmy w stanie takie przypadki rozwiązać albo w takich przypadkach wykorzystać, no i wiele innych, bo moglibyśmy tutaj pewnie wymieniać i wymieniać jakieś potencjalne.

    Zastosowania. Ja tutaj jeszcze też na takim slajdzie posiłkuję się zastosowaniami powiedzmy w różnych obszarach działania przedsiębiorstwa, w różnych działach czyli widzimy że i dział typu sales, marketing, finance, operations, higher IT, supply chain, service and support, jakby wszędzie tak naprawdę jesteśmy w stanie wykorzystać to, co nam daje uczenie maszynowe.

    Oczywiście to trzeba jakby namierzyć konkretną potrzebę u siebie w organizacji, ale korzystając chociażby z tego Qlik auto ML, no jakby mamy dużo prostszą ścieżkę żeby w sposób szybszy bardziej zautomatyzowany, te poszczególne obszary działania przedsiębiorstwa, takie rozwiązania jakim jest uczenie maszynowe Prowadzić, tak, czyli chociażby jak mamy tutaj marketing, prognozowanie, customer lifetime value, tak, LTV możemy chociażby wykorzystać.

    W HR-ze, tak jak było na poprzednim slajdzie, na przykład tę retencję pracowników tak, próbować przewidzieć któryś pracownik potencjalnie w najbliższej przyszłości może opuścić nasze przedsiębiorstwo Zastosowań tak naprawdę mamy szereg. Co jest tutaj jakby najistotniejsze, no że tak naprawdę różne obszary działania naszego przedsiębiorstwa mogą potrzebować wsparcia w postaci prognoz tak, na podstawie jakichś modeli tak także korzystając z takiego rozwiązania, jakim jest AutoML chociażby, my jesteśmy w stanie szybko dostarczyć modele uczenia maszynowego do tych poszczególnych obszarów działania przedsiębiorstwa.

    No i spójrzmy jeszcze na korzyści płynące z wykorzystania AutoML. No my tutaj tak naprawdę Na tym slajdzie, jak byśmy spojrzeli tak od góry to mamy takie podejście bez machine learningu z machine learningem i machine learning z explain ability, czyli jakby, tak jak ja mówiłem też na początku, że jakby mamy dwie perspektywy może, jeżeli chodzi o machine learning.

    Raz to jest ta prognoza którą otrzymujemy. Druga to jest ta prognoza plus wyjaśnienie, dlaczego taką prognozę dostaliśmy. Czyli mamy jakby takie tutaj dwa podejścia czyli mamy prognozę i prognozę plus wyjaśnienie tej prognozy. I to są jakby te dwie ostatnie kolumny. A ta pierwsza kolumna without machine learning, czyli jakby Załóżmy, że nie stosujemy w naszym przedsiębiorstwie jeszcze uczenia maszynowego w żadnym, w jakimś nawet najprostszym ujęciu.

    No i spójrzmy na przykład na takie customer retention, czyli tę retencję tych naszych klientów. Na jakie pytania my możemy odpowiadać nie korzystając z uczenia maszynowego? No, jaki jest procent tego czernu tak? Na przykład w ostatnich 12 miesiącach tak? Czyli patrzymy historycznie ile procent klientów na przykład w ostatnich 12 miesiącach opuściło naszą firmę.

    No spójrzmy na sales opportunity management, czyli ile na przykład zamknęliśmy jakichś detali sprzedaży w ostatnim kwartale, tak? Jakie jest to ratio, tak Jakie jest ten wskaźnik tych zamkniętych sprzedaży? No i na przykład customer lifetime value i możemy odpowiedzieć na pytanie, którzy, Klienci wygenerowali jakby tą największą sprzedaż z perspektywy naszego przedsiębiorstwa.

    Czyli widzimy tutaj, że te pytania są mocno takie w czasie przeszłym, historyczne. Tutaj coś się wydarzyło, jakby cały czas weryfikujemy to, co było. Nie ma tutaj nic jakby o tym, co będzie, czyli nie ma tego aspektu przyszłości. Jak spojrzymy na tę kolumnę środkową with machine learning, no to zobaczmy te pytania, które możemy dzięki wykorzystaniu uczynienia maszynowego stawiać już wyglądają zupełnie inaczej.

    Czyli możemy zapytać jakiego poziomu tego wskaźnika odejść klientów oczekujemy w przyszłości. Czyli już możemy myśleć dzięki temu o tym, co się wydarzy. Czyli możemy robić jakieś prognozy na bazie na przykład naszej aktualnej bazy klientów I zobaczyć co nam model prognozuje, jaki rząd wielkości. Oprócz takiego wskaźnika ogólnego że na przykład model prognozuje, że 20% naszych klientów odejdzie załóżmy w przeciągu roku, to jest dosyć ogólna informacja ale możemy też jakby sprawdzić, który konkretnie z identyfikatora klient ma na przykład największe prawdopodobieństwo odejść.

    Jak spojrzymy na szansę sprzedażową, to możemy odpowiedzieć na pytanie, które z tych szans sprzedażowych mają najwyższe prawdopodobieństwo domknięcia w tym kwartale albo w przyszłym kwartale. Jaki będzie ten wskaźnik domknięcia tych szans sprzedażowych, czyli jakby widzimy tutaj jeszcze pytania są o przyszłość, czyli dzięki temu już jesteśmy w stanie nie tylko myśleć o tym, co było, oczywiście to, co było też jest bardzo istotne z naszej perspektywy, ale warto przeanalizować tę przeszłość, ale też spojrzeć co będzie w przyszłości I tak samo w tym LTV, Customer Lifetime Value, którzy klienci jakby oczekujemy, że ten ich wzrost będzie tego LTV z tych klientów najwyższy, czyli też jakby patrzymy w przyszłość.

    Ale zobaczmy jeszcze tę dodatkową rzecz, czyli raz że patrzymy w przyszłość, bo mamy prognozy, korzystamy z uczenia maszynowego, ale jeszcze mamy ten plusik z tym Explain Ability, czyli jakby jeszcze mamy wyjaśnienie dlaczego model tak, a nie inaczej nam prognozuje. Czyli jeżeli mamy na przykład ci naszych klientów i model prognozuje że powiedzmy,

    Powiedzmy jakiegoś klienta A, że on odejdzie No to od razu pojawi nam się pytanie, dlaczego on odejdzie, tak, no pewnie chcielibyśmy od tego klienta powalczyć, tak, podjąć jakieś akcje, przesunąć go do jakiegoś innego działu odpowiedzialnego za zatrzymanie klientów, no ale najważniejsze pytanie, dlaczego ten klient odejdzie, czyli jeżeli podchodzimy tak do uczenia maszynowego tak zero-jedynkowo na podstawie prognozy odejdzie, nie odejdzie, no to mamy cenną informację, tak, no że ten klient jest prawdopodobieństwem, model wyłapał zależności na danym historycznym, że ten klient odejdzie, no ale pytanie jest, dlaczego?

    No i można skorzystać z metry które chociażby tutaj Klikał to ML też od razu nam automatycznie liczy, pokazujące nam na podstawie tych cech zmiennych, tych danych których historycznie wrzuciliśmy do modelu, która ta zmienna w jakiś sposób wpływa na prognozę, czy na przykład zwiększa prawdopodobieństwo, czy zmniejsza, w jakim stopniu w ogóle wpływa, czy jest istotna z perspektywy odejścia klienta czy nie Nie Czyli mamy ten dodatkowy element mówiący nam, dlaczego mamy taką prognozę i to też jest bardzo istotne Ja uważam, że to jest tak naprawdę według mnie nawet istotniejsza rzecz, żeby wiedzieć dlaczego, bo wiedzieć jaka jest prognoza jest jak najbardziej cenna rzecz, ale jakby wiedzieć dlaczego, to jesteśmy w stanie też odpowiednio zareagować, jesteśmy w stanie skupić się bardziej na konkretnych rzeczach konkretnych aspektach, bo widzimy że one mają większe znaczenie niż inne aspekty, czyli można jakby odpowiednio tutaj to zaangażowanie przerzucić w odpowiednie obszary i skupić się na tych, które jakby z perspektywy naszej działalności są istotniejsze.

    Także tutaj możemy też w taki sposób wykorzystać. Spójrzmy jeszcze na te dwie komórki w zielonej kolumnie, czyli jeżeli mamy Sales Opportunity Management, no to możemy chociażby sprawdzić które akcje wpływają na zwiększenie. Współczynnika domykania tych naszych powiedzmy szans sprzedażowych. A w przypadku LTV, no jakie mamy główne zmienne, które powodują nam wzrost tego LTV i jak możemy na przykład zwiększyć ten przychód z tych naszych klientów.

    Czyli widzimy co ma największy wpływ na ten przychód to możemy dzięki temu też spróbować to wykorzystać tę informację żeby maksymalizować zysk z naszych klientów. No i krótkie live demo, może nie aż tyle krótkie, bardziej bym powiedział, że proste pod kątem zbudowania modelu uczenia maszynowego. Mówiąc proste no tak jak przytaczam definicję AutoML, Dokładnie mam tam duży nacisk na zautomatyzowanie tych wszelkich procesów, które są potrzebne żeby taki model zbudować.

    To, co teraz tutaj widzimy, to jesteśmy w Qliku, jesteśmy w Qlik Sense w przestrzeni, którą mam nazwaną AutoML i będę chciał w tym miejscu zbudować model uczenia maszynowego. jakby tutaj bez wchodzenia mocno w szczegóły na temat kierników, które będą mi się pojawiały na ekranie będę chciał jakby pokazać że Qlik prowadzi nas bardzo mocno za rękę i tak naprawdę nawet bez żadnej wiedzy w dziedzinie uczenia maszynowego jesteśmy w stanie przygotować w kilku prostych krokach model uczenia maszynowego, który jesteśmy w stanie opublikować i jesteśmy w stanie zrobić tak, żeby użytkownicy na przykład aplikacji, którą w Qliku przygotujemy, mogli dokonywać prognoz na bazie tego modelu.

    No i jak to zrobimy? Żeby przygotować jakikolwiek model uczenia maszynowego to musimy mieć dane. Ja dane tutaj już wcześniej załadowałem. Potrzebujemy wykonać te wszystkie kroki, które pokazywałem na slajdach czyli odpowiednie przekształcenie danych wybranie tych algorytmów uczenie tego modelu testowanie tego modelu To będziemy teraz robić.

    Później musimy ten model opublikować i w jakiś sposób przesyłać do tego modelu nowe dane. W pierwszej kolejności chcemy przygotować taki eksperyment uczenia maszynowego. Dlaczego eksperyment? No bo tak naprawdę uczenie maszynowe to nie jest taki proces zero-jedynkowy, że musimy to zrobić tak, tak i tak i to nam będzie dobrze działać.

    Musimy eksperymentować, wrzucać różne dane do naszego modelu może z różnych okresów czasu, może różne modele wykorzystywać, ale tutaj korzystając z Qlik Auto ML ten cały proces jest tutaj wstępny Sposób automatyczny wykonywany. W prawym górnym rogu Klikamy dodaj nową i wybieramy nowy eksperyment uczenia maszynowego.

    Tworzy mi się eksperyment uczenia maszynowego Muszę go jakoś nazwać. No powiedzmy nazwę CERN, bo my będziemy mieli tutaj CERN klientów czyli przewidywanie czy klient sieci telekomunikacyjnej odejdzie czy nie. To oczywiście mógłbym dodać jakiś opis, tagi żeby to łatwiej później wyszukiwać, jeżeli dużo mam takich eksperymentów ale nam wystarczy tylko nazwa tego eksperymentu.

    Klikamy create. Ten eksperyment mi się tutaj utworzył. Widzimy, że pojawił się eksperyment uczenia maszynowego. Ja na sekundę tylko zabiorę tutaj ekran, ja w niego Kliknę, ale tutaj pojawią się dane, które mogę wykorzystać i zaznaczam tylko przełącznik żeby pokazywać dane, tylko i wyłącznie moje dane, żeby nie pokazać tutaj też jakichś danych więcej.

    No i jak Kliknąłem w ten eksperyment, to jedyna rzecz, którą Państwo nie widzieliście, to było Kliknięcie w ten eksperyment i on się od razu nam włączył. Wyfiltrować, żebym widział tylko dane, których jestem właścicielem. No i widzimy tutaj mam dwa pliki. My będziemy jakby ten model budować na bazie dosyć małego zbioru danych z takiego powodu żebyśmy nie patrzyli tutaj w ekran zbyt długo no bo czasami na bardzo dużych zbiorach danych te modele mogą się godzinami nawet dłużej uczyć, trenować, tak że my tutaj robimy małą próbkę danych w ramach takiego dema żeby pokazać jak prosto jesteśmy w stanie to zrobić.

    Czyli do tej pory wybrałem tylko funkcjonalność że chcę stworzyć taki eksperyment. Następnie potrzebuję danych historycznych i tu mam te dane historyczne. W tym pliku CSV wybieram dane, na podstawie których chcę przygotować model uczenia maszynowego Tutaj w lewym górnym rogu na zielono mam podpowiedź albo może bardziej informację, co powinienem wykonać żeby taki model przygotować.

    No i mam informację że muszę wybrać tę target, tę zmienną, którą chcę tak naprawdę prognozować. Czyli mam tutaj wszystkie zmienne, powiedzmy kolumny pola które w tej tabeli z pliku CSV, którą czytaliśmy się tutaj znajdują i to, co ja muszę tutaj zrobić, to wybrać to, co ja chcę prognozować. No ja chce prognozować kolumnę cancelled, bo w niej mam informacje na bazie danych historycznych czy dany klient odszedł czy nie odszedł.

    No i wybieram ten target, to jest jakby najistotniejsza rzecz, no bo musimy wskazać co my tak naprawdę chcemy prognozować. Jeżeli na przykład prognozować chciałbym sprzedaż, no to tę historyczną sprzedaż tę kolumnę z historyczną sprzedażą bym tutaj jako ten target Tak. Wybrał. To też ma wpływ na to, jakie modele nam się pojawią dostępne, albo jakie algorytmy, bo jeżeli chcemy na przykład prognozować sprzedaż no to mamy do czynienia z algorytmami regresyjnymi i będziemy chcieli prognozować jakąś konkretną numeryczną wartość w przyszłości, albo jeżeli wybieramy zmienną, taką powiedzmy kategoryczną, jak tutaj mam w tym CanCel, mam wartości typu no, yes, czyli czy odszedł czy nie odszedł i tutaj to już nie jest algorytm regresyjny, tylko klasyfikacyjny, bo ja chcę tak naprawdę w najprostszych słowach mówiąc zaklasyfikować danego klienta do odpowiedniej w tym przypadku dwóch klas, czyli do którejś z tych dwóch klas czyli albo do klasy że odejdzie, albo do klasy że nie odejdzie.

    No i tutaj wybieram Wybieram ten target, go tutaj zaznaczyłem. Tu mamy też informacje o tych naszych danych, mamy też wskazówki od Qlika co zostanie wykonane z tymi kolumnami, czyli kolumny, które są na przykład tekstowe, one tutaj korzystając z odpowiedniej metody zostaną zamienione na wartości numeryczne, bo tego wymagają po prostu niektóre algorytmy uczenia maszynowego.

    Mamy też podpowiedzi których kolumn na przykład nie powinniśmy wykorzystywać, czyli na przykład kolumna account ID, która jest po prostu unikatowa dla każdego rekordu, no bo to jest identyfikator klienta ono tak naprawdę nic nam tutaj nie wniesie i country, które jest takie samo dla wszystkich tych użytkowników czyli też żadnej dodatkowej informacji nam nie wnosi.

    Oczywiście my tutaj nie musimy wiedzieć, które zmienne warto wykorzystać które nie. No bo tutaj jakby też ten AutoML ma nam w tym pomóc. Czyli ja oprócz tych, których Qlik jakby logicznie tłumacząc nie poleca tutaj wybierać, to ich nie wybieram i zostawiam wszystkie zmienne jako te zmienne, na podstawie których ja będę chciał te zależności znaleźć.

    Czyli tutaj mam wybrany ten target, kolumnę Canceled Następnie musimy podać zmienne, które chcemy w modelu wykorzystać Ja wybieram wszystkie oprócz tych dwóch których Qlik po prostu tutaj nam nie zaleca, z jak najbardziej sensownych powodów. Następnie mamy zakładkę z algorytmami. Tutaj też mamy napisane jaki to będzie model, że to będzie tak naprawdę klasyfikacja binarna, no bo mamy taką klasyfikację zero-jedynkową.

    Albo odejdzie, albo nie odejdzie. No i mamy tutaj sześć algorytmów dostępnych i wszystkie te algorytmy będą wykorzystane w procesie uczenia tego. W modelu Ja tutaj nic nie odznaczam danych nie mamy jakoś bardzo dużo, żebyśmy tutaj też jakby przez ten proces aż sześciu algorytmów musieli jakoś długo czekać na wynik także zostawię wszystkie.

    Następnie mamy coś, co się nazywa model optimization. Do tego jeszcze za chwilkę wrócę. I mamy coś takiego jak auto ML reprocessing. Tutaj tak naprawdę mamy wskazane krok po kroku co się dzieje z naszymi danymi. Czyli to jest tak naprawdę etap przekształcenia tych danych do takiej postaci, która jest potrzebna do tych odpowiednich modeli algorytmów uczenia maszynowego.

    I wszystkie najważniejsze rzeczy, które normalnie tworząc taki model na przykład w jakimś środowisku Pythonowym musielibyśmy na tych danych wykonać to to jest po prostu robione w sposób automatyczny. No i tak naprawdę tutaj sprowadza się to do tego że ja wybrałem, co chce prognozować i na podstawie jakich danych tak naprawdę.

    Bo wybrałem ten target i jakie kolumny. Wykorzystuję jako zmienne I Klikamy run experiment. Jak Kliknę run experiment, to widzimy tutaj sześć wierszy w tej tabeli To są te wszystkie nasze algorytmy. Mamy informacje co się aktualnie dzieje. Mieliśmy pre-processing czyli jakby te wszystkie kroki, te przekształcenia na danych się wykonywały.

    Następnie mamy training. Oczywiście są algorytmy jakby z sytuacji swojej budowy, które trenują się szybciej które trenują się wolniej. A to, co już tutaj mamy, to już tak naprawdę na tej naszej stosunkowo małej próbce danych mamy już pierwsze rezultaty. My też tak naprawdę nie musimy znać się na tych wszystkich metrykach, które tutaj zostały wyświetlone, bo zobaczmy że w lewym górnym rogu tej tabeli mamy ikonę takiego pucharka który wskazuje nam, który model jest najlepszy.

    Tutaj dla osób bardziej zaznajomionych z tematem Qlik to wybiera na podstawie miary F1. F1 score, które przyjmuje wartości z przedziału 0,1, im bliżej jedynki tak naprawdę tym lepiej jak już można w takim dużym uproszczeniu przyjąć, że powyżej 0,5, no to już jest powiedzmy dobrze, ale no wiadomo chcemy mieć tak naprawdę im bliżej jedynki.

    Powiedzmy wartość 0,82 wygląda całkiem obiecująco ale to nie jest jeszcze ostatnie słowo, które możemy tutaj zrobić, czyli bez jakiegoś większego zagłębiania się też w tę miarę, my już mamy jakąś informację, wrzuciliśmy wszystkie dane, czyli tylko wybraliśmy, zaznaczyliśmy kolumnę którą chcemy prognozować i kolumny na podstawie której chcemy prognozować.

    I modele 6 modeli zostało tutaj, 6 algorytmów zostało wykorzystanych mamy tak naprawdę 6 modeli uczenia maszynowego i wskazuje nam Qlik który jest najlepszy. Z naszej takiej perspektywy jeszcze Podjęcia decyzji albo robienia jakoś kolejnego eksperymentu przydatna może być chociażby ten wykres tutaj w lewym dolnym rogu, ten permutation importance.

    On nam mówi o tym w takim bardzo mocnym uproszczeniu, która z tych zmiennych cech, które wykorzystaliśmy w naszym modelu są z perspektywy tego modelu najistotniejsze. U nas widzimy number of penalties, base fee, plan type i tak dalej, ale widzimy że są takie zmienne, które możemy śmiało powiedzieć, że one w ogóle nie mają wpływu na ten nasz model, czyli możemy zastanowić się nad tym, czy tych zmiennych w kolejnym kroku nie wyrzucić i nie wykonać kolejnego eksperymentu.

    Jak taki kolejny eksperyment by wyglądał Czyli chcemy coś pozmieniać w naszym modelu, czyli jak sama nazwa wskazuje tej funkcjonalności eksperyment, chcemy poeksperymentować, może wziąć inne zmienne, może inny model. Qlikam configure V2 i konfiguruję jakby drugi eksperyment eksperyment Zrobię tutaj jakąś drobną zmianę, czyli na przykład zapamiętajmy też może ten wynik 0,827.

    Czy uda nam się go poprawić? Wezmę tutaj, Qliknę Features i załóżmy, mamy tutaj sporo zmiennych, które nie wyglądają na istotne. No to ja zaznaczam kilka tych zmiennych Powiedzmy pozbyłem się czterech zmiennych w modelu. Model teoretycznie też powinien szybciej się liczyć dzięki temu, że mamy tak naprawdę mniej danych.

    I skorzystam jeszcze z czegoś co się nazywa Hyper Parameter Optimization, czyli jakby dobór hiperparametrów w modelu To tak w takim dużym uproszczeniu. Każdy model przyjmuje jakiś zestaw hiperparametrów w takim największym możliwym uproszczeniu. Steruje nam to dopasowaniem modelu do danych. I my będziemy chcieli wykorzystać tę optymalizację tych hiperparametrów po to, żeby poprawić wynik tego F1 score.

    Tu możemy ustawić jak długo taka optymalizacja tych hiperparametrów ma trwać. Maksymalnie możemy 6 godzin czekać. Ja tutaj od razu uspokoję, że nawet jak wybiorę godzinę to to i tak nie potrwa więcej niż pewnie jakieś kilkanaście sekund na tym naszym zbiorze danych. Czyli włączyłem tę optymalizację hiperparametrów, Klikamy run i wykonuje się drugi eksperyment.

    Znów dane są procesowane, następnie trenowane są znów wszystkie też z tych sześciu algorytmów i dla najlepszego z tych sześciu algorytmów będzie optymalizacja hiperparametrów Czyli mamy ten algorytm XGBoost Classification, który według AutoML okazał się najlepszy i mamy tutaj dobór tych hiperparametrów.

    Oczywiście chwilę będzie trwał, my tutaj jakby nic nie musimy robić, Qlik różne hiperparametry nam tutaj podstawia liczy ten model No ileś tam razy tak, on oczywiście tutaj samemu dostosowuje i razy ma go policzyć. My widzimy że już jakby szesnasty raz liczy ten model, tak, chwilkę tutaj poczekamy.

    Jak dobrze pamiętam w tym zestawie danych to chyba dwadzieścia parę razy nam tutaj będzie to próbował liczyć, także już jesteśmy ku końcowi.

    No i jeżeli dostaniemy tutaj zaraz wynik, to dostaniemy też informację i od razu zobaczymy, czy te modele uzyskane za pomocą doboru odpowiedniego tych hiperparametrów czyli dodaliśmy tę dodatkową funkcjonalność, czy dostaniemy lepszy model. No i sprawdźmy. Teraz ten puchar mamy przy modelu w wersji drugiej.

    Tak I mamy tutaj informację, że mamy model, który ma 0.8.6.2, a mieliśmy 0.8.2.7, czyli udało nam się poprawić ten nasz model, czyli mogę tutaj wybrać ten wiersz i zaznaczyć ten model, który jest tutaj najlepszy Oczywiście tutaj mamy jakby taką wersjonowanie tych eksperymentów czyli jak zjadę na dół, to mogę zobaczyć jak wyglądały modele przy pierwszej wersji tego eksperymentu czyli przy jakichś tam innych zmiennych itd.

    Czyli możemy sobie tutaj eksperymentować, na przykład zrobię 10 eksperymentów i nagle mogę się od tych 10 eksperymentów cofnąć, zobaczyć co zrobiłem wcześniej. Tak, także mamy całą historię tych naszych eksperymentów. Tutaj mamy jeszcze takie coś jak shape importance, to są tak zwane shapely values. To nam pozwala ocenić wpływ danej cechy zmiennej na prognozę.

    I to za chwilkę jeszcze Państwu, Omówię już w takiej gotowej aplikacji, gdzie wykorzystamy ten model, powiedzmy tak live, czyli będziemy dane przesyłać do modelu i model będzie nam zwracał prognozy. To jeszcze sobie tutaj tę metrykę omówimy, bo ona jest jakby tą częścią explain ability, czyli nam wyjaśnia, dlaczego model prognozuje tak, a nie inaczej.

    Czyli mamy już ten nasz model, Qlik nam wskazuje który jest najlepszy Czyli co zrobiliśmy? Wybraliśmy co chcemy prognozować na podstawie jakich danych, puściliśmy ten pierwszy eksperyment, zrobiliśmy jakieś zmiany czyli na przykład jakieś tam zmienne odznaczyłem nieistotne, dodałem na przykład optymalizację hiperparametrów, Kliknąłem run i zrobił się drugi eksperyment.

    I tak możemy sobie tutaj eksperymentować, ta cała historia jest zapisywana, mógłbym tutaj wersję trzecią, czwartą piątą szóstą eksperymentu tworzyć. Jeżeli uznam że ten model już jest gotowy żeby z niego korzystać, Klikam przycisk deploy, czyli wdrażam go na produkcję Mogę oczywiście podać jakąś nazwę tego modelu tutaj automatycznie wskakuje nam opis.

    Mamy też jeszcze coś takiego jak Enable Real-Time API Access, czyli że będę mógł w czasie rzeczywistym korzystać z tego modelu. Ja oczywiście będę chciał, będę to też za chwilę pokazywał. Qlikam Deploy, czyli model się publikuje. Klikamy Open i  jestem w opublikowanym modelu Ten model już został opublikowany, teraz to, co możemy robić, czyli cały proces obróbki danych przygotowania danych wrzucenia do jakichś algorytmów wyćwiczenia tych algorytmów został już jakby zrobiony. Mamy model już opublikowany, mamy wdrożony, mamy możliwość łączenia się z tym modelem, przesyłania do niego danych i dokonywania prognoz.

    Zobaczmy jak możemy te prognozy robić. Możemy je robić na dwa sposoby Albo wywoływać bezpośrednio z poziomu aplikacji, albo tutaj na przykład dokonać prognoz. Czyli jak Kliknę w prawym dolnym rogu create prediction, to jestem w stanie wskazać zbiór danych na podstawie z którego chce dokonać prognoz. Ja tutaj ponownie na chwilę zabiorę przeglądarkę żeby zaznaczyć tylko dane moje, żeby tutaj też zbyt dużo tych danych się nam nie wyświetliło, czyli tylko zaznaczyłem swoje dane, już wracam z powrotem.

    No teraz mam tutaj nowe dane, mam tylko cancellations predictions i tutaj nie mam tak naprawdę uzupełnionej kolumny z informacją czy ktoś odszedł czy nie. Bo tu jest założenie mam tylko wiem, mam te wszystkie cechy, ale nie mam jakby tego efektu końcowego, czyli to dopiero chce prognozować. No i mogę wybrać ten zbiór na którym chcę prognozy dokonać Widzimy że tutaj mamy kolumny, które znajdują się w tej tabeli na podstawie której chcemy dokonać prognozy.

    My widzimy że w modelu mamy mniej kolumn niż w tej naszej źródłowych danych. Model sam wybierze te kolumny, które potrzebuje. Możemy mieć więcej, nie musimy jakby się też tym martwić. Możemy nazwać ten prediction dataset, czyli mogę podać jak ma się nazywać ten plik który się tutaj zapisze z tymi prognozami.

    Może być mieć rozszerzenie CSV, może mieć rozszerzenie QVD. klikam confirm. Mogę jeszcze wybrać jakie pliki mają się utworzyć czyli czy na przykład te dane, które w tym momencie przesyłam do prognoz też mają się nam osobno zapisać czy te shapely values, które jakby wytłumaczą nam, dlaczego model prognozował tak, nie inaczej czy też chcemy.

    Czyli możemy tutaj jakby stwierdzić jeszcze, co oprócz prognoz ma się nam dodatkowo zapisać Możemy też oczywiście ustawić schedule, możemy stworzyć harmonogram dokonywania prognoz Czyli mogę ustawić że prognozy mają się dokonywać codziennie na przykład o jakiejś określonej godzinie będzie jakaś aplikacja która nam odświeży te dane w tym pliku na podstawie którego dokonujemy prognozy, codziennie o 7 rano dokonają się prognozy, a kolejna aplikacja czyta te prognozy już i wizualizuje dla użytkowników Czyli tutaj możemy coś takiego dokonać.

    Ustawiamy ten harmonogram, Klikam save and predict now, żeby też teraz zobaczyć te prognozy. Mam status running, czyli prognozy zaraz będą się tutaj nam dokonywać i dane się wczytują zostaną przesłane do modelu model zwróci nam prognozy i zapisze do plików. klikam open i w przestrzeni do której wskazałem żeby te dane się zapisywały, widzimy kilka sekund temu pojawiły się trzy zapisywały sekund pliki.

    Z prognozami tymi właściwymi i z tymi miernikami, które wyjaśniają nam, dlaczego ta prognoza wygląda tak, a nie inaczej. No i na podstawie tego jesteśmy w stanie przygotować na przykład jakąś aplikację. Ale to jest jedna możliwość. Spójrzmy na drugą możliwość, taką bardziej dynamiczną. Czyli wchodzę już w przygotowaną wcześniej aplikację Ja mam już tu otworzoną w drugim oknie szybko tylko odświeżę, bo już sesja mi się skończyła użytkownika przez nieaktywność.

    I mamy dwie możliwości wykorzystania takiego modelu. Jeżeli ktoś dobrze zna Qlik Sense, to będzie wiedział, że możemy skorzystać z tej warstwy ładowania przekształcenia danych, czyli tutaj możemy wywołać ten model z poziomu edytora ładowania danych, czyli w momencie ładowania danych możemy przesłać jakieś nowe dane z bazy pobrane do modelu i model nam zwróci prognozy i mamy je w aplikacji możemy wizualizować Albo drugi sposób, że możemy z poziomu wizualizacji przesyłać dane z naszymi selekcjami od razu do modelu w czasie rzeczywistym.

    Żeby to zrobić, trzeba tylko odpowiednio skonfigurować połączenie. Mamy tutaj, to jest bardzo proste, wybieramy tylko jakie połączenie i z rozwijanej listy wybieramy model, który opublikowaliśmy. I ewentualnie tak jak w tym poprzednim oknie, co chcemy żeby model nam zwrócił. Czy też te mierniki. I tak naprawdę musimy wybrać tylko model z rozwijanej listy.

    Czyli to jest jakby cały proces połączenia się aplikacji z naszym modelem. Wybranie jego nazwy. Nic nie trzeba tu uzupełniać jakichś linków, jakichś hostów portów, jakieś pełno okien, które musimy uzupełniać. To jest uproszczone do minimum. Qlik wie, jakie mamy modele opublikowane i po prostu z rozwijanej listy je wybieramy.

    To jest tak naprawdę tyle. Później Klikamy żeby wstawić dane, podajemy nazwę tabeli w której wcześniej załadujemy dane, Klikamy wstaw skrypt i wstawia nam się taki skrypt. Tak naprawdę ten wiersz nam się tutaj wstawi. Jeżeli ja teraz Kliknę ładuj dane, to co się wydarzy? Zostają pobrane dane u źródła czyli załóżmy z jakiejś bazy danych w moim przypadku z pliku CSV, te dane są wysyłane do modelu a model nam zwraca prognozy, czyli dzieje to się w taki sposób.

    Tutaj wczytuję dane, no ja akurat z pliku CSV, ale w takim powiedzmy biznesowym pewnie przypadku odczytywali byśmy je bezpośrednio z jakiejś bazy danych naszych aktualnych pracowników. W tym miejscu wysyłamy ich, jakby ten wiersz odpowiedzialny jest za wysłanie danych tych naszych pracowników do naszego opublikowanego modelu uczenia maszynowego i w tym miejscu też po wysłaniu model zwraca nam prognozy.

    I te prognozy one są już w naszej aplikacji załadowane plus wszystkie pola które zawierają wyliczone różne mierniki. Czyli jakby z poziomu skryptu wywołaliśmy prognozę, tak? Przesłaliśmy dane do modelu dane wróciły z powrotem. No i ja mam tu też taką prostą aplikację, która wizualizuje już nam te dane.

    Ja tutaj pokażę tak szybko tylko na przykładzie powiedzmy jednego wykresu Mam base fee. Co tutaj tak naprawdę na tym wykresie widzimy? Spójrzmy na pewno na tę oś linię poziomą oznaczającą zero i mamy wartości dodatnie i pod nią wartości ujemne na osi czyli to jest oś Y, to jest jakby wartość tego Shetley value, tego wskaźnika, a oś X to jest jakby to base fee w dolarach czyli jakby ta podstawowa ta wartość abonamentu którą płaci Nasz klient.

    I co tutaj możemy z tego wykresu wyczytać? To ja od razu powiem że jeżeli te wartości na osiach Y są dodatnie to oznacza nam, że wpływa nam to na zwiększenie prawdopodobieństwa odejścia klienta. Im wyższa ta wartość dodatnia, tym bardziej wpływa na zwiększenie tego prawdopodobieństwa Jak spojrzymy na ten wykres, to co my jesteśmy w stanie z niego wyczytać?

    No, że tutaj na tych niskich abonamentach no tak w koło zera się tutaj poruszamy. Te gęstości to są jakby nasi klienci, oni tutaj się znajdują. Im mamy tutaj wyższą tę gęstość, to tym więcej klientów mamy powiedzmy z takim abonamentem i z taką wielkością tej Shapley Value, tego miernika który tłumaczy nam, dlaczego model prognozował tak, nie inaczej.

    No i co tutaj jesteśmy w stanie odczytać Że w takim przedziale powiedzmy 20, 35 dolarów 40 dolarów no to ten wskaźnik jest nawet ujemny tak, i dosyć mocno nawet w porównaniu do jakichś innych tutaj wartości tego abonamentu co nam to mówi, że obniża nam to prawdopodobieństwo odejścia klienta Ale jak spojrzymy już na przedział 40, przedział 40, 45, to widzimy że zaczynają nam te wartości mocno rosnąć I są na pewno dodatnie.

    Co nam to mówi? Że od tego miejsca czyli od takich wartości abonamentu to prawdopodobieństwo odejścia klienta rośnie. Czyli model znalazł taką zależność, że do pewnego momentu jakby ten abonament nawet jak on rośnie, to jeszcze ci klienci jakby zmniejsza się prawdopodobieństwo odejścia, ale od pewnego momentu już przekraczamy jakiś próg, gdzie już to prawdopodobieństwo zaczyna nam rosnąć.

    I widzimy że powyżej możemy przyjąć tych 45 dolarów no to raczej to już wychodzi, że dla naszej bazy klientów albo tej grupy klientów którą analizujemy, no to to już jest zbyt wysoki abonament. Czyli tutaj jest ta rzecz, o której mówiłem, że jeszcze jesteśmy w stanie przeanalizować te dane, dlaczego model tak prognozuje nie inaczej.

    Tutaj mamy dla różnych zmiennych policzone te wskaźniki. Co jeszcze tutaj możemy zobaczyć Mamy na przykład plan type, czyli ten plan abonamentowy i zobaczmy że Mamy cztery plany i te trzy plany tutaj na lewo one mają wartości ujemne, czyli nie powodują wzrostu prawdopodobieństwa odejścia ale plan czerwony ma wartość cztery i to dosyć mocno dodatnią.

    Co możemy z tego wywnioskować? Że ten plan czerwony on nam mocno zwiększa prawdopodobieństwo, że ten klient odejdzie. I w taki sam sposób możemy przeanalizować czy to, że klient jest tym klientem powracającym jeżeli już na przykład któryś las jest u nas w naszej sieci to czy to zmniejsza czy zwiększa prawdopodobieństwo odejścia.

    W naszym przypadku według modelu zwiększa, co jest też dosyć logiczne bo jeżeli ten klient u nas był już trzy razy to może tylko jest u nas bo mamy jakąś fajną ofertę jakąś limitowaną czasowo i później przejdzie do konkurencji i jak będziemy mieli fajną ofertę, to wróci. Te klienci nielojalni powiedzmy i tutaj też tak wychodzi.

    I moglibyśmy w ten sposób przeanalizować różne zmiany. Na kolejnym arkuszu chciałbym pokazać taką funkcjonalność że my możemy sobie, . Przeanalizować tych naszych klientów w pojedynkę, czyli jakby spojrzeć na każdego z klientów osobno. No i co możemy zrobić? Ja mam tutaj tak naprawdę sporo różnych wizualizacji ale jakbyśmy chcieli spojrzeć na tę najistotniejszą, to może to być ta tabela tutaj na dole, w której mamy każdy wiersz to jest unikatowy klient.

    Mamy tutaj trochę informacji takich o tym naszym kliencie. No i ta kolumna całkiem po prawo to jest czerń, czyli prawdopodobieństwo odejścia, czyli prawdopodobieństwo że ten klient odejdzie. No i mamy klientów z różnym prawdopodobieństwem. Mamy tu 79%, tu mamy 0,08%, widzimy że możemy zobaczyć różnych tutaj klientów Co nam to daje?

    My możemy szybko na przykład posortować tych klientów po tym prawdopodobieństwie i na przykład przeanalizować skupić się na klientach którzy to prawdopodobieństwo mają na przykład Największe. No i ja powiedzmy wybiorę tu klienta który ma 79% prawdopodobieństwa na to, że on odejdzie. No zobaczymy, co teraz się wydarzyło.

    Ja wybrałem tylko tego klienta te wszystkie mierniki pokazują mi, co wpływa na to prawdopodobieństwo, ale już nie tak ogólnie tylko dla konkretnej osoby, tego jednego klienta. No i mam tutaj te wskaźniki, te Shapley Values i zobaczmy, że one też mają wartości ujemne i dodatnie. I tak jak powiedziałem wartość dodatnia, im wyższa tym bardziej wpływa nam na zwiększenie prawdopodobieństwa że ten klient odejdzie.

    I tutaj jak spojrzymy to mamy plan type i on wpływa najbardziej. Czyli możemy tutaj przyjąć takie założenie że ten typ abonamentu Jest tutaj tym czynnikiem który powoduje jak najbardziej zwiększenie tego prawdopodobieństwa. Prior usage to jest jakby to zużycie czy to internetu czy minut w poprzednim miesiącu.

    Current usage to jest jakby aktualny miesiąc. Ale tutaj widzimy że ten plan type nam się mocno wyróżnia. Co możemy dzięki temu tutaj zrobić? Ja Kliknę przycisk reset inputs, żeby mieć tutaj wartości zmiennych dla tego konkretnego klienta I to, co ja tutaj teraz mam pod tym wskaźnikiem KPI, to jest funkcja jest tam pod spodem która przesyła dane, które ja tutaj poustawiam do modelu uczenia maszynowego.

    I ten model mi zwraca prawdopodobieństwo ale po mojej symulacji. No i ja mogę zasymulować co się stanie, jeżeli ja mu zmniejszy na przykład abonament tam z 35 do 31 dolarów Dane lecą do modelu prawdopodobieństwo spadło do 62%. No i mogę sobie tymi suwakami sterować, co się stanie gdy, różne tutaj symulacje przyjmuję.

    No widzimy że przy jakiejś tutaj symulowaniu zużycia oceny na przykład customer serwisu, liczby jakichś kar, które gdzieś tam po drodze dostał ja jestem w stanie zasymulować to prawdopodobieństwo. I robiąc taką symulację, ja bym w stanie na przykład z 79% doprowadzić że model dla tej osoby prognozuje 13% już, tylko zdecydowanie mniejsze prawdopodobieństwo odejścia.

    Czyli jakby jesteśmy w stanie taką też symulację na żywo przeprowadzić, a co by było, gdyby jakbyśmy coś temu użytkownikowi pozmieniali. I żeby taką symulację przygotować to jeszcze przygotowałem taki dodatkowy arkusz, w którym jakby mamy już tak naprawdę symulację. Ja Kliknę przycisk reset inputs, żeby,

    Żeby wyświetlić te wartości, które tutaj były, które rzeczywiście ma ten użytkownik, żebyśmy mogli zobaczyć tę symulację. Jak zobaczymy tutaj teraz, co tutaj jest na przykład na tym pierwszym wykresie? Prawdopodobieństwo odejścia ze względu na różne plany. Czyli do modelu zostały wysłane jakby te dane typu wielkość abonamentu jakaś liczba kar i tak dalej, taka sama, ale różne plany.

    I widzimy ewidentnie że ten plan czerwony jest problemem. Przy każdym innym z planie to prawdopodobieństwo jest tam w okolicach jednego procenta albo poniżej. Czyli ten plan jest problemem. Tu mamy też taką symulację co się stanie jeżeli zmienimy mu to base fee z przedziału minus 90% względem tego, co ma.

    Do plus 100% względem tego, co ma. Widzimy, że jeżeli na przykład byśmy obniżyli o 90%, no to już bardzo nieopłacalne pewnie dla nas, no to to prawdopodobieństwo z 79 do 30,7 spada, ale tutaj mamy jeszcze coś innego. Mamy taką jakby symulację, co się stanie, gdy zmienimy plan i jeszcze będziemy dostosowywać wielkość abonamentu.

    No zobaczmy że będąc w czerwonym planie, to my nie mamy tutaj dużego pola do manewru, ale na przykład jak wrzucimy ten plan purple, no to jesteśmy w stanie na przykład podnieść 10% abonament i prawdopodobieństwo wynosi odejścia 24% względem 79 teraz. Czyli jakby mamy możliwość takiego symulowania, co się stanie na przykład gdy jakiś tam plan zmienimy.

    Jest to dla nas na pewno cenna informacja że my widzimy jakby, Jakie jest prawdopodobieństwo odejścia, a też widzimy co na to prawdopodobieństwo wpływa. Wiedząc co na to wpływa, to raz, że możemy zasymulować, dwa, że możemy wysłać jakąś komunikację do tego klienta spersonalizowaną już pod niego, bo my wiemy model nam tutaj jakby sugeruje co w dużej mierze wpływa.

    Mamy jakby taką celną informację przy kontakcie z klientem, może to być dla nas bardzo przydatne i istotne co moglibyśmy jeszcze dalej tutaj wykorzystać ja uważam że jakby to uczenie maszynowe ten etap, który pokazałem no daje nam dużo, mamy prognozę, mamy możliwość symulacji, ale jeszcze kolejny etap, to można by było tutaj na przykład w Qliku podpiąć do tego alerty, czyli żeby przyszło powiadomienie, że mamy na przykład 100 klientów się pojawiło od względu na wczorajszego dnia z prawdopodobieństwem na przykład powyżej 50%, że odejdą.

    W Qliku mamy też możliwość automatyzacji różnych, Procesów, moglibyśmy wysłać te dane do jakiegoś zewnętrznego systemu, żeby do jakiegoś odpowiedniego działu przesłać wysłać jakiś e-mail, jakąś informację na komunikatorze, że trzeba spojrzeć na jakąś grupę klientów. Także to jeszcze mógłby się wykonać.

    Szereg dodatkowych zdarzeń. Prognoza jedno a później jeszcze wyniki tej prognozy mogą być wykorzystane w różnych procesach takich automatycznych, wysłania informacji do odpowiedzialnych osób, wysłania tej bazy klientów z dużym prawdopodobieństwem odejścia od jakiegoś innego zewnętrznego systemu I jeżeli chodzi o to live demo, mam nadzieję, że w tak krótkim czasie udało mi się pokazać że jesteśmy w stanie szybko zbudować model, wytrenować ten model, opublikować ten model i korzystać z tego modelu.

    Oczywiście tutaj najwięcej czasu szczerze mówiąc zajęło przygotowanie aplikacji, czyli jakby przygotowanie wizualizacji ale jakby sam proces tworzenia modelu to może nam zajął 10 minut. Dziękuję I to jeszcze z takim moim omówieniem co robię krok po kroku także widzieliśmy że jakby proces przygotowania modelu był tutaj bardzo mocno zautomatyzowany, no i tak naprawdę bardzo prosty bo Qlik prowadził nas w dużej mierze za rękę, co jest jakby dużą zaletą, że możemy w prosty sposób w różnych obszarach przedsiębiorstwa wykorzystać uczelnie maszynowe za pomocą Qlik AutoML, no bo proces budowy modelu jest intuicyjny i stosunkowo prosty szybki.

    I to jeżeli chodzi o live demo, to jest wszystko, teraz przekażę ponownie głos do Przemka

    [Przemysław Żukowski]: Powiem Marcin tak, ilekroć widzę tą prezentację w swoim wykonaniu, tak zawsze jestem pod wielkim wrażeniem i mam nadzieję, że nasi goście również, bo naprawdę fajne możliwości tutaj nam się otwierają. Nie tylko patrzenie do tyłu historycznie co się wydarzyło, ale właśnie takie aktywne sprawdzanie co potencjalnie wydarzyć się może, a jak już to właśnie namierzymy to właśnie za pomocą najróżniejszych funkcjonalności w Qliku typu właśnie Application Automation możemy też takie informacje że tak powiem przekuć w czyny.

    Więc to jest świetna rzecz. Warto też dodać, że z tego rozwiązania z AutoML mogą korzystać wszyscy z Was, którzy aktualnie korzystacie sobie z Qlik Sense w wersji SAS. Jak spojrzycie sobie w prawym górnym rogu i zaczniecie dodawać sobie nową aplikację, no to zobaczycie że tam jest też właśnie możliwość tworzenia właśnie tych eksperymentów uczenia maszynowego.

    Także jest to dla Was dostępne w ramach licencji. Dla tych z Was, którzy korzystają z Qlik Sense w wersji Client Managed, też te możliwości są dostępne przy wykorzystaniu łączenia ich z pythonem lub z ARM. Nie jest to właśnie, takie no-codowe rozwiązanie, jak to Marcin nam dzisiaj pokazywał, troszeczkę więcej trzeba zrobić w samym Pythonie czy w Erze, natomiast do tego typu do tych samych możliwości finalnie Gdzieś tam może dojść, także można dojść, także jeżeli jesteście użytkownikami Qlika w tym czy w tym modelu te możliwości, które dzisiaj Wam pokazaliśmy stoją po prostu przed Wami otworem.

    Mam nadzieję, że dzisiaj kolejny raz pokazaliśmy Wam, że warto zaglądać na nasze materiały, bo dostarczamy całkiem ciekawą wiedzę. Oczywiście jeżeli chcielibyście się zagłębić w więcej tych informacji, zawsze zapraszamy na naszą stronę do zakładki webinary czy do zakładki blog. Ten webinar, który dzisiaj Marcin dla Was poprowadził też będzie dla Was dostępny w formie on-demand.

    Także jeżeli, Jeśli podobał się Wam i chcielibyście go na przykład udostępnić kolegom z Waszej firmy czy innym znajomym którzy być może też takich rozwiązań potrzebują, no to zachęcamy do, Do podzielenia się tymi linkami. No i gdybyście chcieli troszeczkę w tym kierunku pójść, to oczywiście zachęcamy Was do tego, żeby korzystać z naszych szkoleń, natomiast właśnie dla tych z Was, którzy chcieliby zrobić swój pierwszy krok w kierunku machine learning i wykorzystywania go w środowisku Qlik, mamy dla Was też właśnie przygotowane szkolenie, które się odbędzie w dniach 6-8 grudnia to jest taki pierwszy blok później 13-14 grudnia, Tam właśnie będziecie mogli poznać możliwości współpracy Pythona z PIC-iem.

    Wykładowcą będzie Marcin, który dzisiaj Was gościł więc już widzicie na co go stać w jaki fajny sposób prowadzi te zajęcia. Marcin ma też bardzo duży background PIC Związane z uniwersytetem, także będziecie naprawdę bardzo dobrze zaopiekowani, więc jeżeli chcecie zrobić swoje pierwsze kroki właśnie w tym kierunku, to nie mogliście trafić lepiej.

    No i przechodzimy powoli do sesji Q&A. Troszkę pytań się pojawiło, więc Marcin zrobimy tak, że ja Ci gdzieś tam będę czytał i przerzucam na Ciebie, jeżeli nie będę znał odpowiedzi i spróbujemy na to wszystko, co się tam nam pojawiło odpowiedzieć. Więc pierwsze pytanie skierowane do Ciebie to, jak duży dataset jest potrzebny aby stworzyć sensowny algorytm machine learningowy?

    [Marcin Stawarz]: No tutaj tak naprawdę jakbym miał na to pytanie odpowiedzieć, to ciężko jednoznacznie odpowiedzieć wprost jakąś konkretną wartość. Tak naprawdę im większy tym lepiej Ale też nie mogą to być dane, które, powiedzmy są już zawsze na to mówię, nieaktualne, przeterminowane. Jak żyjemy teraz w takim, powiedzmy, dynamicznie zmieniającym się środowisku społeczno-ekonomicznym, to na pewno branie danych sprzed 10 lat może już nie mieć większego sensu szczególnie biznesowych.

    To, co się wydarzyło w ostatnich 2-3 latach dosyć mocno pozmieniało i te zależności, które model znalazł był kiedyś znajdzie teraz, Mogą się diametralnie od siebie różnić. Nie podjąłbym się nigdy odpowiedzi takiego konkretnego rzędu wielkości, czy to ma być 100 tysięcy, 10 tysięcy tysiąc czy miliard rekordów.

    To tak naprawdę zależy od specyfikacji działania przedsiębiorstwa. Są przedsiębiorstwa, które nie wygenerują nigdy na przykład miliona rekordów danych, czyli będą miały na przykład tysiące dziesiątki tysięcy. Jak najbardziej, mimo wszystko spróbował bym z takiego rozwiązania skorzystać nawet na takich zbiorach takich jak tutaj widzieliśmy.

    Ja zbudowałem model na trzech tysiącach, no prawie czterech tysiącach rekordów. I ten model dawał całkiem fajne wyniki. Oczywiście jakbym miał na przykład tych rekordów 100 tysięcy, no to pewnie prawdopodobieństwo do znalezienia większej liczby zależności byłoby większe. Także tutaj nie podjąłbym się takiej odpowiedzi zero-jedynkowej żeby podać jakimś punktem Konkretny rząd wielkości.

    Ale jakby opowiedzieć, no to im więcej tak naprawdę, tym lepiej. Nie podałbym jakiegoś progu minimalnego, bo to zależy też od specyfikacji działania przedsiębiorstwa. Na pewno zastanowiłbym się, co prognozujemy i czy to, co się dzieje na świecie ma na to wpływ. Jeżeli ma, to bardziej przed stronę jakby zastanowienia się, od którego momentu w czasie te dane brać, kiedy jakieś większe zmiany w naszym powiedzmy, otoczeniu z ekonomiczno-gospodarczym zaszły.

    [Przemysław Żukowski]: Okej to drugie pytanie też do Ciebie. Czy są jakieś ograniczenia co do ilości wykonywanych treningów machine learningowych w SAS-ie?

    [Marcin Stawarz]: Tutaj tak naprawdę jedynym ograniczeniem jakie mamy, to jest ilości danych i tu są różne pakiety, które może użytkownik wykupić W takim podstawowym pakiecie jest jakieś tam pewne ograniczenie jakby ilości danych, które możemy wrzucić.

    Jeżeli chodzi o ilość trenować modeli trenować, eksperymentować możemy tak naprawdę bez ograniczeń. Jedyne ograniczenie, które tam widzieliśmy, to był ten suwak z czasem że maksymalnie 6 godzin mógł trwać ten dobór hiperparametrów. Czyli jeżeli byśmy mieli bardzo dużo danych, no to maksymalnie 6 godzin mogłoby to trwać.

    Więcej by nam to po prostu nie mogło przekroczyć pojedynczy eksperyment. Więc ograniczenia mogą być w przypadku ilości opublikowanych modeli w zależności od planu Ale każdy plan, nawet ten plan powiedzmy podstawowy, który jest w ramach licencji, pozwala na publikowanie modeli. Ale jak chcemy ich mieć na przykład, nie wiem, 20-30, no to wtedy już trzeba po prostu zwiększyć ten plan.

    Ale jeżeli chodzi o eksperymentowanie tworzenie tych modeli dopóki jakby nie publikujemy modelu tylko próbujemy jakby tutaj go optymalizować, to możemy to robić dowolnie.

    [Przemysław Żukowski]: Okej bo właśnie tutaj kolejne pytanie dotyczyło tego, czy w tej wersji która jakby jest w licencji w SAS-owej są właśnie jakieś ograniczenia, więc tutaj można troszeczkę szerzej właśnie odpowiedzieć, że jeśli chodzi o te modele, to możemy mieć ich opublikowanych jakby w jednym momencie. Tutaj Marcin popraw mnie, jeśli się mylę, oczywiście tych modeli możemy mieć stworzonych więcej, tylko że jakby opublikowanych działających w tym samym momencie możemy mieć. Możemy przygotować

    [Marcin Stawarz]: powiedzmy 100 eksperymentów, czyli mieć takie modele tylko, które Klikamy deploy, publikujemy, ale w danym momencie opublikowane tak jakby w ramach tego. Podstawowego pakietu jakby w ramach licencji, opublikowane mogą być dwa, czyli z dwóch możemy jakby korzystać tak live, że te dane są przesyłane z aplikacji dwukierunkowo tak do modelu i z modelu z powrotem. Jeżeli na przykład stwierdzimy, że nie wiem, no chcemy teraz korzystać z innego modelu, to cofnęliśmy publikację jednego i opublikowali kolejny także jest możliwość jakby takiego szuflowania tymi modelami, ale w jednym momencie w tym takim podstawowym planie mogą być opublikowane dwa, ale eksperymentów możemy robić tak naprawdę ile chcemy, czyli w pogotowiu już możemy takie modele mieć przygotowane tylko do Kliknięcia deploy Super.

    [Przemysław Żukowski]: Dobra to zostały właściwie nam dwa ostatnie pytania Jedno to pojawiło pytanie, gdzie taką opcję w moim pliku znajdę, więc od razu odpowiadam W prawym górnym rogu jeżeli sobie tworzymy aplikację w SASie, tam właśnie jest możliwość stworzenia eksperymentów uczenia maszynowego. Warto jeszcze tam sprawdzić czy od strony konsoli zarządzania mamy wszystkie opcje z machine learningiem włączone i to jest właściwie wszystko, co jest potrzebne

    [Marcin Stawarz]: Jedyną rzeczą którą trzeba włączyć czasami z tej konsoli zarządzania tutaj, to jest to, że możemy mieć w skrypcie aplikacji widoczne te połączenia. Tak jak ja tam pokazywałem że tam stworzyłem połączenie, gdzie wybieramy z rozwijanej listy model, to czasami trzeba to w tej konsoli włączyć. Tam jest taki jeden checkbox do zaznaczenia żeby włączyć jakby te data connection służące do uczenia maszynowego

    [Przemysław Żukowski]: Dobra. I ostatnie pytanie, które nam się tutaj odwiedziło już, więc troszeczkę sparafrazuję, czy działa to z QlikView. Więc w przypadku AutoML-a tutaj jakby jasno trzeba odpowiedzieć, że sama ta funkcjonalność AutoML to jest jakby cecha natywna Qlik Sense’a w wersji SAS. Natomiast jeżeli właśnie korzystacie w tej chwili z innego rozwiązania typu Qlik Sense w wersji Client Managed tudzież QlikView jeszcze, to tak jak wspominaliśmy gdzieś tam wcześniej, do tych samych funkcjonalności finalnie dla użytkownika końcowego można dojść za pomocą właśnie integracji Qlika z ERM czy z Pythonem.

    Nie jest to takie powiedzmy rozwiązanie no-codowe, jak to Marcin pokazywał troszeczkę więcej jest tutaj zabawy w samym ERM czy Pythonie i może to już zrobić powiedzmy osoba bardziej biegła w tych rozwiązaniach natomiast to co fajne to jakby dla użytkownika końcowego, tak jak Marcin pokazywał w tej ostatniej aplikacji z tym szukaniem właściwego Abonamentu dla tego klienta który potencjalnie mógłby od nas odejść, to takie coś możemy zbudować już dla użytkownika końcowego i on do końca nie musi wiedzieć, jaka że tak powiem, magia się tam dzieje pod spodem.

    Więc niezależnie właściwie od tego, z czego korzystacie z rodziny Qlikowej, w jaki sposób możemy to zrealizować. Prostszy, troszeczkę może bardziej skomplikowany, jeżeli mówimy na przykład o QlikView, ale zrobić się da, jak to przeważnie w Qliku. Ok, jeszcze chyba tutaj jedno nam się pytanie pojawiło Postaram się, Marcin tylko, przeczytam, więc mam pytanie, brzmi tak, jak rozumiem czy mamy narzędzia ułatwiające budowę pliku wsadowego, na przykład automatyczne wyliczanie derywatów, czyli na przykład dla wszystkich zmiennych numerycznych dane typu wartość w ostatnim miesiącu, wartość w ostatnim dniu i tak dalej.

    [Marcin Stawarz]: No tutaj jakbyśmy chcieli coś takiego przygotować, to musielibyśmy mieć po prostu taką aplikację takiego powiedzmy ETL-a w pliku, który nam by po prostu te dane obrobił bo jeżeli mamy takie bardzo specyficzne potrzeby na przykład stworzenia z jakichś tam kolumn wyciągnięcia dodatkowych informacji czyli tak zwany feature engineering, to musielibyśmy po prostu mieć aplikację która będzie stała jakby przed, ona będzie pobierała nam te dane u źródła Będzie nam odpowiednio te kolumny generowała tak na podstawie powiedzmy jakiegoś skryptu, który już w pliku przygotujemy, no i będzie zapisywała nam te dane na przykład w pliku QVD.

    I wtedy ten model będzie nam, albo do trenowania będziemy modelu wykorzystywali te dane, albo na przykład do dokonywania prognoz. Także jeżeli chodzi o wyciąganie informacji gdzieś z danych które mamy, No to to musielibyśmy jakby te dane odpowiednio przygotować, te wszystkie przekształcenia czyli radzenie sobie z pustymi wartościami, normalizacja danych podział na zbiór testowy i treningowy, to jakby auto ML za nas zrobi, ale jakby ten etap przygotowania tych danych, no to jak najbardziej jesteśmy w stanie zrobić w Qliku i to połączyć w ciąg zdarzeń, no bo możemy skorzystać z automatyzacji, które uruchomią w odpowiednim momencie odpowiedni mechanizm w Qliku, czyli jakby zautomatyzować proces jesteśmy w stanie, ale jakby takie bardziej zaawansowane przygotowanie tych danych, no to musielibyśmy po prostu zrobić aplikacją też w Qlik Sense tylko która to przerobi te dane i jak już będzie miała przerobione, to automatyzacja wyzwoli nam na przykład trenowanie modelu albo dokonanie prognozy na podstawie tych danych, czyli idzie ten ciąg zdarzeń zautomatyzować, żeby był bezobsługowy.

    Ale jakby taką aplikację trzeba by było przygotować, która po prostu te dane u źródła pobiera i przekształca do takiej postaci, którą finalnie chcemy do tego modelu

    [Przemysław Żukowski]: No i oczywiście pod tym kątem tutaj właśnie do przetwarzania danych też Qlik bardzo fajnie się sprawdza Tak jak Marcin powiedział, bardzo fajnie można to ze sobą połączyć w taki logiczny ciąg.

    No dobra, widzę, że kolejne pytania nam się nie pojawiają. Troszeczkę zaciągnęliśmy z czasem ale wierzymy w to, że było ciekawie i zainteresowaliśmy Was właśnie tym tematem. Więc na dzisiaj bardzo serdecznie chcielibyśmy Wam podziękować za udział Tak jak wspomniałem, za kilka pewnie godzin, może jutro, nagranie będzie też dostępne na naszej stronie, więc jeżeli podobało Wam się i chcielibyście się tym podzielić z innymi Waszymi znajomymi, zachęcam do zerknięcia na naszą stronę i dystrybucji do Waszych znajomych.

    No i bądźmy w kontakcie, bo na pewno kolejne tego typu ciekawe webinary z naszej strony się pojawią. Na dzisiaj ja bardzo dziękuję. I do usłyszenia następnym razem. Marcin bardzo Ci dziękuję za poprowadzenie Jestem zawsze pod wrażeniem Twoich prezentacji. Dzięki wielkie. Do usłyszenia wszystkim. Do usłyszenia.