Qlik WaW #13 – Qlik Answers, Qlik Talend Cloud, Qlik Reporting

Nagranie z 13. edycji Meetupu #QlikWAW

Obejrzyj nagranie z Meetupu QlikWAW #13, podczas którego omówiliśmy trzy kluczowe tematy związane z najnowszymi narzędziami i trendami w świecie Qlik:

  • Qlik Answers – RAG (Retrieval-Augmented Generation): Nowoczesne narzędzie AI, które pozwala na szybkie uruchomienie i zadawanie pytań do danych z różnych źródeł, uzyskując precyzyjne odpowiedzi w kilka minut.
  • Qlik Talend Cloud – Zestaw narzędzi niezbędnych do pracy z AI: Przedstawiliśmy, jak Qlik Talend Cloud wspiera integrację i przetwarzanie danych, stanowiąc fundament nowoczesnych rozwiązań opartych na sztucznej inteligencji.
  • Reporting in SaaS + Roadmap: Lech Miszkiewicz, ekspert w dziedzinie NPrinting i Qlik Reporting, podzielił się swoimi doświadczeniami oraz najnowszymi planami rozwoju technologii, w tym nadchodzącymi funkcjami w chmurowych rozwiązaniach raportowych.
QlikWaw 13

Wypełnij formularz i uzyskaj nagranie

    Prelegenci:

    • Lech Miszkiewicz – Qlik Community MVP, Qlik Partner Ambassador
    • Paweł Manowiecki – Data & AI Solution Architect
    • Przemek Żukowski – Qlik Partner Ambassador

    Podczas spotkania nie zabrakło także ekskluzywnych informacji prosto z Lund, które przywiózł Przemek Żukowski. Uczestnicy mieli okazję zapoznać się z wybranymi elementami roadmapy Qlik, a także poznać nadchodzące funkcje i udoskonalenia, które zmienią sposób pracy z danymi i raportowaniem.

    To świetna okazja, aby na bieżąco śledzić innowacje, które będą kształtować przyszłość rozwiązań analitycznych.

    Data Wizards

    Przemysław Żukowski

    Qlik Department Director
    Qlik Partner Ambassador
    sales specialist
    Qlik Partner Cloud Analytics Solution Specialist
    Qlik Partner - Cloud Analytics - Implementation Specialist
    Qlik Partner Application Automation Implementation Specialist
    Qlik Partner Application Automation Solution Specialist
    Qlik Partner AutoML Sales Specialist
    Qlik AI Specialist

    Pierwszy w Polsce Qlik Partner Ambassador. Entuzjasta Qlik Sense i analizy danych. Propagator wykorzystania nowoczesnych narzędzi analitycznych nie tylko w biznesie. Z branżą IT związany od 19 lat, a od ponad 13 lat odpowiada za projektowanie efektywnych rozwiązań analitycznych dla klientów z różnorodnych branż. Pomaga firmom dostrzec historię ukrytą w ich danych.

    Przemysław Żukowski
    Paweł Manowiecki
    Data Wizards

    Paweł Manowiecki

    Data & AI Solution Architect

    Jako osoba pracująca z danymi już ponad dwie dekady, dostrzega ogromną wartość w przekształcaniu danych na bardziej użyteczne dla biznesu. W Data Wizards wspiera klientów w obszarze platform danych, narzędzi do integracji danych i rozwiązań AI, stosując technologie Qlik i Talend, a także technologie firm trzecich, takich jak Snowflake, AWS, Microsoft czy OpenAI. Pracował wcześniej w firmach Qlik i MongoDB, jak również przez wiele lat w branży retail.

    Zafascynowany technologiami generatywnej sztucznej inteligencji, platformą Snowflake oraz IoT. Poza codziennymi obowiązkami rozwija społeczność programistów skupioną na AI oraz społeczność majsterkowiczów w ramach budowy tzw. makerspace.

    Transkrypcja materiału wideo

    [Przemysław Żukowski]: Mamy preskę, więc możemy powoli startować. Dzięki, że chciało Wam się czy wpaść onsite’owo, czy zerknąć do nas online’owo. Trzynasta edycja Qlikwava, także już troszeczkę ich było, chociażby tak jak mówię, w tym roku zdecydowanie trochę rzadziej tak można by powiedzieć. Mam nadzieję, że w przyszłym roku poprawię się i będzie tego więcej.

    Tak tytułem wstępu to co dzisiaj dla Was przygotowaliśmy, to takie właśnie trzy ciekawe tematy z ostatniego czasu. Czyli pomówimy sobie i też popatrzymy na Qlikansersa, czyli Raga, zerkniemy sobie co tam talent ma w swojej ofercie i jakie patenty można z niego zrobić, o tym opowie nam Paweł. No i na samym końcu jeszcze zerkniemy sobie właśnie do tych najnowszych rzeczy Te rzeczy z Qlikreportinga, czyli…

    Siemanko. Tematów związanych z Pixel Perfectem. Coś co kiedyś dawni użytkownicy Qlika pamiętają z NPrinting. Teraz pojawiło się w reportingu Qliksensowym, więc już powoli jak ktoś by bardzo chciał tak wycyzelować sobie raporty właśnie do tego pojedynczego piksela no to właśnie to wjechało i Lech nam dzisiaj to będzie pokazywał, a Lech to jeden, w mojej opinii najlepszy specjalista od wszystkich tematów związanych z NPrintingiem, reportingiem, no chyba wszyscy się zgadzamy, także tutaj też śmiało go zasypujcie pytaniami.

    Wydaje mi się, że Lech jeszcze śpi, bo u niego jest tam godzina piąta, ale widzieliśmy, że za chwilkę będzie już z łóżka wyskakiwał i będzie się tutaj do nas podłączał. Agenda tak na szybko tak jak powiedziałem, ja mniej więcej pół godzinki zajmę wam. Tematem Qlik Answersa, troszeczkę o tym opowiem, ale też pokażę wam, w jaki sposób to można sobie, siemanku śmiało, w jaki sposób możemy to sobie zbudować.

    Później pałeczkę przekażemy do Pawła, on was tutaj faczaruje jakby kwestiami talentowymi, no i na samym końcu wskoczy nam Lech. Więc jakby już nie przedłużając, przeskoczmy sobie właśnie do Qlik Answersa i tutaj jakby jedna ważna rzecz, mniej więcej tak jak się gdzieś tam to liczy, około 80% danych w organizacjach to są dane takie właśnie nieustrukturyzowane i do tej pory trudno było narzędziom BI-owym, no i Qlikowi też podłączyć się właśnie do tych danych, coś z nich powyciągać.

    Więc to co w tej chwili się pojawiło, no to właśnie Qlik Answers, który na tego typu dane będzie mógł się zapinać, a te dane no to właśnie różnego typu doki, pdfy, powerpointy pliki tekstowe, html, no jakby cokolwiek co nazwijmy to jest raczej lanym tekstem, a nie tabelką, kolumną czy wierszem do czego możemy się podłączyć.

    No i takich danych w organizacji gdzieś tam jest sporo, bo każdy z nas gdzieś tam nadal… W dysku trochę tych rzeczy ma, a w samych organizacjach też tego trochę się wykorzystuje, no i jakby tych informacji jest tylko więcej, bo to są gdzieś informacje trzymane na SharePoint, jakieś transkrypcje rozmów no generalnie całkiem sporo i do tej pory były to takie powiedzmy miejsca do których ciężko było się gdzieś analitycznie…

    Analitycznie podpiąć. Chociaż następowały różnego typu próby właśnie okiełznania takiej wiedzy firmowej poprzez stworzenie różnego typu baz wiedzy, ale generalnie jakby szukanie po tego typu zbiorach danych raczej było dosyć trudne, mnóstwo różnego typu wyszukiwań wyników tych wyszukiwań. Na końcu i tak user musiał się przez to wszystko przekopać i sam gdzieś dojść do sensu ukrytego w tych danych.

    To co Qlik teraz właśnie wymyślił znaczy nie tyle co wymyślił, co jakby zaimplementował, opakował w bardzo fajne rozwiązanie, to jest właśnie rozwiązanie z kategorii RAC, nazywa się to Qlik Answers. No to będzie służyło użytkownikom właśnie do tego żeby pogadać ze swoimi danymi takimi nieustrukturyzowanymi To co do tej pory można było zrobić za pomocą Qlik Insight czyli zapytać sobie Swoją aplikację o pokaż mi sprzedaż za jakiś tam okres i tego typu pytania.

    Tak teraz będzie można to robić właśnie też w kontekście danych nieustrukturyzowanych i taka fajna rzecz, taki news też gdzieś tam prosto z lądu. Generalnie na tą chwilę to są takie dwa trochę rozłączne od siebie narzędzia. Natomiast koniec końców, ich drogi gdzieś tam się zejdą, czyli jakby z punktu widzenia użytkownika to użytkownik nie będzie musiał się w przestrzeni zastanowić, czy te moje dane to są ustrukturyzowane czy nie i w czym one siedzą i w którym narzędziu o nie zapytać, tylko będzie to bardziej po prostu nazwijmy to trochę jeden interfejs, do którego użytkownik tego typu pytania tego typu pytania będzie mógł kierować.

    Także w przyszłym roku obserwujcie to, bo szczególnie też np. w kontekście aplikacji mobilnej będzie się bardzo dużo zmieniało W kontekście właśnie czegoś takiego, że użytkownik przez komórkę może zadawać pytania do swoich aplikacji tego typu nieustrukturyzowanych danych i w ten sposób Qlik będzie im te odpowiedzi generował.

    Jak to działa? Generalnie tak jakby z lotu ptaka. Pierwsza ważna rzecz, która jest nam potrzebna to jest kontekst, czyli ta taka właśnie baza wiedzy którą będziemy tutaj budowali. I to są właśnie te pliki, o których wspomniałem, PDF-y, doki, powerpointy i cokolwiek jeszcze, co nam przyszło do głowy. User kieruje do tego pytanie, Retriever wyciąga sobie informacje z tego właśnie kontekstu i na podstawie dużych modelów językowych generuje odpowiedź do tegoż użytkownika.

    W tak wielkim uproszczeniu można by powiedzieć, że to działa. Jak spojrzymy sobie jak to mniej więcej tak już technicznie działa gdzieś tam pod spodem No to tych elementów które trzeba poskładać razem i którymi trzeba będzie zarządzać trochę jest. To, z czym Qlik tutaj nam fajnie pomaga, to to, że to jest faktycznie plug and play i za chwilkę zobaczycie jak łatwo to można sobie skonfigurować.

    Oczywiście takie podejście możemy zrobić też samodzielnie, możemy sobie spróbować poskładać to jakby po swojemu takiego DIY-a, no ale trochę wyzwań gdzieś tam przed nami będzie stało w kontekście właśnie mnogości różnych technologii, ogarnięcia zespołu, który by to ogarniał, no i jakby nadążania cały czas za tą technologią.

    To, co mamy tutaj, fajnie zapakowane pudełeczko z którego właściwie użytkownik wręcz biznesowy może w kilka minut skorzystać. Takie fajne gdzieś porównanie trochę z wewnątrz Qlika udało mi się gdzieś wyciągnąć, to jest porównanie jakby stworzenia kosztu stworzenia i jakby czasu developmentu tego typu rozwiązań, mniej więcej dla około tysiąca użytkowników.

    To taki realny case, bo faktycznie Qlik to, też zrobił na swoje potrzeby i porównał, jakby to by wyglądało w kontekście innych rozwiązań. Mianowicie od strony kosztów oczywiście rynek amerykański, więc od strony kosztów wygląda to całkiem ciekawie. W przypadku kikansersów wygląda to też zdecydowanie bardziej korzystnie jeśli chodzi o porównanie do konkurencji, nie mówiąc już w ogóle o czasie, jak gdyby możliwości uruchomienia tego wręcz produkcyjnie dla użytkowników No i teraz, Jak to działa, to zobaczmy sobie już na takim live demo, w jaki sposób możemy to z tego narzędzia sobie korzystać.

    Przestawmy sobie do plika i spróbujemy takiego właśnie raga w wydaniu Qlik Answers po prostu zbudować tu i teraz na żywo. Oczywiście ja zrobiłem sobie backup takiego rozwiązania na wszelki wypadek bo wiadomo złośliwość rzeczy martwych jest ogromna, ale spróbujemy sobie w tej chwili zbudować takie rozwiązanie, które pomagałoby np.

    naszym handlowcom wewnątrz organizacji odnajdywać różnego typu informacje, czy to w jakichś powiedzmy whitepaperach, które byłyby dla nas istotne, czy w jakichś tam success story, czy w ogóle w jakichkolwiek dokumentach, które np. z punktu widzenia działu handlowego są istotne do takiej codziennej pracy np.

    odpowiadania na pytania W naszym przypadku najczęściej to są pytania typu a kto wdrożył Qlika tam na SAPie albo w takiej konfiguracji. Później się zaczyna szukanie kto, gdzie, kiedy, komu i jak. Więc tego typu wiedzę można zebrać właśnie z istniejących źródeł Wrzucić do plikansersa, no finalnie użytkownikom dać możliwość korzystania z tego.

    Jak się do tego zabrać? No to lećmy sobie tutaj, Qlikamy sobie na utwórz i ten cały nasz asystent którego będziemy tworzyli składa się tak na dobrą sprawę z dwóch elementów. Po pierwsze właśnie z tej bazy wiedzy, czyli tam będziemy pakowali te wszystkie pliki, z których chcemy skorzystać. No i drugą rzeczą, którą będziemy musieli stworzyć to jest asystent.

    Każdy z tych elementów jest dosyć prosty Czyli w pierwszym przypadku tworzymy sobie naszą bazę wiedzy, nazywamy ją tak jakbyśmy chcieli. Ustawiamy sobie przestrzeń w której ta baza wiedzy powinna funkcjonować i tutaj to też jest o tyle fajne, że powiedzmy takich baz wiedzy i takich asystentów możemy sobie stworzyć wiele.

    Czyli na przykład chociażby przestrzeniami zarządzać tym, że na przykład marketing ma swoją, taką bazę wiedzy sprzedaż ma swoją i tak dalej, i tak dalej. Jeżeli sobie to Qlikniemy na otwórz to w tym kolejnym kroku musimy podłączyć mu dane, które będziemy chcieli tutaj wrzucać. No i teraz można jakby skorzystać z różnych rozwiązań.

    Czyli przykładowo jeżeli te dane są gdzieś tam zgromadzone na jakimś FTP-ie, to wpinamy się na FTP-a. Jeżeli są na SharePoint to do SharePoint albo zależy się od tego, gdzie klient te dane, Finalnie trzyma. W naszym przypadku będziemy sobie chcieli skorzystać z danych, które mamy już na naszym serwerze w konkretnej przestrzeni.

    Tutaj znowu to, że ostatnio pojawiły się foldery na SASie bardzo mocno usprawnia proces szukania tego typu plików. Jak widzicie mam tutaj sporo PDF-ów i będzie w sumie około 150, więc spróbujemy sobie od razu z grubej rury strzelić na tym teście. Są tu różne elementy czyli np. jakieś success stories Lenovo przykładowo.

    Gdzieś tutaj na początku jest jakieś AI glossary, czyli taki słownik wszystkich pojęć, tak żeby np. jak handlowcy dostają pytanie o jakieś konkretne pojęcie, to żeby tutaj właśnie mieli informację o tym, co to jest. Mamy też np. jakąś strategię Qlika w obszarze AI-owym. Generalnie najróżniejsze, czy np.

    jakieś tam whitepapery odnośnie jakichś topowych rozwiązań dla Na przykład jakiejś produkcji czy jakichkolwiek innych obszarów, które by nas interesowały. No i załóżmy że to wszystko chcielibyśmy po prostu do tej bazy wrzucić. Więc zaznaczamy sobie jak leci, Qlikamy na wybierz. No i w tej chwili te pliki zostały tak wstępnie do tej bazy wiedzy dodane.

    Tych dokumentów mamy w tej chwili 154. No i jak widzicie one nie zostały jeszcze zindeksowane. I teraz zadaniem naszym będzie to, żeby za pierwszym razem powiedzmy trochę z palucha tą indeksację uruchomić a później już przy kolejnych jakby przejściach czy odświeżeniach tej bazy wiedzy oczywiście możemy już włączyć pewien harmonogram, który będzie sobie te dane odświeżał.

    Więc to co robimy… To w tej chwili Qlikamy sobie, żeby ta indeksacja się zaczęła i ona nam chwilkę będzie tutaj nam szła. 154 dokumenty powstanie z tego tam chyba ładnych kilka tysięcy może tysiąc nie pamiętam dokładnie ile tutaj nam wyjdzie. No i w międzyczasie każdy z tych dokumentów co się gdzieś tam dzieje w tle, jest jakby rozbierany na czynniki pierwsze, to pojedyncze kawałki tekstu są wpychane właśnie do tej bazy wektorowej.

    Generalnie dzieje się to po prostu wszystko w tle bez konieczności rozumienia tego, co tam w środku siedzi. Fajne jest to o tyle, że koniec końców takie narzędzie można też dać wręcz użytkownikom biznesowym, którzy tu i teraz potrzebują szybko takiego asystenta sobie stworzyć, bo na jutro mają do opracowania jakąś dokumentację przetargową.

    No i teraz tak, niech to się tam dzieje w tle, niech to się tam mieli, a my w międzyczasie stworzymy sobie naszego asystenta. No i też nazywamy go sobie, niech to będzie znowu Qlik waw i w ten sposób ten asystent został stworzony. Nic więcej na tą chwilę nie potrzebujemy z nim robić, tylko już jest gotowy, on będzie podpięty właśnie do tej bazy wiedzy, którą wcześniej sobie stworzyliśmy i już możemy zacząć z nim tutaj gadać.

    No może jeszcze nie już, bo jeszcze informacje się nie zindeksowały, ale za chwilkę będziemy mogli to zrobić. Śmiało.

    [Paweł Manowiecki]: Dostałem raport odwrotu w PDF-ie, zamiast po prostu tabelki w Excelu, wrzucam tutaj i on ma różne jakieś tabelki i źle to zinterpretował. Mogę go jakoś nauczyć jak ma interpretować?

    [Przemysław Żukowski]: Generalnie jest tak, że nawet z tabelkami całkiem nieźle sobie radzi, bo gdzieś tam testowałem, ale z drugiej strony to pokażę Wam też, że można, jeżeli np. odpowiedź której on udzieli jest niewłaściwa, totalnie błędna albo poleciał w kosmos totalnie, to można tutaj jakby wrócić z feedbackiem i ten feedback później bardzo można też precyzyjnie przeanalizować.

    Ja na tym DVD

    [Paweł Manowiecki]: rozmawiam, że tutaj popełniłeś błąd ty mi w tej linii powinieneś brać tak, a nie tak.

    [Przemysław Żukowski]: To chyba mniej, tak bym powiedział, bardziej na zasadzie takiej. Że potencjalne błędne informacje, które by tutaj nam wygenerował albo niekompletne, użytkownik może zgłosić taką informację i ktoś, kto później jest takim nadzorcą tej bazy wiedzy, może sobie wrócić i np.

    zweryfikować, czy to w samym pliku było coś nie tak, jakaś totalnie błędna odpowiedź czy być może właśnie ten plik został jakoś źle rozpoznany. Więc to też Wam pokażę, jak bardzo dokładnie później ten cały… …flow od asystenta przez pytanie po odpowiedź i rating tej odpowiedzi można też np. sobie później w samej aplikacji przeprowadzić Przeanalizować.

    No teraz, jeśli chodzi o samego asystenta, to właściwie jakby konfiguracja jego jest mega prosta, bo można z nim zrobić na tą chwilę kilka rzeczy. Czyli możemy stworzyć jakieś rozpoczęcie konwersacji takie starter pytania żeby użytkownik czuł się z tym dobrze, mógł sobie w nie Qliknąć i od razu żeby to zapytanie poleciało sobie do tego naszego asystenta.

    No i na przykład załóżmy, że niech to będzie proste Podaj przykłady

    Wdrożeń plika na SAP, przykładowo, jeszcze tutaj, dodajmy tak. No to będzie nasze pierwsze pytanie, które w takim asystencie będzie się tutaj pojawiało. Oczywiście możemy ich tutaj sobie dodać więcej, tak jak tego potrzebujemy. No i gdzieś tam w ustawieniach samego tego asystenta możemy w tych miejscach gdzie na przykład zadamy mu pytanie spoza tej bazy wiedzy typu zaproponuj mi wycieczkę po Warszawie albo podaj mi przepis na zrobienie czegoś tam.

    No to generalnie to też jest jakby główna cecha Qlik Answersa jest taka, że on jakby operuje w ramach tej bazy wiedzy, którą mu wrzucimy. On jakby nie wychodzi sobie, że tak powiem do internetu szukać informacji, tylko faktycznie to, co siedzi w bazie danych, to z tego te odpowiedzi konstruuje, nie próbuje je wymyślać, więc jeżeli właśnie zapytamy go o coś, no to możemy tutaj temu użytkownikowi trochę ładniejszą odpowiedź powiedzmy skonstruować.

    Śmiało, śmiało, śmiało pytaj.

    [Paweł Manowiecki]: Zapytam pytanie, po co i z czego jestem pewien, że nie mam bazy wiedzy. On wymyśli czy po prostu powie, że… Nie,

    [Przemysław Żukowski]: to właśnie to jest, to jest właśnie to, że… Serowanie w modelu jest takie, że on ma… Być pewnym że wziął to z dokumentu

    [Paweł Manowiecki]: Wziął to z dokumentu tak, tak. I jak podczas tego sprawdzania

    [Przemysław Żukowski]: w BBH znajdzie coś, co nie jest z dokumentu bo model potrafi halucynować, to wtedy podczas sprawdzania ląduje w tej kategorii pytanie spoza zakresu wiedzy i zamiast tej halucynacji pojawia się właśnie, sorry, ale…

    Okej super. Tak, więc to działa naprawdę fajnie i tutaj jakby możemy coraz bardziej go dokonfigurowywać. No teraz… …analizuje kontekstowo, tak, jeśli zadasz pytanie. Czyli to nie jest takie szukanie jakichś tam najbardziej prawdopodobnych, tylko po prostu jakby jest coś takiego podobnego do czata GBT, tak że kontekst jest przemielony przez maszynkę.

    Można by było tak powiedzieć, za chwilkę też jak zaczniemy go pytać, to to, co on będzie nam tutaj zwracał to też jest fajne, że w każdym momencie możemy sobie zobaczyć jakby z którego dokumentu on to wziął. Czyli potencjalnie jeżeli ta jego odpowiedź nie wiem, jest za krótka albo chcielibyśmy czegoś dowiedzieć się więcej i już niekoniecznie chcemy jego męczyć, to w każdej chwili możemy po prostu do tego dokumentu już się odnieść, zajrzeć tam do szczegółów.

    Można też, jakby czyta właśnie jakieś tam html i tego typu rzeczy, więc jakby wcześniej musimy te dane sobie gdzieś tam powyrzucać, ale takie właśnie bazy wiedzy typu właśnie jakieś Sharepointy Confluency, no to to jest takie naturalne też właśnie źródło do tego, żeby jaki kanclerz mógł sobie z tego korzystać.

    i po prostu nie chce ci się szukać tylko po prostu zadajesz pytanie i właśnie konkretnie już masz znaleziony tekst.

    Ale wtedy się w tym Confluencie zmieni jakiś artykuł No właśnie i to jest… Prostu starą. To to jest coś takiego, że tutaj w momencie, kiedy mówimy o tej właśnie bazie bazie wiedzy, no to ona w międzyczasie nam się ta indeksacja nam się wykonała, czyli te sto pięćdziesiąt cztery dokumenty finalnie siedemset czterdzieści osiem stron, jakby wiedzy z tego, z tego powstało zostało to przejechane.

    No teraz później to to to. Pytanie, czy te siedemset czterdzieści stron to jest jakby zsumowane, czy to jest po prostu wywnioskowane albo jakieś takie, wiesz, syntezowane to, co przed chwilą. Klik uznał ileś tam słów za tożsame tożsame ze stroną i to pokazuje ile słów zna z tych wszystkich dokumentów Z tych stron.

    Mniej więcej to nigdy nie zostało, jak gdyby zapisane tak jasną definicją, ale gdzieś podczas różnych prezentacji rozmów o Qlik Answersie, no to jako stronę to tak jak ja to zrozumiałem. Tak jak to później gdzieś tam przekazuje, to jakby rozumiemy stronę tekstu a cztery, ale nie takiego, wiesz pisane czcionką, dwójką z zerowym odstępem żeby tam wjechać z tym tekstem na grubo.

    Nic. To jest plik tekstowy, przeliczy na strony według liczby słów. Tak tak tak można było to zrobić, więc tak, tak. Jeżeli jeżeli byś wrzucił PDF, który ma 748 stron pustych to tu 0 stron będzie zindeksowanych Jeżeli każda będzie z tym taką treścią akademicką że jakiś paper akademicki wrzucił, to będzie 748 stron.

    [Paweł Manowiecki]: Te odstępy, wiesz, takie, taka magia.

    [Przemysław Żukowski]: Tego się nie da tak nie da się tak dokładnie aptekarsko podać. Tak naprawdę w związku z tym, jaki mechanizm tam z tyłu działa.

    [Paweł Manowiecki]: Nie bo właśnie to mnie interesuje, czy on po prostu to, nie wiem wyrzuca teraz obrazki takie, nie wiem, tam Alamachota, nie wiem, zaczyna formatować ten tekst właśnie do stanu fotowoltaicznego, nie wiem, Times New Roman, 12 odstępów I wiemy

    [Przemysław Żukowski]: i wiemy, i nie wiemy, bo to co mechanizm jak jest on zrobiony w Qliku, to jest tajemnicą Tak powiem produktową Qlika.

    Ale znając te zabawki, które tam z tyłu używają, to podejrzewam, że nawet dochodzi do tego, że jak jest obrazek z treścią, to on też jest indeksowany. Tak mi się, nie, nie robiłem takiego testu ale nie wiem, chociażby jak Przemek pytał o tabelki. Ładnie sobie ładnie sobie łapie. Niekoniecznie. Jeśli model wytrenowany i on po prostu to Mieli, tak To jest, to są te techniki.

    Te LLM-owe, pocięte Zwektoryzowane, czytane do bazy w odpowiedni sprytny sposób, bo tam jest ileś tam metod i chyba dosyć dobrej używają, przekształcając to chyba na zbiór pytań. Tak mi się wydaje przynajmniej z tego, co tam próbuję. Jak PDF nie ma osadzonych ścianek tylko ma tekst zeskanowany jako grafika to robią to w czasie indyktowania do rozwoju.

    Grafiki, znaczy zakładając, że to jest po prostu właśnie obrazek to na tą chwilę tego nie łyknie, natomiast z tego co słyszałem to jakby w kolejnych edycjach ma być też możliwość jakby takiego przeocerowania tego typu dokumentów na tą chwilę nie, natomiast gdzieś tam docelowo też o tym myślą natomiast w tej chwili na przykład właśnie jeżeli jest to ładnie, znaczy Normalny dokument PDF-owy, w którym da się zaznaczyć tekst i jeżeli np.

    w tym tekście siedzi sobie właśnie jakaś tam tabelka, no to on bardzo fajnie też np. jest w stanie złapać sobie przykładowo z jakichś tam danych finansowych. Masz tutaj wynik za bieżący kwartał, obok np. drugą kolumnę to on jest w stanie sobie np. porównać, że wynik jest taki, jak go zapytałeś o to, ale np.

    porówna ci jeszcze z tym okresem poprzednim, powie ci, żeby wzrost, spadek itd. Więc pod tym kątem to działa spoko. I wracając jeszcze do twojego pytania, to jeżeli ta baza wiedzy powinna żyć tak na dobrą sprawę, czyli pojawiają się nowe pliki, stare, jakieś nieaktualne, wywalamy albo aktualizujemy, więc po pierwsze taką bazę możemy wyłączyć jako harmonogram indeksowania, czyli powiedzmy tak jak standardowo Odświeżają się aplikacje, tak tą bazę wiedzy też możemy odświeżać.

    No co fajne, to też możemy zrobić na zasadzie takiej, że możemy odkrywać zmiany, czyli np. Jeżeli plik się nie zmienił, no to nie jedź po nim bez sensu, bo nie ma takiej konieczności, tylko faktycznie weź sobie te, które jakąś tam zmianę miały. Więc w ten sposób możemy do tematu podejść. Dobra, zindeksowało nam się, więc zobaczmy sobie, jak to Wygląda.

    Jak to wygląda. Czyli mamy tego naszego asystenta. Zakładając, że właśnie złośliwość rzeczy martwych na live demo nam tutaj nie spłata figla, to możemy sobie zacząć wystartować od tego pytania właśnie o SAP-a i na tej podstawie on nam tą odpowiedź zaczyna generować. Czyli znalazł jakieś tam dwa przykłady, jedną Mentor Graphics, drugie w firmie Logista, jeśli chodzi o te wdrożenie na SAP-ie.

    No i tutaj właśnie to o czym mówiłem, czyli chcemy np. zobaczyć skąd on faktycznie sobie te dane, te informacje wziął Więc tutaj zobaczymy te takie właśnie kawałki tekstu takie że tak powiem wyrwane z tego dokumentu. Ale właśnie jeżeli chcemy sobie zobaczyć już konkretny dokument, to możemy go sobie Qliknąć i już później zobaczyć go konkretnie w PDF-ie i poszukać sobie już jakichś tam większych informacji, czy po prostu zagłębić się w dany dokument.

    Co więcej, to też wspominałem o tym, że mamy tutaj właśnie możliwość jakby takiego zwrotnego feedbacku odnośnie tego, jaka ta odpowiedź została udzielona. Jeżeli jest OK, no to Spoko Jeżeli coś jest nie halo z tą odpowiedzią no to wtedy możemy mu dopowiedzieć coś, czyli na przykład że to jest niedokładne bo wynik był większy o 10 przykładowo.

    No i teraz Qlikamy sobie na przeszli i to leci gdzieś tam w kosmos. Gdzieś to poleciało. No teraz pytanie gdzie? Fajne jest to, że to wszystko siedzi sobie teraz w ramach Qlika i jeżeli jesteście na SASie, bo rozwiązanie generalnie działa na SASie no to w ramach SASa tutaj w automatyzacjach Jest taka jedna z automatyzacji, która tworzy i publikuje od razu różnego typu aplikacje monitorujące, czyli do userów do reloadów i tak dalej, i tak dalej.

    Jedną z nowych aplikacji która w tym zestawie się pojawiła jest właśnie aplikacja która odwołuje się później do wszystkiego tego, co w ramach Qlik Answers było, co w ramach Qlik Answers się działo. I teraz jak mamy tą aplikację tutaj, ja ją sobie tutaj włączę, żeby się nam przeładowała. Na chwilkę tam będzie sobie leciała, ale w międzyczasie już ją Wam pokażę.

    Czyli całą tą interakcję użytkowników z Qlik Answersem możecie też później przeanalizować sobie w Qliku. Czyli pod to jest po prostu gotowa aplikacja, gdzie na pierwszym dashboardzie macie informacje na przykład o tym właśnie, ile baz wiedzy tam mamy na tym rozwiązaniu ile asystentów gdzieś tam chodzi, jak to było używane, kto tych asystentów męczy najbardziej.

    Ile pytań im zadaje, ile to tam zużyło tych powiedzmy kredytów które są. W ramach tego rozwiązania dostępne. Wszystko już fajnie przygotowane, więc jakby pod różnymi kątami można sobie te analizy przeprowadzać, łącznie z tym właśnie kiedy. No i jakby wracając do tego do tego miejsca czyli właśnie… No właśnie czasami to już się gubię w nich, ale na szczęście jeszcze jednej rzeczy nie zrobili, żebym miał…

    Tu też? Ale kurde jednej rzeczy jeszcze nie zrobili właśnie, żeby było takie fajne fajna ikonka tego asystenta, bo one wszystkie mają tą taką standardową ikonkę, no i później po nazwie tylko się szuka i właśnie jak się ich natworzy trochę, to to jest wyzwanie. Tak jak kafelki do aplikacji to ta ikonka to jest w tym jak gdyby wewnątrz nie ma, wiesz, tej ikonki tak jak aplikację możesz sobie zrobić, że jakaś tam fajna ikona fajna startowa, więc tak to działa.

    Ale właśnie, te wszystkie elementy… Jeszcze

    [Paweł Manowiecki]: Insight Advisor na to, nie? Jedziesz

    [Przemysław Żukowski]: jakby po całości.

    Aplikacja nam się przeładowała i jak widzicie to co mu przed chwilką tam wrzuciłem, że coś było nie tak, czyli ten dislike i niewłaściwe, no to widzimy jakie pytanie było zadane, przez kogo, jaka była odpowiedź jaki jest ten feedback właściwy, no i na przykład z jakiego tam właśnie pliku to było brane itd.

    Kiedy, jaka baza wiedzy itd. Natomiast fajne też jest to, że jak sobie to przejdziemy jeszcze tutaj dalej, wyczyścimy, to ta wizualizacja… Mogę mieć pytanie? A skąd ten komentarz? Przed chwilką go wprowadziłem. Czy jak zadałem pytanie, on mi coś tam odpowiedział, to mu dałem dislike’a, że nie lubię osobiście.

    Tak, możesz wybrać jak gdyby… Znaczy nie tyle skorygować, tylko powiedzieć dlaczego. I teraz ważne jest to, że tutaj jeszcze nie ma magii że wprowadziłem mu komentarz i on tam sobie ten plik poprawi. Bardziej chodzi o to, że jest powiedzmy jakaś osoba która będzie zarządzała tą bazą wiedzy i ona na podstawie tych informacji może na przykład przyjść sobie tutaj I jakby zobaczyć tak, coś było nie halo, no to sprawdzam sobie w jakim to pliku, bo precyzyjnie tutaj mi Qlik podpowiada skąd ta informacja była brana.

    Natomiast tak globalnie też fajnie sobie można na to spojrzeć tutaj, że mamy jakby od tej strony userów, mamy asystentów, mamy bazy wiedzy, mamy jakieś połączenie do tych baz wiedzy, a tutaj finalnie są te finalne pliki, z których ta baza była, te odpowiedzi były brane. Teraz im większy jest ten kawałeczek, tym częściej padają odpowiedzi z tego konkretnego pliku, tym dla takiej osoby, która zarządza tą bazą wiedzy, to jest dla niego wskazówka, że to jest ten plik istotny.

    Nad nim powinienem czuwać, bo faktycznie jakby wiedza mojej firmy i to, o ludzie pytają, najczęściej pada z niego. Więc na przykład taki pliczek możemy sobie też wybrać i później zobaczyć w drugą stronę w jakich asystentach był wykorzystywany. Kto o niego pytał no i finalnie też właśnie, jakie pytania były do tego pliku generowane.

    Więc macie naprawdę bardzo fajne kombo, bo od strony właśnie możliwości stworzenia takiego raga u siebie chociażby do testów, to to jest jakby pomijające ekstremalne tak jak widać można w pojedyncze minuty Całkiem niezłą porcję wiedzy i sporo plików sobie zaindeksować, chociażby po to, żeby to sprawdzić, wrzucić kolegom, żeby potestowali i powiedzieli jakieś pierwsze swoje wrażenia.

    No a po drugie do tego wszystkiego jest właśnie już zapięta bardzo fajna aplikacja analityczna, która zwrotnie może nam pozwolić tego Qlikancerza jakby wprowadzać na wyższe levele. To dalej. Czyli na przykład wdrożenie w archiwum Gazety Wyborczej

    Są dwie rzeczy, czyli QlikAnswers jakby bazuje na dwóch parametrach, które są istotne jakby z punktu widzenia licencyjnego. Pierwsza rzecz jest taka, że w tym takim bazowym pakiecie możemy wrzucić do 5 tysięcy stron takiej właśnie wiedzy, czyli jak tutaj sobie zainteresowaliśmy, to naszym maksem jest 5 tysięcy.

    Oczywiście ta baza wiedzy jak gdyby żyje czyli raz dojdzie Ci jakiś tam większy plik więc nie wiem możesz się zbliżyć do tych 5 tysięcy, ale za chwilę jakiś tam wywalisz, więc to może latać, więc potencjalnie można się trzymać.

    [Paweł Manowiecki]: Tak,

    [Przemysław Żukowski]: mamy tutaj jakby na tym poziomie mamy tutaj informacje o tym na przykład ile, kiedy tam dolecisz powiedzmy do maxa, jest jakiś tam forecast też tych pytań, więc jakby to możemy też tutaj monitorować. Oczywiście na to też wszystko jakby już. Tu. Tu już standardowo możemy sobie ustawić alerty i cokolwiek jakby związanego z Qlikiem, żeby wyrazić, czego sobie na tym zarządzać, czyli jakby wolumen tych stron, Wiedzy, to jest jakby pierwszy parametr, który jest istotny z punktu widzenia cennikowego i drugi parametr to jest liczba pytań, które kierujemy do tego asystenta i w tym podstawowym zestawie macie 25 tysięcy pytań miesięcznie, które można, że tak powiem go tam molestować i odpytywać.

    To są takie…

    [Paweł Manowiecki]: Pytanie to jest pytanie, czy załóżmy, bo wiesz, pytanie może być długie i niezależnie.

    [Przemysław Żukowski]: Pytanie po prostu, jakby jak już walniesz Enter, to to licznik poleciał, więc mówisz, wiesz… No właśnie, więc jak już myślisz nad jakimś pytaniem, to… A to tutaj… A propos… To jest po prostu ograniczenie licencyjne, czyli jeżeli jeżeli potrzebujemy więcej, no to wtedy możemy każdy z tych parametrów sobie zwiększać, czyli np.

    niekoniecznie chcemy więcej pytać bo w 25 tysięcy powiedzmy się wyrobimy, ale tej wiedzy chcemy po prostu tam więcej zapakować, więc ten parametr sobie zwiększamy, więc można sterować jednym jednym i drugim. Praca dziennikarza który może zapytać, co pisaliśmy o komendancie policji w czasie kadencji PiS-u.

    To jak on w pięć minut by dostał, to boczne by było. Albo to jakiś dany polityk powiedział dane kwestie, na przykład. To by było od zera do stu. Wyssane.

    To jest właśnie coś, co pokazywałem w Łodzi. Oczywiście prosty przykład, ale właśnie wchodząc tam, wszedłem sobie na stronę Orlenu i gdzieś tam zadałem pytanie właśnie o wyniki finansowe. Pytanie brzmiało chyba podaj mi wyniki finansowe za drugi kwartał 2024 roku. Enter. No i dostałem chyba 8 tysięcy wyników wyszukiwań na ten temat.

    One były posortowane po 2 tysiące

    Adekwatności tej odpowiedzi czyli pytałem o wyniki drugiego kwartału 2024, a pierwsza odpowiedź która była mi zarekomendowana, to było z 30 grudnia 2023, więc ten drugi kwartał 2024 jeszcze tam nie nastąpił jeśli chodzi o wyniki. I to są mniej więcej tego typu narzędzia, o których w tym momencie mówię, czyli tam jest naprawdę nawrzucone tego mnóstwo.

    Ktoś tam wykonał lub nie wykonał jakąś pracę powiedzmy z tagowaniem, ale później ten user i tak ma jeszcze całkiem spory materiał do przeanalizowania samodzielnie. Natomiast tutaj to podejście jest inne, po prostu sobie te informacje wyciąga, fajnie nam kompletuje do odpowiedzi a później w razie czego jak potrzebujemy, to do tej bazy wiedzy możemy się dostać.

    Teraz co jeszcze jest ciekawe? Przemek powiedz jeszcze jedno pytanie. On jest w stanie, na przykład wrzucisz mu 100 plików z tabelkami podobnymi i on jest w stanie na przykład, tak jak nie wiem, manualnie człowiek by to musiał przy czymś przerobić jakimś ETL-em coś, żeby pozbierać i wyciągnąć dane, to znaczy on jest w stanie ci zebrać to dla ciebie i ci wywrócić jakiś plik?

    Masz pojedyncze raporty jakieś, dajmy na to, i żeby ci dane wygenerował. Nie, to bardziej jest na zasadzie takiej, że z tych powiedzmy pojedynczych plików jakąś tam wartość ci wyciągnie. Czyli na przykład szukasz wartości właśnie dla jakiegoś tam kwartału, któregoś tam dla produktu czegoś tam. Wartość ci wyciągnie, ale nie zrobi ci takiego właśnie, że po skleja i ci jeszcze zrobi mega tabelkę z tego.

    Do tego to pewnie… Trzeba pamiętać, że LLM-y są kiepskie w matematyce. jak w tym sklejaniu byłoby sumowanie jakichś wartości z odpowiednich komórek, to się trzeba sporo namęczyć, żeby na koniec sumował na przykład tą technologię. W dobrym znalezieniu w kontekście igły w stopniu siana, ale nie w sumowaniu.

    Tutaj

    [Paweł Manowiecki]: nie jest tak, że nakarmię jakimiś umowami centralnymi, tabelkami z obrotami i powiem, żeby mi rabaty wyliczą. No

    [Przemysław Żukowski]: Nie w tym kierunku, ale właśnie jakieś szukamy… Nie licencja. Trzeba do tej tabeli zabrać Na przykład na jakieś dane bardzo, wiesz, nie chcę tego wrzucać w chmurę, czy gdziekolwiek, no bo to klient to procesuje, tak, że jakoś dają gwarancję na przykład że nie wiem, dane wrażliwe.

    Pod spodem szczególnie jeśli chodzi o Sasa, to wiadomo że pod spodem Qlika siedzi AWS. To jest to rozwiązanie i tak idąc jeszcze dalej, to z czego gdzieś tam pod spodem jest też poskładany Qlikancer, to też są narzędzia AWSowe. Czyli tam jest Bedrock, jest Cloud Sonnet, to są tego typu rozwiązania. Więc jeżeli trzeba, to oczywiście gdzieś tam można wejść w szczegóły i pokazywać jak to jest poskładane W pierwszej kolejności co klient zapyta może już nie tyle mu chodzi o to, czy te dane, tylko czy na przykład te dane nie mogły nie mogły wycieknąć.

    Albo na przykład banki w życiu to nie wpływa, bo to nie wolno im w ogóle. A czemu nie wolno? No HSBC stoi na pliku to on w życiu na Sasa nie przejdzie.

    HSBC nie ma Sasa?

    Zrób zapytanie. Nie ma i nie będzie? Przemiędzymedyczne to nie problem, bo już to jakieś tam pamiętam swoje standardy które już są międzynarodowe. Gdzieś tam pewnie też z czasem będzie się trochę zmieniało, ale właśnie i samemu AWS-owi, i samemu Qlikowi, jakby generalnie tego typu dostawcom zależy na tym, żeby takich klientów też pozyskiwać, więc robią wszystko, czyli np.

    właśnie Qlik ma te HIPA, więc jak już trzeba, no to jakby pobawić się w dane medyczne, no to też są pod tym kątem pocertyfikowani. Jakby jak trzeba, no to można gdzieś tam zgłębić temat dalej i pamiętam, że Qlik jest w stanie jakby dokładnie opowiedzieć, jak to działa, co tam się dzieje pod spodem, jaka magia.

    Bo te same dane są raczej normalnymi danymi to bym to inaczej mówił. To są cyferki, ale jeżeli już chodzi o dokumenty umowy na przykład czy coś to nic no

    [Paweł Manowiecki]: tu, wiesz no nikt nie, wiesz kurka bo nie, no bo co ci z tego, wiesz. Ale jak znam Qlików, różne rzeczy mogą wylądować w takiej wersji. Jakby Qlima ma

    [Przemysław Żukowski]: przetrawiony już wątek chmury i bezpiecznik Po rozmowie z bezpiecznikiem Qlikowym zrozumie, że np.

    instancja nie wiem, LLM jest dedykowana dla niego, że to wszystko jest wyizolowane w jakichś wypisach itd. No to zaufa temu środowisku i powierzy mu dane, które są bardziej wrażliwe. A jak bezpiecznik jest jeszcze na etapie nic nie może opuścić mojej serwerowni no to dla samego Qlik Answers nic go nie przekona.

    Dopiero włamali do jego serwerowni, to przekonam podczas gdy na chmurze. A tam pod spodem są właśnie, to jest taka trochę dyskusja trudna obecnie wszędzie występująca, bo niektórzy myślą, że to trochę jest tak jak w modelu ChatGPT za darmo, wrzucam umowę no to ktoś nie daj Boże jeszcze to będzie przechowywał, przetwarzał, douczy na ten model, ukradnie mi wiedzę itd.

    I zgadza się, darmowy ChatGPT jest do tego darmowy, że się doucza model swoim swoim działaniem. Przejście na pierwszą wersję komercyjną, nie plus, co ciekawe tylko dopiero TIM, powoduje że już jest gwarancja że ten obieg danych nie jest głębszy. Czyli

    [Paweł Manowiecki]: private ten, który się płaci już to jest 100 złotych Też nie jest prywatny.

    [Przemysław Żukowski]: Nie masz nigdzie tekstu na stronach OpenAI, który by Ci zagwarantował, że możesz pójść z jakimś dobrym prawnikiem i się bić o to. Dopiero licencje enterprise’owe, gdzie pierwszą najmniejszą jest Teams, dopiero to gwarantują. Ale głębszym jeszcze rozwiązaniem, jak gdyby ten sam model, który w tym OpenAI w stylu GPT jest, jest możliwy do hostowania prywatnego na przykład na Azure.

    Azure OpenAI model może być tylko dla Ciebie wyhostowany. I tutaj dla przykładu jest antropikowy model Cloud Sonnet 3.5 hostowany pod tego tenanta Qlik’a dedykowany. Czyli to jest mocny model, ale nie to, że antropik dostaje na bieżąco dane z tysiąca firm używających Qlik Answers, tylko jest ten mocny model używany.

    Dla środowisk Qlik Answers.

    [Paweł Manowiecki]: No dobra to tak między Bogiem a prawdą, to w czym to będzie lepsze od takiego zwykłego razu, którego sobie zrobię naprzód i go nakarmię po prostu swoimi dokumentami tak czy tak. Ktoś mu skonfiguruje po prostu pytania i odpowiedzi które będą predefiniowane. No i w suma summarum to będzie podobnie, nie?

    Jak dla mnie, nie wiem, tak z pierwszych uwzględnień, no to dla mnie to jest tak, że no okej to jest w Qliku, to po pierwsze, po drugie no jest sobie aplikacja, w której mogę podejrzeć kto o co pytał, no bo jak ja bym już dostał takiego Answersa, to po pierwsze, co bym próbował zhakować, co tam kto wyrzucił przypadkiem, nie?

    Nie wiem czy sprawdzaliście, co potrafi być w Teamsie, jak się szuka, w wyszukiwarce, bo tam można ludzi wyszukiwać, ale pliki też można wyszukiwać. Co się potrafi tam z czasem znaleźć? No fajne rzeczy, bo to udało mi się znaleźć Okej, to inni

    [Przemysław Żukowski]: próbowały.

    [Paweł Manowiecki]: Więc naprawdę różne rzeczy…

    [Przemysław Żukowski]: W naszym filmie wszyscy wiedzą wszystko, nie ma tego problemu.

    Konfiguracja czy coś tajemnego może być.

    [Paweł Manowiecki]: Więc naprawdę czegoś nie wiedziałem i musiałem się szybko zawiedzić i udało mi się to skrakować, nie? No, a nie powiem dostępu mi do tej wiedzy, nie? Bo nie była mi ona udostępniona, nie? Więc co do zasady jakby wciąż nie widzę jakiegoś takiego… Game Changera nie Oprócz tego, że to jest Qliku nie?

    [Przemysław Żukowski]: Myślę, że jakby taką dużą zmianą będzie to, że w momencie kiedy drogi Insight Advisora i Klikancersa się zejdą, to wtedy będzie pewnie, no bo w tej chwili trochę są dwa różne rozwiązania, dwa osobne światy. Natomiast jak to się zejdzie razem, no to masz już naprawdę bardzo fajne połączenie i wszystkich tych danych powiedzmy ustrukturyzowanych jakichś tam wyników takich, no po prostu aplikacji, łącznie z jakąś tam wiedzą taką dodatkową, czyli na przykład nie wiem, dostajesz wyniki finansowe swoje, a przy okazji w takim ragu masz jakiś nie wiem, raport zewnętrzny w ogóle tłumaczący jakieś zjawiska na świecie i on Ci na przykład jeszcze dodatkowo wytłumaczy te dane w kontekście właśnie czegoś takiego.

    No i masz to cały czas jakby u siebie, w swoim miejscu w swoim środowisku więc myślę, że tutaj jest ten tak chyba, jeszcze po mniejszość tych innych rzeczy. Obserwowalność, nie ma obserwowalności. Obserwowalność co się z tym dzieje, no nie wiesz co się dzieje z tym GPT-sem.

    [Paweł Manowiecki]: Ty, człowiek który masz na wzorze i to uruchomisz we własnym tenancie, też nie wiesz jakie pytania latają?

    [Przemysław Żukowski]: Mówisz no ok, ścieżka kiedy chcesz sobie to zbudować no to możesz wszystko, bo zbudować możesz wszystko, tylko jest kwestia wysiłku, to w ogóle wiesz cofasz się do tej debaty którą Przemek bardzo ładnie pokazał na tym obrazku. Jest mnóstwo, żeby w enterprise’owym środowisku zrobić raga, a nie jako pod i nie bać się tego, co się z nim dzieje, to trzeba tyle pudełek ponastawiać co tam było na jednym ze slajdów.

    I to jest tak, że ok, u Ciebie na komputerze, czy tam w deweloperskim środowisku, czy w POT-u potrzebne jest tylko pięć sześć komponentów z tego, a jak dajesz to ludziom do dyspozycji, to musisz wiele rzeczy jeszcze zabezpieczyć, więc do tego naprawdę sporo komponentów trzeba wziąć pod uwagę, żeby na takim ażurze postawić sobie raga, który w firmie nie zrobi kuku nikomu i również temu deweloperowi to wymyślił.

    To masz gotowca z tym wszystkim. To jest zasadnicza różnica, duża że to jest gotowy enterprise’owy rag, co jest rzadkością w tej opcji Myślałem że pytałeś też o chat’a GPIT’owego raga, w

    [Paweł Manowiecki]: którym… Ktoś jest w stanie napisać dokumentów kilka, jakieś tam opinie, czy są trylogie i dalej, pytać się o konkretne rzeczy.

    Tam w Qlik Answers

    [Przemysław Żukowski]: jest gotowe dosyć duża paczka konektorów do tego, co najczęściej trzyma pliki w korpach, bo można SharePointa indeksować. Jeśli pokazujesz SharePoint Site, to sobie sam poradzisz, żeby to wszystko mieć. Trzeba ci coś wyciśnąć musisz jeszcze tam jakoś przepompować tą informację z SharePointa do chatu GPT.

    Są wszystkie storage’e chmurowe, czyli nie wszystkie, bo prawie wszystkie. W sensie, że to nie musi być OneDrive, tylko czy coś tam, tylko też możesz pompować z tych innych storage’a. Według mnie to na razie jest różnica, jeżeli ktoś chciałby zrobić teraz na tym biznes i teraz coś zrobić, to ma gotowe bezpieczne rozwiązanie w rękach.

    Reszta da się, ale kurczę jest sporo roboty. No i żargoń cenowy jest, no nieznany tutaj. To jest PyroBuild, tak zwane wyzwanie. Albo kupujesz za tą licencję, bo nie chcesz marnować czasu, tylko widzisz wyraźną przewagę konkurencyjną że zaczniesz z czegoś takiego korzystać, albo sobie tam pocujesz, nie pocujesz eksperymentujesz, trafiasz na pierwsze pułapki, budując to czymś rękami.

    I dopiero na koniec się okaże, że ktoś będzie rok cały bawił. Na FTE, to jest niemierzalne w niektórych firmach, więc to build or buy, klasyczna. No dobra i co słuchajcie, to tak na sam koniec jeszcze, bo to co widzieliście tutaj jeśli chodzi o tego asystenta, to tak jak widać on jest trochę tak tutaj wsadzony gdzieś tam z boku, tak sobie funkcjonuje trochę niezależnie od Qlika.

    Natomiast to co ważne, to jest to też narzędzie, które może być gdzieś tam zaembedowane do innych rozwiązań. Czyli przykładowo mamy CRM, w którym chcemy, żeby taki asystent sobie siedział, więc potencjalnie Qlik Answers może siedzieć w Salesforce czy w czymś innym i po prostu być takim asystentem zaembedowanym w inne rozwiązania.

    Ten embedding też można robić gdzieś tam na zasadzie Qlika, czyli mamy tutaj powiedzmy standardową jakąś tam aplikację z jakimiś prostymi wizualizacjami, no ale tutaj jakby w rozszerzeniach też mamy tego naszego CRM for Qlik Sense i teraz jedyne co potrzebujemy to tylko wskazać tego asystenta z którym chcielibyśmy korzystać i on też może sobie siedzieć bezpośrednio w aplikacji, jak sobie z tego wyjdziemy no to może on sobie tutaj działać niezależnie od tego co Co się dzieje tutaj, albo też w pewien sposób zależnie, czyli przykładowo jeżeli coś wybiorę sobie na filtrze jakiś konkretny wymiar, to potencjalnie tak jak widać tutaj, asystent ma też tutaj FX-a, więc potencjalnie w zależności od tego, co użytkownik ma założone na filtrze, mógłbym mu tutaj podstawić innego asystenta i mógłby sobie gadać z nim o innych rzeczach.

    No i ten asystent też może być gdzieś tutaj sobie powiedzmy schowany, czyli działamy sobie w aplikacji jakby robimy różne rzeczy, a jak potrzebujemy go o coś dopytać, no to mamy takiego pop-up-a, który dopiero nam się tutaj pojawi. Więc w ten sposób… A on też może być zależny w takim sensie, że można w zależności od tego, znaczy wybrać, którego asystenta ma wybrać, czy czy można zrobić tak, że jak mam w sensie dane z wielu krajów i sobie na filtrze wybiorę jeden kraj albo dwa kraje z tysięciu, to czy on tą bazę, z której będzie, komponował te odpowiedzi o których ja zapytam czy on wtedy ją zawęzi do wiedzy tych dwóch krajów?

    To można, można tak, można tak zrobić, że na przykład, załóżmy, no nie wiem, Wybierzmy sobie marki samochodów, czyli przykładowo Tesla, Mercedesa, BMW i pod każdego z nich masz asystentów Jak sobie wybierzesz na filtrze Tesla przykładowo to Ci się podłączy asystent z Tesla. Na przykład w ten sposób możesz zrobić, a z drugiej strony też pod asystenta możesz na przykład podpiąć dodatkowe bazy wiedzy, czyli np.

    taki asystent nie wiem, dajmy na to, niech on się nazywa region. Może przeplatać że jeden asystent może z wielu baz, a jedna baza może być w wielu asystentach, więc możesz mieć, nie wiem. Można tak kombinować. Na markach samochodu asystenta od samochodów elektrycznych, który będzie korzystał z bazy BYD, Tesla i więcej marek nie znam.

    A na przykład kopciuchy Volkswagen, Volkswagen, Volkswagen. BYD jest wymieniony na pierwszych miejscach. Także tego typu zabawka, jeżeli ktoś z Was chciałby to przetestować, dajcie znaka, można dosyć szybko uruchomić pod to trail’a i tenant’a i faktycznie tak jak jeden z przykładów moich klientów, dosłownie od momentu kiedy dostał linka z zaproszeniem do tenant’a do momentu kiedy sobie zaczął już gadać ze swoją bazą wiedzy, de facto upłynęły pojedyncze minuty.

    Więc właśnie w kontekście takiego szybkiego pocas, zobaczenia czy to jest coś, co by pasowało do organizacji, no to dosłownie… Ile to płynie? Wiadomo. Nie dużo. Zaledwie 70 tys. euro i jest twoje.

    [Paweł Manowiecki]: Rocznie?

    [Przemysław Żukowski]: Rocznie.

    70 tys. euro, natomiast z tego co słyszałem gdzieś tam jeszcze to nie zostało wprowadzone, ale była zapowiedź że pojawi się, nazwijmy to, wersja SMB. Czyli coś tam okrojonego zarówno zapewne cenowo, jak i wolumenowo pod względem czy ilości pytań, czy zindeksowanych stron wiedzy. W Europie to… Jak się tak, wiesz co, pytałem kilka organizacji, które się gdzieś tam zaczęły bawić w tego typu rzeczy samodzielnie, no i na przykład po trzech miesiącach dochodzą do jakiejś pierwszej wersji beta i na przykład siedzą dwie osoby full time na tym temacie żeby to ogarnąć.

    [Lech Miszkiewicz]: Nie

    [Przemysław Żukowski]: mówimy jeszcze w ogóle o wypuszczeniu tego gdzieś tam dalej. Więc jak to tak sobie zaczniesz liczyć też w kontekście FTE, no to tak się zaczyna zastanawiać, że te 70, oczywiście przy jakiejś tam skali, ale to jest coś, co gdzieś tam faktycznie można zacząć przekładać fajnie na pieniądze, bo faktycznie ten efekt masz dosłownie powiedzmy w szybkim pocu, no to to są pojedyncze powiedzmy godziny.

    Możesz to już udostępniać użytkownikom, versus właśnie trzy miesiące dwóch deweloperów dzień w noc można powiedzieć i próbując coś stworzyć. Taka zabawka, zachęcam do testowania i szczególnie do obserwowania tego, co będzie w przyszłym roku, bo to właśnie te dwie drogi czyli tutaj widoczny w prawym górnym rogu Insect Advisor i właśnie Qlik Answers, gdzieś tam się będą schodziły.

    Więc to może być taki fajny fajny miks tych dwóch funkcjonalności. Trochę już z tego widziałem w ląd, jak to będzie wyglądało właśnie na apce mobilnej, robi wrażenie, więc jakby patrzcie na to, co się będzie działo też przyszłym roku, bo ten przyszły rok to też jest właśnie rok różnych rzeczy w pliku, ale między innymi też właśnie apka mobilna i tego typu nazwijmy to, różnego typu asystenci, czyli nie tylko asystent taki do wyszukowania tego typu informacji, ale też na przykład asystenci nazwijmy to tacy administracyjni czy deweloperscy.

    Przykładowo jestem adminem, nie chce mi się Qlikać pisze prompta, załóż mi pięć grup czy tam jakieś tam space’y takie i takie i leci. Więc to jest też kierunek w którym gdzieś tam Qlik idzie, więc ci asystenci w różnych miejscach Qlika i w zależności od tego, kto jaką funkcję pełni, będą się pojawiać i będą nam tam Pomagali, być może też nas trochę wkurzali, ale zobaczymy jak to będzie.

    Dla mnie tyle. Przekazuję głos teraz do Pawła. Posłuchajcie o czym bym wam tu opowiedział? Ciach. No właśnie. QlikTalent Cloud. Tak sprawdzę trochę wiedzę w tłumie bo właściwie nie wiedziałem, jak głęboko w temat wchodzić. Kto cokolwiek słyszał o wersji QlikTalent Cloud, to talent w Łodzi. Trochę wiedziałem w Łodzi.

    No dobra. To tam na online nie przeczytam, chyba że ktoś coś napisał. Ktoś pisze. A słyszą? Tak słyszą. Nawet słyszeli o QlikTalent Cloud. Nawet słyszeli o QlikTalent Cloud. No to tak tylko te wprowadzające slajdy w telegraficznym skrócie. QlikTalent Cloud pozycjonuje się gdzieś tutaj, w całej tej architekturze którą Qlik ma do dyspozycji.

    Pośrodku do wyboru do koloru system, który przechowywać będzie dane, jak nie jest nim Qlik Qliksens i jego QVD-ki, bo to też może być tym targetem pośrodku. To do wyboru do koloru jedna z tych baz danych. Teraz No tak, ale QVD-ki też są doceniane i będą jeszcze bardziej i tam brakuje pewnych rzeczy w talencie do QVD-ków, ale słyszę, że się zbliżają również, żeby tego typu plik czyli plik Data Lake’owy, zanim Data Lake został modny, też był uwzględniony.

    I posłuchajcie, właśnie, ten Qlik Talent Cloud to jest próba zebrania produktów Qlik’a i Talenta pod jedną strzechę i dotycząca głównie rozwiązań cloudowych lub hybrydowych, czyli to co na górze. Qlik się składa z komponentu do ładowania danych, do transformacji danych i do… prezentowania zebranych danych w postaci katalogu danych produktowych.

    On jest możliwy ten obrazek troszeczkę kłamie, bo to jest możliwe do używania w trybie hybrydowym, w tym sensie, że może sięgać do danych on-premise, one nie muszą być wcale wyłącznie chmurowe. No i mamy do kompletu jeszcze do dyspozycji dla środowisk tych, które potrzebują jeszcze coś zrobić w on-premise w zupełnym odcięciu od internetu szereg narzędzi typu Qlik Replicate i Qlik Compose, taki standalone, talentowe narzędzia też takie standalone, które mogą być całkowicie posadowione w on-premie albo wyłącznie te kawałki, które dostarczają danych do tego, co jest w chmurze.

    I tak, mamy po pierwsze wczytywanie danych. Tak w Qlik Talent Cloud, zwanym onegdaj Qlik Data Integration, to jest to miejsce, tylko nie jest to Qlik Data Integration, bo Qlik Data Integration to jest scheda, znaczy to sytuacja jest taka, że mamy dobrodziejstwo poakwizycyjne po firmie Attunity, nie wiem czy ktokolwiek jeszcze to pamięta, szereg dobrych mocnych narzędzi klasy CDC, Change Data Capture w postaci oprogramowania Replicate, które, tak powiem aportem do produktu Qlik Data Integration zostało wniesione.

    Natomiast na tym rozwój tego produktu nie stanął bo on również teraz integruje rozwiązania talentowe w swoim środku i przestaje się nazywać Qlik Data Integration Zaczął się nazywać QlikTalent Cloud, czy jak ktoś chce QlikTalent Data Integration i będzie złożeniem. tym

    [Paweł Manowiecki]: momencie, to

    [Przemysław Żukowski]: jest

    [Paweł Manowiecki]: cały czas jest ten ekstrakt że jakby talent został kupiony, no i teraz to jest wciąż ten talent plus ten QlikTalent Data Integration i to się teraz nazywa w sumie QlikTalent coś tam, integration, czy to jest?

    [Przemysław Żukowski]: Nie, to koncepcja, ja sobie próbuję to tak wytłumaczyć, QlikData Integration jest intensywnie rozwijany, żeby wciągnąć wszystkie możliwości talentowe do swojego środka.

    [Lech Miszkiewicz]: Czyli

    [Przemysław Żukowski]: jak gdyby R&D Qlika nie siedzi nad talentem żeby go zrobić Qlikowym,

    [Lech Miszkiewicz]: a

    [Przemysław Żukowski]: siedzi nad QlikData Integration, żeby wszystkie fajne rzeczy z talenta wyciągnąć i zaprezentować w formie QlikTalent Cloud.

    I to się stopniowo dzieje. Jedną rzecz, najświeższą pokażę która jest wyraźnym dowodem tego, że się już rzeczy z talenta przeniosły. To u podstawy jest też ujednolicanie silników wykonawczych trochę, bo w świecie Qlikowym, nie wiem czego dotykał ale Jest Data Gateway, jest Runtime, jest Engine talentowy, jest kilka form tego silnika który przelicza dane albo pozyskuje dane z bazy na przykład on-premise.

    I to wszystko będzie zebrane pod jedną strzechę, w sensie będzie jeden engine możliwy do wykorzystania, czyli R&D będzie rozwijało jeden kod a on będzie do użycia w tym najnowszym produkcie, ale też do użycia w tych zastosowaniach poprzednich, bo zobaczcie, to Qlik Replicate i Qlik Compose to jest rozwijany dalej dokładnie wyglądający tak samo, tylko w zielonych kolorach i z nowymi tam powiedzmy możliwościami technicznymi, ten produkt Attunity.

    Także on istnieje i jest do dyspozycji jeżeli są potrzeby takie, które… blokują przed tym, żeby użyć Qlik Talent Clouda ktoś ma, nie wiem, tą obsesję on-premisu i nic ma nie wychodzić poza, to te komponenty legacy powiedzmy są dostępne i rozwijane. I można sobie nadal samego Talenda odizolowanego kupić, ale jednak wszystko zmierza do tego, żeby to był ten Qlik Talent Cloud, który właśnie, tak jak mówię, zbiera te funkcjonalności do kupy.

    Pierwsza zaleta tego rozwiązania to jest to, że w tym miejscu R&D planuje wpakować najwięcej konektorów w całym świecie Qlikowym. Znaczy chyba jeszcze nie udało im się pobić konektorów Qliksensowych i będzie za tym gonić, natomiast trzeba też pamiętać że Qlik Talent Cloud to wcale nie jest rozwiązanie używane wyłącznie przez Qlikowych klientów a nawet paradoksalnie częściej przez nieQlikowych, nieQliksensowych klientów, dlatego że to zbiera, zazwyczaj zbiera w celu posiadania jakiejś hurtowni.

    Klik przez lata był wdrażany tak, żeby hurtowni nie potrzebował, potrafi operować tych danych odłączonych. Także wiele konektorów do różnych zbiorów takich biznesowych, internetowych, ale bas on-prem i teraz do takiego, nie wiem, przykładowego SQL serwera można się dostać jak on jest wystawiony gdzieś tam w internecie, powiedzmy, czego się nie robi, albo jak jest gdzieś tam za firewallem gdzieś tam on-prem albo w jakimś private cloud.

    Ta maszyneria ma taki komponent data gateway, który jest stawiany za firewallem i on musi widzieć środowisko to chmurowe i on wypycha te dane na zewnątrz dostając jakieś tam komendy co ma zrobić do przodu. No i właśnie świetny mechanizm replikacji danych, on jest,

    słyszę taką reakcję na to change data capture na zasadzie, nie, my nie chcemy robić nic real time, bo niektórzy mówią, że change data capture kojarzyło im się ze scenariuszem, w którym chcieli tam sekundę po zdarzeniu w systemie transakcyjnym mieć to w analityce i już analizować. To nie do końca jest ten przypadek to jest zastosowanie tej metody podążania za przyrostem danych w różnych środowiskach w sposób taki, żeby jak najmniej…

    najmniej bazę źródłową bolało i tutaj bardzo ciekawe historie słyszymy a propos mainframe’ów na przykład, czy SAP-a która z baz teraz mi wyleciało. Właśnie na przykład SAP, że Klik Talent Cloud potrafi słuchać tej różnicy i nie obciążać systemu źródłowego patrząc w niektórych przypadkach na logi tejże bazy danych, właśnie z tym mainframe’owym case’em jest też tak, że alternatywne rozwiązania wymagają replikowania danych na mainframe’ie i dopiero zabierania tych danych z mainframe’a na zewnątrz co przy mainframe’ach powoduje gigantyczny koszt bo koszt mainframe’a dotyczy każdej operacji, w MIPS-ach się kupuje capacity, a Klik Talent ma komponent, który z tych mainframe’ów jest w stanie zdjąć te dane nie wysilając obliczeniowo maszyny źródłowej, też potrafi patrzeć za logami na tych maszynach.

    Słyszałem, że jeden z największych na świecie klientów FMCG jest głównym klientem tego rozwiązania i zaciela ręce. No i te dane mogą być później transformowane. Transformowane też w takim mechanizmie chain data capture, czyli jakakolwiek zmiana przychodzi z bazy źródłowej, to później tą zmianą zajmujemy się, żeby ją…

    Przetrawić w tym całym pajączku powiedzmy według tej koncepcji warstw danych, że jest tam gdzieś brąz silver, gold, że doprowadzamy do formy gold, która jest gotowa dla analityki przechodząc przez brąz który jest po prostu kopią, silver, który jest jakimś poprawieniem danych do tej warstwy gold.

    Czy to się przełączyło? No właśnie. Te transformacje. Po pierwsze Talent Cloud robi transformacje w ten sposób, że w góry jest to układanie klocuszków tak naprawdę i wybieranie które tabele, jak będzie wyglądał docelowy model, a w zależności od tego na jakim środowisku jest to robione, bo zawsze z tyłu tam jakaś baza z tych chmurowych jest, , chociaż nie tylko chmurowych, ale jakiś Snowflake, jakiś Databricks, na którym to się dzieje, on tak naprawdę kompiluje to, co się wyQlika do SQL-a, który te operacje powoduje.

    Nie wszystko jest robione SQL-em, na przykład w Snowflake’u niedługo wchodzi taka funkcjonalność, żeby Te dane były też na wejściu wsysane, nie rekord po rekordzie, znaczy przepraszam nie to, że rekord po rekordzie, tylko tam jest dostarczany plik i ten plik jest rozpakowywany i wciągany dalej przez Snowflake’a, tylko jest też zamiana na taki najnowszy mechanizm wczytywania do Snowflake’a, także z przodu to wyglądać będzie cały czas tak samo, a z tyłu są tutaj najlepsze praktyki jak w danej bazie dane wrzucić i transformować do przodu.

    Można te transformacje po drodze zrobić SQL-owe, jak ktoś bardzo się za tym SQL-em stęskni, natomiast zasada jest taka, to ma być, nie SQL-owe, to ma być no-code, low-code, czyli jak ktoś już operuje SQL-em, to pewnie się nie będzie cisnął do tego, żeby użyć tego…

    [Paweł Manowiecki]: No-code, ale później też tak trzeba zwalidować bo się okazuje że jeżeli zrobimy to graficznie to dłużej to zajmuje i tak trzeba przejść później na SQL-a i to No praktyk

    [Przemysław Żukowski]: Dyskusja typowo akademicka na ten temat, no bo zawsze jest trade-off prędkości versus precyzja i umiejętności, pochodna umiejętności zespołu który używa narzędzia bo z Twoimi umiejętnościami zrobienie czegoś od razu SQL-em dużo lepiej wyjdzie niż w zespole który tego SQL-a nigdy nie znał i lepiej żeby się nauczył Qlikać po takim low-code’zie właściwie no-code’zie bo on nie jest low-codem tu jest pierwszy z elementów tej tranzycji z Talenda do QlikTalent Cloud bo w Talendzie były takie było coś, co się nazywało Pipeline Designer a do Ciebie mam właściwie pytanie jak sobie postawić granicę czasu chciałbyś, żebym skończył 15 minut, 20, 30 na Lecha potrzebujemy około 40 minut no i 21.30 mieliśmy zaplanowane więc tak gdzieś do 15-20 minut 20, to przyspieszam Transformation Flows to jest pierwsze zapożyczenie z Talenda w Talendzie jest coś, co się nazywa Pipeline Designer w ogóle już nie będzie rozwijane Ta funkcjonalność, która polegała na takich bloczkach prostych do konfiguracji kolejnych kroków, tam coś połącz, coś filtruj, coś wyczyść, coś pozmieniaj w nazwach, tam nawet jest taki kawałek jeden tylko dla Databricksów AI-owych, że na przykład policz sentyment dla komentarzy czy coś, to to będzie częścią jest już częścią Qlik Talent Cloud i następna rzecz, wynik tych wszystkich przekształceń tworzy powiedzmy datamarty czy jakieś produkty danych i te produkty trafiają po pierwsze do katalogu Qlikowego, a po drugie to co jest w katalogu Qlikowym może być spakowane jako taki data as a product i umieszczony w data marketplace na Qliku.

    Obszar produktów Qlik Talent Cloud na świeżo rozwijany obszar który nabierze rumieńców podejrzewam w pierwszym kwartale przyszłego roku, ale właśnie to wyróżnia… To jest

    [Paweł Manowiecki]: zespoł frejkiem, nie? Też musimy oferować swoje sety danych

    [Przemysław Żukowski]: To nie tego typu data marketplace. Data marketplace snowflake’owy wychodzi na świat otwarty i sprzedajesz próbujesz montować te dane z klientami.

    Tu jest wewnątrz firmowy marketplace, bo tam się nic nie płaci. Tego komponentu nie ma. W tym nazewnictwie katalog to jest właściwie taki spis,

    [Paweł Manowiecki]: a

    [Przemysław Żukowski]: marketplace to są gotowe zestawy opisane, które można wciągnąć do aplikacji i mieć z tego aplikację.

    [Paweł Manowiecki]: Myśmy już kostki operowali dotyczące, tak? Tak. To już jest kostka.

    Te

    [Przemysław Żukowski]: trzy QVD-ki albo te trzy bazy ze snowflake Smaflake’a bierzesz do apki i masz gotową apkę, która ci opracowuje sprzedaż. I teoretycznie, zobaczymy jak się rozwinie, ale będziesz mógł to wciągnąć dowolnym produktem. Aktualnie Qlikiem jest najłatwiej to wykorzystać. No takie trochę zboczenie zawodowe. I ja się, czekajcie, chcę przerzucić do, żeby wam pokazać GUI.

    Mam takiego ten antena, na którym głównie to jest, żeby się nie pogubić. Gdzieś tam wybieram sobie Snowflake’a jako platformę Microsoftową bazę jako źródło i w telegraficznym skrócie przez jakiś prosty projekt takiego przekształcenia was przeprowadzę, ale za wiele się nie będę tutaj znęcał nad tym.

    Czyli tak, mamy jakieś źródło i to jest Microsoft Cyklu serwer w włączonym Change Data Capture. Można to robić na kilka sposobów ale ten jest ten najprostszy. Pierwszy komponent, w pierwszym komponencie jak go dwa razy tutaj wybiorę mogę sobie wybrać które,

    Tablice, które schematy albo które kawałki z metadanych chcę sobie replikować, czyli tutaj mam zdefiniowane, że chcę sobie zabrać całe, wszystkie tabele schematu sales, wszystkie tabele schematu person, no tutaj za chwilę się pokażą, trochę by było trzeba na to poczekać o, już jestem, że jak sobie wybiorę wszystkie, to tu powinny mi się wszystkie tabele źródłowe, tak, no i mam tam ileś ileś nich, tak, mógłbym sobie jeszcze produkcję zabrać albo pojedyncze konkretne wybierać, wybieram sobie, co chcę replikować.

    I teraz tak, z

    to jest tak, czekajcie, jak to przesunąć? Przeszkadza? Czy jakoś to można zwinąć? Nie. I to jest tak że taki krok ma kilka etapów jest krok przygotowań i krok ładowań jak gdyby, dlatego, że z tego wszystkiego powstają fizyczne obiekty w bazie danych, którą mam pod spodem, czyli taki projekt robię dla Snowflake’a, w wyniku tego, co sobie wybrałem do kopiowania, powstaje zbiór Tabel, w które to Snowflake będzie te dane wrzucał i również tabel które są takimi formami dla przykładu łapiącymi zmiany w tych tabelach.

    Czyli podczas całego działania do przodu tego jobu który mi kopiuje, będę miał tabelę, w której mam bieżące dane i tabelę, która pamięta o każdej zmianie danych która przyrostowo się wydarzyła. Jakbym się przełączył w Snowflake’a, do którego muszę się zalogować i przypomnieć sobie, który to był tenant.

    Strzelajmy.

    Przynajmniej wszędzie tą samą konwencję. To jest

    [Paweł Manowiecki]: właśnie to, czemu ze Snowflake’a uciekają dalej, bo nie ma podwójnej autoryzacji Nie

    [Przemysław Żukowski]: nie, w Snowflake’u jest podwójna autoryzacja, na trialach na szczęście nie zmuszają do tego, bo by dema trwały o 5 sekund dłużej.

    [Paweł Manowiecki]: Ale nie mogę z tego mówić. Jest Qlik Sense, teraz jest Qlik Parent Cloud, który tam jest uruchamiany na Snowflake’u.

    Snowflake jest uruchamiany na załóżmy AWS-ie, GCP czy Azure’ze i tak naprawdę dopiero gdzieś tam po 6 krokach mamy fizyczny GCP.

    [Lech Miszkiewicz]: Intensja.

    [Przemysław Żukowski]: Oj daj zarobić różnym ludziom. I zobaczcie gdzieś… Pierwszą warstwą jest lending i powstają właśnie tabele i takie formy change, jakby na CT, czyli change tracking, coś w tym stylu

    gdzie widać że dana wartość tam danego dnia zmieniła, która to jest wersja i tak dalej. Takie dane Qlik będzie ładował.

    [Paweł Manowiecki]: Możemy śledzić ten Dimension Changer, to było to SDC, czy to było to…

    [Przemysław Żukowski]: Tak Slowly Changing Dimensions, można skonfigurować tutaj wręcz. W procesie projektowania… To zawsze

    [Paweł Manowiecki]: było najtrudniejsze w Qliku, tak zrobić sobie.

    [Przemysław Żukowski]: Czekajcie, bo ja się tam… W Settingsach masz…

    Już teraz nie przypomnę sobie gdzie, ale uruchamiasz… Może źle mówię, nie na tym etapie, przepraszam, nie przy onboardingu danych. I to jest tak, że można wciągać dane źródłowe, można wciągnąć też jakieś dane… Można wciągnąć dane z trzecich baz, i można wciągnąć dane, które już na platformie są. Bo załóżmy na Snowflake’u już jakieś tam tabele powstają w jakiś sposób, my ich nie musimy ładować, ale chcemy, żeby były częścią modelu.

    Drugim etapem który tu rozwijam, to jest próba robienia wszelkich transformacji… Nie, chwila, to nie jest transformacja, co ja mówię? To jest jak gdyby rozbicie, ta warstwa wciąga na pokład Do warstwy lendingu ta później z tego robi użyteczne formy dla dalszych procesów, taką dopiero pierwszą warstwę, którą można analitycznie dotykać, dalej można na tym co powstanie.

    To też czy one są zmaterializowane czy nie można zdecydować, czyli to może się kompilować albo do definicji widoku albo do generowanej w zasilanej tabeli, też się o tym decyduje. Wszystkie te kroki mogą działać nawet na tej zasadzie, że ten datamart to będzie widok na widoku

    [Lech Miszkiewicz]: oparty

    [Przemysław Żukowski]: wyłącznie na zmaterializowanym tym co wyląduje, ale jeżeli

    [Paweł Manowiecki]: technologia…

    ITL nazywać, a nie ELT.

    [Przemysław Żukowski]: To jest ELT, to nie jest ITL, to jest Tool Qlik Talent Cloud realizuje koncepcję ELT, bo zasada jest taka, że ładujesz i nie zastanawiasz się nad jakością, dopiero w późniejszych krokach robisz transformację. Także to jest podążanie koncepcją ELT. Co tutaj o tym, nie wiem jak głęboko się zagłębić ale tu jest miejsce do wykonywania jakichś transformacji.

    Te transformacje mogą być właśnie robione takim flow, Tak, tutaj z takich boxów konfigurowalnych iluś tam możliwości można skomponować to przetwarzanie. Każde takie przetwarzanie to zobaczcie w tle jest jakiś SQL, tak, tutaj po prostu zrobimy agregowanie, no i z tego wychodzi jakiś group by. Zapisuję do tabeli, tutaj mamy jakąś select z tego, co wcześniej powstało i to wszystko, że tak powiem, jest wstrzykiwane w system, który w tle ma to zrobić.

    Innego typu transformacja może być wykonywana bez takiego wizualnego kreatora. Czyli jakby, tak, bo można dodać też SQL-ową transformację jakąś tam, w tym momencie mamy kolumny z datasetów które mamy dostępne i tutaj właśnie możemy sobie klecić SQL albo taki malutki pomocniczek. Co prawda muszę się chwilę zastanowić co tutaj jest, ale nie wiem.

    Some orders by customer location. Ja nawet trochę nie pamiętam metadanych, szczerze mówiąc czy tam to mam,

    ale gdzieś spróbuję. It’s not possible. Because?

    Ouch. No właśnie, tu jest jedyny problem taki, że nie ma warstwy semantycznej czyli trzeba byłoby posłużyć się, on jak gdyby potrafi się domyśleć, że order kuty to jest ilość zamówiona, ale nie ma tego jakimś tam, nie wiem, wypisane w semantyczny sposób w porównaniu do tego, co na przykład Qlik Insight Advisor ma i korzysta, i żre tę semantyczną warstwę.

    Słucham?

    [Paweł Manowiecki]: Nie, że chodzi o jedności, że o kwanty tych warstw. Także… To to, co mówi z logiciem bo stępnie się…

    [Przemysław Żukowski]: Trzeba do tej pory, bo za niedługo też jeszcze w Insight Advisorze wejdzie też LLM, będziesz mógł go sobie uaktywnić, jak to jeszcze będzie funkcjonowało to zobaczymy, ale potencjalnie nie będziesz mógł tej logiki tam tworzyć, ona już gdzieś tam będzie można z niej po prostu skorzystać.

    To już jest w RDAxis Preview, więc zakładam że gdzieś tam przy jakiejś najbliższej wersji powinno wskoczyć. Czy

    [Paweł Manowiecki]: będzie kiedykolwiek on-prem?

    [Lech Miszkiewicz]: No

    [Paweł Manowiecki]: tak nie

    [Lech Miszkiewicz]: brzmi. Nie

    [Przemysław Żukowski]: ma sensu żeby był on-prem z prostej przyczyny, mało która firma sobie postawi serwer pod LLM-a tak sprawnie, tak mocny LLM, jaki jest po prostu on-prem No też Insight Advisor sam w on-premie, bo akurat on-prem jest jeszcze dodatkowym komponentem, który musisz sobie tu kupić, więc też jest jeszcze jakiś tam dodatek Dodatek No te licencje, no ale…

    I teraz tu na końcu też ten datamart, to już jest próba budowy ze składowych datamartu, gdzie powstaje model otoczony, nie wiem, Starschema, której tu jak widać rozgrzebałem, ale nie dokończyłem, Sales Order, który jest otoczony wymiarami Customer i Store i co do tych rzeczy, które tutaj powstają, można ustawić oprócz właśnie tego, co jest przy wszystkich tych elementach, to jaka baza, jak ma się nazywać schemat w bazie i tak dalej, jak ktoś chce to po swojemu ustawić, czy na przykład jaki snowflake’owy warehouse ma wykonywać ten krok, jak szeroko ma być wykorzystywany, to tutaj jest ta ważna rzecz, czy te produkty tego przetwarzania mają wylądować w katalogu Jako element można by było wrzucić do katalogu elementów już to wszystko, co zasejwowaliśmy, czyli każda tabelka to znaczy in data capture, żeśmy wrzucili możemy wrzucić do katalogu ale powiedzmy, żeby uprościć co wylądowało mam tylko te trzy rzeczy, czyli tam order, details i dwa wymiary, tak zrobione.

    Teraz jeszcze tu chcę wam pokazać jak jest sobie ten job w trybie monitor, ja tutaj widzę Kiedy zostały te tabele w pełni załadowane po raz ostatni? Ile rekordów było? I to w środowisku Qlik, żeby było ciekawiej, bo też jakbyśmy gadali o licencji i metrykach związanych z licencjonowaniem. Pierwsze pełne załadowanie jest darmowe.

    Płaci się za środowisko wyłącznie w zakresie tego, ile danych miesięcznie przyrasta. Jest po prostu trawionych, czyli ile kompiut musi się wysilać żeby nad tym panować. I teraz jak na szybko gdzieś tam tą zabawką dotknę jedną z tabel wezmę 6 person i tutaj są jakieś kłoty, więc mogę je tam dać komuś, grubsze wyzwanie.

    I skomitować tą kwotę. Uwielbiam dojeżdżać z handlowców,

    [Lech Miszkiewicz]: tak

    [Przemysław Żukowski]: jak mnie dojeżdżali kiedyś.

    [Paweł Manowiecki]: Salary to sam.

    [Przemysław Żukowski]: Salary, salary. Nie no, nie myślę, że to jest stanowczo za dużo. W trakcie tego, jak to Qlikałem, mam nadzieję…

    [Paweł Manowiecki]: Tak, bo to

    [Przemysław Żukowski]: było wyłączone. Ten proces jest startowany w jakimś interwale, jak w momencie kiedy chodzi, łapie wszystkie zmiany i zobaczcie, te dwie zmiany ósma tam, trzydzieści pięć, są wzięte pod uwagę. I zabawa polega na tym, że one… tym komponentem są przenoszone z bazy źródłowej do… Z tej dżingu snowflake’a.

    Całą machinerią pośrodku, która polega na tym, że tam snowflake musi dostać zzipowany plik z danymi i następnie musi być tam snowpipe odpalony, żeby się to wciągnęło. To, czy to dalej przejdzie przez następne warstwy jest bardziej taką transakcją, bardziej taką rzeczą związaną z flagami. Czyli na tym rekordzie, jeżeli wszystko dalej jest niezmaterializowane, czyli jest widok na widoku widokiem pogania, to Qlik talent cloud wystarczy żeby zmienił flagę, żeby przekazać ten rekord do użytku jak gdyby następnym warstwom, żeby w data mart już ten rekord był brany pod uwagę, jak ktokolwiek robi na tym raport.

    Gdyby było zmaterializowane, no to musiałby schedule przerzucać te rekordy które są zmianą czyli cały ten pajączek dalej podąża za tą zmianą, jeżeli zostanie uruchomiony, czyli w tym wypadku zobaczcie, że to było data is updated a few seconds ago, czyli tutaj to jest zrobione, trzeba byłoby odpalić jeszcze następne klocki z palca albo według schedula żeby to dalej było dostępne dla analityki.

    Z takich ciekawostek dosłownie od wtorku jest też githubowanie wokół tego czyli coś czego ja bardzo nie lubiłem tutaj tylko można było wyQlikać i że tak powiem cholera wie co się stanie jak się popsuje to na szczęście wersjonowanie w grze jest i tutaj to wszystko ląduje jako definicja projektu na githubie no można branchować więc powinienem wszystkie te naruszenia tego tego pajączka sobie odkładać w nowy branch sprawdzić czy działa i dopiero później wdrażać słucham?

    [Paweł Manowiecki]: Możemy się spodziewać, że kiedyś to będzie dostępne w aplikacji w raportach w

    [Przemysław Żukowski]: sensie czy Qlik sens

    [Paweł Manowiecki]: są na to techniki także mam po prostu folder archiwum i tak sobie wrzucam kolejne wersje aplikacji podpisuję to jest ten github rok nie?

    [Przemysław Żukowski]: tak na roadmapie to jakby nie słyszałem to co w tej chwili to nie jest ważne ale Wersjonowanie na przykład skryptów, tylko to jest jakby wewnątrz Qlika, ale jeżeli mówimy o Sasi, to też można gdzieś tam kombinować z automatyzacjami żeby to robił, ale tak, żeby właśnie jak to zobaczyłem, że jest guzik tutaj githubowy w talentowiu, to zajebiście by było wnieść to po prostu w Qliku też.

    Ale to jakby… Klika da się zserializować przez API, więc też można by było. Minusy tego, bo ja też się napaliłem, myślałem że w ten sposób, jak mam repozytorium tego projektu to mogę sobie powołać na nowym tenancie z tego samego repozytorium, żeby też dziedziczył. No niestety tak się nie da, to znaczy tego startu, znaczy mogę istniejący projekt przypiąć do bycia repozytoriowanym ale nie mogę sobie wziąć repozytorium i natychmiast zaimportować do gołego tenanta.

    Trzeba to zrobić metodą bardziej taką, że się eksportuje te taski importuje w nowym miejscu.

    I teraz zobaczcie, że te wszystkie wyniki tu oznaczone jako Snowflake DWH powstały, no i niestety najnowsza wersja też coś popsuła więc mam… Mam na koncie nowego tiketa z dzisiaj z tym związanym, ale to jest strona produktu Strona produktu która uzupełniona jest o rzeczy pochodzące z Talenda w zakresie jakości danych.

    Dane są profilowane, oceniane co do jakości i tak dalej. Tego tutaj niestety nie widać, bo nie zadziałało i nie wiem dlaczego, natomiast okazuje się, że działa jak się ten zbiór wczyta niezależnie, czyli ja mam tutaj to samo w personal i tu wynik jest. Zobaczcie że po kolei dane są profilowane, czyli tu jest taki widok profilu danych.

    Jak przełączyć to na taki widok, to każde pole jest osobne, pokazującego Pokazuje, co tu jest, od czego do czego, jakieś przykładowe wartości i każde z tych pól można edytować, można je opisać, można zaklasyfikować jako sensitive czy personal, tak po prostu z palca Jeżeli tego sam nie ocenił w ten sposób, można też otagować, co później pewnie będzie plusem dla dalszych etapów Jednej rzeczy jeszcze nie można zrobić, ale też lada moment będzie, czyli zmienić tego typu który Qlik po talentowemu rozpoznał, bo zauważcie że tu są pola i one się klasyfikują, tak, francuskie kody pocztowe, tak.

    W Talendzie, w inwentory Talenda skąd pochodzi ta funkcjonalność, można było stwierdzić że okej no statystycznie podobne do francuskich kodów pocztowych, ale to nie są kody pocztowe, zmień na jakieś inne, tego jeszcze nie ma, ale lada dzień będzie. Jest podsumowanie Validity i Completeness tak, który idzie do góry no jest też podgląd danych dokładnie taki tak samo wyglądający jak w Talendzie, w inwentory no i tutaj pewnie wypadałoby pozmieniać te typy tak, bo to nie są francuskie kody pocztowe, tylko jakiś ID-ik, To nie są numery telefonu, także na razie jest to przykre, ale widzimy w którym kierunku to zmierza.

    Nie wiem, czy widzieliście kiedykolwiek ten ekran Talent Inventory, Data Inventory, ale on bardzo fajnie pokazywał jakość i tutaj to wszystko jest przenoszone. Obietnice na roadmapie związane były z czwartym kwartalem, więc podejrzewam, że na Sylwestra mogę Wam pokazać to wszystko już tu przeniesione. I teraz jak to można odświeżać?

    Można odświeżać decydując, jak wielka jest próbka albo jak wielki procent datasetu służy do tej oceny jakościowej. I co ciekawe do niedawna można było to robić tylko na Snowflake’u, teraz można robić na wszystkich źródłach SQL-owych i na QVD-kach, plikach płaskich czytanych do Qlika. Czyli jak Excela wrzucimy, to też widać te miary jakości dla każdej zakładki.

    Wszystkich danych które tam są zgromadzone, a w przypadku baz danych SQL-owych będzie do decyzji czy to ocenianie jest pushdown czy pullup. Pushdown w tym sensie, że QlikTalent Cloud wysyła SQL, który Snowflake’owi nakazuje policzenie tych statystyk jakościowych. A pull-up to ściągam próbkę do siebie, czyli tysiąc rekordów ląduje po stronie Qlika i Qlik swoim mechanizmem ocenia to na miejscu.

    Jakiś miałem taki fajny slajd pomocniczy do tego, który wam chciałem pokazać.

    Co widać? Moje kręczy?

    To nie będę tego tak robił. To co? Tu się przestawiał jakoś. Nie, nie, nie. Slajd show, żeby nie było pewnego review. No i gdzie to jest? Dobra, to zrobię tak. Też będzie widać. Tak będzie tam ukradziony z jakiejś tajemnej prezentacji widok który ma na koniec być, tak? Po tych nowych rzeczach czyli syntetyczna miara jakościowa, rozbicie tego, pokazanie jak to w czasie wygląda, pole po polu no i ta możliwość zmiany typu semantycznego bo bez tego to jest trochę nieużyteczne, dlatego, że może kłamać.

    Tu też wam chciałem pokazać ten pushdown, tak? Czyli na zasadzie Qlik, rekwestuję snowflake’a, żeby policzył jakość dostaję Tą jakość z powrotem i zapisuję, żeby było ciekawie co mnie też również, moje serce cieszy w MongoDB, te informacje gdzieś tam we włosie. No dobra, to tyle o produktach jakości, telegraficznie też pokażę Wam, że później jest pozycja Data Marketplace, w której tu mam widok konsumenta tu mam widok kreatora, gdzie mogę wytworzyć tam nowy produkt i ten nowy produkt po pierwsze

    mogę dodać jakieś datasety, które będą wchodzić w skład tego produktu tak, czy nie wiem, tam nie wiem, strzelam tak na pałę, nie wiem, jakiegoś Excela, coś tam z bazy, następnie powinienem to elegancko opisać co mam tutaj w tym produkcie, dodać kto jest tym kluczowym, kluczową osobą

    Opiekującą się, czemu nie Przemek, nie wiem, product owner, tu jest pole dowolnego wpisywania, tak, żeby był jakiś ślad. Idąc taką koncepcją data as a product, czy data mesh, dążą do tego, żeby było widać, kto się opiekuje tymi danymi, co z czego wynika i tak dalej. Tutaj jest produkt, który, zobacz, składa się z iluś tam datasetów, one tam mają te policzone swoje miary jakości, no oczywiście te nie mają, bo tam jakiś problem techniczny jest, no ale na koniec widzimy syntetyczną wartość, będzie też taki, taka miara na ile świeże są te dane i to się później, jak przyłączę się tutaj do Consumer View, pokaże jako, czyli tutaj miałem tam w widoku administratora dwa produkty, jednego jeszcze nie aktywowałem dla ludzi, jest tylko ten aktywowany, ktoś po prostu będzie mógł w ten sposób wziąć te dane pod uwagę i tak naprawdę jednym przyciskiem wytworzyć aplikację w Qliksensie na swoje potrzeby analizujące ten cały zbiór.

    No oczywiście, żeby to się w Qlików czytało, to jedna pewnie jest konieczna rzecz, konwencja nazewnica o tych pól które tam są, żeby się łączyły po ID-kach, to pewnie wtedy będzie najłatwiej robić to Create Analytics App. Dokumentacja, lineage, skąd się te pliki wzięły, I tu nawet dla takiej mieszanki, no co prawda tak teraz patrząc nie widzę liniju dla Excela, który tam jest wrzucony, ale po prostu on pochodzi z wyrzucenia go do, tak, bo to, chociaż nie, tutaj nie wziąłem, co ja mówię.

    to tyle o tym Data Marketplace i teraz taka ciekawostka, w Qlik Talent Cloud składa się z kilku wersji i te wersje podstawowe to jest wyłącznie to, co jest tutaj w chmurze, nawet bez tego wymiaru produktów, ale poczynając od wersji premium, która według mnie jest taką podstawową Właściwie wersją z którą klienci warto żeby zaczynali, jest dostępna mieszanka narzędzi talentowych i narzędzi Qlikowych w jednym, bo zobaczcie że jest tutaj pole Talent Cloud i można przejść do tych taki tenant z tą licencją Talent Qlik, Talent Cloud, a również dostęp do tego wszystkiego co jest po prostu w GUI klasycznego talenta.

    Ile mi zostało? Minus pięć Także tutaj są wszystkie narzędzia talenta Dostępne. Również te, które no logicznie są repetą, bo chociażby Data Inventory jest tym samym co tam Data Inventory zaczyna być. Natomiast to, co najważniejsze to to tak do brzegu, do brzegu, tylko teraz muszę wylądować na odpowiednim tenancie, bo na drugim tenancie mam tą resztę historii krótką bo krótko ale do pokazania, to się wyloguje może, żeby trafić we właściwe miejsce.

    [Paweł Manowiecki]: Chyba, no, o, ptaki przyleciały. Czy tutaj trafię na tenanty nasze wszystkie?

    [Przemysław Żukowski]: I tak i nie, bo to jest za mała lista. Przepraszam, ale przy wielu tenantowości mam pewien problem z tym, jak zacząć co zrobić, żeby zacząć. Może tak zrobię.

    [Paweł Manowiecki]: Wykładki

    [Przemysław Żukowski]: Nie da się. Śmiej się śmiej. Robiłem to już nie raz. Problem jest taki, że nie ma tak zwanego deep linkowania, czyli dopiero po przejściu logowania… Ten sam URL na dwóch tenantach, no nie, nikt nie ma tego wyzwania wielotenantowości oprócz partnerów Qlika, jest w tym kłopot. Jeśli mówię o tenantach no nieważne, jest w tym problem.

    Jak domenę

    [Paweł Manowiecki]: inną zrobisz, to w sensie URL, to masz to co?

    [Przemysław Żukowski]: Jak mam zabukmarkowane, nawet ten URL inny, jestem wylogowany, to pierwsze co mnie kieruje do zalogowania. Po zalogowaniu mówi mi, masz sześć tenantów, których chcesz, to po co mi taki link? W sensie że ok, zabukmarkuję, zdeeplinkowany, ale i tak po logowaniu, po kroku logowania ląduje gdzieś w defaultzie.

    [Paweł Manowiecki]: Tak

    [Przemysław Żukowski]: jakby, tak jakby napisać.

    [Paweł Manowiecki]: masz kilka tenantów tak? Bo jak są oddzielne organizacje to nie ma zobowiązań.

    [Przemysław Żukowski]: No tak, jakbym miał oddzielny login, to tak, jakbym miał tam wiesz na każdego ten na innego. To na

    [Paweł Manowiecki]: jednym loginie? Mam dwie różne firmy i po prostu dwa różne linki są i bez problemu można wejść, nie?

    [Przemysław Żukowski]: No mnie zawsze.

    [Paweł Manowiecki]: masz wewnątrz organizacji kilka tematów to może wtedy.

    [Przemysław Żukowski]: Data integration czy Sasa? Sasa. No właśnie, to jest różnica też, bo ja tutaj nie chcę się dostać do data integration, tylko chcę się dostać jeszcze do Talent Cloud, który jest, no zapomnijmy. A chciałem trochę się przesunąć, bo Przemo mi rzucił wyzwanie, bo mi tam AI wpisał w temat, więc chcę wam pokazać też co AI-owo.

    Czekajcie, zobaczę czy to już jest podłączone, czy zaraz będzie chciało. Dobra. Do kompletu są zabawki Talenda. Najmocniejszą zabawką Talenda jest Talent Studio, czyli GUI, w którym można złożyć dowolną integrację z naprawdę egzotycznymi, różnymi konektorami bazami danych. Tego jest niesamowicie dużo po prawej stronie.

    I chciałem wam jeden flow pokazać bo on też korzysta z takich najnowszych dosłownie sprzed pięciu dni komponentów, gdzie… Tu jest sobie job, robię teraz takie demo multimodalne, gdzie AI ma robić w temacie dźwięku, obrazu i tekstu, nie tylko tekstu, bo to w Qliksensie też jest ładnie wyeksponowane i do zrobienia.

    Zadanie tutaj polegało na tym, że zrobiłem sobie, ponieważ żadne call center nie pozwoli mi tych danych używać, wygenerowałem sobie sztuczne rozmowy klientów z

    [Paweł Manowiecki]: call

    [Przemysław Żukowski]: center.

    [Paweł Manowiecki]: Dzień dobry, w czym mogę pomóc? Ostatnio zauważyłem że podczas uruchamiania silnika pojawia się dziwny dźwięk. Rozumiem czy dźwięk ten można opisać jako skrzypienie lub piszczenie?

    Bardziej przypomina narastające brzęczenie. Może to być problem z paskiem klinowym lub alternatorem? Tylko

    [Przemysław Żukowski]: przykład. Czy zauważył Pan, Pani inny? Z wygenerowanej rozmowy wygenerowałem sobie różne scenariusze, firma jest samochodowa, serwisująca samochody, mam tych plików audio sporo i pokażę Wam na przykładzie jednego z tych plików, że po pierwsze wrzucam go do API.

    Które robi transkrypcję.

    Wybrałem tutaj akurat OpenAI-owy endpoint służący do transkrypcji. W wyniku tego powstaje u mnie na dysku JSON. Tak trochę nie mówię, że to jest idealnie zrobione pod produkcję, ale pokażę Wam, tutaj mam gdzieś plik z transkrypcją, nawet nie wiem czy tego pliku, który aktualnie mam, ale jest transkrypcja całej rozmowy i to też jeszcze zrobię na niedokładnie bo nie ma rozdziału między dwóch speakerów, ale jest.

    I tą transkrypcję później biorę i wrzucam tutaj w Talent Studio te kroczki i Te nic nieznaczące, ten i ten jest nic nieznaczący, one tylko tak pokazują mi co się dzieje w trakcie procesu jak ten transkrypc wyglądał. Daję następnie do takiego komponentu OpenAI-owego, który już jest w stanie odpytać interfejs OpenAI, żeby ciekawiej dało się to zrobić nawet bez tego komponentu On ma upraszczać pewne rzeczy, bo tak powiem daje listy rozwijane, nie wiem, modeli dostępnych w OpenAI, ja i tak.

    To jest do wyboru do koloru, to ciekawe nawet rzeczy, o których już nie pamiętam że istnieją, są tutaj wymieniane, ale można skorzystać i dzieje się to na tej zasadzie, że tutaj jest tak zwany system prompt, czyli to jak chcę, żeby działał mi LLM przy odpowiadaniu a na wejściu do tego komponenta kieruję tą treść, o którą chcę pytać, czyli wlatuje mi tymi strzałeczkami jak gdyby content, wlatuje mi ten transkrypt, ten komponent też ustawiłem, żeby mi zawsze odpowiadał JSON-em, w OpenAI jest teraz taka możliwość, żeby, bo wiecie, on może powiedzieć jak mu się chce, teraz mu się tak chce, teraz mu się siak chce i to był z tym problem, że nawet jak się go poprosiło OpenAI o odpowiedź mi JSON-em, to na przykład wypisywał tutaj masz JSON-a i JSON Czyli programistycznie znowu trzeba było szukać gdzie ten JSON jest w tej treści.

    Teraz można zrobić tak, żeby go zmusić żeby JSON był zawsze na odpowiedzi Valid, w sensie, żeby było strukturą gotową, żeby już programistycznie z tym nie trzeba było nic robić i żeby nie było żadnego ryzyka z tym, że tak zwane takie formatowanie, które zresztą tutaj wprowadziłem w bardziej zaawansowanych opcjach, bo tu można wpisać w response format nawet JSON object.

    No i zobaczcie, dałem mu zadanie takiego wyławiania kontekstu, co tutaj się dzieje. No i Tak że użytkownik daje mi transkrypt, wyciągnie mi z tego elementy tej rozmowy. W polu car problem wypisz mi jaki był problem z samochodem obserwacje klienta na temat samochodów customer observations, zrób mi tam yes no, bo boolean jak gdyby, czy umówiona jest wizyta do garażu, tylko do serwisu i kiedy ona jest i najlepiej żebyś to timestampem tutaj mi podał.

    Ja oczywiście tutaj prompt, jak to z LLM-ami bywa, napisałem po angielsku dlatego żeby najlepiej się słuchał, było najtaniej i tak dalej, natomiast można by było to napisać po polsku i transkrypcja jest po polsku bo ten nagrany dźwięk jest po polsku no i później z tym chcę zrobić taką zabawę z tydzień, a tam nowości są w połączeniu.

    W z Mongo, z Mongo trochę działałem więc chcę sobie ten dokument wytworzony przez EIA, który mi opisuje tą rozmowę wpisać do Mongo, no i teraz ten job można tutaj odpalić zobaczyć co z tego wyjdzie, mam nadzieję, że nie jest żadna katastrofa i on to raportuje, w zależności od tego co tam się powie żeby wypisał.

    On mi chyba pokaże tutaj taką pierwszą odpowiedź że… Mam transkrypcję i w tym transkrypcji jest, tak, ta dyskusja o tym, nie wiem czy to był ten plik, co wam odtwarzałem, ale jakiś tutaj, podczas skręcania ktoś ma jakiś kłopot, bo mu coś piszczy, trzeszczy, więc przeszło, jak bym to jeszcze raz tak zrobił, to przeszło ten etap, później leci dalej, leci czy nie leci?

    [Paweł Manowiecki]: Nie leci. A co się stało?

    [Przemysław Żukowski]: Nie, nie nie, moje Mongo, które tutaj gdzieś mam, poszło chyba spać, dokładnie. Nie, co innego, zmienił mi się adres IP, a zabawa jest taka, że dodałem już to IP do dostępu I żeby zapisał ode mnie z komputera, to musi znać to IP, więc zaraz to powtórzę. Natomiast pewnie nie chodzi o to, żebym udowadniał aż tak precyzyjnie działanie tego.

    Tu mam odpalaną konsolę w której widzę te wszystkie przypadki. Zobaczymy czy właśnie mam do tego Mongo dostęp. Z aktualnego IP, które, on nie poszedł spać, tylko w Mongo definiuje się, z których IP jest dostęp, no i ponieważ ja tutaj przez komórę idę to jest to pewnie inna IP niż jak korzystałem godzinę temu, jest kłopocik bo się burzy, network access.

    Your current IP is not added. Add current IP. I co? Gdzie mam tego, przepraszam gdzie mam teraz tą konsolę Mongo, taką apkę Mongo?

    Bim bim, bim, bim.

    No, weź mnie nie zawstydzę, o.

    [Paweł Manowiecki]: Co myślisz o tym asystentu?

    [Przemysław Żukowski]: No mam, ale już nie chciałem czekać.

    Sporo można też zrobić, nie? I tutaj mam, ja tu podejrzewam, że kilka razy uruchomiłem to samo, być może nawet zobaczymy zdarzenie takie, że raz sobie to znajdzie, raz sobie co innego znajdzie, no ale tak dla struktury, nie? Jakiegoś JSON-a, jakiego chciałem właśnie słowno muzycznie opisanego mam z tymi, opisem tych danych.

    No i oczywiście można byłoby tego prompta poprawić, bo moim marzeniem bardziej było mieć na przykład ten problem z samochodem z jakiejś listy takich tagów prostych nie? Nie opisówka tylko przyrównaj mi i podać mu, tak? Wiemy że tam serwisujemy takie przypadki jak ten przypadek jest bliski jakiemuś tagowi, który chce mieć, to będę miał taką listę w tym car problem, która będzie korespondowała z tymi przypadkami.

    No teraz wiedza z takich rozmów call center, Przetłumaczona na transktyp, przetłumaczona na to, co się w tych rozmowach kryje, może być już podstawą do tego, i to pewnie dobrze wiecie, że wrzucając to do Qlika można ilościówkę na tym oprzeć i wyciągnąć dużo nowych pomysłów z tego. No i właśnie z tego, co widzimy i słyszymy Qlik dąży w tym kierunku, tutaj z jednego eventu, przepraszam to nie te slajdy, chciałem Wam pokazać ale to uwierzcie na słowo, to o czym Przemek mówił czyli że rozwiązanie Insight Advisor i to Qlik Answers będzie prawdopodobnie w następnym kroku jednym narzędziem i w ten sposób innymi narzędziami dostarczając dane, ustrukturyzowane i przerabiając dane nieustrukturyzowane, dając też do dyspozycji dla tego finalnego Insight Advisora Qlik Answersa, będzie można pracować w jednym narzędziu z tego, czyli będzie można Insight Advisorem spytać na przykład o to, który klient najczęściej przyjeżdża a później spytać o czym zwykle przyjeżdża Rozmawia jak do nas dzwoni także rewelacyjna rzecz i na tym zakończę.

    Dobra to przepinamy się powoli

    [Lech Miszkiewicz]: do Lecha. Dobra no to dzień dobry albo dobry wieczór wszystkim. Dzisiaj sobie na meetupie chciałbym przedstawić trochę powiedzmy archaiczne podejście do raportowania a mianowicie takie płaskie raportowanie z Qliksens. Paweł i Przemek opowiadali o AI, o talendzie, o naprawdę cudach a ja będę opowiadał o czymś o czym klienci przynajmniej u nas w Australii zawsze marzyli i marzą czyli żeby sobie mogli coś wydrukować i przybić gwoździeń

    I odkąd Qliksens cloud został wprowadzony brak raportowania w Qliksens cloud był dla nas przynajmniej jako tutaj partnerów w Australii. Największą przeszkodą w tym, żeby tak naprawdę tych klientów których mieliśmy gdzieś na rozwiązaniach on-premise albo nawet na QlikView, przenieść do cloud. No i tak patrząc sobie na to z tej perspektywy, no to rozwiązania, które w ostatnich latach zostały wprowadzone, naprawdę pomogły nam, żeby tych klientów przenieść.

    Ale zanim zacznę opowiadać o raportowaniu w cloud, to może krótko o sobie, bo nie przedstawiłem się nawet. Czyli tak, mam na imię Lechu, nazywam się Lech Miszkiewicz. Wszyscy mówią na mnie Lechu. Jestem od 14 lat ściśle związany z Qlikiem. Początkowo w Polsce, właśnie pracowałem z Przemkiem i z Tomkiem na starych śmieciach w Polsce.

    Tak naprawdę początkowo jako konsultant, nawet nie konsultant, jako pracownik w firmie Solaris Bass & Couch, gdzie Przemek i Tomek sprzedali QlikView i następnie mnie wyszkolili, a następnie zatrudnili.

    No i niestety po dwóch latach ta miłość do Australii Przyciągnęła mnie z powrotem tutaj na kontynent australijski, gdzie nadal pracuję jako Qlik partner, ale już z tej strony, ale tak jak widzicie utrzymujemy nadal kontakt i nie spaliliśmy żadnych mostów. Ta miłość do Qlika przełożyła się też na to, że jestem aktywny na Qlik community.

    Tam można mnie znaleźć odpisując tego na różne pytania. Moja domena na Qlik community jest taka, że ja po prostu testuję swoje odpowiedzi czyli zanim cokolwiek odpiszę zawsze sprawdzam, czy to działa. Jeżeli komuś nie działa, to ja wtedy odpisuję, że u mnie działa.

    Dorobiłem się tak naprawdę statusu MVP na community 4 lata temu. Później ten projekt został też zrewidowany i ponownie albo też utrzymałem po prostu swój status. No i w poprzednim roku, tak jak Przemek, dorobiłem się również partner ambasadora statusu czy też, no nie wiem, należę do klasy partner ambasadorów na rok 2024.

    No i dzięki temu też mam możliwość do wglądu w pewne rzeczy, które się dzieją Za kurtyną w pewne rzeczy, których na co dzień nie jesteśmy w stanie zobaczyć dopóki produkt nie zostanie publicznie wydany. No i w przypadku chociażby tego dzisiejszego tematu, tabular reporting i pixel perfect reporting, miałem możliwość uczestniczenia w testach zanim ten produkt został wydany.

    No i jako taka ostatnia wiadomość o mnie, no to piszę sobie takiego bloga nazywa się Entrinding and Verges, no i to jest blog właśnie skupiony na raportowaniu właśnie tym płaskiem, czyli o tym gwoździu i papierze, o którym mówiłem wcześniej. Dlaczego o tym? Dlatego, że takiego bloga nie było. Jest wiele osób, które pisze o Qliku, o różnych fajnych rozwiązaniach.

    Stwierdziłem, że nie będę się na tym skupiał, a skupię się na czymś czego jeszcze nie było. Dlatego początkowo, kiedy nie mieliśmy jeszcze raportowania w SAS, był to blog o imprinting i jakichś tam sztuczkach i trikach i takich najbardziej, najczęściej powtarzających się pytaniach od ludzi z community, którzy mieli jakieś problemy.

    No to brałem powiedzmy taki topic z community i starałem się go przetłumaczyć na język najbardziej prosty dla… Przeciętnego zjadacza chleba. No i biorąc pod uwagę, że mamy prawie już 2025 rok, no to wydaje mi się, że czas najwyższy na to, żeby ten blok trochę przetransportować i skupić się w tej chwili na tabular reporting i na Qlik cloud reporting, chociażby po to, żeby pomóc tym osobom, które wcześniej posiadały imprinting albo jakieś inne rozwiązania, chociażby publisher w QlikView, żeby te osoby tak jakby zachęcić do korzystania z nowszych technologii.

    No dobra, to tyle o mnie. No i teraz przejdźmy do sedna dzisiejszej mojej prezentacji a mianowicie do tego tabular reporting albo Qlik sense reporting. Ja umieściłem tutaj jeden taki zbiorczy slajd. To będzie praktycznie przedostatni slajd, który dzisiaj pokażę, a resztę będziemy sobie już oglądać jako powiedzmy demo, ale posłużę się tym slajdem, żeby omówić to, co mamy już dostępne w QlikSense Enterprise, w cloudzie i też posłużę się tym slajdem jako przykładem do tego aby zaprezentować jak Qlik do tego podchodzi.

    Dlatego, że… Takie standardowe albo historycznie raportowanie w Qlik to był jakieś narzędzie, które kompleksowo miało obsługiwać wszelkie formaty raportowania. Qlik w Cloudzie podszedł do tego tematu troszeczkę inaczej, a mianowicie zaczął zastanawiać się, jakie mamy różne scenariusze, w których chcemy raportować coś.

    No i tak, jeżeli mamy scenariusz, gdzie potrzebujemy na przykład utworzyć slajdy w PowerPoncie albo jeżeli mamy scenariusz, gdzie potrzebujemy wydrukować sobie po prostu jedno jeden arkusz z Qlik Sense’a, no to do takiego rozwiązania Qlik wprowadził subskrypcję albo też możliwość generowania takich raportów bezpośrednio przez Qlik Application Automation.

    Tam w Qlik Application Automation mamy tak naprawdę gotowe szablony, które poprowadzą nas krok po kroku, które arkusze chcemy sobie wyeksportować i takie arkusze Takie możemy wówczas sobie eksportować albo jako PDF-y, albo jako PowerPoint. Mamy możliwość też wchodzenia w pętlę, mamy możliwość filtrowania takich arkuszy.

    I tak dalej, i tak dalej. I oczywiście nie będę się teraz na tym jakby skupiał, dlatego że to jest powiedzmy takie najbardziej proste raportowanie, które każdy z nas może sobie zrobić. Ja za chwilę pokażę, gdzie te subskrypcje założyć i na czym one polegają, ale więcej o tym nie będę mówił dlatego że to jest powiedzmy taka podstawowa metoda dostępna już od dwóch albo trzech lat.

    Kolejna rzecz, której nie do końca zdajemy sobie sprawę, a która była już tak naprawdę w QlikView to alerting, czyli możliwość jako użytkownik założenia sobie jakiegoś alertu na obiekcie, na tabeli na wykresie gdzie przy zmianie czy też przy przekroczeniu wartości progowej albo przy spełnieniu konkretnego warunku zostanie nam wysyłany alert i otrzymamy taki alert na e-maila.

    No i możemy się zastanowić, kiedy coś takiego potrzebujemy i jak to wyglądało w endprintingu. No i mamy tutaj przypadki takich raportów, kiedy na przykład klienci sobie życzą, a, potrzebuję dostać raport, kiedy wykonanie mojego budżetu w przedostatni dzień jest… No i w przypadku alergingu jest to bardzo proste Natomiast w przypadku NPrinting’a wymagało to budowania raportu generowania tego raportu tak naprawdę codziennie z użyciem warunków i kiedy warunek nie był spełniony, ten raport był wstrzymywany od wysyłki.

    Natomiast w przypadku alertingu mamy tą funkcjonalność budowaną bezpośrednio w Hub i użytkownik sobie może taki alert sam założyć. Kolejna rzecz, która jest fajnie zrobiona to Chart Monitoring in Hub, czyli tak naprawdę możliwość wybrania sobie z jakiejkolwiek aplikacji Qlik Sense konkretnego wykresu lub tabeli i monitorowania tego wykresu bezpośrednio w Hubie w Qlik Sense.

    Dlaczego jest to fajne? Dlatego, że znowu historycznie, klienci przychodzili i mówili dobra to potrzebuję taką aplikację, która mi wszystko złoży w jedno i będziemy mieli tutaj KPI-e wyświetlone z aplikacji produkcyjnej jak również aplikacji sprzedażowej, a i jeszcze tutaj mamy jakiś marketing i HR i wszystko byśmy chcieli mieć w jednym, bo to jest taki nasz raport, w którym wszystko mamy i potrzebujemy to mieć.

    No to dobra. No to… No to… Dawniej wchodziliśmy, łączyliśmy te wszystkie aplikacje albo w jedną, albo robiliśmy jakieś rzeźby z zemprintingiem, natomiast w SAS-ie możemy sobie po prostu wybrać, które wykresy chcemy monitorować na bieżąco i możemy je sobie dodać na przykład do mojej strony górnej i tam je mieć wyświetlane za każdym razem, kiedy otworzymy hub.

    No dobrze, to są takie trzy istniejące już od dłuższego czasu metody raportowania, gdzie Qlik podszedł naprawdę w inny sposób do raportowania, natomiast kolejne dwie metody będą się wiązały z narzędziem które jest bardzo zbliżone do nprintinga, no i tutaj mówimy o tabular reporting i mówimy też o pixel perfect authoring, czyli o tych dwóch punktach Tutaj mamy ten punkt, ten punkcik i ten punkcik tutaj.

    Tak naprawdę kolejne punkty, które mamy, czyli task management i wiążące się z tym recipient import, filtry, załadowanie szablonów oraz on-demand reporting oraz te, które są również na roadmapie, czyli pętla w raportach oraz bardziej rozbudowana historia generowania raportów. Te wszystkie rzeczy, one są pod jednym parasolem one są tak jakby grupą funkcjonalności, które istnieją pod jednym narzędziem.

    No i teraz tak, może jak już zacznę mówić o tabular reporting i o tych pozostałych rzeczach, to może od razu przejdźmy sobie do demo, bo będzie nam łatwiej zrozumieć. Czyli tak, ja może przejdę bezpośrednio na początku i jeszcze wspomnę O tych miejscach o tych rzeczach, o których na początku mówiłem, czyli o chart monitoring, alerts i subscriptions, tak żeby po prostu pokazać w skrócie, gdzie to się znajduje.

    Czyli tak, jeżeli otworzymy sobie pierwszą lepszą aplikację Qliksens, ja tutaj mam taką aplikację Pixel Perfect F1, to Qlikając na którykolwiek wykres mamy możliwość Subskrypcji, na którąkolwiek wizualizacji, niekoniecznie jest to wykres, subskrypcji lub monitoring in a hub. Ten konkretny wykres tą tabelkę po lewej stronie, ja mam już założoną że tak powiem, monitoring tego i ona mi się wyświetla tutaj, w tym miejscu.

    I gdyby ta tabela była powiedzmy jakimś dużym KPI-em, który miałby na przykład, byłby skonfigurowany, że pokazywał mi sprzedaż month to date, no to miałbym tam po prostu liczbę pokazaną. Jeżeli to jest mój KPI, który ja chcę monitorować, to mogę go widzieć bezpośrednio stąd i on się będzie na bieżąco odświeżał.

    Nie muszę go otwierać żeby widzieć co się w nim znajduje. Mogę bezpośrednio po prostu sobie na to spojrzeć i to, co tutaj widzimy na ekranie, ten kolorowy obrazek, jeżeli to byłby KPI, on by nam się odświeżał. A propos raportowania tego, gdzie mówiłem że możemy sobie zrobić subskrypcję, to możemy zrobić subskrypcję do konkretnego wykresu jak również możemy sobie też zrobić subskrypcję do konkretnego arkusza.

    No i wtedy taki arkusz mogę sobie tutaj zdefiniować, jak on ma być do mnie wysyłany, czy PowerPoint, czy PDF. Mogę sobie dodać, czy chcę mieć ten jeden, czy kilka arkuszy i z jaką częstotliwością, czy według jakiego harmonogramu on ma być wysyłany. Później, jak już mam więcej tych subskrypcji, to mogę je sobie tutaj podejrzeć i zarządzać nimi, jeżeli bym coś takiego potrzebował.

    Jeżeli chodzi o automations jest to troszeczkę szerszy temat, o którym tak naprawdę moim zdaniem jeżeli chodzi o demo, to byłby to temat na zupełnie kolejny webinar, dlatego że możemy o tym rozmawiać ponad godzinę albo i więcej. Także nie będę tego w tej chwili pokazywał, bo tam mamy… Jest to po prostu zbyt bogate narzędzie, żeby to w tej chwili demonstrować, kiedy mamy inne rzeczy do pokazania.

    Teraz tak, tabular reporting, czyli te dwa… Tabular reporting i pixel perfect authoring, te dwa narzędzia, to są narzędzia, które mamy wbudowane w aplikację Qlik Sense SaaS.

    Jest to moim zdaniem bardzo dobre rozwiązanie, czy też bardzo dobra decyzja ze strony Qlik’a, że… Z tego względu na zbudowane aplikacje, dlatego że ono pozwala po pierwsze posiadać jedno środowisko, pozwala nam na posiadanie konkretnej aplikacji która zawiera wszystko w sobie. Jeżeli my tą aplikację gdzieś przeniesiemy, to tak jakby elementy o których raportujemy, one się też z tą aplikacją będą przenosiły.

    Tam są drobne niuanse związane z tym, jeżeli będziemy tworzyć raport excelowy, to musimy też template ewentualnie przełączyć po to, aby on był podłączony do tej aplikacji finalnej, żeby tak naprawdę ID tej aplikacji było te które chcemy. Natomiast cały mechanizm harmonogram, zarządzanie użytkownikami Wszystko żyje w środku w aplikacji Qlik Sense.

    Tutaj pod opcją reporting tak naprawdę wchodzimy do konsoli gdzie to wszystko sobie żyje. No i możemy powiedzieć, że mi nie działa, bo ja nie mogę sobie tutaj stworzyć żadnego zadania w tym momencie. Natomiast nie działa to dlatego, że cały proces tworzenia raportu musimy rozpocząć od po pierwsze utworzenia Szablonu następnie taki szablon musimy załadować, następnie taki szablon, musimy też załadować użytkowników do których chcemy wysłać dany raport i dopiero wtedy będziemy mogli odwożyć zadanie, ale no więc przejdźmy do tego pierwszego kroku czyli kroku w którym mamy możliwość zbudowania szablonu.

    I tak, w przypadku tabular reporting, które istnieje już na rynku od roku, taki szablon budujemy w Excelu, Qlik tutaj w management console pozwala nam na pobranie sobie Adina, nie wiem jak to nazwać po polsku, no takiej wtyczki.

    Takiej wtyczki która, Adina Adona, którą później odpalamy w Excelu i ona nam się łączy, gdzie ona jest, ona gdzieś tu była, tu, Excel Add-in, tu przełączamy sobie, jest tam taka drobna konfiguracja, wszystko mamy dosyć dobrze opisane tutaj na stronie

    SQlika także mówię, nie będę przez to przechodził w tej chwili. W każdym razie jak sobie to skonfigurujemy, pobieramy sobie addona, który następnie w Excelu uruchamiamy i co się z tym dzieje. I teraz tak, mała tutaj mała wtopa z mojej strony, a mianowicie jest taka, że jestem na MacBooku a addon działa albo w Office 365 webowo, albo na maszynach Windows.

    Wynika to z tego, że tam ten addon się trochę gryzie z tym Macowym Excelem, więc ja się na chwilę przełączę po prostu na mój drugi komputer tutaj, który mam w sieci w domu podpięty, który chodzi na Windowsie I pokażę jak to wygląda. Więc tak, wchodząc sobie do Excela, może tak zamkniemy to kompletnie i powiedzmy zrobimy to w ten sposób, że wchodzimy sobie do danego Excela, możemy sobie też utworzyć jakiś nowy Excel, jeśli byśmy chcieli.

    I w tym Excelu pierwsze co będziemy mogli zrobić, to mamy możliwość użycia tej wtyczki Ta wtyczka połączy się z naszym tenantem. Oczywiście musimy sobie skonfigurować. Jeżeli pierwszy raz się łączymy to ona nas poprosi o to, żeby skonfigurować. Znaczy wyskoczy nam ten pop-up logowania do klauda i jak podamy swoje dane, to tak naprawdę założy nam się sesja, w której będziemy mogli przeglądać sobie, co mamy w naszym klaudzie dostępne i do której aplikacji chcemy się podłączyć.

    No i na przykład ja sobie tutaj podłączam się do aplikacji w moim personal space. Aplikacja była tam gdzieś powiedzmy Pixel Perfect F1. ? Save. No i ten internet interfejs po prawej stronie, który tutaj mamy, on jest praktycznie identyczny do interfejsu, który mieliśmy w nprintingu. Jeżeli chodzi o funkcjonalność, on troszeczkę inaczej wygląda, aczkolwiek funkcje mamy praktycznie te same.

    Czyli mamy możliwość dodawania tabel, mamy możliwość dodawania obrazków, mamy możliwość dodania funkcji bądź zmiennych oraz założenie stron i leveli, które pozwalają nam… Lecieć pętlą po danych wartościach i dzięki temu np. budować bardziej skomplikowane czy też rozbudowane raporty. Ja w tej chwili się przyłączę już do raportu, który mam wygenerowany, w sensie mam tutaj taki template już zbudowany.

    Nie będziemy tracić czasu na budowanie jego na żywo i powiem o co chodzi i jak zbudowałem ten raport. To jest bardzo prosty raport, który pokazuje nam na dany sezon klasyfikacji w Formule 1 z imieniem nazwiskiem kierowcy, ilość punktów miejsce oraz zdjęcie kierowcy nam się wygeneruje. I teraz tak, podczas generowania raportów, przepraszam podczas dewelopowania raportu takiego, ta sesja którą mamy otwartą do naszej instancji Qlik Sense, ona jest aktywna.

    selekcje, które mam w danej aplikacji założone, przenoszą się na to, co ja będę sobie tutaj podglądał. Czyli jeżeli mam, o właśnie tu będziemy teraz widzieć jak on się podłączy. Jeżeli będę chciał sobie teraz podejrzeć czy też wygenerować ten raport, to ten raport wygeneruje mi się z tymi selekcjami, które tutaj mamy założone

    w Qlik Sense. Czyli teoretycznie powinny mi się wygenerować tabelki dla 2000, 2004 i 2003 roku, z dwoma kierowcami i z ich punktacją, tak, to sobie tutaj podejrzymy teraz, możemy zrobić podgląd jako Excel i podgląd jako PDF, no i miejmy nadzieję, że to działa, dobra, to działało no i mamy ten pliczek wygenerowany.

    I teraz tak, tu zadziało się kilka rzeczy, dlatego że jest to bardzo prosty raport, ale on celowo jest prosto zrobiony po to, żeby pokazać jak pewne rzeczy działają. Po pierwsze utworzyły nam się dwie zakładki po sezonie, tutaj nie ma żadnej filozofii, ta funkcjonalność od dawna istniała, czyli page albo stronicowanie w nprintingu, tak samo tutaj mamy możliwość założenia stron.

    Ja taką stronę założyłem w moim templacie, ona jest jako page i mamy, że page po sezonie, tak sobie lecę, tu i dzięki temu mam ten tag. Stąd mam też wziętą wartość która mi się pokazała tutaj jako sezon, ale teraz co dalej się stało, no mamy tabelę w której jeżeli przejdę sobie do Qliksensa mam to. Czyli mam tabelkę, mam adres, URL do zdjęcia kierowcy, jego imię i nazwisko oraz punkty.

    Natomiast żeby zdjęcie przenieść do Excela, no to niestety ale nie jest to takie proste, to korzystam sobie z innego obiektu korzystam sobie tak naprawdę z obiektu tutaj mam taki obiekt pomocniczy, tam mam obiekt mapy i ten obiekt mapy pozwala mi na generowanie pojedynczego zdjęcia, jeżeli dany kierowca jest wybrany.

    Jeżeli sobie wybiorę Lando, to Lando jest wybrany. Jeżeli sobie wybiorę Carlosa to Carlosa mamy zdjęcie. I teraz to zdjęcie mam możliwość przeniesienia i wyeksportowania jako obrazek. No i teraz jak to zrobiłem? Zrobiłem to w taki sposób, że tabele z wszystkimi kierowcami, czyli tak naprawdę tabele z tą klasyfikacją tutaj, założyłem ją jako level w moim szablonie, czyli dodałem sobie tutaj do poziomów do leveli tabelkę punkty na kierowce i działa to tak naprawdę jako pętla, czyli dla każdej wartości z tej tabeli to rozwiązanie wrzuca nam jeden rekord ale też po stronie Qliksensa zakłada selekcję, zakłada selekcję, a następnie generuje Ten wiersz z danymi.

    Dzięki temu mogę ten obrazek wrzucić nie jako informację z tabeli która tak naprawdę przekazałaby mi się jako tekst, ale mogę wrzucić to zdjęcie jako osobny element. Tu biorę tą mapę którą mam w tym miejscu Ten obiekt to jest mapa. I zamieszczam ją jako obrazek. Oczywiście mogę sobie tutaj ją powiększyć, pomniejszyć, tak żeby mi pasował rozmiar tego obrazka do wysokości komórki.

    Czyli tak naprawdę mamy dosyć skomplikowany raport, ponieważ przechodzimy przez różne sezony dla których jest stworzony osobny arkusz. Następnie lecimy pętlą po każdym wierszu z wynikami dla kierowcy. Następnie dla każdego wiersza Przegeneruje nam się obrazek który jest wstawiany tutaj do środka jako zdjęcie.

    A oprócz tego dane są też tutaj wrzucone z informacją. Te dane mamy też możliwość formatowania Tak naprawdę tak jak w Excelu byśmy chcieli formatować, jeżeli chcemy. Możemy używać warunkowe formatowanie, jeśli chcemy. Tak naprawdę większość funkcjonalności Excelowych może być użyta. Równie dobrze moglibyśmy też założyć tutaj sobie powiedzmy sumy częściowe na punktach.

    Oczywiście w przypadku tego raportu nie ma to za bardzo sensu, ale gdybyśmy chcieli to mogę zrobić tutaj totala i ten total to by była po prostu suma z tych punktów które mamy tutaj.

    I w momencie kiedy sobie to teraz wygenerujemy, ten total powinien mi się tutaj fajnie obliczyć.

    Zwykle dodałbym jeszcze jeden pusty wiersz z tagiem delete row, ale zaryzykuję. że to zadziała w tym momencie. No właśnie, do tego nie zadziałało bo mi się usunął. Ale okej czyli dodajmy ten jeden wiersz dla świętego spokoju. Tak to damy go sobie tutaj delete row.

    Gdzie on jest?

    Tak

    Teraz powinno nam zadziałać. Okej 11.

    Miejmy nadzieję, że teraz to działa.

    Jeśli nie to trochę wtopiłem z demo. Jeszcze będę musiał zdjąć selekcję z kierowcy, żebyśmy mieli. Ale to za chwilę zrobię tylko spojrzymy sobie tutaj.

    [Przemysław Żukowski]: Takie uroki demo.

    [Paweł Manowiecki]: Ale on nie zazwyczaj jest skomplikowany troszeczkę.

    [Lech Miszkiewicz]: Takie uroki demo.

    No zaraz co jest grane? Bo nawet jeżeli bym zrobił w ten sposób.

    I weźmy sobie kilku kierowców, tak żeby miało to trochę większy sens.

    Powiem tak, da się, nie chodzi o to, że się nie da, tylko przekombinowałem. Po wygenerowaniu musisz mieć. Dobra.

    Także mamy, zadziałało. Nie, tutaj mamy teraz po prostu sumę z tych komórek, które mamy tu do góry. Moim błędem było to, że tutaj przy generowaniu tej sumy w arkuszu, sumę miałem do tego miejsca. Natomiast ten wiersz jest automatycznie usuwany, dlatego że to jest po prostu tag, który definiuje początek i koniec pętli.

    On znika. No i przez to, że mieliśmy tutaj. Referencje do wiersza który był został usunięty, ta referencja gubiła początkowy zakres, nie, dlatego, kiedy rozszerzyliśmy ją o jeden punkt więcej, ten zakres się nie zmienia, bo komórki w środku mogą być usuwane, ale początkowa i ostatnia komórka muszą być widoczne, żeby to miało sens, żeby to działało, no, no i w ten sposób możemy sobie utworzyć tutaj powiedzmy sumę częściową, tak.

    [Przemysław Żukowski]: Ostatnio może być usunięty. Ten go usunął i był lepszy.

    [Lech Miszkiewicz]: Jeszcze raz bo ja tak słabo słyszę jak tam w sali są pytania. Nie

    [Przemysław Żukowski]: istotne.

    [Lech Miszkiewicz]: Dobra, okej To teraz tak. Taki raporcik możemy sobie zobaczyć jak on się później finalnie wygenerował. Czyli mieliśmy tak naprawdę wszystkie zdjęcia punkty Tak jak mówię, jest to nadal pełni funkcjonalny Qliksens.

    W którym mamy możliwość formatowania i użycia funkcjonalności Excel. Teraz taki template, jak już on jest zbudowany, przenosimy sobie do Qliksensa i możemy go sobie tutaj załadować. Jak my go sobie załadujemy, mamy funkcję upload template. Ładujemy go do tej konsoli i w tej konsoli kiedy on jest załadowany, on może wówczas być użyty, aby po pierwsze wygenerować task, czyli wysłać dany raport zgodnie z harmonogramem, albo możemy też włączyć funkcjonalność on demand.

    Możemy włączyć funkcjonalność on demand i ta funkcjonalność pozwala nam taki raport generować bezpośrednio z aplikacji, czyli ja jako użytkownik Wchodzę sobie wówczas do aplikacji Qlik Sense, zakładam sobie te selekcje, które mnie interesują i tutaj w Assets mam możliwość wygenerowania tego raportu i ten raport będzie zawierał te selekcje, które ja tutaj użyłem.

    Czyli tak, żeby zmienić trochę, weźmy dodajmy może Maxa Maxa Verstappena, zakładamy i generujemy sobie tutaj ten raport stąd. Mamy możliwość wygenerowania go do Excela i do PDF-a, z czego trzeba pamiętać, że PDF jest w tym przypadku wydrukiem

    Excela czyli żeby PDF-a prawidłowo wygenerować to należy wówczas… prawidłowo założyć obszar wydruku, rozmiar, szerokość i tak dalej, tak? No dobra tam słyszę, że będziemy musieli niedługo się streszczać z tematem, więc przejdę do następnego demo, a mianowicie do demo Pixel Perfect. Bo tak, to co tutaj pokazałem z Excelem, to to tak naprawdę…

    bardzo podobna funkcjonalność, która była w NPrintingu, czyli tak jak Excelowy NPrinting tak samo tutaj mieliśmy Ten tabular reporting, tak to się tak fachowo nazywa, czy też tak to Qlik nazywa. Jeżeli chodzi o Pixel Perfect, to mamy to rozwiązanie zrobione o tyle fajny sposób, że ja już się mogę w tej chwili wyłączyć z mojego Windowsa i możemy przejść na MacBooka, że ono jest całościowo zbudowane w hubie.

    Klik wprowadził ten element tutaj, Create Pixel Perfect Template. Kiedy go naciśniemy, to podajemy nazwę że chcę utworzyć template, podaję jego nazwę. Jak utworzę ten template i go wyedytuję, to widzimy coś takiego. Czyli widzimy w pełni funkcjonalny bardzo zaawansowany edytor raportów grupowych, czyli nie wiem, jeżeli ktoś dawniej pracował w Crystal Reports na przykład, no to mniej więcej wie, o co chodzi.

    Ten edytor pozwala nam na tworzenie raportów co do milimetra co do piksela gdzie definiujemy sobie nagłówek Całego raportu stopkę całego raportu zakres całego raportu. Następnie ten raport możemy podzielić sobie na poszczególne elementy czy też sekcje grupy i każde z tych elementów może być dynamicznie ukrywany lub pokazywany w zależności od tego, jakie dane tam prześlemy.

    I te elementy są powiązane będziemy je wiązać również z tym, co się w Qlik Sense aplikacji znajduje. Czyli z tabelami, z obrazkami ze zmiennymi. To całe narzędzie, ta cała biblioteka opiera się na bibliotece DevExpress dla HTML-a i Qlik sobie po prostu wybrał określone obiekty z tej biblioteki i je tutaj zagnieździł.

    Bardzo ważnym elementem… Trzeba sobie zdać sprawę z tego, że nie jest to narzędzie, które pozwoli każdemu po prostu usiąść do tego i zrobić raport w pięć minut. Jeżeli ja bym miał zrobić raport w pięć minut, zrobiłbym go w Excelu albo w jakimś innym formacie. Natomiast jeżeli przychodzę do Pixel Perfect, to wiem, że będę budował raport, który będzie bardzo skomplikowany ze względu na przykład na konieczność pokazywania i ukrywania pewnych elementów Pewnych elementów tego raportu w zależności od tego kto i kiedy to dostaje oraz w sytuacji kiedy żaden inny szablon mi nie daje takich możliwości.

    I tutaj mamy przykład właśnie takiego rozwiązania, gdzie ja chcę sobie przejść moją aplikację tą z Formuły 1, w której chcę sobie wybrać utworzyć raport tak naprawdę ze zdjęciami kierowców z ich punktacją na dany sezon, ale chcę żeby to nie było w formie tabelarycznej, ale w postaci takiego szeregu zdjęć.

    No i dzięki możliwości używania zarówno poziomych jak i pionowych grup raportowych, mam możliwość generowania raportu nie tylko w dół, ale również w bok. Czyli tutaj widzimy że sobie założyłem Vertical Little, to jest właśnie taka funkcjonalność, która nigdzie indziej nie istnieje jeżeli chodzi o obecnie dostarczany przez Klika produkt, a istnieje tylko tutaj.

    I po podglądzie tego raportu, co nam się utworzyło? Utworzy nam się zdjęcie które po pierwsze, to nie jest obrazek to jest tak naprawdę obiekt tutaj stąd image z biblioteki, do którego ja podlinkowałem adres URL. Następnie to zdjęcie generuje się nam tak daleko w prawą stronę, ile mamy miejsca na stronie.

    Następnie każde z tych zdjęć dynamicznie ma też podpięty z danych jest pobierany kolor kierowcy, jeżeli chodzi o zespół w którym jeździ. Tak samo do tej ramki która znajduje się dookoła imienia i nazwiska również ten sam kolor jest dynamicznie przesyłany. W końcu są też wrzucone i tak naprawdę formatowanie tej liczby, wyśrodkowanie czy też czcionka, wielkość i tak dalej, wszystko sobie definiujemy tutaj w edytorze.

    Jeżeli sobie spojrzymy na ilość istniejących ustawień, to tak naprawdę jest ona tak duża, że ja w tej chwili, ponieważ jest to bardzo nowe narzędzie, nie pamiętam gdzie się wszystko, wszystko znajduje. Jest tego, jest po prostu tego bardzo dużo jest bardzo dużo zagnieżdżonych menu, które przechodząc dopiero gdzieś znajdujemy jakieś tam ustawienia które na przykład musimy zrobić, nie wiem, konkretną czcionkę, konkretną wielkość wyjustowanie, styl czcionki i tak dalej, i tak dalej.

    Ale widzimy że utworzenie czegoś takiego, takiego zwykłego powiedzmy raportu jak ten, który na pierwszy rzut oka wygląda bardzo prosto W żadnym innym formacie, nawet w n-printingu nie byłoby proste, ponieważ nie mamy możliwości tam generowania takiego układu. Musiałbym tworzyć naprawdę jakąś dużą rzeźbę, gdzie powiedzmy musiałbym sobie stronnicować albo utworzyć wiersze w tabeli Qliksens z takim formatem gdzie miałbym cztery rekordy jeden obok drugiego i następnie musiałbym je gdzieś tam generować, jeden obok drugiego tak naprawdę w templacie.

    Tak, czyli to jest jedna rzecz. No i druga rzecz, którą bym chciał pokazać z tego konkretnego narzędzia, to to, że mamy wbudowaną też natywną tabelę przestawną. Tu jest taki obiekt on się nazywa cross table, to jest ten obiekt i on pozwala nam, tak jak w Excelu podajemy miarę wymiary i układ kolumnowy czy też rzędowy.

    Tak samo tutaj mamy możliwość konfigurowania takiej tabeli. Ja co prawda nie miałem zbyt dużo czasu, żeby się nad tym posiedzieć i pobawić, ale byłem w stanie gdzieś tam zbudować pierwszy z brzegu taki przykład, powiedzmy gdzieś tu, gdzie wziąłem sobie, tak, Tych kierowców, tak jak tutaj ich mam i w tabeli przestawnej wrzuciłem po prostu każdy wyścig i ilość punktów, którą oni zdobyli w każdym wyścigu.

    I teraz tak, co się tam stało? Oczywiście to był taki template, w którym się też bawiłem troszeczkę z grupowaniem, z podziałem strony, z tym, czy możemy wstawić obrazek, czy nie. Tak naprawdę to, co mnie interesuje, to są te dwa elementy tu na dole, ten i ten. I zaraz powiem dlaczego. Ja go może wygeneruję najpierw.

    Bo tak, ten obiekt na dole to jest ta tabela przestawna, o której mówiłem. No i możemy sobie powiedzieć nic wielkiego, tabela przestawna. Dlaczego jest to takie niezwykłe? Dlatego, że ta tabela posiada… Konfiguratory, które pozwalają na skonfigurowanie tej tabeli w raporcie, który po pierwsze jako raport drukowany ma ograniczoną liczbę miejsca.

    Teraz gdybyśmy mieli tutaj nie 21 wyścigów, a powiedzmy 41 wyścigów co by się mogło stać? Albo ten raport wyjechałby mi poza krawędź i nie zmieściłby się, albo dzięki temu szablonowi mamy możliwość wykonywania jak on ma się zachować. Czy on ma na przykład, nie wiem, automatycznie się kurczyć albo rozszerzać, czy on ma być, nie wiem, generować się tak daleko jak to jest możliwe, a następnie zawinąć się i generować od następnego tak jakby wiersza albo od następnej strony i tak dalej, i tak dalej.

    Czyli zachowanie tej tabeli przestawnej pozwala nam na zabezpieczenie się przed sytuacją, w której taka tabela wygenerowana w Excelu nie zmieściłaby nam się na stronie. Gdybyśmy chcieli zrobić jakiś obrazek bezpośrednio z KikSensa, to byłaby ucięta. Natomiast tutaj mamy możliwość zdefiniowania jak ona ma się zachowywać.

    No i dzięki temu, tak jakby dane na mnie z tej tabeli nie zginą, będą widoczne na wydrukowanym takim szablonie raportu. Ostatnia rzecz, którą chciałem pokazać w tym konkretnym konfiguratorze jest taka, że jak sobie podejrzymy na wydruk tego raportu no to znowu mamy klasyfikację kierowców ale też tutaj umieściłem taki sparkline.

    Czy też spark bar i on ma kilka charakterystycznych rzeczy, mianowicie ma możliwość zaznaczenia najwyższej i najniższej wartości, należy też zwrócić uwagę na to, że skala tych Z Parklines jest taka sama dla wszystkich, dzięki czemu daje nam możliwość porównywania na przykład Maxa który jest na pierwszym miejscu z kimś kto jest na dziesiątym miejscu i widzimy kto, kiedy miał ile punktów.

    Czyli widzimy że na przykład ta maksymalna ilość punktów dla Nico w tym miejscu to nie jest tak naprawdę maksymalna ilość punktów możliwa do osiągnięcia w danym wyścigu, ponieważ w tym wyścigu George na przykład wygrał ponieważ on ma maksymalną tutaj. Co jeszcze? Mamy możliwość ustawienia wysokości wiersza.

    Tak samo jak w tamtym poprzednim raporcie, mógłbym tutaj wrzucić dynamiczny kolor, jeżeli chodzi o zespół, mógłbym, jeżeli sobie spojrzymy, to mam tutaj podział strony ustawiony po powiedzmy top trzy. mapę wszystkich wyścigów z jakimiś tam ikonkami. Tu się po prostu bawiłem żeby zobaczyć jak ta mapa się nam generuje, jak ona w ogóle wygląda i jakie elementy czy chociażby emot ikonki, czy one działają.

    Także tu w przypadku, kiedy generujemy to jako obrazek to działa całkiem okej. Mamy podział strony po tej pierwszej stronie i następnie mamy tabelę, która już bez podziału strony, A nie, przepraszam z podziałem strony, przechodzi następnie w tabelę przystawną. Tutaj ta tabelka, tak jak widzimy, no ona nie jest może jeszcze super sformatowana, dlatego że ja się nie, tak naprawdę nie miałem czasu, żeby się z tym zapoznać do końca.

    Ta funkcjonalność w ogóle jest dostępna już dla każdego w ClixSense SaaS od dwóch dni, więc ten program, w którym ja uczestniczyłem testowy, pozwolił mi troszeczkę więcej w tym popracować, natomiast biorąc pod uwagę, że mamy 28, a bodajże 26 rano w Polsce zostało to wydane, no to nie miałem zbyt dużo czasu na to, żeby popracować na takiej wersji produkcyjnej, dlatego to nie jest jeszcze doszlifowane do końca, ale daje możliwość zobaczenia, jaki jest potencjał tego narzędzia.

    No i oprócz tego, że mamy tutaj możliwość generowania tabeli sparkline’ów, dynamicznych obrazków, dynamicznych kolorów, mamy też zbudowaną całą bibliotekę zbudowanych wykresów, czyli tak jak w Excelu na przykład mamy wykresy Excelowe, tak tutaj mamy też wykresy Pixel Perfect i taki wykres jak sobie zobaczymy, on również ma…

    Ogromną ilość ustawień, które pozwalają nam na definicję tego czy mamy mieć poziomy pionowe, czy to ma być linia czy to ma być słupek, czy mamy mieć wartości w środku czy na zewnątrz, czy mamy wyświetlać wartości, czy wartość ma mieć kolor słupka czy nie, jaka ma być ściąga tych wartości, jaka ma być wielkość tej ściągi.

    Czyli wszystko jesteśmy w stanie tutaj w bardzo super sposób sobie skonfigurować, czyli tak naprawdę, jak to się potocznie mówi, sky is the limit, jeżeli mamy jakąś wyobraźnię i chcemy coś osiągnąć, z tym narzędziem będziemy praktycznie w stanie to zrobić. Są jeszcze pewne rzeczy, o których wiem, że nie działają.

    Jedna z nich jest dosyć kluczowa, a mianowicie ten element tutaj wiem, że nie działa, color data member. Który powinien nam kolorować te słupki dynamicznie, on w tej chwili nie działa, także taka uwaga ja to zgłosiłem jako buga no ale mam nadzieję, że zostanie to szybko naprawione, bo powiedzmy jest to dla mnie przynajmniej pierwsza taka krytyczna rzecz, która nie działa w tym szablonie, a wszystkie pozostałe naprawdę super świetnie No i teraz krótko o roadmapie, bo mamy kilka minut z tego, co rozumiem Przemek, czy już?

    Czy już trzeba kończyć?

    [Przemysław Żukowski]: Dosłownie trzy.

    [Lech Miszkiewicz]: Okej no to tylko wspomnę o dwóch rzeczach, których nie ma jeszcze w obecnie wydanym Qliksensie w tym takim publicznie dostępnym, a mianowicie kiedy sobie przejdziemy do zarządzania już konkretnym taskiem, gdzie wysyłamy raporty harmonogramem tutaj mam taki przykładowy task, to edytując go mamy możliwość po pierwsze włączenia pętli, tego nie ma i to będzie dostępne 10 grudnia, czyli możemy sobie wówczas generować dla każdego wymiaru osobny raport.

    Lecimy sobie pętlą po wymiarze, na przykład mamy produkt A, produkt B, produkt C albo na przykład po sklepach. Sklep Poznań, sklep Warszawa i dla każdego sklepu generuje nam się osobny plik. A druga rzecz, która jest na roadmapie już takiej bliskiej, to jest historia tasków, czyli jak sobie wejdziemy na historię, ona pozwala nam dosyć dobrze identyfikować, co, kiedy nam się generowało, ile czasu zajęło.

    Tego jeszcze też nie ma w reporting tool w Qliksensie. Czas. Na tą chwilę ale też będzie dostępne 10 grudnia. No i pozwala nam w pewien sposób na taki troubleshooting w sytuacji, kiedy nam coś nie zadziałało i chcemy sobie sprawdzić. Mógłbym o tym tak naprawdę bardzo długo mówić i opowiadać, ale rozumiem, że tutaj jesteśmy ograniczeni trochę czasem, więc na tym skończę.

    Uważam, że Pixel Perfect Reporting, mega fajna funkcjonalność do tego, żeby sobie jakieś takie raporciki naprawdę wyszlifowane generować, aczkolwiek będą wymagały na pewno od użytkowników pewnej wiedzy. Super,

    [Przemysław Żukowski]: dzięki Lechu. Niestety właśnie ten czas nam się kończy, więc… Na pytania chyba zrobimy tak, że po prostu przestawimy je na formułę online.

    Każdy i tak że tak powiem wie, gdzie cię namierzyć. Jasne. Może nie każdy z ciebie, gdzie mieszkasz dokładnie ale na Qlik Community to cię spokojnie namierzą. Bardzo ci dziękuję za to demo. No i tak jak widać fajnie się to rozwija, bo to była funkcjonalność, której gdzieś tam w entretningu faktycznie brakowało.

    Czy tabular reportingu w stosunku do tego, co było wcześniej, więc widać, że plik i w tym obszarze i w obszarze analityki, i w obszarze data, tak jak to widzieliśmy też upowa bardzo mocno się rozwija, także dla każdego coś miłego, każdy znajdzie coś dla siebie. Musimy kończyć, jeszcze raz Lechu, bardzo dziękuję, bo to dla Ciebie zbrodnicza pora była, szósta rano Już

    [Lech Miszkiewicz]: teraz nie, teraz już mamy ósmą rano, ale początek od piątej.

    [Przemysław Żukowski]: Ale dzięki wielkie za chęt, za zaangażowanie, Wam wszystkim, którzy jesteście tutaj, też jesteście online, też bardzo dziękuję za udział i powoli musimy się kończyć, jak będziecie mieli jeszcze jakieś pytania no to wszystkich nas online znajdziecie i na pewno niedługo zaprosimy Was na kolejnego plik Vava.

    razem w wersji 14. Do usłyszenia, trzymaj się Lechu.

    [Lech Miszkiewicz]: Do usłyszenia. Pozdrowienia.

    [Przemysław Żukowski]: Trzymajcie się wszyscy, na razie. Cześć