67/99 – AI, 300 statków i miliony kontenerów. Mateusz Linda o rewolucji w Hapag-Lloyd.

Dziś, wspólnie z Przemkiem Gamdzykiem, rozmawiamy z Mateuszem Lindą, który w globalnej potędze logistycznej Hapag-Lloyd odpowiada za wdrażanie sztucznej inteligencji. Nasz gość opowiada, jak w praktyce wygląda zarządzanie flotą 300 statków i milionami kontenerów rocznie, i jak w tym skomplikowanym świecie odnajduje się najnowsza technologia.

Kim jest Mateusz Linda?

Mateusz Linda – Absolwent informatyki, który swoje doświadczenie budował na styku technologii i biznesu, pracując w zarządzaniu projektami, produktami oraz w konsultingu. W Hapag-Lloyd od 2020 roku, gdzie z sukcesem zbudował od zera zespół Robotic Process Automation (RPA), a obecnie kieruje strategicznymi wdrożeniami AI.

Czym się różni logistyka lądowa od morskiej?

Logistyka morska to system naczyń połączonych, w którym tysiące zmiennych – od pogody, przez sytuację geopolityczną, po kwestie celne – mogą wpłynąć na jeden transport. Jak w takich warunkach zapewnić punktualność i najwyższą jakość usług? Mateusz wyjaśnia, w jaki sposób Hapag-Lloyd wykorzystuje AI do przewidywania czasu zawinięć statków, optymalizacji tras i analizy milionów zgłoszeń od klientów, aby znaleźć prawdziwe źródła problemów.

W rozmowie poruszamy też strategiczne aspekty wdrażania innowacji w firmie o 175-letniej tradycji. Jakie jest pięć fundamentalnych zasad AI w Hapag-Lloyd? Dlaczego podejście „human in the loop” jest kluczem do sukcesu i jak budować kulturę AI w całej organizacji? Dowiecie się również, czym jest sojusz „Gemini” z firmą Maersk i jak ma on „wywrócić stolik”, jeśli chodzi o punktualność w branży.

Zapraszam do wysłuchania fascynującej opowieści!

Masz chwilę? Jeśli podoba Ci się 99 Twarzy AI, zostaw ocenę i recenzję – dzięki temu możemy docierać do jeszcze większej liczby słuchaczy!

Dobrego dnia i niech #AI będzie z Wami wszystkimi!

Transkrypcja rozmowy

Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.

Karol
Panowie, witam Was serdecznie. Kolejne spotkanie we trzech. Jakiś czas temu nagrywaliśmy z siedzącym obok mnie Przemysławem Gamzykiem, organizatorem legendarnej już imprezy w Polsce, AA Summit, którego kolejna edycja odbędzie się już za jakiś czas w Warszawie. A oprócz tego, genialny specjalista, człowiek branży logistycznej, Mateusz Linda.

Mateusz
Dzień dobry. Dziękuję za zaproszenie.

Przemek
Dzień dobry. Cieszę się, że możemy znowu we dwójkę rozmawiać z ciekawym człowiekiem, który zajmuje się AI w Polsce.

Karol
Mateusz, zacznę tradycyjnie, pytając: what’s your AI story?

Mateusz
To jest dobre pytanie. Skończyłem informatykę, natomiast zawsze dobrze odnajdywałem się w łączeniu kropek, dowożeniu projektów i tak dalej. Nigdy nie zostałem deweloperem, mimo że sporo programowałem, nawet z sukcesami. Pracowałem najpierw w zarządzaniu projektami, a potem w produktach, czyli dosyć szybko z mojej perspektywy przeszedłem ze strony, gdzie trzeba robić rzeczy dobrze, do tej, gdzie trzeba definiować, które rzeczy należy robić. Można przecież robić dobrze rzeczy, które są bez sensu – i to jest, wydaje mi się, clue tej historii.

Pracowałem potem w konsultingu, a następnie w mojej obecnej firmie, Hapag-Lloyd, do której dołączyłem dwa tygodnie przed pandemią COVID. Zajmowałem się tam najpierw automatyzacją procesów za pomocą robotów, a od ponad roku zajmuję się sztuczną inteligencją. Myślę, że umiejętność poruszania się pomiędzy problemami biznesowymi a technologią jest tym, co doprowadziło mnie do miejsca, w którym właśnie jestem.

Przemek
Hapag-Lloyd to nie ułomek, to potęga logistyki morskiej. Rzeczywiście wielka, znana firma światowa. Jesteś też odpowiedzialny za obszar AI korporacyjnie w Hapag-Lloyd. Jak to się stało, że jako Polak pracujący w Polsce, doszedłeś do tej pozycji?

Mateusz
To też jest ciekawa historia. Zacząłem w Hapag-Lloyd w 2020 roku, w zespole, który zajmował się automatyzacją procesów z wykorzystaniem tak zwanej technologii Robotic Process Automation (RPA). Przez cztery lata prowadziłem ten zespół, który trzeba było zbudować od zera. Rozrósł się on do około 30 osób i dostarczyliśmy dla firmy ponad 200 wdrożonych projektów – nie mówię tu o pomysłach, które analizowaliśmy po drodze, bo tych było kilkaset. Kiedy podliczyłem całościowy business case i wartość dostarczoną przez te roboty, to łącznie przez cztery lata było to ponad 100 milionów złotych. Myślę, że te udane wdrożenia, uporządkowane pod względem procesowym i technologicznym, a także dobra współpraca, zaprowadziły mnie do możliwości pokierowania tym nowym, strategicznym nurtem w technologii, jakim jest AI.

Karol
Czyli można powiedzieć, że zarządzałeś takim Creative Innovation Hubem.

Mateusz
Można tak powiedzieć. Historia naszego gdańskiego oddziału technologicznego dla firmy Hapag-Lloyd jest dosyć ciekawa. Firma ma ponad 175 lat historii i siedzibę w Hamburgu. Przy takiej historii pewne rzeczy, jak zwinność czy elastyczność, nie są może aż tak naturalne. Natomiast w 2020 roku firma zdecydowała się otworzyć pierwsze centrum technologiczne poza Niemcami i padło właśnie na Polskę. Gdy zaczęliśmy dołączać z kolegami z Trójmiasta i nie tylko, a jest nas w tej chwili około 400 osób, mieliśmy oczywiście płytszą wiedzę biznesową, bo nie pracujemy tam od dziesiątek lat. Wnieśliśmy jednak różne doświadczenia technologiczne z różnych firm, pewną elastyczność, zwinność i inne podejście do naszego wewnętrznego klienta biznesowego niż to, co było do tej pory w Hamburgu.

Przemek
A jak się pracuje w Trójmieście?

Mateusz
Ja sobie bardzo Trójmiasto chwalę. Urodziłem się tam i mieszkam do dzisiaj. Ma dużo plusów, wiadomo – obecność morza, z drugiej strony miasto otoczone jest lasem. Mamy też całkiem sporo ciekawych firm. Oczywiście nie jest to poziom możliwości, które są w Warszawie, natomiast myślę, że ten work-life balance w Trójmieście jest naprawdę na fajnym poziomie.

Przemek
A jak wygląda lokalne community AI?

Mateusz
Generalnie na tę chwilę nie jestem jakoś bardzo zaangażowany, natomiast Karol, wspomniałeś, że masz namiary na śniadania AI-owe, do których chętnie się podłączę.

Karol
Pozdrawiam serdecznie z tego miejsca Magdę Raniszewską, Krzyśka Deneke i Darię Sas-Bojarską, którzy organizują regularne spotkania i śniadania AI. Nawiązując do tego, co mówiłeś o samym Trójmieście, ja zawsze podkreślam, że to właśnie tam powstała Iwona, która była podwaliną do stworzenia przez Amazon Alexy – smart speakera, który zbudował gigantyczną bazę odbiorców, a który również, z mojej perspektywy, poniósł pewną klęskę, widząc, w jakim kierunku rozwinęła się technologia głosowa. Moja Alexa, która jest cały czas w domu, służy mi tylko i wyłącznie do dwóch rzeczy: „ustaw mi alarm” albo „włącz moją ulubioną muzykę”.

Mateusz
To prawda. Trzeba przyznać, że Iwona była naprawdę dużym fenomenem, bo w różnych benchmarkach prześcigała największych gigantów, takich jak Microsoft, którzy również próbowali swoich sił w technologiach głosowych. To była bardzo ciekawa innowacja. Szkoda może, że koniec końców trafiła do Amazona i my jako Polacy nie mieliśmy możliwości jej dłużej poprowadzić. Z drugiej strony, rzadko kiedy mówimy, że w Alexie jest komponent oparty o Iwonę. Mimo wszystko, myślę, że możemy być bardzo dumni, że tego typu technologia powstała właśnie u nas w Polsce, w Trójmieście.

Przemek
Dziękuję. Co teraz robicie w ramach ośrodka Hapag-Lloyd w Trójmieście, oczywiście, jeżeli mogę zapytać i nie jest to tajemnica korporacyjna?

Mateusz
Generalnie to, co robimy w ośrodku technologicznym, jest bardzo szerokie. Zajmujemy się praktycznie wszystkim – od kanału webowego, przez aplikacje mobilne, różnego rodzaju API, aż po rozwój naszego wewnętrznego, rdzennego systemu ERP. Mamy naprawdę sporo różnych kompetencji i zespołów technologicznych. Jeśli chodzi o AI, mój zespół koncentruje się przede wszystkim na strategicznych tematach z punktu widzenia firmy. To nie jest tak, że budujemy wszystko. Tam, gdzie możemy, staramy się korzystać z gotowych rozwiązań. Natomiast w obszarach strategicznych, jak na przykład model do predykcji zawinięć statków, który jest kluczowy dla naszej działalności, chcemy mieć tę wiedzę i model wewnątrz firmy, aby być za niego w pełni odpowiedzialnym, zwłaszcza w obecnej sytuacji geopolitycznej.

Karol
Czyli przewidujecie przyszłość?

Mateusz
W pewnym sensie. Branża logistyki morskiej jest dosyć ciekawa – z jednej strony tradycyjna i konserwatywna, z drugiej strony jest w niej wiele momentów, w których coś może pójść nie tak. To działa mniej więcej w ten sposób: jestem firmą, która nawiązuje współpracę z Hapag-Lloyd. Odzywam się i proszę o wycenę transportu kontenerów z Chin do Gdańska. Dostaję jakąś kwotę i na jej podstawie mogę, ale nie muszę, zarezerwować pewną ilość kontenerów.
Jeżeli zarezerwuję, to zaczyna się dziać wiele różnych rzeczy. Muszę dostać od Hapag-Lloyd kontener, w który zapakuję mój towar. Ten kontener musi zostać przetransportowany do terminalu – koleją, ciężarówką czy barką.

Karol
Czyli transport, mimo że jesteście firmą operującą na morzu, jest intermodalny już na etapie realizacji zamówienia?

Mateusz
Tak, przy czym nie zawsze my za niego odpowiadamy. Za transport kontenera do portu możemy być odpowiedzialni, ale nie musimy. To kwestia umowy z klientem. Najczęściej klient robi to we własnym zakresie lub korzystając z innej firmy. Kontener musi jednak trafić na terminal przed tak zwanym „cut-off date”, żeby był czas na załatwienie wszystkich formalności, w tym spraw celnych. Bo statek odpłynie. Jeżeli ktoś nie zdąży, jego kontener zostanie i będzie musiał czekać na kolejne zawinięcie statku.

Potem, gdy statek zawinie do portu, kontener przeważnie zostanie na niego załadowany, ale też nie zawsze. Może się okazać, że z jakichś powodów statek zamiast stać w porcie sześć godzin, będzie stał tylko trzy, bo musi coś nadrobić. Czasem, choć rzadko, zdarza się, że statek w ogóle ominie terminal, bo miał opóźnienia, a do załadowania jest tylko 20 kontenerów, podczas gdy gdzieś dalej czeka 2000.

Załóżmy, że kontener trafił na statek i ten płynie dalej. Idealnie, jeśli istnieje bezpośrednia trasa do portu docelowego, w naszym przypadku do Gdańska. Ale nie musi tak być, podobnie jak w lotnictwie. Są huby. Jeśli chciałbym polecieć z Gdańska do Nowego Jorku, pewnie zrobiłbym to przez Warszawę. Tak samo jest w logistyce morskiej – być może kontener w drodze z Chin do Gdańska musi zostać przeładowany na przykład w Hamburgu. Można sobie wyobrazić, że tam również może wystąpić wiele problemów i niekoniecznie ten kontener trafi na kolejny statek. I oczywiście, gdy już zostanie rozładowany w porcie docelowym w Gdańsku, wciąż może pojawić się jeszcze wiele problemów. Nie wspominając o tym, że podczas sztormu część kontenerów może po prostu spaść ze statku. To nie jest częste, ale zdarza się być może częściej, niż nam się wydaje. Tych rzeczy, które mogą się zdarzyć po drodze w logistyce morskiej, jest naprawdę bardzo dużo.

Karol
Wiele danych i wiele kropek do połączenia.

Mateusz
Dokładnie. Hapag-Lloyd to firma, która stara się wyróżniać poprzez oferowanie najwyższej jakości, co mnie w niej zainteresowało. Nie konkurujemy ceną, nie jesteśmy najwięksi. Zakładamy, że istnieje wiele czynników składających się na jakość, na którą patrzy klient i za którą będzie w stanie zapłacić trochę więcej.

Karol
Ale przy tej skali, te niewielkie, jednostkowe kwoty robią różnicę.

Mateusz
Tak powinno być. W branży dzieje się teraz jedna ciekawa rzecz. W lutym tego roku nastąpiło przetasowanie aliansów. Tak jak w liniach lotniczych są sojusze, na przykład Star Alliance, tak samo jest w logistyce morskiej. Hapag-Lloyd połączył siły z Maersk, duńską firmą, i stworzyliśmy współpracę o nazwie Gemini. Ma ona działać na trochę innej zasadzie i minimalizować przeładowania kontenerów, oferując sieć podobną do tej w lotnictwie. Mają powstać duże huby, a pomiędzy nimi będą funkcjonować mniejsze połączenia. Mamy nadzieję, i to jest nasze strategiczne założenie, że wywróci to stolik, jeżeli chodzi o punktualność zawinięć statków.

Karol
Czyli trochę per analogia z transportem drogowym czy lotniczym.

Mateusz
Tak, dokładnie. Jeżeli nam się to uda, a założenie jest takie, że punktualność dostaw ma być na poziomie 90%, to będzie duża zmiana. Aktualnie, w zależności od okresu, na czas odbywa się od 40% do 60% zawinięć. Jak mówiłem, problemów po drodze jest naprawdę bardzo dużo. Staramy się to minimalizować i tutaj właśnie wchodzi AI, które może nam w tym pomóc.

Przemek
To, co mówisz, obrazuje, jak bardzo jest to skomplikowane, ile jest tam zmiennych i jak złożone oraz dynamiczne są to układy. Ten transport dzieje się w każdej chwili, tysiące kontenerów płyną właśnie teraz. Jednak jest to problem optymalizacyjny, który w sensie wieku IT, jest stary. Nie trzeba do tego stosować współczesnych, zaawansowanych rozwiązań. Na ile to, co robicie, jest takim starym, sprawdzonym AI czy aparatem matematycznym do optymalizacji, a na ile sięganiem po te rzeczy, które teraz w AI są fascynujące i za którymi podąża cały świat, bo okazały się rewolucją?

Karol
Przepraszam, ale to ciekawe, co mówisz, bo przecież cały scheduling, na przykład rozkład jazdy pociągów, kiedyś tworzono na kartce papieru, a teraz chyba sobie tego nie wyobrażamy.

Mateusz
Tak, to bardzo dobry punkt. Dużą część problemów i wyzwań, które mamy na co dzień, można rozwiązywać właśnie metodami optymalizacyjnymi. Na przykład, przy projektowaniu sieci połączeń między portami, przy założeniu określonego popytu na usługi przewozowe, często buduje się właśnie takie modele optymalizacyjne. W tym momencie, jeśli myślimy o AI w dzisiejszym rozumieniu, jak generatywna sztuczna inteligencja, NLP czy wizja komputerowa, to nie jest to potrzebne.
Jest jednak bardzo dużo obszarów, w których sztuczna inteligencja może nam pomóc. Wspomniałem już o przewidywaniu czasu przypłynięcia statków – to idealny przykład predykcyjnego uczenia maszynowego. Stare, dobre, ale to już bym nazwał AI.

Karol
Trochę jak hasło jednego z przewoźników: na czas, na miejsce, na pewno.

Mateusz
Dokładnie. Przechodząc na najbardziej aktualną stronę mocy, czyli generatywną sztuczną inteligencję – jako firma mamy rocznie około 20 milionów zgłoszeń od klientów do obsługi klienta. To sporo. W związku z nawiązaniem współpracy z Maersk, przewidujemy, że w tym roku nasz przewożony wolumen wzrośnie o 10%, więc można się spodziewać, że zgłoszeń będzie jeszcze więcej.
Jedną z rzeczy, którą robimy, korzystając z generatywnej sztucznej inteligencji, jest analiza tych 20 milionów zgłoszeń z zeszłego roku, żeby wykryć trendy i prawdziwe przyczyny, dla których klienci się z nami kontaktują.

Karol
A możemy nazwać te przyczyny, te procesy?

Mateusz
Oczywiście. Przykładowo, jeśli chodzi o problemy, które klient może zgłosić odnośnie faktur, odkryliśmy, że zdecydowana większość z nich – 60% – to prośba o kopię faktury. Czyli wcale nie chodzi o to, że na fakturze jest coś źle, że czegoś brakuje, jest za dużo czy za mało, tylko klient po prostu chce otrzymać kopię. To dla nas cenna informacja, bo oznacza, że albo musimy rozbudować nasze narzędzia online, żeby klienci mogli ją sami pobrać…

Przemek
Taki self-service.

Karol
Dokładnie. Albo stworzyć system agentowy, który będzie to robił za nich.

Mateusz
Na przykład. Tego typu funkcjonalność już oczywiście istnieje. Wniosek jest więc taki, że musimy prowadzić lepszą komunikację na temat tego, gdzie i jak to znaleźć. To jest przykładowe wykorzystanie.

Karol
Czyli mamy 12 milionów zgłoszeń z głowy, a pozostało 8?

Mateusz
Nie, niestety to nie jest takie proste. Te 60% dotyczyło tylko problemów związanych z fakturami, które stanowią kilka procent wszystkich zgłoszeń. Inne sprawy mogą być bardzo różne. Ktoś złożył zamówienie na pięć kontenerów, a ostatecznie przewiezione zostaną dwa albo dziesięć. Ktoś inny poprawia coś, na przykład wagę kontenerów do przewiezienia.

Karol
Co jest kluczową zmienną.

Mateusz
Tak, absolutnie. Wyważenie statku jest jedną z kluczowych rzeczy dla zapewnienia bezpieczeństwa żeglugi.

Przemek
Wracając do wątku generatywnej sztucznej inteligencji i całej tej biurokracji związanej z logistyką i transportem. Działacie w kontekście wielu krajów, systemów prawnych i lokalnych biurokracji. Czy generatywna AI pomaga Wam jakoś zautomatyzować ten obszar biurokratyczny?

Mateusz
Pracujemy nad tym. To są projekty na etapie pilotażowym. Na tę chwilę koncentrujemy się na obsłudze klienta, aby pomóc naszym agentom obsłużyć przychodzące zapytania. Można to sobie wyobrazić jako swojego rodzaju co-pilota dla nich. Podobnie jak w przypadku Co-pilota wbudowanego w Microsoft 365, agent jest w stanie podsumować zgłoszenie od klienta, a następnie wygenerować odpowiedź, którą można by do niego wysłać.
To oczywiście nie jest takie proste, bo mamy około trzydziestu głównych typów zgłoszeń, a gdy kategoryzujemy je dalej, okazuje się, że przyczyn jest ponad dwieście trzydzieści. Scenariusze są bardzo różne. Czasem trzeba coś sprawdzić w naszym wewnętrznym systemie ERP, czasem w trzech różnych systemach, żeby móc odpowiedzieć. Aktualnie sprawdzamy, które typy zgłoszeń są najłatwiejsze do zaadresowania i na nich będziemy się skupiać w pierwszej kolejności.

Przemek
A czy w tym obszarze planujecie coś więcej ponad usługę dla agentów?

Mateusz
Jeśli chodzi o generatywną sztuczną inteligencję, patrzymy też na możliwości jej wykorzystania zarówno dla pracowników biurowych, jak i w IT. To głównie używanie gotowych rozwiązań, takich jak Microsoft 365. Próbujemy też odpowiedzieć sobie na pytanie, czy te 30 dolarów na użytkownika na miesiąc za Co-pilota warto inwestować, czy nie, a jeśli tak, to dla kogo.

Karol
Mam pewne przemyślenia na ten temat. Warto, pod warunkiem, że pracownicy są świadomi tego, w jaki sposób można te narzędzia wykorzystać. Przygotowując się do tej rozmowy, zwróciłem uwagę na to, co zapisałeś, Mateusz, w podsumowaniu: kształcenie i rozwój pracowników do pracy z AI.
Pracując z różnymi klientami, zaskakuje mnie, że nawet w obszarach, które uznałbym za totalnie zdominowane przez sztuczną inteligencję, jest inaczej. Byłbym w stanie się założyć o duże pieniądze, że ludzie w określonych branżach znają te narzędzia, korzystają z nich i mają pełną świadomość ich możliwości. A potem, po spotkaniu, kiedy robimy ankietę przed szkoleniem, okazuje się, że w spółkach technologicznych czy medialnych, po pierwsze, korzysta z tych narzędzi dużo mniej osób, niż mogłoby się wydawać, a po drugie, robią to na poziomie totalnie podstawowym.

Mateusz
Jakiś czas temu natrafiłem na ciekawą statystykę z McKinsey, że adopcja, trenowanie i dbanie o to, żeby użytkownicy rzeczywiście używali rozwiązań AI, to około 50% pracy projektowej. Patrząc na ostatni rok, wydaje mi się, że ta liczba jest bliska prawdy. To bardzo duża zmiana – nauczyć się, że zamiast generować coś samemu, można poprosić o to AI.
Często widzę, i to nie tylko u osób bez wykształcenia technologicznego, ale też w IT, że ludzie myślą, że AI to taka czarna skrzynka, do której wrzuca się cokolwiek i automagicznie dostaje się oczekiwany rezultat. To niestety jest bardzo dalekie od prawdy.

Karol
Bo promptujemy w taki sam sposób, jak korzystaliśmy z wyszukiwarki internetowej.

Mateusz
Na przykład, dokładnie. A trzeba być bardziej specyficznym, podać rolę, kontekst, sprecyzować oczekiwania, a być może nawet podać dwa, trzy przykłady w ramach „few-shot prompting”. Tego trzeba się nauczyć, a to zabiera czas i wymaga otwartej głowy.

Karol
Ale właśnie dlatego budujmy świadomość. Mówisz, że to zabiera czas, ale zobacz, ile czasu oszczędzamy, kiedy zaczynamy korzystać z tych narzędzi. Czytałem genialny raport, który badał wpływ generatywnej sztucznej inteligencji na kompetencje miękkie i odczucia ludzi związane z pracą. Okazuje się, że nie dość, że pracują dużo szybciej – o ile dobrze pamiętam, raport wykazał oszczędność od 7 do 9 godzin tygodniowo w określonej branży – to jeszcze mówią, że procesy są bardziej przyjemne („the processes are more enjoyable”). Czują się bardziej spełnieni, bo mają narzędzie, które pomaga im realizować zadania szybciej, skuteczniej i pewniej.

Mateusz
Zgadzam się z tym. Na własnym przykładzie mogę powiedzieć, że kiedy mam napisać jakikolwiek artykuł do firmowego intranetu, jest to dla mnie zbawieniem. Nie jestem humanistą z wykształcenia, więc narzędzia takie jak ChatGPT i pokrewne są nieocenione. Stworzenie pierwszej wersji zajmuje mi dosłownie pięć minut. Oczywiście, nie jest ona idealna. Widać w niej to napompowane słownictwo, które AI często przemyca, i trzeba to trochę „shumanizować”. Ale jest to fantastyczny sposób na usprawnienie pracy. Inaczej pisałbym to kilka godzin, a efekt byłby, niestety, pewnie gorszy.

Karol
Dlatego tak łatwo jest rozpoznać posty na LinkedIn, które ludzie wklejają po podstawowym promptowaniu, bez analizy tego, co otrzymują.

Przemek
A czy wśród zadań trójmiejskiego ośrodka AI w Hapag-Lloyd leży też ewangelizacja i budowanie kultury pracy z AI w korporacji?

Mateusz
Tak, to również należy do naszych obowiązków. W zeszłym roku zaczęliśmy od określenia naszej ambicji dotyczącej sztucznej inteligencji. Powiedzieliśmy sobie, że nie będziemy pierwsi na rynku – to nie nasza rola – ale chcemy być „fast followerem”, czyli szybko podążać za tym, co się dzieje, zwłaszcza w kluczowych dla nas obszarach. Na tej podstawie zbudowaliśmy pięć zasad, którymi się kierujemy, a także stworzyliśmy polityki użycia AI, które obowiązują w całej firmie.

Pod koniec zeszłego roku zorganizowaliśmy też, z dużym sukcesem, „Dzień AI w Hapag-Lloyd”. Z jednej strony zajęliśmy się edukacją i demistyfikacją sztucznej inteligencji, a z drugiej, we współpracy z naszymi dostawcami technologicznymi, takimi jak AWS, daliśmy ludziom poczuć AI. AWS organizuje coś, co nazywa się DeepRacer – przyjechali do nas, rozstawili 80-metrowy tor, po którym jeżdżą małe, autonomiczne pojazdy. Wewnątrz firmy zorganizowaliśmy kilkanaście zespołów z całego świata, które najpierw na symulatorze tworzyły model reinforcement learningowy do kierowania tymi samochodami. Na koniec, podczas Dnia AI, modele zostały wgrane do pojazdów i konkurowały ze sobą. Odbył się konkurs. To jeden z przykładów, jak można dać ludziom „dotknąć” sztucznej inteligencji.
Jednak największy wpływ na firmę mamy na pewno poprzez wewnętrzną platformę do generatywnej sztucznej inteligencji – coś na kształt wewnętrznego ChataGPT, dzięki czemu dane nigdzie nie wypływają, co jest bardzo ważne. Tak to wygląda.

Przemek
Kto w organizacji jest dla Ciebie partnerem, z kim bezpośrednio współpracujesz?

Mateusz
Mój zespół nie skupia się na jednym departamencie biznesowym. Pracujemy z różnymi działami, w zależności od wagi danego tematu. Mówiłem o 20 milionach zgłoszeń od klientów – tutaj pracujemy z działem Customer Experience. Z kolei przy modelu predykcji zawinięć statków współpracujemy z ludźmi zajmującymi się naszą siecią połączeń. Aktualnie analizujemy też pomysły z departamentu, który zajmuje się zarządzaniem ofertą produktową – bo w Hapag-Lloyd ofertą są połączenia między konkretnymi portami i jednostki, które je obsługują. To są współprace bezpośrednio z działami biznesowymi, z osobami, które znają się na swojej robocie.

Przemek
Jesteście częścią szeroko rozumianego IT? Czy to jest inaczej zorganizowane?

Mateusz
W zeszłym roku sztuczna inteligencja została przeniesiona do jednostki, która zajmuje się danymi. Można powiedzieć, że w Hapag-Lloyd mamy działy biznesowe, mamy IT i gdzieś obok, lub pomiędzy, jest dział zajmujący się danymi i sztuczną inteligencją.

Karol
Podzielę się moim doświadczeniem. Ostatnio prowadziliśmy projekt dla firmy z branży przemysłowej i na evencie pojawił się cały dział IT z regionu. Okazało się, że ten dział świetnie zna się na systemach CRM, utrzymaniu produkcji czy systemach ERP, natomiast ma nikłe pojęcie na temat rozwiązań sztucznej inteligencji, całego GenAI, promptowania itd. To chyba bardzo dobra decyzja, bo w końcu AI w całości opiera się na danych, a wy tych danych macie naprawdę sporo.

Mateusz
Tak, to jest plus. Z drugiej strony, w tym dziale danych są mniejsze, kilkuosobowe zespoły, które współpracują bezpośrednio z różnymi jednostkami biznesowymi. Przykładowo, jeden zespół współpracuje ze sprzedażą, inny z ludźmi od sieci połączeń, dostarczając im dedykowane rozwiązania oparte na business intelligence, różnego rodzaju raporty i dashboardy. Ta współpraca na linii biznes–dane jest bardzo bliska. Mi osobiście to się podoba, bo bliska współpraca z klientem i biznesem jest krytycznym elementem projektów, a w IT różne rzeczy potrafią być czasem dosyć mocno zagrzebane.

Przemek
A ten osobny dział danych w Hapag-Lloyd to stara historia, czy stosunkowo młody twór?

Karol
Właśnie miałem zadać to samo pytanie. Jak połączyłem fakty – 175 lat historii – to dział danych może być starszy niż IT.

Mateusz
Dział ten ma kilka lat. Kiedyś nasz krajobraz technologiczny związany z danymi był w IT, ale kilka lat temu został wydzielony, żeby współpraca na linii biznes–dane była bliższa, szybsza i przez to efektywniejsza.

Przemek
A szef tego działu, taki Chief Data Officer, jest na poziomie zarządu czy jakoś inaczej to wygląda?

Mateusz
Nasz zarząd jest dosyć mały, bo to jest pięć osób. Jeszcze do niedawna były cztery. Chief Data Officer, czyli dyrektor zarządzający tym obszarem, raportuje bezpośrednio do CIO, który jest w zarządzie.

Karol
Wrócę jeszcze do rzeczy, która mnie bardzo ciekawi. Wspomniałeś o pięciu zasadach (principles). Mógłbyś to rozwinąć?

Mateusz
Oczywiście. Sztuczna inteligencja to temat, który interesuje każdego, wyskakuje z lodówki, więc ludzie są…

Karol
Przepraszam, że spróbuję się z tobą skonfrontować. Czytałem genialne opracowanie: w Stanach Zjednoczonych prawie 70% populacji nie słyszało o ChacieGPT. My, drodzy panowie, żyjemy w totalnej bańce. My, ludzie, którzy tą technologią żyjemy, i biznes, który widzi potrzebę jej adopcji. Widzę też pewien rozdźwięk pomiędzy świadomością i umiejętnościami kadry niższego szczebla a tym, co wiedzą szefowie zarządów. Problem jest taki, że ten najwyższy poziom często nie wie i boi się zapytać. A bez świadomości i wiedzy, budżety same się nie załatwią.

Mateusz
Odpowiem w ten sposób. Jakiś czas temu analizowaliśmy z moim szefem, Chief Data Officerem, ruch sieciowy w naszej firmie do stron typu chat.openai.com. Oczywiście chodziło o zagregowane dane. Ilość ludzi korzystających z ChataGPT jest w naszej firmie dużo większa niż te 30%, które rzekomo tylko o nim słyszało. Z drugiej strony warto popatrzeć, co się dzieje w młodym pokoleniu. Mój syn, który ma 12 lat, już wie o ChacieGPT, używał go i tylko modlę się, żeby nie wykombinował, jak mógłby zacząć pisać za jego pomocą prace z polskiego albo programować, bo chodzi na kurs programowania.

Karol
Podzielę się z wami moją ostatnią obserwacją i może przekażesz to, Mateusz, swojemu synowi. Genialna funkcja to tłumaczenie skomplikowanych procedur, idei i technologii w kilku wersjach: językiem ośmiolatka, piętnastolatka, studenta albo eksperta. Drodzy słuchacze, zróbcie sobie taki eksperyment: poproście Chata Gemini lub ChataGPT, żeby wytłumaczył Wam, na czym polega cukrzyca typu drugiego, właśnie językiem ośmiolatka, piętnastolatka, studenta medycyny i lekarza z dużym doświadczeniem. Zobaczcie, jak różni się słownictwo, styl, analiza procesów.

Mateusz
Próbowałem, potwierdzam, działa i jest to bardzo ciekawe. Sam tego czasem używam, żeby wytłumaczył mi jakieś terminy z innych dziedzin językiem prostego człowieka.
Wracając do pryncypiów AI, bo o nie pytałeś, Karol. Stawiając temat sztucznej inteligencji na nowo w naszej firmie, pojawiło się dużo pytań o naszą ambicję. Powiedzieliśmy sobie, że chcemy, aby 100% naszych pracowników i klientów odczuło pozytywny wpływ AI do roku 2030.

Karol
Mała dygresja, nie mogę się powstrzymać. Statki, które teraz projektujecie – kiedy one zaczną pływać?

Mateusz
To jest około 18-24 miesięcy.

Karol
Te, które projektujemy w tym momencie?

Mateusz
Tak. Inwestycje w statki, które głównie powstają w stoczniach koreańskich, ewentualnie chińskich, są realizowane dosyć sprawnie.

Karol
Jestem naprawdę zszokowany, myślałem że powiesz 3-5 lat. Świat przyspiesza też tutaj.

Mateusz
Tak, ale jeśli chodzi o pewną klasę statków. My na polskim wybrzeżu specjalizujemy się już raczej w luksusowych jachtach, aczkolwiek wydaje się, że marynarka wojenna powoli zacznie być odbudowywana, więc widzę tu pewne nadzieje.

Wracając do zasad. Gdy ustaliliśmy poziom ambicji, dostawaliśmy z wewnątrz organizacji pytania: „Dobrze, ale czego my powinniśmy używać? Co będziemy jako firma kupować? Czym się kierujemy w kontekście sztucznej inteligencji?”. Musieliśmy stworzyć tego typu wytyczne, pewną jasność, tę „gwiazdę północną”. Firma jest na tyle duża, że to nie jest jedno biuro, tylko cały świat.

Mamy pięć takich zasad. Po pierwsze, chcemy, żeby AI było human-centric. W kontekście projektowania tych systemów, człowiek powinien być na pierwszym miejscu. Naszym podejściem jest przede wszystkim „human in the loop”.

Karol
Czyli „augment, not replace”.

Mateusz
Dokładnie. Przynajmniej w najbliższej przyszłości pokona cię nie sama sztuczna inteligencja, tylko człowiek używający AI. Myślę, że jeszcze przez jakiś czas tak to będzie wyglądać.

Przemek
A diagnozowaliście w firmie obawy, że przyjdzie AI i nas zredukują?

Mateusz
To też jest bardzo dobre pytanie. Kiedy w 2020 roku zaczynałem tworzyć zespół automatyzacyjny, obawy były bardzo podobne. Baliśmy się, że jeśli zaczniemy chodzić po ludziach i pytać: „Słuchaj, jak możemy ci pomóc? Co możemy dla ciebie zautomatyzować?”, to natrafimy na opór w stylu: „Jak im powiem, co robię, to za chwilę nie będę miał pracy”.
Na szczęście, nałożyło się to na złoty czas. Okres okołowidowy był bardzo ciekawy w branży logistyki morskiej. Najpierw wszystko siadło, a potem okazało się, że wszyscy siedzą w domach i zamawiają, a rynek nie nadąża. Zrobiły się zatory w portach i terminalach, o czym mówiło się nawet w mediach. I takich wyników finansowych, jak przez ostatnie kilka lat, firma nie miała w swojej 175-letniej historii.

COVID minął. Wchodząc we współpracę z Maersk, nasz cel na 2030 rok to przewożenie o połowę więcej kontenerów. Aktualnie przewozimy około 12 milionów rocznie, a do 2030 ma to być 18 milionów.

Karol
A co, jeśli rynki zaczną się izolować?

Mateusz
Zobaczymy. Tego typu „czarne łabędzie” występują i nie jesteśmy w stanie ich przewidzieć. Z drugiej strony, dzisiaj rano wstaję i okazuje się, że giełda znowu poszła do góry, bo Donald Trump odwołał cła dla większości krajów.

Przemek
Zobaczymy, co powie jutro.

Karol
Drodzy Państwo, nagrywamy ten podcast 10 kwietnia. Zobaczymy, co będzie w dniu publikacji.

Mateusz
Biorąc pod uwagę ten planowany wzrost, przy jednoczesnym braku drastycznego zwiększania zatrudnienia, AI jest na pewno jedną z części odpowiedzi na pytanie, jak mamy przewozić o połowę więcej.

Karol
Czyli więcej, lepiej, szybciej, tym samym zespołem. Ale z człowiekiem w centrum, to pierwsza zasada. A druga?

Mateusz
Druga zasada to preferowanie systemów AI transparentnych – na tyle, na ile się da, żebyśmy byli w stanie wytłumaczyć podejmowane decyzje. Nie jesteśmy w sektorze finansowym, gdzie jesteśmy zobligowani, by tłumaczyć, dlaczego ktoś nie dostał pożyczki, ale chcemy wiedzieć, jak te systemy działają.
Kolejną zasadą jest to, że mój zespół ma dbać o dobrostan (well-being) i przyszłość firmy w świecie AI. Mamy podążać za tym, co dzieje się na rynku i proponować rozwiązania, które rzeczywiście mogą nam pomóc.

Karol
Czyli ciekawość, adaptacja, eksperymentowanie. Nie do końca rozumiem hasło „well-being w firmie” w kontekście technologii.

Mateusz
Chodzi o to, żeby Hapag-Lloyd przetrwał co najmniej kolejne 175 lat. Pytanie, w jaki sposób możemy to ułatwić i umożliwić, korzystając z AI. Przykładem jest jeden z naszych konkurentów, francuska firma CMA CGM, która biorąc pod uwagę narastający izolacjonizm, ogłosiła strategiczną współpracę z Mistral AI. Pracownicy Mistrala będą częścią biura naszego konkurenta, a na współpracę przeznaczą 100 milionów euro w ciągu najbliższych pięciu lat. Musimy reagować, żeby konkurencja nam nie odjechała, bo inwestuje w sztuczną inteligencję dużo większe środki.

Przemek
Dygresyjne pytanie, skoro już przywołaliśmy Donalda Trumpa. Czy w waszych systemach, które pokazują różne zjawiska i sygnały płynące z milionów kontenerów, widzicie na bieżąco jakieś zmiany w zależności od tego, co powie gospodarz Białego Domu?

Mateusz
Problem z „czarnymi łabędziami” jest taki, że najczęściej są to zdarzenia nie do przewidzenia. A jak wiemy, sztuczna inteligencja tak naprawdę wynajduje wzorce w danych, żeby robić predykcje. Ciężko przewidzieć takie zdarzenia, jak na przykład zeszłoroczne ataki Huti na statki na Morzu Czerwonym. Myślę, że można bardziej reagować na skutki. Kiedy przejście przez Morze Czerwone jest zablokowane, musimy opływać Afrykę. Co to oznacza dla naszej sieci? Ile więcej statków musimy wprowadzić? Jak to wpłynie na czas tranzytu? Jak wzrosną nasze koszty? Jakie dopłaty musimy ustalić z klientami? Przewidywanie tego jest trudne, ale systemy AI, takie jak cyfrowy bliźniak naszej sieci połączeń, mogą pomóc w obserwowaniu wpływu tych zdarzeń.

Karol
A taki scenariusz: Cieśnina Panamska staje się Cieśniną Amerykańską?

Mateusz
Na szczęście niezbyt duża część naszych połączeń przepływa przez Kanał Panamski. Dobrą informacją jest to, że Maersk, nasz partner, wykupił niedawno linię kolejową, która biegnie wzdłuż kanału, więc myślę, że Europa ma pewnego rodzaju obejście. Natomiast czy koledzy odpowiedzialni za sieć przygotowują się na tego typu scenariusz, nie jestem w stanie odpowiedzieć.

Przemek
Dane, które macie, i zjawiska, które się dzieją, dobrze obrazują pewne światowe trendy. Macie skalę globalną i monitorujecie połączenia między kontynentami i gospodarkami. Czy te dane udostępniacie na zewnątrz, żeby inni mogli na ich bazie robić analizy, które służą chociażby predykcjom gospodarczym czy badaniu koniunktury?

Mateusz
Na tę chwilę, według mojej najlepszej wiedzy, wymiana danych w sektorze logistyki morskiej nie jest jakoś bardzo rozbudowana. Myślę, że dane leżą w silosach u poszczególnych firm. Są podejmowane wysiłki w celu standaryzacji pewnych typów danych, żeby umożliwić ich wymianę w przyszłości. Przykładowo, istnieje konsorcjum DCSA, którego jesteśmy częścią, które stara się ujednolicić, co branża rozumie jako „booking” czy „shipping”, jakie tam są pola danych itd.
To się powoli dzieje, ale trzeba też powiedzieć, że cała branża stoi na technologii EDI. Nie wiem, czy panowie kojarzycie?

Przemek
Ja kojarzę. To bardzo stary standard, który poprzedzał czasy internetowe i dotyczył wymiany danych między dużymi korporacjami, chociażby w zakresie współpracy logistycznej. Ma długą historię i ogromne zasługi, ale ci, którzy weszli do tej dziedziny niedawno, mogą go nie pamiętać.

Mateusz
Ja też nie wiedziałem, co to jest za termin, dopóki nie dołączyłem do Hapag-Lloyd. Tak jak teraz firmy technologiczne budują API, które pozwalają uzyskać odpowiedź w ciągu milisekund, tak EDI było rodzajem kontraktu opartego na asynchronicznej komunikacji. Możemy się umówić, że będę wrzucał jakiś plik na serwer FTP raz na godzinę i dostawał potwierdzenie.

Karol
Czyli tak jakbyśmy porównywali wymianę danych e-mail versus faks.

Mateusz
To myślę, że jest dobre porównanie. I spora część branży wciąż stoi na wymienianiu się wiadomościami EDI. Są to pewnego rodzaju zaszłości, które trzeba nadrobić, żeby wymiana informacji była lepsza.

Karol
Pozwól, że wrócę do poprzedniego pytania. Czwarta zasada?

Mateusz
Dwie ostatnie zasady dotyczą przykładania odpowiedniej wagi do zgodności (compliance), bezpieczeństwa, zarządzania danymi i tego, żeby modele były tworzone w sposób odpowiedzialny. Aktualnie implementujemy przepisy wynikające z EU AI Act, zarówno pod kątem edukacji pracowników, jak i weryfikacji naszych obowiązków w kontekście poszczególnych projektów. Chcemy tworzyć AI, które jest odpowiedzialne.

Przemek
Patrząc w przyszłość, co sądzisz o przyszłości AI w kontekście Twojej firmy i całego rynku w perspektywie kilku najbliższych lat?

Karol
Kolejna mała dygresja. Kiedyś miałem na prezentacjach slajd z pytaniem, co będzie w 2045 roku. Od jakiegoś czasu mam ten slajd zmieniony – skreśliłem 2045 i zastąpiłem je 2030. Zdaję sobie sprawę, że perspektywa 20 lat jest zbyt odległa, żebyśmy mogli o niej odpowiedzialnie mówić. Mateuszu, the stage is yours.

Mateusz
Świat w kontekście sztucznej inteligencji zmienia się bardzo szybko. Jeżeli myślimy o logistyce, dobrym przykładem jest Tesla i Elon Musk. Nie wiem, czy panowie pamiętacie, jak on od 2013 roku powtarzał, że do 2020 roku autonomiczne pojazdy będą wszędzie i kierowcy nie będą już potrzebni. W kontekście logistyki byłaby to fundamentalna zmiana, przynajmniej w części naziemnej. A jednak okazuje się, że pewne problemy są na tyle skomplikowane, że pomimo iż pracują nad tym geniusze, nie udało się tego rozwiązać w stu procentach do dzisiaj.

Dlatego ja, przynajmniej na razie, nie widzę rychłego wdrożenia w pełni autonomicznej ciężarówki czy w pełni autonomicznego statku. To ostatnie absolutnie nie jest w kręgu naszych zainteresowań w Hapag-Lloyd. Z 300 statków, którymi pływamy, część jest wyczarterowana, czyli nie są nasze. Ilość nakładów potrzebnych na zainstalowanie odpowiedniej aparatury i wytrenowanie modeli jest tak gigantyczna, że myślę, że to się absolutnie nie kalkuluje.

Natomiast jeśli chodzi o codzienne wykorzystanie AI, jestem bardzo ciekawy, co wydarzy się z systemami agentowymi (Agentic AI). To kolejna fala sprzedawana przez dostawców technologicznych. Ja osobiście nie widziałem jeszcze produkcyjnego wdrożenia tego typu systemu w dużej skali w biznesie, ale rynek nie znosi próżni i nakręca się kolejną falę.
Myślę, że firmy takie jak nasza są jeszcze na etapie szukania wartości w „zwykłym” wykorzystaniu generatywnej sztucznej inteligencji, czyli na przykład: weźmy nasze dokumenty i niech AI na ich podstawie generuje odpowiedzi, które może nie będą w 100% poprawne, ale w 99%.

Karol
Korzystasz z NotebookLM? Bardzo Cię proszę, przetestuj. To moje ukochane narzędzie ostatnio. Model od Google, który pracuje tylko i wyłącznie na dokumentach, które mu dostarczysz i analizuje dane zawarte tylko w nich. Model o zerowej „temperaturze”, więc dostajesz tylko fakty i podsumowania. Genialne narzędzie do syntetyzowania wiedzy, wyszukiwania trendów i połączeń między danymi. Oprócz tego, ma genialną funkcję: po załadowaniu zasobów, w ciągu kilku minut dostajesz świetny podcast w formie rozmowy kobiety i mężczyzny, którzy dyskutują dokładnie o danych, które dostarczyłeś, w zrozumiały sposób. Mało tego, ostatnio uruchomiono funkcjonalność, która pozwala interaktywnie moderować tę dyskusję i prosić o położenie nacisku na dany wątek.

Mateusz
No to już wiemy, Karolu, w jaki sposób ten podcast zostanie ostatecznie złożony.
W przyszłości, myślę, że nastąpiło pewne zachłyśnięcie się sztuczną inteligencją i jesteśmy teraz na etapie „rozczarowania” w cyklu Gartnera. Teraz jest kwestia znalezienia realnej wartości i use case’ów, bo ktoś w końcu zapyta: „Dobra, ale co my jako firma z tego mamy?”.
Kluczowe jest też uświadomienie sobie, że systemy IT, jakie znaliśmy do tej pory, były deterministyczne – 1+1 zawsze równało się 2. AI to jednak coś probabilistycznego, co rzadko, ale jednak, powie, że 1+1=3. Chodzi o to, żeby znaleźć takie przypadki użycia wewnątrz firmy, gdzie ten błąd nie wywróci nam biznesu do góry nogami i nie trafimy na nagłówki gazet.

Karol
To najlepszy dowód na to, że „human in the loop” to konieczność i nie możemy ufać w stu procentach temu, co widzimy na ekranach.

Przemek
A czy my rzeczywiście jesteśmy teraz w tym dołku rozczarowania, czy jednak ciągle gdzieś na szczycie hype’u?

Mateusz
Ciekawe, jak to Gartner przedstawia. Z samą generatywną inteligencją wydaje mi się, że jesteśmy już trochę za szczytem hype’u. Natomiast gdzieś w okolicach tej góry są pewnie systemy agentowe. Jestem ciekawy, co się będzie w tym temacie działo. Jeżeli jako przedsiębiorstwo będziemy mieli nasze kluczowe funkcje dostępne przez API – na przykład wyciąganie danych z naszego systemu ERP – i będziemy w stanie pokazać modelowi generatywnemu: „Słuchaj, tu jest piętnaście różnych metod, których możesz użyć. Porozmawiaj z klientem, zobacz, czego chce, i w razie potrzeby użyj tego narzędzia, żeby sprawdzić status jego przesyłki”, to będzie bardzo ciekawe. Myślę jednak, że w naszym sektorze dostępność danych przez API wciąż nie jest największa, więc na to jeszcze chwila.

Karol
Wyobrażasz sobie taki w pełni zautomatyzowany, autonomiczny łańcuch dostaw? Zobacz, że zaczynają być dostępne jego elementy, chociażby polska firma Nomagic AI, która automatyzuje linie logistyczne – dobór towarów, pakowanie, identyfikację, segregację. Amazon ma 700 tysięcy robotów.

Mateusz
Odpowiedź jest prosta: tak. Myślenie o czymś, co nazywamy w firmie „zero touch shipment”, czyli procesie, w którym człowiek nie musi nic robić od momentu bookingu aż po danie zielonego światła na odbiór kontenera w porcie docelowym, jest czymś, nad czym myślimy od dłuższego czasu.

Przy czym trzeba powiedzieć, że zdecydowana większość kroków w tym procesie może być realizowana tradycyjnymi metodami – przez nasze systemy ERP, a może przez automatyzację RPA. Natomiast w sytuacjach wyjątkowych, a opowiadałem, jak wiele rzeczy może pójść nie tak, pałeczkę mogłaby przejąć sztuczna inteligencja. Pewnie nie rozwiąże 100% problemów, ale wydaje mi się, że przynajmniej część naszego wolumenu transportowego całkiem niedługo będzie się odbywała bez żadnej ludzkiej interwencji.

Karol
Drodzy Państwo, rozmawiamy już ponad godzinę. Tematów byłoby mnóstwo, ale niestety nasz gość, Mateusz Linda i Przemek Gamdzyk muszą lecieć do swoich obowiązków. Mam nadzieję, że to nie nasze ostatnie spotkanie i że będzie jeszcze szansa, żeby porozmawiać i wymienić się pomysłami na temat tego, jak może zmieniać się branża logistyczna. Mateuszu, serdecznie Ci dziękuję za spotkanie, za Twoją wiedzę i za sposób, w jaki komunikujesz to, co robisz. Trzymam kciuki za rok 2030.

Mateusz
Dziękuję bardzo, naprawdę było bardzo przyjemnie z Wami rozmawiać. W takim razie oczekuję na kolejne zaproszenia i życzę powodzenia w dalszej części projektu 99 twarzy.

Karol
I niech moc będzie z Tobą.

Mateusz
I nawzajem.