Czy mamy do czynienia z kolejną rewolucją technologiczną? W tym odcinku próbujemy znaleźć odpowiedź na to pytanie biorąc w dwa ognie – wspólnie z Przemysławem Gamdzykiem – Alexa Poniewierskiego.
Alex ma ponad 25 lat doświadczenia w zarządzaniu międzynarodowymi zespołami technologicznymi i biznesowymi. W ramach struktur EY zbudował od podstaw biznes konsultingowy specjalizujący się w doradztwie technologicznym w Europie Środkowej i Wschodniej oraz centrum kompetencji dla nowoczesnych technologii. W nieco ponad 5 lat skonsolidował i zarządzał globalną praktyką cyfryzacji i nowych technologii, zwiększając jej wartość z 150 milionów USD do ponad 1,2 miliarda (!!!) USD przychodów rocznie i ponad 12 000 pracujących w niej konsultantów.
Po 20 latach jako partner – wspólnik, przeszedł na emeryturę. Obecnie prowadzę własną firmę konsultingową. Jest autorem bestsellerowej książki „SPEED bez granic w cyfrowym świecie” traktującej o 4 rewolucji przemysłowej i mechanice nowej ekonomii opartej na danych.
W 2020 roku otrzymał tytuł „World IoT Leader of the year” organizacji Informa.
Jest członkiem Rady Doradczej w Centrum Globalnego Biznesu na Uniwersytecie Teksańskim w Dallas, wykładowcą w renomowanych uniwersytetach na całym świecie, w tym na Uniwersytecie Stanforda, Uniwersytecie Teksańskim, HULT Business School, Szkole Głównej Handlowej w Warszawie, Uniwersytecie Leona Koźmińskiego i wielu innych.
Więcej o Alexie możecie przeczytać tutaj -> www.apconsulting.tech
Alex jest również członkiem Rady Programowej AI Summit Poland, który organizowany jest przez Przemka w październiku. To wyjątkowe spotkanie PRAKTYKÓW, którzy przedstawią najciekawsze case’y wdrożeniowe i trendy w obszarze #AI. Polecam serdecznie Waszej uwadze to wydarzenie.
O czym rozmawiamy dzisiaj?
- Dlaczego AI nie zapewni przewagi konkurencyjnej, a raczej będzie tylko warunkiem przetrwania firmy na światowym rynku („AI doesn’t matter” – cytując Nicholasa Carra).
- Co działa w firmach na świecie – kiedy projekty AI się udają, od czego to zależy, jakie warunki muszą być spełnione?
- Autorska wizja przyszłości Alexa – AI jak grzybnia.
- Książka SPEED – jak mozna uzyć jej do frameworku dla wdrożeń AI?
- I wiele wiele innych ciekawych tematów – to chyba najdłuższy do tej pory opublikowany odcinek w ramch 99 Twarzy AI.
Aaaaaa i tradycyjnie wielka prośba – jeżeli jeszcze nie wystawiłaś lub nie wystawiłeś oceny 99 Twarzom AI na Spotify lub Apple podcast – pomóż mi proszę z dotarciem do nowych słuchaczy. To zabierze Ci tylko 2 minuty. Z góry serdeczne dzięki!
Dobrego dnia i niech #AI będzie z Wami wszystkimi!
Transkrypcja rozmowy
Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.
Karol: Panowie, witam was serdecznie, podcast 99 twarzy AI, Aleks Poniewierski, Przemysław Gamdzyk, witam was serdecznie. Dla tych ze słuchaczy, którzy nie znają być może Was panowie, czy moglibyście się przedstawić i powiedzieć, co tak naprawdę robicie w życiu i co was skręci, jeżeli chodzi o technologię?
Przemysław: Ja teraz w swoim życiu organizuję konferencje technologiczne, traktuję to jako takie miejsce spotkania dla różnych interesujących tematów, którzy chcą ze sobą wspólnie porozmawiać, podyskutować, usłyszeć to, co myślą, robią ludzie. i fascynują mnie takie rzeczy, które zmieniają rzeczywistość, zmieniają świat, zmieniają firmy, zmieniają sposób w jaki działamy, pracujemy i za tym wszystkim jest pytanie, jak robić to lepiej, jak robić to efektywniej i jak w tym wszystkim się nie zagubić.
Aleksander: Ja jestem konsultantem, chyba z krwi i kości, chociaż pracowałem wcześniej przed konsultingiem w biznesie, ale konsulting mi sprawiał wiele frajdy, bo jest takie miejsce, w którym klienci przychodzą z problemem, którego nie mogą rozwiązać, zazwyczaj w takim momencie, kiedy już się wszystko sypie, wali albo nie wiedzą naprawdę co zrobić i szukają ludzi, którzy w szybki, kreatywny i skuteczny sposób rozwiązą ten problem. Ja jestem po prostu konsultantem, takim doradcą od zawsze, który łączy technologię z biznesem, bo na technologii się znam dobrze, na biznesie chyba też już nieźle, natomiast połączenie tych dwóch światów jest tym, czego ludzie oczekują, biznesy oczekują, więc to jest to, co robię.
Karol: A mówiąc, Aleks, że znasz się na technologii, ciekaw jestem, jakie są Twoje doświadczenia. Ty rozumiesz, w jaki sposób działa technologia, czy potrafisz na przykład kodować?
Aleksander: Tak, jestem informatykiem, więc wychodziłem od kodowania, krosowałem kable. Nawet w swojej pierwszej pracy, kiedy zakładałem garnitur, to w piątki przychodziłem w dżinsach, żeby do krosowania switchy się tam podłączać. Więc tak, jestem takim informatykiem praktykiem, a potem takim informatykiem, który rozumie, jakie technologie ma ograniczenia i jakie technologie daje możliwości. Więc potrzebna mi była wiedza taka systematyczna, wiedza ekonomiczna, czyli jak na tej technologii zarabiać, budując ją albo wykorzystując ją, bo to jest wybór. Czyli albo ustawiasz się w tej pozycji, że coś chcesz stworzyć, z czego ludzie korzystają, albo potrafisz skorzystać z czegoś, kto wynalazł, stworzył. Ani jedna, ani druga nie jest zła. Więc ja byłem i po jednej stronie, i po drugiej stronie.
I po tych obydwu stronach w inny sposób mówi się o korzyści. To jest bardzo ważne, że jeżeli ty tworzysz technologię, rozumiesz technologię, kodujesz i tak dalej, to chcesz ten produkt sprzedać. Czyli twoją wartością są feature’y, są te takie funkcjonalności, są parametry, którym ta technologia się charakteryzuje. A jeżeli z technologii korzystasz, no to dla Ciebie jest istotna ta wartość dla użytkownika. Czyli tak dobierasz technologię, żeby ten użytkownik najtaniej, najlepszą rzecz otrzymał. I to są jakby zupełnie inne kompetencje i to trzeba rozumieć.
Karol: Chociaż w idealnym świecie feature’y powinny odpowiadać właśnie na potrzeby.
Aleksander: No niekoniecznie, dlatego że ja wychodzę z takiego założenia, że technologie, nazwijmy te nowe technologie, one mają dwie twarze. Jest ta rewolucyjna twarz technologii i ewolucyjna twarz technologii. Czyli ewolucyjna twarz technologii to jest ta, która podąża za nawykiem.
Czyli ludzie mają nawyk. I technologia podąża za tym nawykiem. I cały rozwój tej technologii polega na tym, że usprawniamy tą technologię. Czyli na przykład mamy krzesło, mamy nawyk siedzenia na krześle. I teraz poprawa technologii krzesła materiałowo czy konstrukcyjnie polega na tym, że chcemy, żeby nam było jak najlepiej.
I to jest ten tak zwany painkiller. Czyli coś nas tam boli, no to znajdujemy rozwiązanie, które robi tak, żeby nas nie bolało. To jest ewolucyjna technologia, podąża za nawykiem.
Natomiast druga strona medalu to są rewolucyjne technologie, czyli technologie, które kreują nawyk. Nie było czegoś, wymyślamy i musimy ludzi przekonać, żeby zaczęli tego używać. Czyli to jest takie słynne powiedzenie, które się przypisuje Harariemu, Einsteinowi i na pewno jeszcze wielu innym, że ciągłe ulepszenie świeczki nie doprowadziłoby do powstania żarówki. Taka oczywista rzecz. I to jest taki typowy, typowy przykład rewolucyjnej technologii.
Karol: Samo ciągłe ulepszenie telefonu i linii telefonicznej nie doprowadziłoby do powstania internetu.
Aleksander: Na przykład. I taki bardzo obrazowy przykład takiej rewolucyjnej technologii, tego zmiany nawyku, zmiany koncepcji nawyku. To jest koni samochód. Ludzie przez tysiące lat jeździli na koniu. Nastąpiła zmiana technologiczna, jest samochód i ludzie jeżdżą w samochodzie. Czyli przyzwyczajenie, nikt nie jeździ na samochodzie, tylko w samochodzie. Mamy samolot, który ludzie przez tysiące lat obserwowali ptaki i zastanawiali się, jak ruszać skrzydłami, żeby mieć siłę taką nośną. No i nagle wpadamy na pomysł, że jest innego rodzaju siła, która może ciągnąć samochód, czyli właśnie siła nośna, gdzie skrzydła się nie mają ruszać. Czyli zupełnie wbrew takiej oczywistości, oczywistej koncepcji.
I to jest takie rozumienie technologii. Jeżeli zawsze przychodzimy do klientów i staramy się rozwiązać ich problemy, to staramy się znajdować ewolucyjne rozwiązania, czyli lepsze, tańsze, szybsze. Natomiast rewolucyjne rozwiązania są wtedy, kiedy mamy ten vitamin water, czyli to nie jest nam de facto potrzebne, to nie rozwiązuje naszego problemu, ale zmienia kompletnie sposób, w jaki działamy. I ja miałem takie szczęście, że miałem zarówno tych klientów, którzy musieli rozwiązać swoje problemy palące, jak i takich, którzy siedzieli i mówili, no jak mamy się stać leading, albo chcemy zrobić ten tak zwany disruption, czyli rewolucję. Nasze usługi, nasze produkty mają być zupełnie czymś nowym. Chcemy wytworzyć nowe nawyki dla klientów. To jest fascynujące i przez ostatnie 25 lat dokładnie tym się zajmowałem.
Karol: Aleks, pamiętasz pierwszy case Twojego pierwszego klienta, z którym pracowałeś nad machine learningiem, optymalizacją procesów, automatyzacją?
Aleksander: Tak, pamiętam.
Pamiętam bardzo dobrze. Taka rzecz jak zaawansowana analityka, bo to jakby od tego trzeba zacząć. Czyli mam dane, zazwyczaj to są dane z procesów operacyjnych. Czyli po prostu działa mi maszyna, no i żeby ona działała, no to są odkładane różnego rodzaju dane. Odkładane albo nieodkładane, ale załóżmy, że są odkładane. I one służą głównemu procesowi produkcyjnemu. Czyli na przykład taki najprostszy case, jaki można sobie wyobrazić, Jedzie winda w budynku i na samej górze tego budynku jest silnik, który napędza tą windę i na tym silniku mamy różnego rodzaju czujniki, które mierzą napięcie, mierzą temperaturę tego silnika i one są po to tam ustawiane, żeby operacyjnie ta winda jechała. To jest tak jak w samochodzie mamy czujniki temperatury oleju czy sprężenia tłoków.
One mają bardzo inżynieryjnie świadomy cel. One po prostu służą operacyjnej działalności takiego urządzenia. Pierwsze projekty, jakie robiliśmy w zakresie takiej zaawansowanej analityki czy machine learningu, to było zabranie tych takich operacyjnych parametrów, operacyjnych danych i postaranie się znalezienia odpowiedzi czy użycia tych danych dla potrzeb optymalizacyjnych. I teraz potrzeby optymalizacyjne to są takie, w którym w tym przypadku rozwiązujesz jakiś problem, czyli np. zauważasz pewien pattern, że jeżeli silnik takiej windy przekracza 100 stopni Celsjusza i powtarza się to 3 razy pod rząd, czy 4, czy 5 razy pod rząd, to ten silnik staje. Czyli znajdujesz jakiś pattern, czyli jakiś sposób działania, który doprowadza do działania niepożądanego. Albo na przykład masz proces chemiczny, w którym Masz rury, przez które przebiega, nie wiem, tam ropa naftowa i na końcu tej rury jest, nazwijmy to, wielka kać, w której ta ropa, różne rodzaje ropy są mieszane po to, żeby tą mieszankę sprzedawać na stacjach benzynowych.
One muszą mieć, nie wiem, ileś tam oktan, powiedzmy 90 oktan. Teraz w takim konwencjonalnym sposobie to działa w ten sposób, że wlewa się tą wodę, tak jak my tam robimy herbatę i potem następuje laboratoryjny test, który sprawdza ile tych oktan jest. My z tą herbatą robimy tak, że po prostu próbujemy czy jest za słodka, czy za słona, czy mało słodka, czy kwaśna, czyli określamy jakiś jej stan. No i w takich rozwiązaniach przemysłowych, czy to takich windach, czy to takich petrochemicznych, idealnie sprawdza się używanie tych danych operacyjnych dla procesów optymalizacyjnych. Czyli nic nie trzeba dostawiać, żadnych czujników nie trzeba dostawiać, tylko trzeba zrobić jedną rzecz, która jest totalnie nowa, czyli trzeba zbudować tzw. soft sensory.
Czyli trzeba zbudować Internet of Things z takim AI. Czyli soft sensor to jest wyliczenie pewnej wartości, której nikt nie mierzy, a ona wynika z kilku innych wartości. Jeżeli wyliczysz tą wartość, to na podstawie tej wyliczonej wartości możesz podjąć jakąś decyzję. czyli na przykład decyzję, że silnik się przegrzewa, trzeba ochłodzić, albo że samochód jedzie zbyt szybko i ma drgania, trzeba wyhamować, albo że windę należy sprowadzić na dół i poddać jakiejś tam inspekcji. I to były pierwsze projekty takie zaawansowane, AI-owe, które robiliśmy, bo do tego są potrzebne sieci neuronowe. Musisz wyuczyć na danych historycznych, przetrenować, potem przetestować, i potem wkładasz taki model, który rozpoznaje przyczyny na podstawie skutków. I to jest cały taki obszar, od którego zaczynaliśmy. I to było kilkanaście lat temu. Oczywiście to jest taki AI, którego nie widać. Nikt nawet nie ma świadomości, że on działa, że on optymalizuje. Jedyna zmiana jest taka, że przestaje istnieć laboratorium, bo nikt już nie testuje, bo nie ma sensu testować, bo w czasie rzeczywistym wiadomo, jaka jest jakość produktu.
To jest jedyna zmiana. Tam nie ma interfejsu, czyli… Te całe procesy działają, nazwijmy to on edge i działają w tle, więc to nie jest sexy, to nic nie generuje, to po prostu steruje. I od 1973 roku, odkąd powstały sterowniki PLC, to jest następny krok, czyli sterownik PLC, czyli automatyka przemysłowa, no i następnym krokiem jest właśnie sztuczna inteligencja, która pozwala na świadome sterowanie. Używanie jednego, dwóch, dziesięciu miliona czujników i korelacji danych pomiędzy tymi czujnikami. Człowiek nie jest tego w stanie skorelować, więc potrzebujesz maszynę, która robi to. I na początku są bardzo, bardzo, bardzo proste korelacje, a potem wchodzisz w takie obszary, że masz potężne zbiory danych. i żeby zrozumieć, skąd się biorą te wszystkie dane, musisz zastosować algorytmy, które na przykład sklastrują ci, czyli zauważ jakiegoś K-min, który klastruje ci te dane, czyli mówi, o, to najprawdopodobniej są dane z czujników temperatury, a to są dane z czujników ciśnienia, a to są dane z czujników przepływu.
Karol: A potem najlepiej jakby jeszcze te dane można było zbizualizować i zaprezentować.
Aleksander: Tak, potem do tego dochodzi ten element, że ktoś chce zarządzać. Czyli jeżeli masz automatyczny proces i on działa, no to jest fajnie. Ale jeżeli masz optymalizację, to potrzebujesz zarządzania. Czyli żeby zarządzać, no to musisz dać ludziom jakiś interfejs, na którym oni czują taką władzę nad tym, co się dzieje. Czyli jak generałowie prowadzili wojnę, to mieli mapę, na której stawiali pionki i rysowali strzałki. czyli upraszczali rzeczywistość do kolorów pionków. I tutaj jest dokładnie tak samo, czyli masz miliony jakichś danych, które są skorelowane, ale upraszczasz je do poszczególnych wektorów, czy upraszczasz je do poszczególnych kolorów, bo ludzie mają bardzo, bardzo małą percepcję i potrafią kontrolować tylko kilka punktów. I na tym to polega.
Karol: Ulubiony obszar biznesu to przemysł, rafineria, chemia?
Aleksander: Jakbyś spojrzał teraz z perspektywy tych lat i projektów, które zrealizowałeś, to… Ulubiony obszar biznesu to jest taki, który, jakby on jest nieistotny z perspektywy takiego industry, on jest istotny z perspektywy komplikacji tego biznesu. Przemysł, energetyka, chemia, utilities takie ogólne to są takie obszary, w którym takie AI czy nowoczesne technologie idealnie się sprawdzają, bo stopień skomplikowania ilości zachodzących zdarzeń pomiędzy tymi uczestnikami procesu jest największy. Bankowość jest też, finanse są też takim fantastycznym obszarem.
Karol: O, ciekawe to, co mówisz. Ja bym… Gdybym miał odpowiedzieć na moje wyczucie, to ja bym powiedział, że optymalizacja procesu takiego biznesowego w takim przedsiębiorstwie jest dużo prostsza niż inne obszary.
Aleksander: Takim przemysłowym? Tak. No to nie zgadzam się.
Wyobraź sobie, że masz fabrykę, która produkuje pianę, czyli masz nowonordisk, czyli jakąś firmę biotechnologiczną, która produkuje bazę do leków. I ta baza do leków to jest puder, który jest hodowany na takiej pianie, z fermentowanym mleku, nazwijmy to. Nie jest to mleko i nie ma tam fermentacji, ale taka piana. I teraz ta piana rośnie sobie przez, powiedzmy, dwa tygodnie. I potem jak sobie wyrosła, suszą tą pianę, robią z tego puder i to jest baza do substancji aktywnej w leku. I ona musi być skrajnie przewidywalna, czyli ten puder musi być po pierwsze powtarzalny, nie może mieć żadnych zanieczyszczeń, nie może mieć żadnych jakby przypadkowych rzeczy, które się tam robią. Jeżeli ktoś z nas czy z naszych słuchaczy robił kiedykolwiek wino albo pędził bimber, to wie, że zapanowanie takim procesem, mimo że on jest banalnie prosty, wrzucam tam cukier, wrzucam drożdże, no i tam jedzie temperatura i tyle, nie? Teoretycznie to jest banalny proces. Natomiast jakby był taki banalny, to nie byłoby boom i wyszczyliwałyby te baniaki, albo to wino zawsze by było takie same.
Ale tak nie jest. Dlatego, że w tej naturze istnieje bardzo wiele czynników, które są nieprzewidywalne, są niemierzalne, a wpływają na końcowy efekt procesu. Teraz technologie, które biorą się z początku XX wieku albo z połowy XX wieku, bo musimy pamiętać, że te technologie rafineryjne na przykład, one się co do zasady mocno nie zmieniły, czy właśnie antybiotyki, czy jakiegoś rodzaju bazy dla leków. One się oczywiście bardzo mocno zmieniły, ale co do zasady się nie zmieniły.
I jakby cała optymalizacja tego polega na dwóch procesach. Pierwszy jest taki, że jak robisz to wino w domu, no to one albo wychodzi, albo nie wychodzi. I dziadek mówił, o teraz mi wyszło fajne wino, a za rok mówi, e, nie wyszło mi wino.
Czyli jakby albo wychodzi, albo nie wychodzi. Natomiast w procesach produkcyjnych cały koncept jest taki, żeby w jak najmniejszych interwałach sprawdzać, czy da się skorygować ten proces, żeby on zawsze był powtarzalny, zawsze doprowadzał do efektu. I rozwój i optymalizacja tych procesów polega na coraz mniejszym interwale sprawdzania i coraz większym efekcie wpływania na zmianę tego procesu. I on przez to, że te interwały są sekundowe i przez to, że skala tego jest miliardy ton, powoduje komplikacje. Bo sam algorytm możemy napisać na kartce papieru, które zmienne brać i jak je korelować. Natomiast skala tego wszystkiego jest tak olbrzymia, że potrzebny do tego jest właśnie taki AI. I to jest fascynujące.
Karol: Te dane tak naprawdę są tym złotem, o którym się mówi teraz.
Aleksander: Dane są złotem, natomiast prawdziwym złotem jest wiedza, która powstaje z tych danych, czyli z danych powstaje informacja, a ta informacja w akcji, czyli w użyteczności jest wiedzą i to jest prawdziwe złoto. Ja bym powiedział, że same dane jako takie to są atomy. Natomiast te dane zmienione w informacje, czyli nazwijmy to molekuły, dopiero uzyskują wartość, kiedy stają się wiedzą. To jest cały clue. Dlatego bardzo często z takim humorem podchodzę do dyskusji, jak tam dwie firmy, dostawca, odbiorca i prawnicy kłócą się, czyje są dane. No to nie ma żadnego znaczenia, bo ja mogę zabrać dane, nauczyć się na tych danych, czyli wyciągnąć z ich wiedzę i mogę je oddać, dlatego że mi nie są te dane potrzebne. Jeżeli proces się nie zmienia.
Nawet jeżeli proces się zmienia, to dane mi są dalej niepotrzebne. Dam wam przykład. Mamy milion użytkowników w wielkim mieście, którzy mają telefony komórkowe i jeżdżą po ulicach. Czyli zbieramy te informacje z jaką prędkością, gdzie skręcają i tworzymy z tego taki Google Maps, czyli taki market standard Google Maps.
I teraz same dane ja mogę wyrzucać. Ja mam zabrać informację, zebrać informację jak najbardziej dokładną, w których odcinkach, w którym czasie, w którym dniu miesiąca i tygodnia, w których miejscach są największe korki. I jeżeli… zakładamy, że to jest wszystko w czasie rzeczywistym, tak nie jest. Czyli Google Maps nie działa w czasie rzeczywistym. Tam jest bardzo duży lag, natomiast pewne obszary, które my z historii wyliczyliśmy, są predefiniowane jako drogi szybsze i krótsze. I jeżeli prosimy o wyznaczenie nam trasy z miejsca A do B, to najpierw jest brane to właśnie historyczne, czyli ta wiedza, które drogi są najlepsze, a potem ona jest tylko tunowana takimi rzeczywistymi artefaktami, które się dzieją w czasie rzeczywistym.
Więc to jest niezwykle istotne. No i musimy oczywiście pamiętać, że takie algorytmy bardzo łatwo jest przeuczyć, czyli jeżeli ja za dużo rzeczy dam, to odwrotny skutek osiągam. I znowu taki fantastyczny przykład jest taki, że ja mogę mieć perfekcyjny proces robienia tej piany do leków, Natomiast jeżeli przeuczę algorytm złym procesem, no to on będzie gorzej działał niż ten oryginalny. Często się o tym zapomina i mówi się, że algorytmy muszą się stale uczyć. To nie jest prawda. Algorytmy dochodzą do takiego momentu, w którym są optymalne. Nie są perfekcyjne, ale są optymalne. I teraz douczanie tych algorytmów wprowadza ryzyko, które może spowodować, że on jest gorszy niż był przed douczeniem.
Przemysław: Aleks, wspomniałeś o tych różnych gałęziach przemysłu, jak o tych miejscach, w których zastosowania sztucznej inteligencji pojawiały się już bardzo dawno temu. Ja sam pamiętam, jak w bardzo dawnych czasach, trzydzieści parę lat temu studiowałem informatykę, to już wtedy czytałem o zastosowaniach sieci neuronowych w przemyśle. Natomiast to zawsze gdzieś było tam pewną niszą. To, co się stało półtora roku temu, kiedy się pojawił czat GPT, to była rewolucja przede wszystkim mentalna. To się przebiło do mainstreamu. Stało się coś, o czym dawniej sądziliśmy, że się stanie tam za dziesiątki lat. Nagle się przyszło do nas w przyszłości rozwiązanie, które zmieniło w ogóle mnóstwo rzeczy.
Zmieniło pewne paradygmaty i zniosło pewne ograniczenia, otwarło nowe możliwości. O AI teraz mówią wszyscy i ciągle. Odnosząc się do Twojego doświadczenia, Twojej wiedzy, czy firmy generalnie w ogóle wiedzą, co to jest AI i co może im dać? No bo czy to jest w tej chwili taka wieża babel, że już wszyscy się trochę, tak powiem, zachwycili, ale jednocześnie też pogubili? Jak nazwiesz ten moment, w którym teraz jesteśmy?
Aleksander: Ja dam taką dosyć może kontrowersyjne porównanie, ale jakby dojdę do wniosku, zobaczymy, że ona nie jest takie kontrowersyjna. W 90-tych latach w telewizji był niejaki pan Kaszpirowski. I facet miał moc. I oglądały go miliony widzów. Tak, to była absolutna moc. Był Harris, jakiś tam drugi magik i oglądały i pragnęły tego słuchać milionem.
Ja to ad in, dwa, tri. Dzisiaj takich magików, wróżek, no to mamy setki. No i teraz pytanie jest, czy ta magia się zmieniła, czy ona się zdemokratyzowała i czy te setki, które dzisiaj są harisami kaszpirowskimi, widzą biznes. I to jest po prostu ta zmiana. Czyli… AI, o którym ty mówisz 30 lat temu, nie był sexy. Nie dało się na tym zrobić biznesu z trzech powodów. Po pierwsze, moc obliczeniowa była droga. Miałeś dwa komputery w Poznaniu i na AGH-u i w Warszawie może trzeci. Dwa nie było danych, bo algorytmy były te same. Tam się chyba za dużo nie zmieniałem, ale nie było danych.
Czyli nie mogłeś robić, wiesz, AI-a na lajkach, którą sukienkę lubisz, bo nie było takich danych. Jakie miałeś dane?
No miałeś dane geodezyjne, miałeś dane o obywatelach i to były jedyne sety danych, na których mogłeś robić te eksperymenty AI-owe. No i tych trzech kaszpirowskich w kraju, co to tam opowiadali, jakie cuda można z tego robić. Potem miałeś zagraniczne wielkie przedsięwzięcia, czyli jakieś tam Apollo 11, lot na kosmos, gdzie natura wymuszała pewną automatyzację, czyli na przykład… Jeżeli ta rakieta leciała, była dylatacja czasu, czy przesunięcie komunikacji, że za czym wysłała sygnał do Ziemi, to już mijało kilka sekund, a trzeba było zareagować w te sekundy, więc trzeba było sterowanie i decyzyjność przekazać tam. A tam nie było człowieka, czyli musiał to robić algorytm.
Na początku oczywiście taki algorytm, algorytm, ale potem ten algorytm musiał się uczyć. Uczenie się polega na tym, że bierzesz te dane, które te różne sądy i programy brały, no i na tych historycznych danych mówiono, co w takiej sytuacji, what if, takie what if. Ale dalej to nie miało interfejsu. Znaczy jakby ty jako zwykły taki zjadacz chleba nic nie mogłeś z tym zrobić. Albo byłeś super programistą, czyli takim kaszpirowskim i zachwycałeś, albo nie rozumiałeś w ogóle co tam jest. Dziewięćdziesiąte, dwutysięczne lata, masz komputer w domu, masz interfejsy, języki kodowania od assemblera zmieniają się przez C, który… dzisiaj jest nazywany językiem niskiego poziomu. Dla mnie, jak ja się uczyłem kodować, to to był język wysokiego poziomu. Więc już sama definicja się zmieniła.
Karol: I nagle dochodzisz do low-code. Aleks, jesteś romantyczny wobec tego, jak było.
Aleksander: No tak, znaczy w ogóle to jest taki romantyzm, nie wiem, czy pamiętacie, jak się w Amosie programował na Amidze. To były… To były fenomenalne rzeczy, bo miałeś mało pamięci i trzeba było w tej pamięci wszystko upnąć. I to nie było na zasadzie, że za dwa centy się dokupowało kolejną pamięć. Miałeś tyle, ile miałeś. Czyli miałeś wiaderko i w tym wiaderku musiałeś zoptymalizować, jak przewieźć najwięcej cegieł. No ale dochodzimy do takiego momentu, w którym masz low-code, czyli każdy, kto otworzy sobie YouTube’a i nauczy się, może zrobić. Potem te półtora roku temu trafiamy nagle na niesamowite zdarzenie, mianowicie ty możesz posługiwać się językiem naturalnym, nawet powiedzieć to i to coś wykonuje.
I to jest fenomenalne. I to jest ten moment, w którym mamy 20 tysięcy kaszpirowskich. I teraz ci kaszpirowscy, którzy rozumieją tę technologię, są specjalistami w swoich branżach. Czyli jest super prawnikiem i zrozumiał AI. Jest super sprzedawcą, zrozumiał AI. Jest super marketerem, zrozumiał AI. Więc w naturalny sposób ci ludzie mówią… to zastosowanie dla prawa tego AI może być takie, śmakie, owakie. Dlatego dzisiaj jest dużo osób, które mówią z wielkim sensem o zastosowaniu AI w ich dyscyplinie.
I to jest ok, to jest bardzo ok. Natomiast oni mówią o wykorzystaniu AI, nie rozumiejąc jak ten AI działa. bo nie muszą tego wiedzieć. Natomiast ci, którzy tworzą ten AI, którzy optymalizują ten AI, czy którzy tworzą biznes na tym AI oparty, czyli tę technologię, ci dalej są tymi kaszpirowskimi. Ich jest bardzo niewielu. Natomiast tych, którzy potrafią zastosować AI, tych jest bardzo dużo. Teraz o tych, którzy wiedzą jak to działa i robili to w skali, nie słyszysz na pierwszych stronach gazet. Oni są zajęci i robią biznes. Ci, którzy opowiadają o zastosowaniu, opowiadają po prostu o tym, że przyszło nowe narzędzia. Kiedyś w takim narzędziu był Excel, potem PowerPoint, a dzisiaj jest AI. I tyle.
Karol: Także myślę, że to tak dokładnie wyglądało. Ale z drugiej strony, jak przygotowywaliśmy się do naszego spotkania, przytoczyłeś cytat z Nicolasa Carra, AI doesn’t matter. Mógłbyś to rozwinąć?
Aleksander: To jest taka pewna prawda, którą musimy sobie uświadomić. Jedna rzecz jest taka, że dzisiaj każdy chce spić kapitał na AI, bo tak jak powiedziałem, zna się na jakiejś tam swojej działce biznesowej i ten AI daje mu booster i to jest fajne. Natomiast nie można się doszukiwać w tym przewagi konkurencyjnej. Z jednego prostego powodu. To jest zdemokratyzowane.
Każdy to ma. Nicolas Carr w 2005 roku napisał taki artykuł na łamach Harvard Business Review „IT doesn’t matter”. To był, dla przypomnienia, to był taki czas, kiedy świat oszalał na punkcie systemów ERP. na punkcie systemów CRM-owych, czy jakichś tam planistycznych i tak dalej, bo pojawił się internet, pojawił się e-commerce, pojawiły się tanie możliwości realizacji IT i coraz więcej informatyków, którzy byli tymi takimi aplikacyjnymi informatykami, czyli pomagali biznesowi. I wtedy w tym 2000, powiedzmy od roku 2000, od 2005, ja na przykład sprzedawałem wręcz na tony strategii IT. Bo każda firma, która nie była zinformatyzowana, robiła strategię informatyzacji, czyli coś, co się nazywa dzisiaj strategią digitalizacji, czy digital transformation. To jest dokładnie to samo, tylko jakby dotyczyło trochę innych rzeczy.
Każda firma chciała mieć strategię IT, czyli w jakiś sposób wdrażając system ERP, czy wdrażając system CRM, czyli realnie porządkując dane, może zyskać przewagę konkurencyjną. I czar powiedział, że to jest niesamowicie naiwne, dlatego że ta technologia, ona się upowszechni, w związku z tym nie ma w niej przewagi konkurencyjnej, bo każdy ma do niej dostęp i jedyne co zyskujesz to to, że jesteś pierwszy, czyli masz największą ilość strzał w plecach, najwięcej zapłacisz za learn, natomiast wszyscy, którzy przyjdą po tobie, nauczą się, jak to zrobić szybciej, łatwiej i skuteczniej, dlatego że twoi ludzie do nich odejdą i będą pracowali u nich, u was, nie popełniając tych samych błędów. I to jest dokładnie dzisiaj. Dzisiaj wszyscy przygotowują strategię AI, zakładając, że jeżeli będą pierwsi, to wygrają.
Jest w tym dużo prawdy, dlatego że 18-miesięczny proces wyboru ERP-a i trzyletnie wdrożenie ERP-a, dzisiaj mamy trzy dni wyboru AI-a i dwa dni wdrożenia AI-a, znaczy skrócił się czas. Więc na pewien czas ty możesz tym AI-em zbudować przewagę konkurencyjną, ale to nie jest długa przewaga konkurencyjna. I w drugiej części tego ogólnie dostępnego artykułu Car mówi, że problem jest gdzie indziej. Problem jest w tym, że firmy nie powinny zastanawiać się w jaki sposób budować przewagę konkurencyjną IT, czyli dzisiaj AI, tylko powinny zastanawiać się co się stanie jak nie będą go miały. I nie wiem, czy pamiętacie, na początku tam dwutysięcznych lat wszyscy, którzy wdrażali IT, strategię IT, robili tak zwane strategie business continuity planning, czyli co się stanie, jak nie będzie tego IT. Czyli innowacyjność, ta innowacja, te nowe IT wprowadzało ryzyko nieposiadania go. I on to porównuje, car, do bardzo fajnej technologii, jaką jest elektryczność. Na początku, kiedy pojawiała się elektryczność, rzeczywiście stanowiła jakąś przewagę konkurencyjną. Natomiast uzależnienie się od tej elektryczności już nie buduje żadnej przewagi konkurencyjnej.
Dzisiaj żaden zarząd nie robi strategii, jak wykorzystać internet i elektryczność w firmie albo kanalizację w firmie. To jest bez sensu. To jest coś oczywistego, że to mamy. Natomiast wiele firm zastanawia się, Co, jeżeli nie będzie tego prądu? Zresztą wojna nam pokazuje, że bezpieczeństwo energetyczne jest jakby kluczowe, a to jest 100 lat, to jest 100 lat, prawda? Odkąd, kiedy trzeba było namawiać ludzi, żeby w ogóle podłączali się do prądu, nawet chyba mniej niż 100 lat. I dokładnie tak samo jest AI-em. Nikt dzisiaj nie zastanawia się nad tym, albo mało kto zastanawia się nad tym, co się stanie, jeżeli ich produkt albo usługa zostaną pozbawione EIA, taniego EIA, zdemokratyzowanego EIA. Dzisiaj użytkownicy oczywiście wybierają i będą wybierali to, co jest dla nich najlepsze i najprostsze. Znowu dam taki przykład, z którego każdy z nas korzysta. Jak oglądamy booking.com, to nie zastanawiamy się, czy w tych hotelach jest ciepła woda i jest elektryczność. Znaczy przyjmujemy, że po prostu jest. Czyli patrzymy na innego rodzaju feature, jak tam widoki czy cena, ale nikt się nie zastanawia, czy jest telefon, czy jest internet, czy jest… to nie buduje przewagi konkurencyjnej, no bo oferta nie może być taka, że o, wybierz naszą willę, bo mamy prąd i kanalizację, nie?
Przemek: No jakby…
Aleksander: Więc dokładnie użytkownicy podążając za nawykami, będą oczekiwały, że wszystkie firmy będą miały AI. Czyli odpowiedź nie jest, czy ty budujesz AI przewagę konkurencyjną, tylko czy ty w ogóle jesteś na rynku, czy ty jesteś relewantny na rynku. Czyli nie buduję przewagi konkurencyjnej kanalizacją elektryką, tylko to jest standard, którego wszyscy oczekują. I tu jest tak samo. Nie buduję przewagi konkurencyjnej AI, tylko mam te procesy, bo wszyscy tego oczekują.
Karol: Tak samo jak kiedyś musiałeś być w książce telefonicznej, a teraz książki telefonicznej nie ma, a musisz być w internecie.
Przemysław: Tak jest. Ale czy z drugiej strony nie jest jednak tak, że w biznesie takie prawdziwe pieniądze to się zarabia na monopolu, nawet jeżeli on jest ograniczony bardzo w czasie, ale ma się monopol na coś, tak? Bardzo ciekawe. Czyli coś się zrobi pierwszemu, no to ma się te strzały w plecach, ale ma się ten… szansę bycia tym monopolistą przez jakiś czas i zyskania tej premii, której się nigdy w takiej konkurencyjnej, że tak powiem, walce nie zyska. Czy to nie o to chodzi, żeby budować te czasowe monopole i że właśnie AI daje tą możliwość budowania tych czasowych monopolii?
Aleksander: To jest bardzo dobry punkt. Ja bym odwrócił i powiedział tak, że my pamiętamy monopolę. Natomiast ci czasowi monopoliści to są ci, którym się udało z milionów albo setek, którym się nie udało tego monopolu osiągnąć. My pamiętamy tych, którzy zrobili rzeczy inaczej. I dzięki temu w szybki sposób zbudowali masę krytyczną i taki market standard.
I to pamiętamy, jakby to nazywamy tym monopolem. Potem jest w tym naturalnym cyklu oburzenie, czyli regulatorzy się budzą i mówią, nie, nie, to tak nie może być, nakładają kary. A potem następuje moment komodityzacji, czyli jakby wszyscy mają tą funkcjonalność i nie stanowi ona absolutnie żadnej wartości. I tak, ja się zgadzam, że ci, których my nazywamy innowatorami, twórcami, tymi, którzy są tymi liderami na rynku, oni tą technologię robią w inny sposób. Ekonomicznie uzasadniony, czy nawet czasami abstrakcyjnie zyskowne, które robią rewolucyjną albo ewolucyjną zmianę.
Jedną albo drugą, bo to nie musi być zawsze rewolucyjna. I teraz to, co ty mówisz o monopolem. Czy one zyskują na tym, że mają krótkoterminową przewagę konkurencyjną? To zazwyczaj tak jest. To tutaj można by dokonać takiej długiej analizy, na których sektorach to jest rzeczywiście przewaga, a w których sektorach to nie jest przewaga. Czyli gdzie taka innowacja może cię dużo kosztować, a gdzie ta innowacja buduje twoją przewagę.
Ja bym to rozwinął w ten sposób. Polski przykład bankowości internetowej. Pojawiły się pierwsze banki internetowe, nie mobilne, tylko internetowe, które optymistycznie klienci powiedzieli jest, regulator powiedział jest, no i technologia dawała taką możliwość. Bezpieczeństwo przede wszystkim, czyli SSL pojawił się w tym czasie i okej. Dynamiczny rozwój i pełno naśladowców. Dzisiaj mało kto pamięta w Polsce o Inteligo. Są tacy, którzy gdzieś tam pamiętają. Mało kto pamięta, że mBank stworzył. Dzisiaj patrzymy na bankowość internetową, każdy ją ma. Jako coś zupełnie naturalnego.
To jest absolutnie coś naturalnego. Teraz, jeżeli wziąłbyś i przeanalizował, jakie były koszty pozyskania pierwszych tysiąca klientów przez Inteligo mBank versus dzisiaj koszty pozyskania tysiąca, to jest zupełnie inna skala. Czy opłacało się Inteligo i mBankowi?
Najprawdopodobniej tak. Czyli możemy powiedzieć, że te banki, które zrobią wielką innowacyjność i zrobią, nie wiem, AI bank, mogę sobie wyobrazić, to będą miały wielki opór dzisiaj regulatora, bo tam AI Act i co można robić, czego nie można robić, polskiego regulatora, wielki opór klientów, którzy powiedzą, gdzie są te moje pieniądze, już nie wiem, a teraz jeszcze kto ze mną gada, nie wiem. Ja bym powiedział, że różne sektory w różnym momencie świadomości rynku mają przewagę albo tej przewagi nie mają. Natomiast jeżeli weźmiesz na przykład transport, który jest na poziomie jakiegoś tam rozwoju, No to Tesla udowodniła, że jesteś w stanie z niczego zbudować pozycję przez 15 lat i być absolutnym liderem na rynku, którego wszyscy kopiują i wszyscy chcą być tacy jak Tesla.
Na pewno tak jest w takich industry, utilities industry. Tam dokładnie tak samo. Możesz takim AI-em nie tyle zbudować monopol, co możesz zbudować swoją przewagę, dlatego że robisz rzeczy inaczej. Przy czym ja tutaj chcę mocno podkreślić, to nie jest sam AI, to jest cały mindset działania takiej firmy. Ona po prostu inaczej funkcjonuje, gdzie AI i inne rozwiązania technologiczne dają im możliwość robienia skali. To jest jakby ten core, ten sekretny sos.
Karol: A kiedy projektoria się udają? Jaki musi być ten ekosystem? Jakie warunki muszą być spełnione? To jest tylko i wyłącznie świadomość? To są narzędzia? To są budżety?
Aleksander: Ja bym to podzielił na dwie kategorie. Czyli te niewidoczne AI-e, one się udają, jeżeli masz kontrolę nad środowiskiem danych. One się wtedy udają.
Karol: Kontrolę, czyli świadomość, tak?
Aleksander: Tak. Znaczy masz pełne przekonanie, że taki projekt AI-owy jest potrzebny, a nie jest eksperymentem i że on jest częścią produkcyjną środowiska. Wtedy się udają. Jeżeli ten AI jest takim proof of concept i nikt tam w ogóle nie pyta, nie informuje tych zespołów AI-owych, że tam się zmieniły dane i tak dalej, no to ten model po miesiącu już nie działa i w ogóle wszyscy się to wyśmiewają, a robota w fabryce potrafią tam oblać wodą, żeby przestał działać i udowodnić, że to jest bez sensu. Zresztą w pierwszej rewolucji byli ludowie, którzy robili dokładnie to samo, psuli maszyny włóknicze, żeby pokazać, że to jest beznadziejne. Czyli te niewidzialne EIA są wtedy, kiedy kontrolujesz środowisko. Te widzialne jaje, czyli te LLM-y, te generatywne jaje są wtedy, kiedy zwykły człowiek potrafi tego użyć.
To jest sukces. Jeżeli każdy przysłowiowy Jaś czy Małgosia potrafią w krótkim czasie wyciągnąć korzyść z używania takiej technologii, to to jest sukces. Z tego się biorą te miliony nowych użytkowników, bo każdy nie tylko chce spróbować, ale każdy nagle może, potrafi, umie i ma efekt.
Czyli mówiąc taką parabolą, jeżeli… Przekonywaliśmy lata, że każdy kodować może. No i ktoś tam siadał i mówi, to jest nie dla mnie, to jest trudne, ja tego nie widzę, ja tego nie rozumiem. Potem druga grupa mówi, okej, zrobiłem sobie ekranik, który mi się rusza. A trzecia grupa mówi, o yes, to jest moja nowa przyszłość, versus masz generatywne AI, mówisz w języku naturalnym, poprawiasz w języku naturalnym i dostajesz obrazek, który jest cool i każdy to może zrobić. To tutaj te 30, 30, 30% w pierwszym przykładzie versus 99%. akceptacji i znalezienia w tym wartości. Teraz zobaczcie, jaki jest psychologiczny efekt, że ja jak narysuję rysunek, to on mi się podoba, to jest moje dziecko, czyli jakby jak ktoś go pochwali, to chwali moje dziecko, efekt mojej pracy. Tutaj ja wygenerowałem obrazek, wysyłam go do Facebooka i ludzie mówią, o, jaki ładny, nie? Ja to traktuję, że to jest moje.
Ja jestem twórcą tego, co nie jest prawdą, ale ja jestem tego twórcą. I to daje ten element rozpoznawalności, to daje ten element wartości dla każdego użytkownika. Więc to jest sukces tych takich, nazwijmy to, widocznych AI. Oczywiście za tym i w jednym i w drugim przypadku jest ta czarna strefa, czyli to zło, które jest w AI.
W industrialnym AI to jest snowball, to jest taki typowy czarny scenariusz, którego się każdy boi. W Odysei Kosmicznej to było takie, że ten robot tam się nauczył złych rzeczy i nas tam zabija i nie da się go wyłączyć, prawda? W industrialnym AI to jest nadpisywanie danych albo złe uczenie się, czyli tak zwany drifting, czyli model driftuje i po pewnym czasie zaczyna dawać idiotyczne wyniki, ale zgodnie z zasadą gotującej się żaby my nie rozpoznajemy, że to jest złe. I tam po milimetrze się przesuwa, aż efekt jest zabijający nas. oceniamy jakość ropy, wszystko jest fajnie i w którymś momencie wypuszczamy na rynek coś, co jest niedobre. Tylko nikt nie rozpoznał, że to się dzieje. A czarny scenariusz dla tych, nazwijmy to, miodnych AI-ów, no to jest bajest i etyka. Etyka danych, czym to uczymy, to jest bajest, jaki mamy efekt. Potem mamy grupy ludzi, którzy by chcieli widzieć niekoniecznie to, co było podstawą wyuczenia danych, więc jest tak zwany hotting, czyli wyuczamy, czy ręcznie sterujemy efektem, no i wychodzą z tego różne kwiatki, które są absurdalne.
Przemysław: Tak odnosząc się do Twojej intuicji i doświadczenia, tak generalnie, to lepiej znajdować zastosowania AI do tego, co jest w firmie, czym ona się zajmuje, czy lepiej szukać rzeczy, które można zrobić za pomocą AI, w jakimś sensie nowe? Znaczy wiem, że to zależy, ale nie chciałbym, żebyś odpowiedział w tę stronę.
Aleksander: Ja myślę, że teraz jesteśmy w takim momencie, kiedy każdy zarząd, każdy szef IT, każdy szef danych, każdy szef marketingu musi mieć świadomość, co jest możliwe. To jest najważniejsze, czyli ta świadomość i wiedza jest najważniejsza. Teraz, jeżeli rozumiesz, co możesz z tym zrobić, Jeżeli rozumiesz, jak to działa z grubsza, to wracamy do tego punktu, o którym powiedziałem.
Jeżeli jesteś ekspertem w swojej dziedzinie, to znajdziesz nowe zastosowania tego AI w swojej dziedzinie. I dokładnie o to chodzi. Czyli dzisiaj nie można zakładać, że nieznajomość tego AI, takiego szerokiego rozumienia nowych technologii, spowoduje, że w głowie ci się urodzi w nocy pomysł. Ty musisz rozumieć, jak to działa, wtedy ci się ten pomysł urodzi. Czyli przede wszystkim to jest edukacja i świadomość.
To jest najważniejsze. I teraz, jeżeli ty masz jakby świadomość, co możesz z takimi narzędziami zrobić, No to działa zasada biznesu, na czym masz największą korzyść. Jeżeli twój biznes ma te pain pointy, czyli te problemy, na przykład z optymalizacją, z jakimiś stratami i tak dalej, no to wykorzystujesz te rozwiązania do tego i wtedy odpowiedź na twoje pytanie jest do rzeczy, które cię bolą. Jeżeli twoja organizacja ma problem rynkowy, czyli zaczyna tracić klientów, bo pojawia się konkurencja, która robi rzeczy inaczej, to wtedy wykorzystujesz to do innowacyjności. Aż ciśnie mi się na język, żeby powiedzieć zależy. Przy czym zależy przede wszystkim nie od tego, jaką technologię wykorzystasz, tylko od świadomości tego, od świadomości tych, którzy zarządzają tą firmą. Ci ludzie muszą mieć tą świadomość.
I to jest po prostu podstawa. Bez tego nie ma o czym mówić. Dam wam taki przykład, który bardzo lubię. Kiedyś siedziałem na takiej jakiejś konferencji czy dyskusji i 100 osób opowiadało o tym, w jaki sposób wygląda nowoczesna komunikacja, że tam jest Facebook i że są Snapchaty, TikToki i tak dalej. No i wstałem i mówię, dobra, a ilu z was ma tego Snapchata?
Oni się okazują tam z dwie osoby. Ja mówię, a ilu z was tego TikToka? No też z trzy osoby. Ja mówię, słuchajcie, jak możecie rozmawiać o technologii, której sami nie używacie?
Czy rozumiecie paradygmat, że dostajesz wiadomość, czytasz tą wiadomość i ona znika? No tak, to jest naturalne. Ja mówię, na pewno? No. Założę się, że na każdym waszym komputerze macie archiwum maili. Po co wy je trzymacie te maile? No wiesz, bo to dla potrzeb biznesowych to trzeba mieć zachowane. Rozumiecie, że to jest zupełnie inny paradygmat. Czy jesteście w stanie to zaakceptować, że będziemy się dogadywali? I te wiadomości będą znikały.
No nie. Ja chcę Ci zbudować produkt oparty na tym paradygmacie. Drugi taki przykład, który… I to jest ten brak rozumienia rozwiązania. Czyli mówimy o Snapchacie, ale nie rozumiemy, co to znaczy ten Snapchat.
O AI-u. No dobrze, tylko my musimy mieć, Panie Aleksandrze, kontrolę nad tym AI-em. Cała idea jest taka, że nie ma tej kontroli. Albo macie algorytm i wiecie dokładnie, co to będzie robiło, albo macie skrzynkę i ona robi za was. I tak samo jak wy przychodzicie do restauracji, wybieracie i nie wiadomo, co was skusiło do tego, żeby wybrać odpowiednie dania, Tak samo ta skrzynka. Nie wiadomo, co ją skusiło do tego, żeby zrobić taką decyzję.
Karol: Ale kiedy się Yuval Harrari przyznał, że punktem zwrotnym i takim, od którego nie będzie już odwrotu, będzie ten, w którym nie będziemy rozumieć, co tak naprawdę sztuczna inteligencja robi z naszymi danymi i naszymi decyzjami.
Aleksander: On powiedział jeszcze jedną rzecz. To jest prawda, natomiast powiedział jeszcze taką rzecz, która strasznie mi utkwiła mocno w głowie, że Ten generatywny, sztuczna inteligencja, w szczególności ta, która rozmawia z nami językiem naturalnym, głosem, ona wpływa na naszą kulturę, zmienia naszą kulturę. On dał taki przykład, że jeżeli by nas zamknąć na trzy miesiące do więzienia, to komunikacja, język zmieniłaby naszą kulturę, byśmy się zupełnie inaczej zachowywali. Nie wiem, nie byłem nigdy w więzieniu, ale oglądałem filmy i rzeczywiście tak jest. W związku z tym, jeżeli przebywasz teraz ze sztuczną inteligencją, która do ciebie mówi, to ty zmieniasz swoją kulturę.
A pytanie, na jaką kulturę? Ja myślę, że to są takie zagadnienia, nad którymi się należy pochylać. Przykład z takiego życia naszego. Jeżeli małe dziecko dostaje iPhona czy tam tablet i się bawi tym tabletem, ono się zachowuje inaczej. Nabywa jakichś nawyków, które wynikają z technologii. Komunikuje się w inny sposób niż dzieci, które… z takiej technologii nie korzystały. Ludzie, którzy korzystają z usług bankowości elektronicznej czy takich self-serwisów telekomunikacyjnych, korzystają z IVR-a, też mają zmianę kultury, że jakby czekają na potwierdzanie decyzji, że tam po usłyszeniu naciśnij wybór 1, 2 czy 3. I badania przez AT&T robione, którzy się w dużej części wycofą z botów, pokazywały, że ludzie dzwonili do operatora i rozmawiali z rzeczywistym człowiekiem i czekali, kiedy mają odpowiedzieć 1, 2, 3, kiedy mają powiedzieć, który mają wybór wybrać. Czyli jakby sztuczna inteligencja zmienia naszą kulturę, kulturę wypowiedzi, kulturę zachowania i może tę kulturę kształtować. My się bardzo jako ludzie nie potrafimy uczyć na błędach. Nie nauczyliśmy się na błędach z sieci społecznościowych i płaczemy, że nasze dzieci po 8 godzin korzystają z internetu.
Karol: Dlatego tak bardzo wierzę w powrót autentycznych, prawdziwych blogów i relacji pomiędzy twórcami a odbiorcami.
Aleksander: No tak, a z drugiej strony namawiamy wszystkich, żeby te blogi pisał AI. I każdy będzie na przysłowiowej jednokopyto.
Karol: I właśnie dlatego uważam, że te autentyczne są lepsze.
Aleksander: Ja się też z tym zgadzam. Znowu to jest taka dyskusja o tej kulturze i o tym, co powiedziałeś, że zawładnie nami AI. To jest taka dyskusja, którą można sprowadzić do pewnych eksperymentów. Te duże modele językowe, one działają po prostu statystycznie. My nazywaliśmy to kiedyś działaniem na stereotypach. Jeżeli otworzymy sobie czata GPT czy tam DALI i napiszemy narysuj mi dziewczynkę w Paryżu, to na 100% to będzie mała blondynka, może z kapelusikiem czy tam z beretem, ale będzie wieża Eiffla. To jest pewnik, dlatego że to jest wartość oczekiwana, którą ludzie chcą widzieć. To jest stereotyp.
Karol: Słyszałeś o tym, że jako prompt inżynierów zatrudnia się w Stanach Zjednoczonych poetów.
Aleksander: No to ciekawe. Z drugiej strony zatrudnia się ludzi, którzy starają się wystandaryzować prompty do oczekiwanych odpowiedzi, bo nam wpajano przez lata, że jakby perfekcyjny produkt to jest produkt, który odpowiada na oczekiwania klienta, prawda? To nam wpajało. Sukcesem będzie, jeżeli zrobisz produkt, który będzie spełniał oczekiwania klienta. No i masz, że pytasz o dziewczynkę i dostajesz dziewczynkę w Paryżu, bo tego oczekujesz. Nie dostajesz starej kobity gdzieś tam pod mostem, tylko dostajesz to, czego oczekujesz. I słuchajcie, w tym… W tym jest pewnego rodzaju masowe zagrożenie, bo to jest budowanie, nie tylko korzystanie ze stereotypów, ale powielanie stereotypów i dokładanie do tego takiego przekonania, że ten świat dokładnie tak wygląda.
Karol: To jest upraszczanie rzeczywistości, szukanie schematów.
Aleksander: I to jest coś, przed czym firmy muszą reagować. Oczywiście ja jako biznesmen, który załóżmy na chwilę odkłada etykę, będę mega zadowolony, że trafiam idealnie w potrzeby konsumenta. Ja w pierwszym momencie używania takiego AI będę skrajnie zadowolony z efektów. No bo to, że nie umiałem trafiać, a nagle trafiam, no to powiem, to jest magia, to jest kaszpirowski, po prostu absolutnie genialne urządzenie. Tylko, że po trzech, czy czterech, czy pięciu miesiącach ja zobaczę, że każdy mój konkurent ma dokładnie takie same trafienia. Wszyscy trafiają w dziesiątkę. W związku z tym, wracając do tego Carra, czy to w takim układzie buduje przewagę konkurencyjną?
Nie. Na tym nie można zbudować przewagi konkurencyjnej. Jaką mam przewagę konkurencyjną z tego, że będąc restauratorem mam ketchup?
Nie mam. Dlatego, że każdy oczekuje, że jest ketchup. Co więcej, każdy jak mu nie smakuje potrawa, to dolewa więcej ketchupu i jest zjadliwa. I tutaj jest dokładnie ta sama analogia. Więc to, co, bo nie pytacie, więc co tą przewagę konkurencyjną buduje?
I tutaj jest bardzo tricky odpowiedź. Kreatywność? Kreatywność to jest inne spojrzenie na model biznesowy. To jest to, co buduje przewagę konkurencyjną. To jest to, co Ty, Przemek, powiedziałeś, czy ludzie mają poprawiać te błędy, czy wchodzić w to. To są te decyzje biznesowe, czyli rozwiązujesz dzięki tym narzędziom to, na czym możesz najwięcej zyskać, co nie jest dzisiaj standardem. Dzisiaj chcą wszyscy robić najbardziej kreatywne rzeczy, mając ograniczone zasoby, a powinni rozwiązywać te problemy, które generują im najwięcej korzyści. Ale jest taki moral hazard, że chce się robić rzeczy fajne, dlatego że te fajne rzeczy niekoniecznie są najbardziej korzystne.
Karol: Zasada Pareto, 80-20%.
Aleksander: Tak, tutaj jak nigdy wcześniej, ta świadoma decyzja lidera będzie świadczyła o przewadze konkurencyjnej. Ten będzie wygrywał, kto będzie świadomie robił analizę, do czego użyć tej łopaty, a nie używać tej łopaty do najbardziej fancy rzeczy, tylko najbardziej efektywnych rzeczy. To jest ważne.
Karol: Użyłeś takiego porównania, że AI to grzybnia, wytłumaczysz?
Aleksander: To jest związane z tą rewolucyjną i ewolucyjną technologią. To, co powiedziałem, przykład tego konia, jeżeli byśmy zakładali, że musimy jeździć na samochodzie, no to jakby sens samochodu oczywiście nie jest zrealizowany. I my dzisiaj, myśląc o AI-u, tym generatywnym, tym industrialnym AI-u, my staramy się jeździć na koniu z technologią trenową, czyli jakby rozwiązujemy, mówimy na przykład, ten AI będzie mądrzejszy niż człowiek, Będzie, już jest mądrzejszy, ale nie dlatego, że jest mądrzejszy, po prostu ma większe możliwości poznawcze, ma większe możliwości dostępu do informacji i szybkość korelacji. Czyli jeżeli ja jestem Aleksem i przeczytałem 100 książek, a tu mam narzędzie, które przeczytał milion książek i ktoś mnie odpyta, no to mój zasób wiedzy jest z tych 100 książek, jeszcze pomijając to, że zapamiętałem 10%, versus narzędzie, które ma dostęp do miliona książek i ma pamięć. Czyli nie mam szans wygrać z takim. Teraz pytanie, co jest tą inteligencją? Jeżeli przyjmiemy, że inteligencją jest zdolność kojarzenia faktów, czyli wyciągania pewnych wniosków z rzeczy, które są nieoczywiste, no to znowu przegram. Może nie dzisiaj, ale powiedzmy za rok przegram.
Nie jestem w stanie wyciągnąć wniosków lepszych niż taka maszyna. Kreatywność. Pytanie, co jest kreatywnością. Jest taki fajny test, że usiądźmy teraz i przez godzinę wymyślmy nowy biznes. No i potem wpiszmy, czy ktoś go już robi. No i prawdopodobnie już go ktoś robi. Jeżeli nasza kreatywność jest mierzona kreatywnością tego miejsca, w którym jesteśmy, to możemy być kreatywni. Ale z perspektywy świata nie jesteśmy kreatywni.
Po prostu wymyślamy rzeczy, które inni już wymyślili. I teraz sztuczna inteligencja, czy ona jest kreatywna? Z perspektywy pojedynczego stolika może nie, ale z perspektywy dwóch lat, kiedy zbierze informacje z całego świata, nie ma szans, żebyśmy Zresztą sztuczna inteligencja używa się na przykład do sprawdzania nazw firm. No tak, sprawdzasz nazwy firm, czyli my kreujemy, a ona weryfikuje. I teraz jakby staranie się, czy banie się, czy staranie się znalezienia zastosowań dla sztucznej inteligencji takich ewolucyjnych, no na pewno ma sens, natomiast ma pewne takie ograniczenia, że Człowiek żyje w naturze.
Ta natura, która nas otacza, to są trzy wielkie królestwa i one są komplementarne i fenomenalnie się uzupełniają. Jest królestwo zwierząt, jest królestwo roślin i jest królestwo grzybów. Zwierzęta jedzą inne zwierzęta albo jedzą roślinę. Rośliny żywią się słońcem i minerałami, Natomiast grzyby potrzebne są, żeby zapiąć ten cały cykl, czyli żeby rośliny i zwierzęta rozłożyć do minerałów, mówiąc wprost.
Bez grzybów ten cykl jakby nie jest możliwy, czyli wyobraźmy sobie, że nie ma, przez sekundę, że nie ma grzybni, czyli nie ma pleśni, nie ma grzybu, który rozkłada ciało, Po 10 latach mielibyśmy kupę ciał. Teraz w przypadku człowieka, człowiek w tej, nazwijmy to artificial, tej sztucznej rzeczywistości wykreowanej przez człowieka, człowiek stworzył bardzo dużo problemów. Stworzył plastik, stworzył odpady jądrowe, stworzył mikroproblemy, które nie mają naturalnego ekosystemu potrafiącego poradzić sobie z nim. Czyli to jest mniej więcej tak, jakby nie było tej grzybni, mielibyśmy kupę ciał.
Tak samo nie mamy pewnej grzybni i mamy kupę plastiku. Nie jesteśmy w stanie nic z tym zrobić. Jak przez chwilę przymkniemy oczy, to takim samym problemem jak dzisiaj ESG czy plastik, zapylenie i tak dalej, będą dane. My tworzymy olbrzymie, gigantyczne ilości brudu, którymi są dane. To jest brud, to jest coś, co będzie negatywnie wpływało na atmosferę, na ekosystem, na planetę, ale tą wirtualną planetę. I teraz potrzebujemy grzybni, zarówno tej fizycznej do zajęcia się piko problemami, zaraz do tego nawiążę, jak i tej wirtualnej do zajęcia się problemami z danymi, oczyszczaniem danych, które tworzy człowiek, generują maszyny.
Karol: Garbage in, garbage out.
Aleksander: Tak, to jest dokładnie według takiej zasady, że albo celowo człowiek będzie czyścił śmieci, albo wybuduje sztuczną inteligencję do czyszczenia śmieci. Zobaczcie, jak buduje się oczyszczalnie ścieków, to enginem tej oczyszczalni ścieków, takim silnikiem, mózgiem są odpowiednie drożdże i bakterie, które rozkładają biomasę. I te bakterie, te grzyby, bakterie, te właśnie małe stwory, one rozkładają to do poziomów wchłanianych przez rośliny i zwierzęta.
One są całkowicie autonomiczne, czyli człowiek, ani zwierzęta, ani rośliny nie zarządzają. One same mają swoją inteligencję i w wielkiej masie same się tym zajmują. Dokładnie jednym z zastosowań AI, moim zdaniem głównym zastosowaniem AI, Będzie komunikatywna grzybnia dla potrzeb danych i dla potrzeb problemów, które rozwiązał człowiek, których sam rozwiązać nie potrafi, nie może, nie umie, nie będzie w stanie, dlatego że ludzi jest tylko 8 miliardów, a butelek jest 800 miliardów. Więc nawet jakby każdy miał jedną butelkę spalać w cudzysłowiu, to nic innego ludzie by nie robili. Więc albo będą rosły góry śmieci i CO2, albo znajdziemy inteligentną warstwę, która ten problem będzie za nas adresowała. I komunikatywny, w komunikatywny sposób. Ja myślę, że to jest pewna taka koncepcja, czym ten AI realnie się stanie. Stanie się grzybnią komunikacyjną, załatwiającą autonomicznie pewne problemy ludzkości związane z danymi i związane ze światem fizycznym.
Przemysław: To jest bardzo ciekawa analogia i w sumie dość świeża, bo grzybnia jako taka w naturze pełni absolutnie kluczową rolę. Bez tego by nie było życia na Ziemi w tej formie, w jakiej znamy. Natomiast jest czymś, czego nie widać. To jest gdzieś, jest w jakimś sensie niewidzialne. I to, o czym tutaj mówiłeś wcześniej, że w przypadku AI też wiele rzeczy jest takich… trudnych do wyjaśnienia, nie widzimy tego, nie ogarniamy. Natomiast jak patrzysz z perspektywy tych obszarów, w których jesteś, biznesu, perspektywy globalnej, jest wysiłek taki konkretny tutaj u nas w Europie, żeby jednak uregulować. żeby spróbować uczynić pewną wyjaśnialność, pewną przejrzystość tej dziedziny, wytłumaczalność. Czy twoim zdaniem to jest bardziej zawracanie kijem wysły, czy takie słuszne, potrzebne i coś, bez czego znajdziemy się na jakimś dzikim zachodzie sztucznej inteligencji?
Aleksander: To jest pewien dylemat, bo z jednej strony przed chwilą mówiliśmy, że jakby popełniliśmy pewne błędy przy okazji tych sieci społecznościowych. Popełniliśmy kluczowe błędy z bezpieczeństwem budując internet.
Kluczowe. I konsekwencje bezpieczeństwa internetu, sieci społecznościowych odczuwamy dzisiaj. Teraz świat się budzi w momencie, kiedy widzi, jakie możliwości ma AI i mówi, a to tym razem nie popełnijmy tego błędu i zakażemy.
Zrobimy zakaz. Tylko nie da się robić prawa dla robotów. Trudno jest wprowadzić zakazy dla ludzi, a co dopiero zakazy dla robotów. Zakaz dla człowieka i penalizacja twojego działania gdzieś tam w najgorszym momencie wkłada cię do więzienia albo płacisz duże pieniądze. No to włóż robota do więzienia.
I co? To jest w więzieniu. Jeżeli byśmy założyli, że za każdym AI-em stoi człowiek, to mówimy, no to tego człowieka włożymy do więzienia. Ale założenie AI, takie fundamentalne, o którym zapominamy, jest takie, że to jest samorozwój, samoszkolenie, samoedukacja AI jako AI, czyli replikowalne algorytmy, czyli algorytm, który tworzy algorytm, algorytm, który tworzy algorytm. I to, że to ma tą swoją, nazwijmy to samoświadomość, powoduje, że nie wiesz, kogo masz zamknąć. Znaczy, kogo mam zamknąć? Twórcę pierwotnego algorytmu czy algorytm, który wytworzył pięć innych algorytmów i ten na końcu zrobił coś źle?
Kogo ja mam zamknąć? Przy założeniu, że nie mogę przewidzieć na początku, jaki będzie efekt ewolucji tego algorytmu po dziesiątej iteracji. Czyli co to znaczy transparentność? Znowu, tutaj wychodzimy z takiego konwencjonalnego założenia, że ktoś może przejrzeć kod. Czyli mam kod, przeglądam ten kod i mówię, o, tutaj jest backdoor, który powoduje, że if 500 milionów na koncie, to wtedy zrób przelew. O, to jest niedobre. Czyli tam transparentność kodu. Albo jeżeli wypowiem słowo hokus pokus, to otworzy się brama.
O, to jest niebezpieczne. Teraz algorytm, który tworzy algorytm i ten drugi algorytm tworzy następny algorytm. Co ja mam przejrzeć? czy ten pierwszy, czy algorytmy pośrednie, czy wyniki tych algorytmów. Ten, kto robił wersjonowanie oprogramowania wie, że ja mogę zrobić akredytację urządzenia z oprogramowaniem 1.0, następnego dnia już mam upload oprogramowania, które może zrobić zupełnie coś innego. To urządzenie może robić zupełnie coś innego.
Teraz w algorytmach sztucznej inteligencji ta replikacja, czyli generowanie kolejnego algorytmu może być, nie wiem, co nanosekundę. W związku z tym, gdzie my chcemy tą transparentność zrobić? Reguł? Tam nie ma reguł. Jedyne, co możesz zrobić, no to przejrzeć i zrobić transparentność danych, którymi uczysz te algorytmy. Ale jeżeli one mają być autonomiczne, to też nie masz panowania nad danymi. W związku z tym to jest tworzenie takich click-the-box reguł, które uspokajają, a nie rzeczywiście przeciwdziałają. To jest po pierwsze. Po drugie, ta sztuczna inteligencja i ta pierwsza, niewidoczna i ta widoczna, ona ma taką pewną cechę, że niesamowicie wyprzedza i jest niesamowicie szybka.
Fajnie to widać na tych wersjach czata GPT. Już jest cztery, już się mówi o pięć, za chwilę o siedem, o piętnaście, o trzydzieści siedem. Oraz tych wszelkiego rodzaju appliance’ów, czyli co ludzie w tym ekosystemie budują.
Ja pamiętam jak wszedł czat GPT na samym początku, to nie było żadnych programów do czytania PDF-ów. a teraz już mam programy do całych bibliotek PDF-ów. Czyli znowu, co ja mam normować? Czy to, co jest dzisiaj, czy to, co będzie jutro? Teraz, jeżeli regulator robi coś na dzisiaj, no to jest tick the box. Żaden z tych pomysłów regulacyjnych w tej konwencjonalnym sposobie nie przewiduje dynamiki zmiany tego środowiska, tego, czym to jest. I teraz ograniczenia.
To jest taka farsa, dlatego że jeżeli będzie za tym dobry pieniądz i dobry biznes, to ograniczenia przejdziesz robiąc tick the box dla regulatora. Więc ja uważam, że to jest poprawianie sobie humoru, aniżeli rzeczywiste myślenie o rozwiązaniu problemu. Jest takie sformułowanie, które się nazywa security by design. Security by design to jest pewien taki koncept, który mówi od momentu stworzenia myślę, jak to ma być zabezpieczone. Gdzie ma być ten wyłącznik bezpieczeństwa, taki security patent, czyli bezpiecznik, który mi rozbraja tą bombę. I w przypadku tych regulacji Regulacje to jest wymysł pierwszej rewolucji przemysłowej.
Regulacje jako regulacje. To jest Factory Act z 1883 roku, czyli pomysł, kiedy wchodzi rewolucja przemysłowa, przemysłowcy wprowadzają maszynę i te maszyny mają siłę większą niż mięśnie ludzi i mięśnie zwierząt i ucinają ludziom ręce, bo są tak silne. Maszyn, tłok parowy, bum, wywala, wyszczerbuje itd., No i przerażeni przemysłowcy, przerażeni pracownicy mówią, trzeba to unormować, czyli trzeba wprowadzić bezpieczeństwo pracy. I wprowadzają faktory akt, czyli wprowadzają regulacje. I teraz regulacje na co? Na tłok. A tutaj mówimy o czymś, czego regulować się nie da. Tutaj trzeba znaleźć innego rodzaju bezpiecznik.
Nie da się zrobić regulacji na automat. Niejaki Edison, który wprowadza koncept bezpiecznika topikowego w II rewolucji przemysłowej, mówi, Nie bójcie się prądu. Prąd rzeczywiście zabija, ale nie bójcie się prądu. Dlatego, że ja znalazłem rozwiązanie, którym jest bezpiecznik i jeżeli włożymy go w obwód i będzie porażenie prądem, to ten bezpiecznik się przerwie i Was nie zabije. Czyli on mówi, nie słuchajcie, tu jest regulacja, nie dotykamy kabla, bo to nic nie daje, bo to i tak będą dotykali, albo znajdą sposób, jak zrobić obejście kablem. On mówi, ja wkładam automat, który reaguje za was. I dzięki temu popularyzacja prądu jest taka, jaką mamy dzisiaj, bo jest bezpiecznik. Takie bezpieczniki to jest, nie wiem, kamizelka na statku. Ludzie nie chcieli pływać statkami, bo się bali, że jeżeli odpłyną za daleko od brzegu, a nie potrafią pływać, to się utopią. No to mam kamizelkę. I teraz mamy AI i zamiast myśleć, jak ten bezpiecznik ma wyglądać, to my mówimy, to zrobimy factor react, czyli uregulujemy AI. To jest, mylę im pojęć.
Karol: w swojej książce „SPEED – bez granic w cyfrowym świecie” piszesz w pierwszej części o bezpieczeństwie. Czy możesz powiedzieć coś więcej na temat tego frameworku, o którym tutaj napisałeś? Czy można go w jakiś sposób zaadaptować również do aplikacji rozwiązań AI w firmach?
Aleksander: Tak, to jakby cała koncepcja speedu, oprócz tego, że to jest po prostu prędkość jako prędkość, to tu jest taka bardzo przewrotna koncepcja, że na fundamencie, czyli ten S, czyli S ze speedu, to jest security, czyli bezpieczeństwo, prywatność i zaufanie. Czyli rozwiązania, które budujemy, musimy potrafić kontrolować i musimy potrafić mieć do nich zaufanie. Co to znaczy mieć zaufanie? To jest, powiedziałbym, że tym bezpiecznikiem w czwartej rewolucji przemysłowej, czyli dzisiaj dla AI jest zaufanie. Zaufanie oznacza, że ja nie rozumiem, ale ktoś daje mi gwarancję, w którą mogę ufać.
To jest zaufanie, czyli bezpieczeństwo bazujące na zaufaniu To jest takie bezpieczeństwo, że ty nie obejmujesz koncepcji, ale ufasz, że ktoś, kto to tworzy, obejmuje. Czyli na przykład ufasz marce. Czyli kupujesz dzieciom pastę do zębów producenta, któremu ufasz, a nie kupujesz na bazarku pasty, żeby mu tam wypaliło język, prawda? Ufasz w markę. Tak samo tutaj musimy wytworzyć mechanizmy, które ufają w AI, czyli ufam, że firma, która tworzy AI, robi wszystko zgodnie z najlepszymi możliwymi do zastosowania praktykami. Ja po prostu w to ufam. Ja temu ufam.
P to jest partnership, czyli partnerstwo. W tej czwartej rewolucji nie da się budować, wymyślając wszystko samemu. I partnership w AI jest w ogóle kluczowe. Tak, to jest partnerstwo, od kogo biorę dane, czyli mam dostawcę danych. W takim historycznym rysie, jeżeli produkowałem soki, to miałem zaufanego partnera, od którego brałem marchewkę.
Wiedziałem, że on nie narazi moich klientów, bo nagle sprzedał mi zakażoną marchewkę. Po prostu ufam swojemu partnerowi. Na partnerstwie jest to oparte. W czwartej rewolucji to partnerstwo jest bardzo skomplikowane. Tych partnerów jest po prostu bardzo dużo, technologicznych, dla różnych warstw, tych, którzy dostarczają dane. I partnerstwo staje się wirtuozerią prowadzenia biznesu, czyli w sposób, w jaki ty dobierasz partnerów, w jaki sposób zarządzasz partnerami, świadczy o twojej przewadze albo braku przewagi na rynku. E pierwsze w speedzie to jest emerging technologies, czyli wszystkie te technologie, o których my dzisiaj mówimy, to tam nazywam wielką czwórką, to one się sprowadzają do pewnych technologii, które są po prostu typowe dla czwartej rewolucji. I one się już nie zmienią. Tak jak w drugiej rewolucji przemysłowej mieliśmy prąd, mieliśmy energię, mieliśmy transport, mieliśmy radio i fale telewizyjne, tak samo tutaj mamy chmurę, mamy mobility, mamy AI i IoT. I tutaj już niczego więcej nie będzie. Quantum, augmented reality czy 3D printing to będzie nowa rewolucja. To będzie coś innego, coś trochę innego. Drugie E w tym speedzie to jest ekonomia, czyli modele biznesowe. Czyli jak na tym robić pieniądz, jak na tym AI robić pieniądz w sposób na dwie ręce.
Karol: Pierwszy to jest zwiększenie… Sposoby jednej niż tylko kopiowanie czata GPT.
Aleksander: Tak, to jest prosta rzecz. Pieniądz się z technologii, czy na technologii pieniądz robi się na dwa sposoby.
Pierwszy to jest zwiększenie produktywności, a drugi to są nowe modele biznesowe. I nie ma niczego innego. Czyli używasz technologii, żeby było taniej, szybciej, lepiej, skuteczniej, czyli zwiększasz produktywność, Albo używasz technologii, żeby zdobyć nowego klienta, który ci za coś zapłaci.
Nie ma nic więcej. I cała ekonomia, czyli wszystkie modele biznesowe mają standardowe triki albo mechanizmy, dzięki którym osiąga się pierwszą albo drugą kategorię. Je trzeba po prostu zrozumieć, trzeba przeczytać, wiedzieć jakie to są i nie być oszukiwanym przez to, YouTube i TikToki, tylko po prostu wiedzieć, jak to działa.
To są ekonomiczne mechanizmy i one się nie bardzo zmieniają. A D w tej książce to jest cały digital transformation, czyli kultura i człowiek. Gdzie w tym wszystkim jest człowiek? I jak ten człowiek na przykład w stosunku do sztucznej inteligencji ma się zachować, bo sztuczna inteligencja dla generacji Z to jest zupełnie inna sztuczna inteligencja dla generacji boomers. To są inne wartości, to są inne korzyści i to są inne oczekiwania.
Musimy tego być świadomi. I mówienie o swoim pracowniku, mówienie o swoim kliencie z perspektywy generacji, w której ten klient albo pracownik jest, jest niezwykle istotne. Czyli na przykład ja jako człowiek, nazwijmy tam 50-letni, jestem w stanie zaakceptować jakąś ingerencję technologii w moje życie. Czyli na przykład z radością dzielę się swoją prywatnością, żeby mieć darmowego Gmaila. Świadomie, z radością lajkuję post Przemka, wiedząc jaką to ma konsekwencję. Z radością zadaję prompta czatowi GPT, wiedząc, że to leci do chmury i na tej podstawie on się o mnie uczy. I z radością zapisuję się do Gmaila, czy tam do tego… Google’a, żeby ten czar GPT wiedział, że to są moje prompty.
Z radością, jakby świadomie z radością. Młode pokolenie patrzy na to zupełnie inaczej, a stare pokolenie, starsze ode mnie, patrzy jeszcze inaczej. I teraz cały problem w tym dzisiejszym świecie technologii mamy taki, że bariery adaptacyjne technologii i użyteczność, którą z niej widzimy, są bardzo różne w zależności od pokolenia, które go używa. Czasami jesteśmy tego nieświadomi i czasami staramy się z naszego doświadczenia dawać produkty, które dla nas są okej, Przy czym nie mówię tutaj o funkcjonalności, tylko o możliwości adaptacji technologicznej. Zobaczcie, jak była taka fala różnego rodzaju innovation centers. Byli młodzi ludzie, którzy przychodzili i tworzyli nowe produkty dla swojej generacji. Popatrzcie dzisiaj, co się dzieje, jak mówimy o AI-u. kompletnie zmienia się tendencja. Czyli to już nie ci młodzi, którzy są wow i colorful i w ogóle na wrotkach przyjeżdżają ze słuchawkami, tylko nagle starzy wyjadacze mówią nareszcie, ja mogę, nie muszę się uczyć, mogę powiedzieć językiem naturalnym i jestem relewantny w organizacji EGEN. I to jest, jakby to trzeba zrozumieć, że to są hipo, którzy chcą zawładnąć innowacje, bo mają narzędzie, którym mogą to zrobić. I o tym jest D. D jest o wartościach. organizacji.
Ja pamiętam zresztą AI-ową story. Pamiętam organizację, która w tym swoim tagline miała blisko ludzi. Dla nas prezes, który mówi, dla nas kontakt z klientem jest kluczowy. Pierwsze spotkanie, rozmawiamy o technologii. Ja mówię, no jest taki model biznesowy, który się nazywa self-service.
On mówi, świetna. Wchodzimy, koszty spadną o 30%, zrobimy boty, rewelacja. Ja mówię, ale to tak bliżej ludzi tego? Nie, panie, będziemy bliżej ludzi, będziemy dane widzieli teraz. No i robisz self-service. Masz między siebie a klienta, miałeś oddział, do którego przychodzili klienci, rozmawiali o problemach, nagle między to wkładasz klina, który jest botem. Koszty spadają dramatycznie.
Karol: Przychody również.
Aleksander: Przychody, znaczy najpierw koszty spadają dramatycznie, efektywność lawinowo idzie do góry, no bo masz jakby efektywność, masz z 5% do 30% obsługi klienta, prawda? Ci, którzy jakby nie mają bardzo ważnej sprawy, Siedzą dwie minuty na kolu, mówią, a to dobra, to nie jest aż tak ważne, żeby kolejne 10 minut. Więc efektywność rozwiązywania spraw ważnych wzrasta stuprocentowo, ale nagle spadają o reweniu i się okazuje, że jak się przychodziło do oddziału, to przy okazji pani tam coś może pokazała, jakąś reklamówkę i ty mówisz, o kurczę, bardzo ciekawe, no to może ja bym przyszedł w ten produkt, nie? A tutaj już nie masz tej komunikacji, tutaj załatwiasz sprawę automatycznie.
I nagle po roku ten sam prezes mówi, kurczę, ten self-service bez sensu, bo my jesteśmy connected customer i straciliśmy ten connected customer. Włożyliśmy layer, który dał nam efekt kosztowy, natomiast nie dał nam efektu przychodowego. Straciliśmy to, wycofujemy się z tego, dlatego że się już nie da wycofać. I to jest związane trochę z tym carem. Co się stanie, jak nie będziesz miał? Jak obiecałeś wszystkim ludziom, że jest bezobsługowo, jeżeli robią to samemu, bezkosztowo. Ale jak chcesz koszt, to musisz 5 zł za transakcję zapłacić. No to każdy chce tego za darmo, mimo że mu spadła satysfakcja. To są bardzo, bardzo ważne takie ludzkie decyzje, klienckie decyzje i właśnie tutaj jest ta przewaga konkurencyjna. Czy ty dasz się skusić szybkim zyskiem, czy myślisz strategicznie, długoterminowo, ale potrafisz jednak te widły wykorzystać? To jest bardzo ważne i myślę, że to kluczowe jest.
Przemysław: W tym case’ie, o którym mówiłeś, to pewnie tam jakieś premie były.
Aleksander: Oczywiście. Wiesz, Przemek, co mierzysz, to za to bierzesz pieniądze. Jeżeli mierzysz efektywność, to da się zrobić naprawdę AI-em fenomenalną efektywność, krótkoterminowo.
Jeżeli masz rozwiązać, robisz robotic process automation, czyli RPA, no i nagle jakby spada wszystko. Kasa faktura się w dwie sekundy oceruje, rozwiązuje, dostarcza workflow, fajnie wszystko działa. Wszyscy są mega zadowoleni. Ale jak masz specyficzny case, to nawet nie masz do kogo zadzwonić. Nie ma tej księgowej, która zawsze tam pomagała. Nie masz do kogo zadzwonić. I się okazuje, że ludzie wtedy zachowują się bardzo racjonalnie. A racjonalność polega na tym, że starają się znaleźć obejścia. Jeżeli taka firma orientuje się, że taki RPA to działa dla 90%, ale jeżeli masz special case, to opisz fakturę i wyślij do Marioli, no to To ja każdą opisuję, bo mnie to nic nie kosztuje i obchodzę. I nagle się okazuje, że 90% faktur jest ręczna, bo jest special case’em. I panie są zadowolone, bo mają robotę. I nikt nie protestuje i potem stwierdzają, a w zasadzie ten pilot był bez sensu. Bo to jednak nie działa. Mamy same special case’y. Nie mamy special case’ów, ale możemy je tak nazwać.
Przemysław: Bo w tym case, który mówiłeś, też dużą rolę mają firmy doradcze, technologiczne, które generalnie bardzo pchają rynek, pchają klientów na te szybkie korzyści.
Aleksander: No tak, dlatego, że każdy szuka swojego modelu wzrostu.
I hype , to co my nazywamy hype’em, to jest nic innego jak wykreowanie pewnej mody, pewnej obietnicy, za którą rynek pójdzie. I czym ta obietnica jest większa, tym więcej jest tych takich pośredników do zarobienia pieniędzy. Czy to firmy technologiczne, czy to firmy konsultingowe, czy wielkie korporacje, one tworzą to po to, żeby jakby coś z tego tortu mieć. Zazwyczaj jest tak, że jednak pewna część ma uzasadnienie i ma sens. Natomiast jest w tym wszystkim bardzo dużo propagandy i bardzo dużo nieprawdy. oczekiwań, które są budowane na nieweryfikowalnych tezach.
No bo ja mogę pamiętać, jak zaczęliśmy o CRM-ie czy ERP-ie. Produktywność firm po wdrożeniu ERP-u spada. To jest związane z tą krzywą uczenia się. I tutaj masz dokładnie tak samo, że jakby w AI, jak wprowadzisz rozwiązanie AI, to spodziewałbyś się, że krzywa uczenia spadnie i produktywność spadnie. Tak się nie dzieje.
Dlaczego? Dlatego, że sposób, w jaki ty się komunikujesz z tym AI, nie wymaga od ciebie uczenia. bo ty się nie zmieniasz, to to się dopasowało do ciebie. I teraz fenomen, dlaczego dzisiaj się mówi, że to jest next big thing, wynika dokładnie z tego, że nie spada krzywa uczenia. No nie ma krzywy uczenia. Czyli na samym tym spadku produktywności, który jest zazwyczaj 2-3% i trwa 2-3 lata, Na tym można zarobić miliardy, jak nie tryliardy. I to jest ten sens, o którym się dzisiaj mówi, że wszyscy w to wskakują, bo nie ma krzywy uczenia.
Karol: Panowie, a o czym rozmawiacie podczas spotkań Rad Programowych AI Summit?
Przemysław: Jesteś, Aleksandrze, członkiem Rady Programowej. Z wielką przyjemnością. Tak, konferencji, którą organizujemy na jesieni. Czego ty byś w ogóle oczekiwał od takiego spotkania? Jaki powinien być owoc takiej konferencji, jak AI Poland Summit?
Aleksander: Ja myślę, że to są dwie rzeczy. Zresztą powiedziałem o tym, że każdy menadżer, każdy lider dzisiaj musi mieć świadomość, znaczy musi usłyszeć, usłyszeć o co to w ogóle w tym chodzi, przy czym usłyszeć od tych, którzy są praktykami w tym temacie, którzy przechodzą przez te problemy w skali. Ja to chcę bardzo mocno podkreślić.
Na tej konferencji zapraszani są ludzie, którzy robią, zajmują się tymi tematami w skali. Czym innym jest wygenerowanie sobie dwóch rysunków w czacie GPT czy w DALI i potem po piątym już trzeba czekać kolejne pięć minut, żeby szósty wygenerować. a czym innym jest wygenerowanie dwóch milionów rysunków przez jakiegoś tam szefa banku dla swoich klientów. To są zupełnie innego rodzaju problemy. I teraz ludzie, którzy działają w skali, którzy są na tej konferencji i w zespole programowym i będą programami i będą opowiadali, oni będą mówili o wyzwaniach, których doświadczyły ich firmy przez lata. To są ludzie, którzy tworzą rozwiązania, tworzą produkty i sparzyli się na AI albo dzięki AI-owi zarobili krocie. I warto tych historii posłuchać. Ci ludzie są z wszystkich branż, bo nie wiem, popraw nie przemyk, jeżeli się mylę, ale to jest i bankowość, i ubezpieczenia, i energetyka. Znaczy wszyscy tam są, łącznie z regulatorami.
Przemysław: Staraliśmy się wyłuskać rzeczywiście szefów obszarów AI z bardzo różnych przedsiębiorstw, dużych, znanych, polskich, ale rzeczywiście z bardzo różnych perspektyw patrzących na rynek.
Aleksander: Czyli ten AI zostanie na tej konferencji moim zdaniem odczarowany. Ja bym bardzo chciał podkreślić, że na tych spotkaniach Rady Programowej jest dyskusja o czym nie mówić. Mieliśmy nawet takie spięcia prawnicy, którzy mówią, oj, to jest bardzo ważny temat, a praktycy mówią, nie, bo i tak nie mamy na niego wpływu. I to jest fajne, że dyskusja tej rady mówi, o czym nie mówić, bo nie ma sensu o tym mówić. To są oczywiście niesamowicie miodne i fajne i lepkie tematy, Natomiast my nic z nimi nie zrobimy, jak to mówił Craig Christensen, że możesz nie cierpieć grawitacji, ale ona to ma gdzieś. My możemy nie cierpieć AI-aktu i regulacji, ale będziemy się musieli dostosować, czy nam się to podoba, czy nie. Natomiast jakby nie ma sensu na ten temat rozmawiać, czy to jest dobre, czy to jest niedobre, no ktoś tak robi i tyle. Natomiast trzeba posłuchać tych ludzi, których ten taki AI akt zaskakuje, bo oni mają biznes oparty na takich procesach, nagle ktoś im mówi regulację, że nie możesz. I co oni robią? To jest bardzo ciekawe i tego się dowiemy na tej konferencji. Usłyszymy case’y ludzi, którzy powiedzą, jak oni sobie radzą w skali z problemami i wezwaniami, które są dopiero przed nami.
Przemysław: W Radzie Programowej mamy wiele osób, około 20, ale mamy jednego przedstawiciela administracji publicznej, jednego przedstawiciela świata nauki i jednego prawnika, a resztę rzeczywiście tworzą przedstawiciele biznesu i taki jest zamysł, żeby te proporcje w zakresie tematyki, prezentacji też miały swoje odbicie na konferencji, na którą zapraszamy w październiku.
Karol: Możesz nam coś zdradzić?
Przemysław: W tej chwili jeszcze mamy pół roku do konferencji. Już pojawiają się pierwsze tematy wystąpień i prelegentów. Trwa teraz Call for Papers, gdzie każdy może aplikować ze swoją propozycją wystąpienia. Będziemy w maju dokonywać wyboru, selekcji tych zgłoszeń, których jest w tej chwili już kilkadziesiąt, więc staramy się, żeby rzeczywiście to była taka fajna, dobra konferencja, która angażuje ludzi, ale to zaangażowanie będzie warte poświęcenia tego czasu i obecności dla ludzi, którzy poważnie myślą o zastosowaniu AI w swoich przedsiębiorstwach, firmach dla zmieniania rzeczywistości, w której funkcjonują.
Karol: Zatem do zobaczenia panowie i niech AI będzie z nami wszystkimi. Do widzenia, do usłyszenia.
Przemysław: Dziękujemy bardzo.
Karol: Dziękuję za spotkanie, dziękuję za rozmowę.