Witajcie. W kolejnym, odcinku „99 Twarzy AI”, mamy zaszczyt gościć wyjątkowego eksperta, który przez ponad dekadę kształtował krajobraz technologii chmurowych. Obecnie jego wiedza i doświadczenie ukierunkowane są na rozwiązania #AI.
Przedstawiam Wam Michała Furmankiewicza, który przez ponad 15 lat z sukcesem łączył role konsultanta, architekta i lidera zespołów wdrożeniowych. Jego pasją jest rozwiązywanie problemów i wykorzystywanie technologii do wspierania rozwoju biznesu.
Obecnie Michał poświęca swoją energię na rozwój platformy Microsoft AI, ze szczególnym uwzględnieniem dużych modeli językowych i Azure OpenAI.
Przygotujcie się na fascynującą rozmowę o sztucznej inteligencji, chmurze i przyszłości technologii. Będzie dużo konkretów w tym również use case’ów, o które prosiliście!
Dobrego dnia! Posłuchaj podcastu i podziel się nim z innymi!
Tradycyjnie wielka prośba – jeżeli jeszcze nie wystawiłaś lub nie wystawiłeś oceny 99 Twarzom AI na Spotify lub Apple podcast – pomóż mi proszę z dotarciem do nowych słuchaczy. To zabierze Ci tylko 2 minuty. Z góry serdeczne dzięki!
Dobrego dnia i niech #AI będzie z Wami wszystkimi!
Notatki
Artykuł „Design and evaluation of AI copilots – case studies of retail copilot templates: https://arxiv.org/abs/2407.09512
Możliwe przypadki zastosowani modeli multimodalnych na bazie wczesnej wersji GPT-4V: https://arxiv.org/abs/2309.17421 (artykuł ma już prawie rok i dotyczy ewaluacji pierwszej wersji modelu)
Kilka wybranych przypadków wykorzystanie GenAI i AI w biznesie:
https://www.microsoft.com/en-us/empowering-transformation-with-copilots/
https://www.microsoft.com/how-ai-helps-microsoft-partners-innovate/
https://www.dynatrace.com/platform/artificial-intelligence/
https://youtu.be/iTlcPEZajF0
https://toggle.ai/
https://www.adobe.com/uk/sensei/generative-ai.html
Ciekawe wykorzystanie całej gamy modeli przez firmę Touchcast: https://touchcast.com/about
„Małe” modele (SLM) i ich możliwości na przykładzie rodziny Phi-3:
https://azure.microsoft.com/en-us/blog/redefining-whats-possible-with-slms/
https://arxiv.org/abs/2404.14219
Katalog modeli Phi-3: https://huggingface.co/microsoft/Phi-3.5-mini-instruct
Transkrypcja rozmowy
Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.
Karol Stryja: 99 twarzy AI, kolejna twarz, cieszę się ogromnie z naszego spotkania. Kim jesteś, czym się zajmujesz i jaka jest twoja rola w świecie AI?
Michał Furmankiewicz: To teraz tak, aktualnie jestem program managerem w zespole w Microsoft, konkretnie w zespole, który teraz nazywa się ISV AI, czyli w dużym uproszczeniu jako zespół pracujemy z partnerami ISV, partnerzy Microsoftu ISV to są tacy partnerzy, którzy mają własny software, czyli mają własny biznes, budują własne rozwiązania, I mówiąc, upraszczając świat, ja pomagam im w ich rozwiązania włączyć, infuse po angielsku zawsze mówię, rozwiązania AI, Gen AI w ich produkty. Czyli na koniec dnia my jako grupa produktowa produkujemy różnego rodzaju rozwiązania, których potem oni używają w swoich projektach. No i ja pracuję globalnie z partnerami po świecie i to jest główne moje zadanie na dzisiaj..
Karol: Super, to przejdźmy od ogółu do szczegółów. Jakbyś mógł opowiedzieć o tych rozwiązaniach. Co robicie, co usprawniacie, z jakich narzędzi korzystacie. Dzisiaj…
Dlaczego pytam. Michał, zrobiłem jakiś czas temu ankietę na LinkedIn. Z jednej strony, z drugiej strony zapytałem statystyki, co sądzą o odcinkach. Tak. I… LinkedIn mówi case studies, case studies, case studies. Z drugiej strony, jak popatrzę na statystyki odcinków, to najpopularniejsze są te, nie wiem czy cię to zaskoczy, które tłumaczą podstawy..
Michał: Oczywiście, bo masz szerszy zakres dotarcia, także to jest naturalne. To od ogółu do szczegółu. Niedawno była konferencja Microsoftu Ignite w maju. Wspólnie z London Stock Exchange pokazaliśmy rozwiązanie, które nazywa się Meeting Prep.
W skrócie rozwiązanie, które ma pomagać bankierom inwestycyjnym przygotowywać się lepiej do spotkań. No i na czym polega to lepsze przygotowanie do spotkań. W dzisiejszym świecie jesteś zalewany ilością danych. Dzisiaj nie ma problemu z dostępem do informacji, jest problem z dostępem do tego, co z tej informacji wyciągnąć dla siebie. No i teraz co by było, gdyby wszystkie spotkania, które miałeś z klientem tym konkretnym, wszystkie dane finansowe, wszystkie analizy, które poczyniłeś, które mógłbyś w stanie je opracować za pomocą właśnie różnych rozwiązań z zakresu AI, GNI, w 20 minut tuż przed spotkaniem, a nie w 3 dni. I czy ktoś zapyta, czy jest to możliwe. W jakim zakresie już jest to dzisiaj możliwe i London Stock Exchange z nami zbudował takie rozwiązanie, które jest dostępne, o tym mówiliśmy właśnie na konferencji. To jest jedna z takich drobnych rzeczy. Wydaje się mało może interesująca, ale ilość pracy, która jest wymagana do tego, żeby tego stopnia dojść, to jest ogromna..
Karol: Bardzo interesujące, bo pamiętam spotkanie z przedstawicielami Polskiego Biura Accenture, którzy opowiadali m.in. o rozwiązaniu, z którym eksperymentowali, jeżeli chodzi o transkrypcję rad nadzorczych banków..
Michał: Tak, to jest długi, bardzo ciekawy temat, z tym, że jednak zależy w jakim świecie, bo w wielu obszarach sprawozdania z rad nadzorczych.
Karol: Są produktem formalnym, mają konkretną strukturę, mają konkretną formę i muszą być podpisane, więc tutaj zawsze, kiedy wchodzi generatywę… Oczywiście i tutaj proces wyglądał w ten sposób, że 80% pracy było przygotowywane przez system, potem oczywiście człowiek robił walidację i porządkował..
Michał: Bardzo częste rozwiązanie, niezależnie od tego, w której części świata się znajdujemy. Ostatnio w Azji mamy tego typu bardzo podobne rozwiązania, także tak. No to jest jeden z takich przykładów. W wielu przykładach będzie można popowiadać już za chwilę, bo będą wreszcie publiczne, ale generalnie nasza rola polega na tym, że jeżeli ty budujesz tak zwanego kopajlota, dzisiaj dużo się mówi wokół Microsoftu wokół kopajlotów, mówi się dużo głównie w kontekście tych produktów podstawowych Microsoftu, ale my budujemy kopajloty, które są częścią, ekosystemu klienckiego. Czyli wyobraźmy sobie taką sytuację, jesteś firmą, która projektuje rozwiązania CAD-CAM, czy jesteś firmą, która na przykład ma rozwiązanie wspierające architektów i teraz co by było, gdyby w systemie, który oni budują był taki asystent, który ma kilkanaście lat doświadczenia i który potrafi pracować z tym systemem. powiedzmy młodszym pracownikiem, młodszym stażem, nie młodszym wiekiem, taki mentor dokładnie stojący za tobą i który niekoniecznie ci powie dokładnie wszystko, jak masz zrobić, ale na pewno w tych momentach, kiedy właśnie brakuje ci tej dodatkowej wiedzy, wesprze cię. Czy to rekomendacją, czy wiedzą, czy interpretacją tego, co zobaczyłeś. i usprawni ten proces budowania, designu, releasu, wybacz za używanie wielu niepolskich do końca słów, ale chodzi mi o ten cały proces wytwórczy, który się dzieje. I takich rozwiązań widzimy bardzo wiele, tylko też one nie są w ekosystemie Microsoftu, tylko one są w ekosystemie naszego partnera. I wszystkie narzędzia, które my budujemy, nie będę o nich dokładnie mówił, to są wszystkie te narzędzia, które sprawiają, że ten proces nie trwa 6 miesięcy, tylko 3. Albo nie trwa 3, tylko trwa miesiąc, bo mamy gotowe narzędzie do orkiestracji, mamy gotowe narzędzie do analizy danych, etc., etc. I to jest główne moje skupienie. No i teraz ktoś może powiedzieć, że to jest bardzo prosta praca, bo przecież wiadomo, wszyscy wiedzą, jak działa Copilot. No, dzisiaj dużo ludzi widzi, myśli o Copilotach z perspektywy… Wrzucę ci coś jednego..
Karol: Spotykam się ostatnio z moim znajomym w duże biuro, mają cały pakiet Microsoft Office z Copilotem za wszystkim. Mój znajomy mówi do mnie, słuchaj, moglibyśmy czata GPT ogarnąć. Ja mówię, no ale słuchaj, masz kopailota. O cholera, nie wiedziałem..
Michał: No ta, to jest oddzielna kwestia, tak, to jest oddzielna kwestia. No to dlatego dotknąłeś bardzo ważnego punktu. Świat technologii zachwyca się możliwościami, a świat adopcji jeszcze, jeszcze jest na tym bardzo wczesnym etapie. A my żyjemy, mówię my, jako ludzie, którzy są… W bańce, my żyjemy absolutnie w bańce i kiedyś z Krzyśkiem Wojewodzicą sobie żeśmy dyskutowali i ja wspieram to, co on mówi. Pozdrawiamy Krzyśka, jeden z gości 99 twarzy również. Zgadza się. Z Krzyśkiem żeśmy rozmawiali o tym, że oczywiście jest ta faza, kiedy my ludzie technologii, ludzie bańki zachwycamy się innowacją, nowością, ale jakby pieniądze pojawią się wtedy, kiedy będą korzystały z tego masy i to jest prawda. M3, czyli te wszystkie kopailoty Microsoftu to są właśnie wykorzystania dla mas, ale są też wykorzystania specyficzne i do tego ja próbowałem. dobiec w swojej dyskusji, czyli te, kiedy mówimy o profesjonaliście, który działa w konkretnym industry, w konkretnej branży i potrzebuje takiego co-pilota, który rozumie jego industry, rozumie jego branżę i jemu podpowiada w jego codziennych zadaniach..
Karol: A masz przykłady takich co-pilotów, o których moglibyśmy opowiedzieć. O specyficznych branżach?
Michał: Na przykład ten Meeting Prep, o którym wspomniałem, to był jeden z przykładów, ale nie tak dawno, bo chyba w listopadzie pokazaliśmy co-pilota, który wspiera akurat tutaj klientów, ale też pracowników w procesie kupowania, ale też obsługi klientów w branży retail.
Konkretnie firma Ralph Lauren, pewnie części z Was znana. No to jest bardzo już konkretny przykład, kiedy masz sklepy po całych Stanach, masz wielu pracowników po całych Stanach, masz dużą rotację tych pracowników, przychodzi nowa osoba i w trzy dni ma się przygotować do dużej akcji sprzedażowej w dużym sklepie. Jak towarować sklep, jak go rozliczać, jak realizować reklamacje, które reklamacje i tak dalej. No i jak ktoś powie, to jest typowy proces onboardingu, tylko on nie może trwać normalne tydzień, nie, nie, on musi się wydarzyć w dzień, A co więcej, musi się wydarzyć na telefonie mobilnym, bo to jest student, który będzie z wami 4 tygodnie i za 4 tygodnie nie będzie pamiętał, że pracował w Ralph Lauren. A inny przykład, wyobraźmy sobie, że zatrudniasz kogoś w branży gastronomicznej i on się musi nauczyć obsługiwać ten ekspres, musi się nauczyć obsługiwać tą maszynę do produkcji, do podawania, nie wiem, napojów czy ciastek. Jak zrobić proces onboardingu do urządzenia, który właśnie może być przeprowadzony właśnie w taki online’owy sposób z asystentem. jak obsłużyć sytuację, kiedy to urządzenie się popsuje, nie mając właśnie kogoś starszego stażem obok. No i to są takie bardzo proste, a jednak już bardzo specyficzne problemy. Ale są też branże bardziej ciekawe, no z Bayerem, z firmą Bayer..
Karol: Właśnie miałem zapytać o branżę medyczną..
Michał: Tak, to Bayer akurat w tym kontekście będzie w kontekście branży agriculture, nie medycznej, natomiast tam ten co-pilot ma pomagać i to jest bardzo ciekawe, myślę, i bardzo specyficzne. ma pomagać zarówno rolnikom, jak i tym osobom, które z perspektywy firmy Bayer oferują produkty dla tych rolników, optymalizować wykorzystanie, powiedzmy, chemii takiej gospodarczej w konkretnych miejscach, gdzie inwestujesz w pola rolne. Przepraszam, te konwersje z angielskiego są tak trudne i dzisiaj nie wychodzą, ale właśnie z firmą Bayer taki co-pilot powstaje, także to zupełnie już specyficzne rozwiązanie..
Karol: To skoro mowa o języku angielskim, to spróbujmy zwerbalizować w języku polskim. Czym jest Co-pilot. Jest specjalistą, którego masz w dostępie 24 godziny na dobę, którego możesz zapytać o wszystko, a on dysponuje odpowiednią wiedzą, danymi, które konfrontując z twoim pytaniem jest w stanie wygenerować odpowiedź w pełni merytoryczną..
Michał: My żeśmy, taka definicja, którą my żeśmy sobie gdzieś tam uknuli, ona nie musi być jakby pełna, bo pewnie każdy może mieć swoją definicję, ale to dla nas jest przede wszystkim sposób pracy, czyli to się ładnie mówi user experience, czyli nawet nie dochodzimy do tego momentu, że mamy tą wiedzę, mamy tą konwersację, tylko na początek jest to właśnie taki sposób pracy, gdzie używamy bardzo naturalnej formy komunikacji, czyli języka naturalnego w tej komunikacji z urządzeniem, z maszyną.
No i to jest jakby pierwszy punkt wyjścia. Drugi taki punkt wyjścia jest taki, że ten co-pilot jest na tyle silny, na tyle mocny w rozumieniu tego, co my do niego mówimy, że jest w stanie zrozumieć jakby to zadanie, które jest mu powierzone, a następnie korzystając z tej całej maszynerii, o której nie będziemy dzisiaj dyskutować, jest w stanie albo przynieść kontekst odpowiedni, albo właśnie rzeczywiście odpowiedzieć na twoje pytania, albo przynajmniej odpowiedź, gdzie tej odpowiedzi na to pytanie szukać. To jest ta druga rzecz. I myślę, że trzecia rzecz, której my nie doceniamy w tych rozwiązaniach kopilotowych, to jest to, że oprócz tej sformalizowanej odpowiedzi, ta odpowiedź zawsze jest oparta o dane, które mamy w danym systemie, czy w danych systemach i ta nasza odpowiedź jest uziemiona, jak to się ładnie po polsku mówi właśnie w tej odpowiedzi. I myślę, że gdzieś tam ten kopilot gdzieś jest pomiędzy tymi atrybutami, o których powiedziałem. Dzisiaj bardzo często tylko pilot jest rozumiany jako konwersacja. Zresztą sam o tym powiedziałem, ale już wiemy, że wcale to nie musi być konwersacja tylko w języku naturalnym. To może być asystent, który rozumie to, co robisz i w danym momencie ci pomaga, czyli on jest bardzo kontekstowy w kontekście twojej pracy. Wyobraź sobie, że projektujesz… Rozmawialiśmy o bibliotekach cyfrowych. Załóżmy, że projektujesz bibliotekę fizyczną, jesteś architektem. Co by było, gdyby Copilot obserwował twoją pracę i tam, gdzie się zatniesz, podpowiadał, jaki jest kolejny najlepszy twój ruch. .
Karol: No, ale wtedy wymagamy pełnej multimodalności, prawda?
Michał: Tak, ale ta multimodalność nie jest dzisiaj wyzwaniem. Ta multimodalność jest. Jest tylko kwestia tego, jak ją dobrze zastosować. Ja myślę, że dzisiaj wyzwanie multimodalności nawet nie polega na tym, że nie mamy odpowiednich modeli czy odpowiednich metod, żeby je ćwiczyć, tylko tego, że my dzisiaj bardzo dużo pracujemy nad tym, jak ten interfej współpracy pomiędzy człowiekiem a maszyną ma wyglądać, bo konwersacje żeśmy opanowali od wielu lat. ale czy opanowaliśmy na przykład, nie wiem, czy nasi słuchacze korzystają na przykład z copilotów do pisania kodu, czy do projektowania właśnie czegokolwiek, tam ten kontekst wymiany dyskusji z maszyną jest dużo trudniejszy do opanowania..
Karol: To czego nam brakuje – Neuralinków.
Michał: Nie, ja zupełnie nie wchodzę w ten wątek. Bardziej rozumienia tego, jak my pracujemy w tego typu kontekstach i zrozumienia właśnie, jak uchwycić ten kontekst, kiedy ta pomoc jest potrzebna, kiedy przeszkadza. Bo ciekawe doświadczenie z mojego podwórka. Kiedy GitHub Copilot powstał i pomagał deweloperom pisać kod, wszyscy byli tym zachwyceni. Ale kiedy zapytaliśmy się deweloperów, a co by było, gdyby kod oceniał wasze postępy prac, tu się okazało, że wszyscy powiedzieli nie. I okej, powiedzieli nie, nie jesteśmy na to gotowi, być może to, co powstaje od tych co-pilotów jest niskiej jakości, etc. To jest ten etap adopcji, to jest jedna rzecz. Ale druga rzecz jest taka, gdzie ten co-pilot, czy też gdzie ten asystent daje nam wartość, a gdzie nam bardziej przeszkadza. I tu w tych kontekstach projektowych… My chyba jeszcze musimy przeprowadzić szereg badań, poznać ten sposób działania, zrobić, popełnić kilka błędów, aż nauczymy się, kiedy go jakby wstrzykiwać w naszą interakcję..
Karol: A jak sądzisz, co, bo rozmawiamy o korzyściach, które niosą co-piloci, a jakie jest zagrożenie, jeżeli chodzi o kopailotów, zabicie kreatywności?
Michał: Ja w ogóle nie wchodzę w ten etap zabicia kreatywności, bo to tak odpowiem w drugą stronę. Troszeczkę prowokuje tutaj. Oczywiście, bardzo dobrze. Po pierwsze musimy o tym rozmawiać i pewnie to jest oczywiste, a jeżeli nie jest oczywiste, to niech będzie. W każdym projekcie, który my robimy, jeden z najdłuższych etapów walidacji przed wypuszczeniem jakiegokolwiek produktu do klienta czy do partnera, to jest przejście przez wszystkie czeki wokół odpowiedzialnego jaja. I ryzyko jest jednym z pierwszych elementów, które się analizuje, nawet za czym zacznie się projekt. Ale wracając do twojego głównego pytania, ryzyk jest wiele, ale czy będziemy zabijać kreatywność. To jest takie pytanie, czy woleliby słuchacze rozmawiać z tobą i ze mną, czy woleliby rozmawiać z naszymi asystentami. Pewnie, gdyby rozmawiali z naszymi asystentami, ta rozmowa byłaby bardzo uproszczona..
Karol: Ale powiem ci, że zrobiliśmy kiedyś eksperyment i zrobiliśmy asystenta, agenta, z którym mogłeś porozmawiać na temat odcinków podcastu..
Michał: Jasne. To jest okej, ale zobacz, że ten asystent agent rozmawiał o tych odcinkach podcastu, czyli był bardzo uziemiony w tej swojej dyskusji. Więc nie, ja nie uważam, że zabijemy kreatywność, raczej ją wspomożemy w tych miejscach, w których będziemy zatrzymani. To jest trochę tak, jak czy Word poprawiający gramatykę zabił naszą potrzebę pisania. No nie zabił, raczej wspomógł. Czy narzędzia, które wspierają pisanie kodu, zabijają kreatywność deweloperom. No nie, one mają tylko zająć się tym, czym deweloperzy zajmować się nie lubią. Czy wszelkie narzędzia do testów zabiły naszą potrzebę budowania software’ów. Znaczy testowania software’u też nie, one wspomogły nas, więc ja tu jakoś się o to nie boję. Ja się raczej zastanawiam nad tym, jak zboostować, mówiąc brutalnie, tą naszą kreatywność przez te możliwości. i pozwolić nam tą kreatywność powiększać, niż że będziemy ją teraz zabijać..
Karol: Podoba mi się to podejście, no ale co, to wydaje ci się, że będziemy generacją, która posiada swoich asystentów i będzie pracować nie 40 godzin tygodniowo, tylko 10, 20…
Michał: Ja mam takie wrażenie, że, znaczy tak, nie chciałbym rozmawiać o ilości godzin pracy, bo wszystkie produkty dzisiaj mi mówią, że ten kolejny produkt zaoszczędzi mi kolejne godziny pracy, a jakoś nie pracujemy mniej. i całe industry, wszyscy zresztą chyba nie pracujemy mniej w ogóle na świecie, jako świat. Więc nie chciałbym w tą stronę wchodzić, ja wiem, że bajki o Jetsonach i o dziesięciogodzinnym tygodniu pracy są cały czas podnoszone, ale nie chcę o tym dyskutować..
Karol: Wiesz co, ale dlaczego pytam, bo ostatnio rozwinęła się całkiem ciekawa dyskusja u nas w grupie Śniadanie.ai dotycząca AGI i właśnie dochodu tego uniwersalnego, który mógłby być przyznawany ludziom..
Michał: A czy to druga odpowiedź na drugą część twojego pytania, czy będziemy mieli wielu asystentów AI. Ja myślę, że tak naprawdę ich już mamy, tylko dzisiaj to doświadczenie, tak to nazwę, ten user experience jest taki bardzo rozproszony. Tu asystent, który pomaga ci napisać dokument, tu asystent, który ci pomaga napisać kod. tu asystent, który pomaga ci kupić, który pomaga ci zainwestować. Jesteś otoczony światem wielu, bardzo wielu asystentów. Umówmy się, że tak, jest to bardzo disconnected experience..
Karol: A gdyby był i funkcjonował taki asystent, który jest z tobą od pierwszego dnia urodzenia i towarzyszy ci przy wszystkich twoich najważniejszych momentach życia, procesie edukacji, socjalizacji, zdobywania doświadczeń, jeżeli chodzi o pracę, o to, czym chcesz się zajmować. Masz taką wizję przyszłości?
Michał: Ja myślę, że jestem człowiekiem, który właśnie czułby się dziwnie z takim asystentem, ale to pewnie wynika już trochę z mojego wieku. Tak jak z mojego wieku pewnie wynika to, że nie urodziłem się z komórką w ręku, podczas gdy pewnie moje dzieci już się urodziły z komórką w ręku. Jak mówisz o tym w ten sposób, to myślę, że ludzie zaczynają, widzą Skynet i widzą elektroniczną nianię, która przyjmuje, wiesz, panowanie nad tobą..
Karol: Ale przepraszam cię, widzę tak samo film Hair i nie wiem, czy kojarzysz, ile było artykułów pojawiło się w sieci, jak tylko pojawił się czat GPT-4, prawda?
Michał: Tak, tak, tak. I tam miłość. To są jakieś takie problemy natury społecznej, które my musimy rozwiązać. Natomiast czy wyobrażam sobie… Coś, co pomogłoby, co byłoby moim asystentem takim od pewnie nie pierwszego dnia, ale od momentu, kiedy nauczę się mówić albo kiedy nauczę się pomagać ten świat. Tak, to sobie akurat wyobrażam, bo nie wiem, czy taki asystent versus komórka, której używają dzieci w wieku 6 lat, bo tak jest dzisiaj, niestety to obserwuję.
Oczywiście. nie byłby lepszy w momencie, w którym ja byłbym w stanie na przykład wyobrazić sobie, co ten asystent ma dla tego mojego dziecka robić i w których zadaniach byłby dostępny. Ja nie chciałbym, żeby ten asystent być może wychowywał moje dziecko, ale co by było, gdyby właśnie wspierał je w rozwoju, w pozyskiwaniu czy poszukiwaniu wiedzy. Pewnie takie rzeczy można sobie wyobrażać, idąc krok dalej. Natomiast żeby do tego etapu dojść, ja myślę, że my musimy przejść wiele, wiele cykli, dlatego że zaproponowanie tego dzisiaj myślę, że wywołałoby spore dyskusje w wielu obszarach i zastanawialibyśmy się, gdzie właśnie jest ten asystent, w jakich rolach on występuje. Natomiast jak przejdziemy i zrozumiemy ten cały cykl od innowacji przez to, kiedy produkty są już dobrze poznane, przez to, kiedy rozwiązania są dobrze zaadoptowane przez społeczeństwo, to pewnie będziemy myśleć o takich bardziej neurologicznych miejscach, w których będziemy z takich asystentów korzystać. Natomiast jeżeli ktoś uważa, że tych ascentów nie korzystają już dzisiaj, to moim zdaniem jest w dużym, w dużym błędzie, bo z nich korzysta się tak naprawdę na każdym kroku, mówiąc brutalnie..
Karol: Dobrze, mam pytanie. Pamiętasz cyfry, jeżeli chodzi o adopcję chmury w polskich, w europejskich organizacjach?
Michał: Pamiętam wartość starość. Zależy jeszcze tak, bo w samych europejskich organizacjach ta adopcja była bardzo niezła 4 lata temu, bo na to ostatnio patrzyłem, natomiast w Polsce była dosyć niska z wielu powodów. Więc tak, ta adopcja chmury w krajach skandynawskich przede wszystkim była bardzo wysoko posunięta. Nie znam tych wartości dzisiaj. To jest rząd wielkości. Rząd wielkości, to zależy w których obszarach, ale to były rzędy wielkości typu 40-50% jeżeli chodzi o taką adopcję i dużo wyższe wartości jeżeli chodzi o specyficzne obszary działalności firm i wykorzystanie tych rozwiązań chmurowych. Plus drugi aspekt był myślę, że istotny. Nie tylko chodziło o tych, którzy już korzystają, ale tych, którzy planują wykorzystać. I tam praktycznie większość firm europejskich rozważała możliwość wykorzystania chmury..
Karol: Dlaczego pytam o chmurę. Bo chciałbym to skonfrontować teraz te wartości z wartościami, które są wskazywane w raportach, między innymi przygotowywanymi przez ministerstwo, jeżeli chodzi o adopcję rozwiązań związanych z AIM, z GNI, z zarządzaniem danymi i tak dalej. Co musi się wydarzyć, twoim zdaniem, Michał, żeby teraz adopcja rozwiązań AI-owych poszła tak dobrze, jak adopcja rozwiązań chmurowych?
Michał: Kończąc wątek adopcji chmury, nie pomyliłem się, przynajmniej tutaj według jednego z dużych konsultingów dane z kwietnia, tu mówimy o 55% organizacji, które korzystają, także chyba wartość nie była zła, której podałem wcześniej. Na twoje pytanie moim zdaniem odpowiedzi jest kilka. Po pierwsze jest taka, że My mówimy ciągle o tym w kontekście, tak jakby tej adopcji nie było. A moim zdaniem adopcja rozwiązań AI trwa od wielu, wielu lat w wielu gałęziach gospodarki. Tylko nie mówiliśmy o tym tak chętnie, bo cały LinkedIn o tym nie pisał. Przepraszam, ale Gen AI sprawił, że zaczęliśmy mówić o tych wszystkich adopcjach rozwiązań AI, ML i innych, które dzieją się od wielu, wielu lat. Więc to się dzieje..
Karol: Masz absolutnie rację, przypominam sobie rozmowę z Aleksem Poniewierskim, który właśnie do tego nawiązywał, że to cały ML, zarządzanie danymi i tak dalej, to nie jest wynalazek ostatnich 24 miesięcy.
Michał: Nie, absolutnie nie i od dawna o tym mówiliśmy i od dawna mówiliśmy o scoringach kredytowych, od dawna mówiliśmy o tym, jaka jest konwersja potencjalnego klienta na klienta, od dawna mówiliśmy o tak zwanym defaultowym kliencie, czyli takim, który na przykład bierze kredyt i tego kredytu nie spłaci, Ja w 2008 roku pracowałem w firmie leasingowej, wtedy już mieliśmy model predykcyjny mówiący o tym, przy jakich parametrach klient tak naprawdę jest klientem defaultowym, albo ryzyko, że będzie klientem defaultowym jest najwyższe. Więc po pierwsze, to nie jest nowa rzecz. Po drugie, Gen AI nie jest panaceum na wszystkie wyzwania, które mamy w IT i nie będzie. Z wielu powodów, znaczy te modele, które my dzisiaj produkujemy, z wielu powodów nie będą rozwiązaniami w wielu obszarach gospodarki. I teraz co się musi wydarzyć. Nie ma pewnie jednej dobrej odpowiedzi, natomiast na pewno cały ruch związany z nauką na każdym stanowisku, cały ruch związany z adopcją, z wyjaśnieniem na czym polega ta rewolucja, w jakim sensie przemysłowa, to na pewno jest krok w dobrą stronę, bo jeżeli coś jest nieznane, jest groźne, jeżeli coś jest groźne, nie chcesz tego dotykać i tak dalej, i tak dalej.
To doskonale o tym wiemy. Z chmurą było bardzo podobnie. Druga rzecz to jest pokazanie wartości.
Nie da się, blockchain jest świetną technologią. Możemy dzisiaj porozmawiać o tym, jak bardzo dużo adopcji rozwiązań wokół blockchaina jest na świecie. Jest ich niewiele stosunkowo w bardzo szerokim rynku, w bardzo specyficznych obszarach, to technologia rozwiązuje bardzo ciekawe problemy, ale masowo nie jest to rozwiązanie ogromne, więc musisz pokazać wartość tego, co robisz. I trzecia rzecz, musimy przejść od hype’u do produktyzacji.
To, co my robimy w grupie produktowej, to jest z jednej strony ciekawa, ale bardzo niewdzięczna praca, bo bardzo wiele tego, co my robimy, się nie sproduktyzuje, czyli nie będzie produktem powszechnym. I bardzo dobrze, bo właśnie na tym polega nasza rola, czyli eksperymentować, sprawdzić, zebrać feedback i się pięć razy zastanowić, czy na pewno inwestujemy w ten obszar dalej. Jak to ostatnio żeśmy rozmawiali sobie w grupie, my musimy jeszcze więcej eksperymentować i jeszcze mniej wydawać, żeby dojść do etapu, kiedy to, co robimy, można przekazać partnerom, I to będzie już na tyle powszechne rozwiązanie, że bardzo wiele firm będzie je robiło i powielało. Czyli musimy dojść do etapu powielalności tych rozwiązań. I chyba te trzy rzeczy muszą się wydarzyć. Trochę tak było z chmurą. Rynek musiał zrozumieć o co w tej chmurze chodzi. musiał sam wykonać pierwszy krok, czyli wykonać jakąś adopcję i po trzecie musiało być to na tyle masowe, że miałeś odpowiedni obszar specjalistów i ludzi, którzy chcieliby to z tobą robić. I dzisiaj chmura nie jest czymś nowym, jest po prostu elementem twojej strategii IT. Koniec..
Karol: A jak edukować jednak, twoim zdaniem, jak zdobywać wiedzę. Bo zobacz, pojawia się dużo projektów różnych szkoleniowych, Campus AI, Elefant, różne inne inicjatywy, które służą temu, by edukować biznes, a Gdybyś ty miał podpowiedzieć komuś, jak się uczyć, jak zrozumieć tę rewolucję, która ma miejsce, to od czego byś zaczął?
Michał: I teraz tutaj myślę, że musimy oddzielić… Mówimy o biznesie. Mówimy o biznesie, właśnie. Ja żyję sobie w tej bańce technologicznych osób i pewnie tutaj mam więcej pomysłów, jak edukować te osoby. Jeżeli chodzi o biznes, to po pierwsze myślę, że dobrze jest zacząć od tego, żeby w ogóle wyjaśnić podstawy. czyli o czym my tak naprawdę rozmawiamy. I teraz dobrze jest wyjaśnić te podstawy, żebyśmy nie szastali pojęciami, a rozumieli być może, czym się różni różna klasa algorytmów, tak na wstępnym poziomie. To bardzo ułatwia dyskusję później, bo rozmawiasz z osobami, które rozumieją już kontekst, background, czy właśnie kontekst, może takie słowo jest lepsze,.
Karol: Powiem Ci, że właśnie zamówiłem sobie stare książki o uczeniu maszynowym..
Michał: No właśnie, to Ty zamówiłeś sobie. Ja też mam książki o uczeniu maszynowym jeszcze z czasów mojej edukacji na studiach. Mam tutaj dwie książki o matematyce w uczeniu maszynowym, tylko myślę, że jak będziemy… pokazywać mnożenie macierzy i odwracanie macierzy, to myślę, że ten biznes raczej nas wyrzuci za drzwi, więc nie przesadzałbym. Ale dobra, to zaszliśmy od tego, że musimy mieć ten kontekst w ogóle, o czym dyskutujemy. Potem wypadałoby jednak pokazać tą wartość, czyli pokazać tą wartość przez przypadki. Na początek, mówisz o edukacji, więc ja mówię o pierwszych zajęciach tego typu. gdzie to ma wartość, a gdzie nie ma, gdzie ma zastosowanie, a gdzie nie ma, opowiadanie, że w każdym obszarze życia, że wszędzie i tak dalej jest moim zdaniem zbyt ogólne, należałoby to odmienić poprzez przypadki i osadzić w kontekście tej biznesowej osoby. Jeżeli ty jesteś dzisiaj bardzo uznanym człowiekiem na rynku deweloperskim, sprzedajesz mieszkania, budujesz, inwestujesz, a ty mówisz o technologii w kontekście bankiera inwestycyjnego, te dwie rzeczy się nie połączą. Nie można o tym w ten sposób mówić, więc Tak jak ja mówiłem kiedyś o chmurze, trzeba ją osadzić w realiach danego biznesu i albo to zrobisz, albo jesteś zupełnie irrelevant, mówiąc brutalnie. Więc to jest trzecia rzecz, czyli przykłady, osadzenie w kontekście. A potem, jeżeli już ten cały kontekst został zbudowany i widać chemię po drugiej stronie, czyli chęć nauczenia się, trzeba sobie wybrać dwa, trzy, pięć przypadków, w których rzeczywiście możesz pokazać zastosowania tej technologii takie bardzo praktyczne. Ja staram się być bardzo praktyczny w tym, co my robimy na koniec dnia, bo dzisiaj mam wrażenie, że dyskusja jest bardzo szeroka, ale bardzo mało praktyczna bardzo często. Więc to są moje takie cztery rzeczy, czyli kontekst, wyjaśnienie, pokazanie wartości, pokazanie przypadków użycia w danym obszarze, czy w danej branży, czy dla danej persony, a potem już po prostu adopcja taka w codziennym życiu i zmiana. Tutaj niemało mówimy o zmianie, ale widzę, że bardzo dużo pracy będzie wymagało od nas, bardzo dużo pracy będzie w obszarze zmiany, czyli jak tą zmianę zaadoptować w codziennym życiu..
Karol: Bo zmiana będzie dotyczyła wszystkiego, procesu, kultury, danych, sposobu pracy, realizacji celów itd...
Michał: Tak, w bardzo wielu miejscach zmiana będzie występowała. Myślę, że będzie jeszcze jedna rzecz, której dzisiaj nie dostrzegamy, czyli będziemy musieli, jeżeli będzie to tak powszechne, to będziemy musieli też nauczyć się nawzajem krytycznego patrzenia na to, że to jest tylko nasz asystent, jeden z wielu, który nam pomaga i ocenić, kiedy właśnie ta pomoc jest niewłaściwa po prostu. W bardzo wielu jeszcze miejscach ci asystenci nie będą perfekcyjni..
Karol: Okazuje się, że umiejętność krytycznego myślenia jest wartością ponadczasową..
Michał: Cały czas i rozumienie tego, co się dzieje, też będzie dalej istotne. My nie doszliśmy do takiego etapu, kiedy te systemy się nigdy nie mylą. Dlatego tak ważne jest to, co my powtarzamy, miejsce człowieka w tej całej rewolucji, która się dzieje..
Karol: Jakie branże jeszcze Ci przychodzą do głowy, które będą mocno wykorzystywać te rozwiązania, o których rozmawiamy. Bo mówimy tak, sektor bankowności, sektor produkcji, a retail usługi..
Michał: Ja bym nawet to pytanie odwrócił w ten sposób. Czy są takie branże, w których tego się nie da wykorzystać. Na pewno są, ale powiedziałbym o tym w ten sposób.
A fryzjerstwo. No właśnie i teraz powiedziałbym o tym w ten sposób. Po pierwsze, każda branża, która pracuje z wiedzą, a dzisiaj większość branż pracuje z wiedzą, czy ta wiedza jest ustrukturyzowana, czy nieustrukturyzowana, to jest branża, w której potencjał jest.
Jak duży, to wymaga już dyskusji. Jak łatwo jest tam wdrożyć tego typu rozwiązania, to wymaga dużej dyskusji. Bo tak jak powiedziałem, czym innym jest konwersacja na bazie jakichś dokumentów, które posiadasz w swojej organizacji, czym innym jest na przykład projekt kolejnego sprzęgła, do twojego samochodu.
Czy to jest miejsce, w którym nie można stosować tych technologii. Nie, można, tylko jest dużo trudniejsze. I teraz właśnie, gdzie nie można. Wyobraź sobie taką branżę, której raczej nie działasz, ale może nie wiem, może masz takie hobby. Zajmujesz się rybołówstwem przemysłowym. Właśnie, ja też nie. A kilka lat temu, kiedy jeszcze był GPT-2, i kiedy z kolegą żeśmy starali się zastosować GPT-2 do generowania kodów Visual Studio, mieliśmy projekt, w którym okazało się, że jeżeli jesteś w stanie zrobić zdjęcia łososiom na odpowiedniej głębokości, to jesteś w stanie policzyć mniej więcej ile tego łososia w obszarze łowiska jest. Dlaczego to jest ważne. I znowu, jeżeli tu popełnię jakiś błąd merytoryczny, to proszę słuchaczy, którzy znają się na rybołówstwie przemysłowym, mnie skorygować, nie mam tu absolutnie wiedzy dogłębnej, byliśmy w stanie oszacować ilość łososia, którego wyłowimy w danym łowisku. Czy to jest AI. Tak, to jest absolutnie AI, bo my byliśmy w stanie za pomocą narzędzi do wykrywania obrazów policzyć łososie, mówiąc brutalnie. Czy to jest istotne. Tak, dlatego, że kwoty połowowe karają cię za to, czy połowiłeś tego łososia za mało, czy za dużo w danym miejscu. Jeżeli robisz to przemysłowo w sześciu miejscach na świecie po czterech kontynentach, siłą rzeczy potrzebujesz takich rozwiązań. Proszę bardzo, branża zupełnie nie oparta, znaczy w jakimś sensie też oparta o wiedzę, ale taka bardzo fizyczna, można powiedzieć, tak, w swoim zastosowaniu. Spawalnictwo. Nie znam się na spawalnictwie, mój kolega zna się bardzo dobrze, ale ludzie, którzy zajmują się tym na co dzień, robią skany, bardzo dokładne skany spawów, które wykonują i na tej podstawie oceniają, czy jesteś spawaczem początkującym, czy jesteś spawaczem z dziesięcioletnim doświadczeniem..
Karol: Szczególnie branża przemysłowa..
Michał: Szczególnie branża przemysłowa, więc czy tam występują pewnie ubytki. Na pewno. Czy moglibyśmy zastosować narzędzia do analizy obrazu, do wykrywania właśnie skaz na tych spawach.
Wczoraj znowu oglądałem jakiś model, który jest w stanie na kilka lat przed ujawnieniem się raka piersi, wykryć początki raka piersi na dużej bazie zdjęć. No więc proszę bardzo, w spawalnictwie też byśmy znaleźli miejsce na to. Dzisiaj dużo się mówi o zastosowaniu tego typu rozwiązań w optymalizacji łańcucha dostaw. Tylko to są jeszcze prace, które dzisiaj są na etapie dyskusji, dyskutowania, szukania modeli, szukania danych do budowy tych modeli, a pewnie za 3, 6, 9 miesięcy zobaczymy pierwsze zastosowania, a za kilka lat zobaczymy dużą adopcję..
Karol: A co czytasz? Z czego się uczysz? Skąd czerpiesz wiedzę, Michał?
Michał: To jest kilka rzeczy. Przede wszystkim każda z tych dużych firm, które zajmują się tym obszarem ma swoje obszary researchowe i te jednostki publikują różnego rodzaju analizy, publikują różnego rodzaju papiery, seminaukowe czy seminaukowe. Seminaukowe w tym sensie, że nie zawsze one są bardzo głębokie, to są pewne badania, które są prowadzone. I to jest ciekawe miejsce do zobaczenia, czym się w ogóle branża zajmuje i jakie są ciekawe efekty zastosowań. I co ciekawe, jednostki researchowe, czy to będzie Microsoft, czy to będzie Google, czy to będzie Facebook, one nie są do końca związane z produktem danej firmy, więc to jest bardzo ciekawe..
Karol: Chodzi o to, żeby pokazać i zbadać szerszą perspektywę…
Michał: Tak, chodzi o to, żeby zbadać perspektywę i musisz taką perspektywę badać, bo ty nie wiesz dzisiaj, co wygra.
Nikt nie ma mandatu na to, co wygra. Więc po pierwsze patrzę w tego typu rzeczy. Jakoś niekoniecznie czerpię wiedzę z LinkedIn’a. Dla mnie LinkedIn jest zestawem newsów, z którego mogę wyłowić kilka perełek. ale niekoniecznie mnie zajmują te wszystkie takie narzędzia, o, ten narzędzie potrafi ci zrobić obrazek na stronę, to narzędzie ci potrafi napisać tek na stronę, tak, ja to wszystko, ja to rozumiem, tylko to nie jest ten obszar, który mnie interesuje, więc to jakoś tam odrzucam i staram się bardzo dogłębnie czytać te case, które się pojawiają jako prawdziwe zastosowania technologii, Szczególnie wtedy, ostatnie zdanie, jeżeli pokazują realny zysk. Na przykład oszczędziłem 4 tygodnie, 2 godziny, tyle pieniędzy, etc. To to mnie bardzo interesuje..
Karol: Właśnie, czy moglibyśmy polecić jakieś źródła, gdzie jest mowa o takich use case’ach ciekawych. Bo kiedyś zrobiłem ankietę na LinkedIn i zapytałem ludzi, o czym chcieliby słuchać w 99 twarzach. Odpowiedź była jedna zdecydowana. Case studies, case studies, case studies i oczywiście są źródła, są na stronie Microsoftu, Google są case studies publikowane, ale czy ewentualnie masz jeszcze jakieś inne do polecenia.
Michał: Możemy zebrać, możemy zebrać i podkleić pod podcastem, bo teraz tak, nie wszystkie te źródła będą pokazywały ten realny zysk, natomiast są już pierwsze firmy, które publikują swoje wewnętrzne case studies na zewnątrz, natomiast myślę, że tego jest realnie jeszcze mało. bo też musimy wyjaśnić dlaczego. Weźmy jakiekolwiek rozwiązanie, które gdzieś my opublikowaliśmy. Od momentu, kiedy je opublikujesz do momentu, kiedy będziesz mógł zebrać wynik i ten efekt, jeszcze mija trochę czasu. Więc mnie interesuje wszystko, co pokazuje nawet realny, potencjalny zysk. To jest myślę, że ciekawe. Ostatnim takim elementem, który mogę wskazać jako źródło, czyli jeszcze wracając do tych linków, zbiorę i podcastem podpejmy Natomiast jeśli wrócimy jeszcze na chwilę do tych źródeł informacji, fajnie czasem sobie poczytać, i ktoś może uznać, że to jest dziwne, raporty giełdowe spółek, które zajmują się technologią. Bo jak poczytasz sobie na przykład raport giełdowy, czy to Google’a, czy Microsoft’u, czy SAP’a, którzy publikują czy po kwartale, czy po całym roku, to można zobaczyć, jaki jest udział produktów, które sprzedają, w całym revenue biznesu, który robią. I teraz można zobaczyć przynajmniej, jak te obszary AI-owe sobie zaczynają rosnąć, gdzie się zaczynają te obszary pojawiać i tak dalej. I to myślę, że jest ciekawe, bo będzie pokazywało shift firm technologicznych w tę stronę, a co za tym idzie, no ktoś to kupuje, ktoś z tego korzysta, ktoś użyje tej wartości, więc jeżeli chcemy trochę też śledzić adopcję rynku, to trochę przez statementy giełdowe można tej wiedzy paradoksalnie trochę zdobyć..
Karol: Mówisz, że czerpiesz wiedzę z różnych publikacji naukowych, ale nie tylko czerpiesz i czytasz, ale również sam publikujesz.
Michał: No tak, udało nam się popełnić na razie jeden dokument, kolejny tak naprawdę już też jest napisany, tylko trzeba go przeformatować w odpowiedni sposób, żeby na Arxivie się mógł pojawić. Staramy się te nasze dwa lata doświadczeń zebrać, jak to się mówi, troszeczkę oderwać od tego naszego świadka i opublikować, i pokazać..
Karol: No właśnie, Design and Evaluation of AI Copilots, Case Studies of Retail Copilot Templates.
Michał: Tak, to tutaj ten dokument rzeczywiście powstał, dotyczy bardzo jednego konkretnego użycia, ale wszystko co jest tam napisane, żeśmy troszeczkę oderwali od tego jednego case’u i pokazali w szerszym ujęciu i tam będzie trochę o architekturze, ewaluacji modelu..
Karol: Z chęcią podlinkujemy również tą publikację, a możesz o niej opowiedzieć, tak żeby zachęcić naszych słuchaczy do tego, żeby zerknęli i poczytali.
Michał: To jest tak, jeżeli ktoś z Was chciałby zbudować, czy rozważa budowę własnego co-pilota, czyli takiego doświadczenia, jakie widzicie w naszych produktach, ale w swoim miejscu, w swoim produkcie, w swoim rozwiązaniu i zastanawia się, jak powinna wyglądać architektura, jak robić właśnie ewaluację modelu, czyli jak zbadać, że model generuje to, co byście chcieli. jak zająć się tematem odpowiedzialnego AI, czyli jak zobaczyć to wszystko, o czym te wszystkie duże firmy, tak jak my mówimy, ale w ujęciu już praktycznym, no to można na ten artykuł spojrzeć i wyciągnąć z niego pewne wnioski właśnie w tym kontekście. To, czego w tym artykule jest mało, to jest ta moja część bardziej biznesowa, o tym, jak identyfikować te case’y biznesowe, które mogłyby być ciekawe do zastosowania w danej firmie. Ten artykuł się pojawi, już jest, ale jeszcze nie jest na ArcSivie, a to będzie..
Karol: Wrócę jeszcze do wątku, od którego zaczynaliśmy a propos naszej zmiany zawodowej. Jak zmieniają się nasze zawody. .
Michał: To jest chyba pytanie, które sobie wszyscy zadajemy bardzo mocno. Ja wiem, jak się zmienia mój zawód..
Karol: Powiem Ci jedną ciekawą rzecz. Zrobiłem jakiś czas temu eksperyment, wyszedłem z mikrofonem na ulicę w centrum Warszawy. Grupa niereprezentatywna i tak dalej. Wszyscy, którzy są starsi, nazwijmy to 35-40+, a ja zabierze mi pracę w Czarna Wizja Przyszłości, Wszyscy w okolicach 20, 25. Słuchajcie, narzędzia jak każde inne..
Michał: No i nie wiem, czy pamiętasz czas, 2013-2014 rok, w Polsce o chmurze się mówiło niewiele, ale pierwsze dyskusje, które były w organizacjach IT, co będzie z chmurą, chmura zabierze mi pracę. A potem się okazało, to któryś z dużych analitycznych firm pokazała, że w 90% firm nic się nie zmieniło, w 5% zredukowano zatrudnienie osób, które robiły bardzo podstawowe rzeczy, w 5-10% zatrudnienie wzrosło. Już pewnie przekroczyłem 100%, także… Na pewno wpływ na nasze życie te technologie będą miały, tylko myślę, że ludzie przeceniają możliwości tego, gdzie jesteśmy dzisiaj, a z drugiej strony niedoceniają, jak bardzo mogą zboostować swoją pracę tym, co już mają. W świadku ludzi, którzy zajmują się ogólnie wiedzą, bazują na danych, bazują na informacji, w wielu miejscach mogą wykorzystać tę technologię, żeby sobie tę pracę wspomóc, żeby tę pracę zwalidować. Przykład z branży prawniczej, który niestety nie mogę podlinkować, ale mogę opowiedzieć o wynikach..
Karol: Z chęcią pozdrawiamy tutaj Witka, mojego serdecznego kumpla z branży prawniczej, który szuka m.in. dla siebie rozwiązania.
Michał: To jest oczywiście wycinek branży prawniczej, nie cała branża prawnicza, ale ciekawy use case. Mamy firmę, która bada wypadki przy pracy w organizacjach i oczywiście jeżeli badasz wypadek, to musisz zobaczyć, czy były odpowiednie procedury na stanowisku, czy była odpowiednia dokumentacja, czy osoba pracując na stanowisku miała przeszkolenie, milion rzeczy, etc. No i w takim postępowaniu analizuje się bardzo wiele dokumentów z bardzo różnych obszarów, co uzyskaliśmy po trzech miesiącach mniej więcej eksperymentów z wykorzystaniem analizy dokumentów za pomocą modeli językowych. Że prawnicy, ci bardzo drodzy, bardzo często w którymś momencie zaczynali być znużeni analizą tych dokumentów. Jest ich wiele, są trudne, są długie, niekoniecznie to jest fascynująca lektura, musisz to zrobić w bardzo krótkim czasie, presja, etc. Modele nie są znudzone, modele się nie nudzą..
Karol: Wprost przeciwnie, im więcej danych, tym lepiej.
Michał: No tutaj jest oddzielna kwestia, ale jakby w kontekście nawet analizy dokumentu modele się nie nudzą, modele nie potrzebują przerwy, ale i modele były w stanie nam wskazać dokumenty, o których my moglibyśmy nie pomyśleć w kontekście tej sprawy, a modele to nam podpowiedziały.
To jest raz. Dwa, mogły to zrobić szybciej. Czy podejmowały za nas decyzję.
Absolutnie nie. Dalej ten prawnik, który prowadził sprawę był kluczowy, ale czy mógł dzięki temu bardziej obiektywnie podejść do działania. Na pewno. Więc to jest jeden z takich przykładów, gdzie pokazujemy zmianę w branży. Czy ona wygeneruje zmiany w naszych stanowiskach. Na pewno. Czy redukcje. Nie sądzę, bo jakoś tak będąc na rynku IT od 20 lat nie czuję, że mam mniej pracy przez ostatnie 20 lat. Mimo wszystkich usprawnień, które robię, tylko czuję, że generuję potencjalnie więcej wartości albo mogę zrobić więcej zadań w tym czasie..
Karol: Za nami Google.io, Microsoft Build 2024. Jakieś nowości, o których warto wspomnieć z Twojej perspektywy.
Michał: Tak, ja myślę, że to, czego jeszcze dużo nie obserwujemy, to po pierwsze zastosowanie modeli multimodalnych, czyli wszystkie te modele, które analizują obraz, dźwięk, głównie obraz. Myślę, że tutaj jest duży, niewykorzystany potencjał. My mamy ileś pomysłów na wykorzystanie tego potencjału. Pewnie będziemy widzieli przykłady. Na pewno całe zainteresowanie małymi modelami językowymi..
Karol: Ostatnio rozmawiałem z Marcinem Kuczarbem z PZU i opowiadał o use case’ie, jeżeli chodzi o wyceny szkód na samochodach. Niesamowity przykład..
Michał: Tak, tak. No i to nie jest przykład też nowy, tak efektywnie. Firmy takie jak PZU robią to wiele lat. Myślę, że teraz będą mogły to robić być może lepiej, być może szybciej. W Stanach jest to duży wątek absolutnie wycen automatycznych. Natomiast tutaj pewnie jeszcze potrzebujemy ze dwóch, że tak powiem, cykli wydawniczych, żeby te rozwiązania zlądowały jeszcze lepiej. Natomiast obszar małych modeli językowych wydaje się bardzo ciekawy, jeszcze nie zeksplorowany, czyli wszystkich tych modeli, które możesz mieć na telefonie, które możesz mieć na komputerze, które możesz umieścić bardzo blisko rozwiązań, które muszą zostać on-premises, nigdy nie będą w chmurze, więc najnewralgicznych. I cały trend przetrenowywania, budowania własnych modeli, niekoniecznie językowych, opartych właśnie o modele małe, o modele bardzo małe. I tu się dużo dzieje i to jest bardzo ciekawe, bo w pewnych wybranych obszarach zadań, czyli na przykład generowanie kodu, czyli na przykład sumaryzacja tekstu, generowanie tekstu w jakichś obszarach specyficznych branż, możesz być… na poziomie dużych modeli za frakcję, za dosłownie frakcję tych pieniędzy..
Karol: No właśnie, a czy możemy naszym słuchaczom wyjaśnić różnicę między dużym modelem językowym, a tymi małymi modelami, które możesz uruchamiać sobie lokalnie właśnie.
Michał: Pewnie możemy spróbować. Pewnie wszyscy tam gdzieś słyszeli o tym, że taki duży model to ma miliardy parametrów, a taki mały to ma mniej tych parametrów. Więc różnica jest gigantyczna. Mówimy o kilku… 150 miliardów plus i mówimy o modelach, które mają 2-4 miliardy parametrów i zajmują dużo mniej miejsca. Więc przede wszystkim te, oprócz tego, że ilość tych parametrów modelu jest mniejsza, czyli model jest mniej nastawiony na generację, mniej kreatywny można powiedzieć, potrafi być dobry w mniejszej ilości zadań, czyli za zadania mamy takie, jeżeli mówimy o zadaniach, to mówimy np. o generowaniu tekstu, mówimy o analizie tekstu, o podsumowaniu, generowaniu kodu, etc. Jest ileś takich zadań, które możemy zdefiniować, więc ten model mniejszy jest na pewno słabszy, jest mniej kreatywny, ma mniej wiedzy własnej, na mniejszej bazie jest zbudowany. Natomiast z drugiej strony jest szybszy, jest mniej halucynogenny, no i na pewno łatwiejszy do przetrenowania, ponieważ właśnie ta sieć, którą musimy przetrenować, jest mniejsza.
Karol: A masz przykłady takich modeli, o których moglibyśmy powiedzieć. Takich właśnie małych modelach, które spełniają swoją rolę w sposób kapitalny.
Michał: Jest, jak się poprzegląda Hugging Face’a, to jest cały zestaw modeli, znaczy tak, Przede wszystkim są to modele podstawowe typu na przykład Lamy, małe Lamy, czy małe modele PHY, PHY3, PHY2, to są te modele, które my robimy. Ostatnio ciekawy też model widziałem, który zajmuje się danymi w funkcji czasu, ale to zostawmy na chwilę.
No i te modele w niektórych bardzo wąskich obszarach potrafią w niektórych testach być na poziomie GPT 3,5, tych modeli GPT 3,5, czyli tych modeli, które były pierwotnie za czatem GPT. Natomiast przetrenowane widziałem w branżach, w branży na pewno modowej, Dużo się dzieje w obszarze przetrenowywania FI3 w kontekście generowania kodu, ale dla specyficznej firmy. Czyli wybierzmy sobie firmę, która ma bardzo specyficzny swój sposób pisania kodu i teraz chciałaby nauczyć model generowania kodu zgodnie z jej praktykami. Ktoś powie, że to można zrobić na wiele sposobów jak najbardziej, ale tutaj to się dzieje. Bielik chociażby, no to jest kolejny przykład trochę innego zastosowania, bo to jest model, który po prostu mówi po polsku, ale pewnie można by sobie było wyrazić model, który nie tylko jest specyficzny językowo, ale też jeżeli chodzi o ton wypowiedzi, czyli… inaczej będziesz trenował model, który ma ogólnie, znaczy używać języka ogólnego, a co innego, jeżeli miałby na przykład mówić tak, jak asystent, nie wiem, jak asystent, który pomaga ci dobrać ubrania. Po prostu będzie używał innego języka, innych sformułowań, prawda. Czy też ma się zachowywać tak jak profesor, czy jak wykładowca. Więc tu się dużo dzieje i to, co myślę, że też już widzimy ciekawego, to, że takie modele mogłyby potencjalnie imitować i to jest trochę dla mnie riski obszar, ale opowiedzmy o nim, wypowiedzi konkretnych osób.
I to nie jest już nowością. Firma Accenture do spółki z firmą, którą kupiła, Touchcast, robi taki system, który robi stosunkowo prostą rzecz. Wyobraź sobie, że jesteś prezesem Accenture albo jesteś ważnym liderem w Accenture i masz zrobić onboardingową prezentację dla swoich nowych pracowników. No i oczywiście możesz przyjść, możesz to nagrać, możesz to wygenerować, tylko ile razy możesz to generować. Co by było, gdyby… I właśnie demo, które pokazują, pokazuje jednego z lidera Accenture, Kartika, który zajmuje się programem w Cloud First. I jest postać Kartika, prawdziwa, jest wypowiedź Kartika, ale też tekst, który jest wygenerowany imituje to, jakby Kartik o tym mówił. I teraz, jeżeli chodzi o generowanie tego typu webinarów, tego typu wewnętrznych dyskusji, to to jest publiczny case, to nie jest to, że ja zradzam jakieś tu szczegóły. Można wyobrazić sobie model, który właśnie tak się zachowuje. Jak mówię, trochę niekoniecznie jestem ogromnym fanem tego typu rozwiązań, bo tutaj mówimy o potencjale wykorzystania tego w bardzo negatywny sposób, ale dzieją się takie rzeczy, to też widać..
Karol: Coraz częściej będziemy mieli do czynienia chyba z takim miksem rzeczywistości, virtual reality i nasza rzeczywistość codzienna.
Michał: Tak, i my jakby cały czas powtarzamy, że bardzo chcemy tutaj zawsze mieć w środku, czy też tym driving seat, jak to się ładnie po polsku mówi, człowieka, który będzie decydował o tym. I druga rzecz, jako jedną z takich praktyk, którą promujemy, to nie chcemy właśnie sprawiać wrażenia, że rozmawiasz z drugim człowiekiem, jeżeli to nie jest drugi człowiek. Nie chcemy. Nie chcemy. Czyli jeżeli to jest model, jeżeli to jest asystent, jeżeli to jest właśnie jakiś element sztucznej generatywnej inteligencji, to ma być to w sposób jasny i wprost powiedziane, że rozmawiasz tylko z asystentem, który może się mylić, może nie być prawdziwy, jest tylko asystentem, a nie….
Karol: To prawda, ale zobacz, że przy takiej jakości interfejsów głosowych, jakie już teraz funkcjonują, to o czym mówisz, aż wydaje się być mało prawdopodobne, no bo spójrz na jakość generowania dźwięku, na rozumienia słów, kontekstu, tempo, w jakim są udzielane odpowiedzi.
Michał: Ale tu jest taka drobna rzecz. To, że na pewno na świecie są technologie, które tak działają, jak mówisz, to jest w ogóle bezsprzeczne i nie wiem, czy ktoś jest w stanie z tym jakoś specjalnie wygrać inaczej niż poprzez odpowiednie techniczne i prawne regulacje. To jest pierwsza rzecz. Druga rzecz jest taka, że ja mówię o tych rozwiązaniach, które my budujemy i które budujemy z partnerami. nawet jeżeli takie rozwiązanie, to co generuje, wygląda jakby było wygenerowane przez człowieka, zawsze jest gdzieś tam informacja, że to jest tylko maszyna. Nie chcemy budować tej więzi emocjonalnej, że tak się wyrażę, sztucznie udając, że to jest drugi człowiek. Absolutnie nie. Nawet w tym rozwiązaniu, o którym rozmawiałem w kontekście firmy Accenture i Touchcast, to też jest jawnie napisane, że jest to wygenerowane, ale Zwróć uwagę też, że dużo przyjemniej akceptujemy, dużo łatwiej akceptujemy tego typu sposób działania..
Karol: Nawiązując jeszcze do tego, o czym powiedziałeś a propos zarządów, a nie masz takiego wrażenia, że… O ile gdzieś środek organizacji czuje już potrzebę, korzysta z rozwiązań, korzysta z narzędzi, eksperymentuje z czatem GPT, czy nie jest trochę tak, że zarząd stoi gdzieś z tyłu, jeżeli chodzi o zrozumienie, o adopcję technologii i czasami wstydzi się zapytać i powiedzieć, hej, słuchajcie, trochę tego nie rozumiem.
Michał: Nie mam wystarczającej ilości danych, żeby mówić o tym z przekonaniem, żeby powiedzieć, spotkałem się ostatnio z 100 zarządami i wiem to na pewno.
Natomiast ja mam odwrotne wrażenie. Ja mam wrażenie takie po spotkaniu z jednym z prezesów banków tutaj w Polsce, że często zarządy są już o krok dalej w czytaniu, w rozumieniu, w dyskusji. Może nie na poziomie technologicznym. Nie łudźmy się tutaj, że ten to zrozumienie jest takie głębokie, ale nie chodzi o zrozumienie technologiczne, tylko… Myślę, że dlatego tylko, że przejście od wizji do realizacji to jest często proces. To, co być może nie działa czasami, to jest to gdzieś pomiędzy. Czyli masz to, jak powiedziałeś, tych pracowników, którzy już, masz ten zarząd, który też już, no tak, ale jeszcze musisz tą egzekucję jakoś wykonać.
Tą egzekucję wykonujesz gdzieś pomiędzy, tak, bo ani nie wykonujesz jej na tym najniższym poziomie, ani na tym na poziomie executive. Natomiast ja nie mam takiego wrażenia, że zarządy nie widzą, nie rozumieją, nie czytają. zarządy jeszcze więcej widzą, jeszcze częściej rozumieją, jeszcze więcej czytają, tylko czasem podejmują niekoniecznie decyzje, które byśmy chcieli i być może tutaj to pokazuje, że nie zawsze ten link i ta wymiana, ta dyskusja jest odpowiednio ustawiona.
Więc to jest pierwsza obserwacja. Druga obserwacja, pamiętajmy, że jeżeli jesteś zarządcą firmy, to czasem na pewno nie rozumiesz wszystkich składowych tego, co się dzieje wokół ciebie, ale z drugiej strony ty musisz dbać o to, żeby inwestować w rzeczy, które dowiozą wynik finansowy za 3 miesiące, za 6 miesięcy, za 9 miesięcy i też dbać o to, żeby te strategiczne projekty też się działy, ale wiesz, że one przywiozą wynik za 24, może 36 miesięcy, a może nigdy nie przywiozą. Pamiętajmy też o tym, więc nie bądźmy tacy negatywni wobec zarządów, bo tam rozgrywka jest dużo trudniejsza. I ostatnia rzecz, tak jak powiedziałem, zachwycać się możliwościami można, tylko dopóki będę teraz bardzo taki direct, co z tego, że mamy czata GPT. Jeżeli ty nie umiesz wykorzystać tej technologii u siebie w konkretnym use case, to znaczy, że właśnie zabrakło tego pomiędzy. Czyli wszyscy mówili, jak się pojawił czat GPT, ja chcę mieć czata GPT w firmie.
Super. Jaki jest use case. Nie wiem, chcę mieć czata GPT w firmie. Kto jest odbiorcą. Nie wiem, ale zróbmy to jutro. Ile jesteś w stanie za to zapłacić. Nie wiem, bo jeszcze nie wiem, jaki będzie zysk. I po trzech, pięciu takich pytaniach, na które odpowiedzieć nie wiem, oznacza, że musimy wrócić do deski kreślarskiej albo do tablicy i odpowiedzieć sobie na wiele pytań, a potem zastanowić się, jak przejść od punktu A do punktu B i skomercjalizować trochę naszą dyskusję..
Karol: Temat na odrębny odcinek..
Michał: Cały, absolutnie. I w tym drugim dokumencie, który mam nadzieję opublikujemy na Arxivie, bardzo szybko mówimy właśnie o tym, jak przejść od wizji przez use case, przez personę, przez model biznesowy, przez revenue, przez ryzyka, aż dojść do takiego etapu, kiedy z pięciu, dziesięciu use case’ów mamy pięć ciekawych, dwa, które jesteśmy w stanie skomercjalizować, jeden, który jesteśmy w stanie zrobić. Bo dzisiaj też My mówimy sobie, i to miałem dyskusję bardzo ciekawe z firmami, które produkują samochody. Michał, weź ciata GPT i pomóż mi, żebym zaprojektował tego samego, ten sam samochód, ale 200 kilo lżejszy. Ja powiedziałem, no to słuchajcie, to wy chcecie teraz, żebym ja w trzy miesiące zrewolucjonizował 200 lat historii motoryzacji za pomocą modelu, który o designie samochodów nie wie nic.
Tak. To nie była tak prosta dyskusja, ale rozumiesz, o co mi chodzi. Więc my nie jesteśmy w tym miejscu, czyli to, co my dzisiaj targetujemy, jeżeli chodzi o nasze rozwiązania, też musi być, jak to się ładnie znowu po polsku mówi, tangible, do dowiezienia, to musi być technicznie możliwe do dowiezienia. I w bardzo wielu miejscach jesteśmy na etapie pomysłu, a nie na etapie realizacji. I myślę, że tutaj duża taka praca po naszej stronie, która się dzieje z klientami i partnerami, to żeby pokazywać, gdzie jest granica dzisiejszej technologii, a jeżeli trzeba ją przesuwać, to ją przesuwajmy, tylko to nie jest projekt na trzy miesiące, to jest projekt na sześć, dziewięć miesięcy przynajmniej..
Karol: Tak jak powiedziałem, temat na następny odcinek. Zapraszam Cię serdecznie, jak tylko będziesz mógł opowiedzieć o całym procesie. Dobrze. Michał, serdecznie dzięki za Twój czas..
Michał: Ja dziękuję. Mam nadzieję, że żeśmy tym angielskimi wstawkami nie zrazili słuchaczy do naszego spotkania..
Karol: Myślę, że nie. Dzięki za Twoją pasję, Twoją dobrą energię i co. Niech #AI będzie z nami wszystkim..
Michał: Tak jest. Do zobaczenia. Dziękuję..