Agnieszka Niezgoda łączy światy nauki i technologii. Z doktoratem z socjologii, gdzie badała dynamikę przemocy w Ameryce Łacińskiej, płynnie przeszła w świat danych, machine learningu i sztucznej inteligencji. Jej pasją jest łączenie tych dziedzin, co czyni ją ekspertką o szerokim spojrzeniu. Obecnie jako Senior Architekt w Microsofcie, Agnieszka wspiera największe polskie firmy w planowaniu i wdrażaniu aplikacji opartych na AI.
O czym rozmawiamy dzisiaj?
- Od Big Data do AI: Agnieszka opowiedziała o swojej fascynacji big data, która zaprowadziła ją do świata sztucznej inteligencji. Podkreśliła, jak ważne jest zrozumienie powiązań między tymi dziedzinami, zwłaszcza w kontekście jakości danych wpływającej na skuteczność modeli AI.
- Jakość danych: Agnieszka wyjaśniła, jak kluczowa jest jakość danych dla działania modeli LLM, takich jak chatboty. Dane powinny być zrozumiałe, niesprzeczne i pozbawione informacji wrażliwych.
- Moment przełomowy: Agnieszka wskazała na pojawienie się GPT-3,5 i GPT-4 jako moment, w którym organizacje zaczęły dostrzegać potencjał AI. To zainteresowanie LLM-ami przyciągnęło uwagę również do innych zastosowań AI, takich jak speech-to-text.
- Główne potrzeby biznesu: Agnieszka podkreśliła, że firmy często zaczynają od wewnętrznych zastosowań LLM, takich jak chatboty HR, aby poznać technologię i jej ograniczenia. Później rozważają wykorzystanie AI w kontakcie z klientami, np. w obsłudze klienta czy marketingu.
- Edukacja i świadomość: Agnieszka zwróciła uwagę na potrzebę edukacji i zarządzania zmianą, ponieważ praca z AI różni się od tradycyjnego programowania. Kluczowe jest zrozumienie, jak działa promptowanie i jak zapewnić bezpieczeństwo rozwiązań opartych na AI.
- Prompting: Agnieszka podzieliła się swoim doświadczeniem w promptowaniu, podkreślając znaczenie prostych i jednoznacznych instrukcji. Wspomniała również o bardziej zaawansowanych technikach, takich jak chain of thought, przydatnych w bardziej złożonych zadaniach.
- Agenci i wyzwania: Agnieszka omówiła trend wykorzystania agentów AI, zwłaszcza w rozwoju oprogramowania. Wskazała jednak na trudności w kontrolowaniu ich zachowania i konieczność wprowadzania odpowiednich ograniczeń.
- AI w różnych branżach: Agnieszka opisała ciekawe przypadki użycia AI w różnych branżach, takich jak finanse (chatboty, compliance), retail (rekomendacje produktów, analiza zachowań klientów), czy nawet nauka (podsumowywanie badań).
Niech #AI będzie z nami wszystkimi.
Dobrego dnia! Posłuchaj podcastu i podziel się nim z innymi!
Tradycyjnie wielka prośba – jeżeli jeszcze nie wystawiłaś lub nie wystawiłeś oceny 99 Twarzom AI na Spotify lub Apple podcast – pomóż mi proszę z dotarciem do nowych słuchaczy. To zabierze Ci tylko 2 minuty. Z góry serdeczne dzięki!
Dobrego dnia i niech #AI będzie z Wami wszystkimi!
Notatki
Przykłady, gdzie można znaleźć ciekawe materiały nt. AI/ML na LinkedIn:
- https://www.linkedin.com/newsletters/…
- https://www.linkedin.com/in/andrewyng
- https://www.linkedin.com/in/pascalbiese
- https://www.linkedin.com/in/damienbenveniste/
Przykłady, materiałów do nauki promptowania:
- https://learn.microsoft.com/en-us/…
- https://techcommunity.microsoft.com/t…
- https://learn.microsoft.com/en-us/training/modules/…
- https://www.promptingguide.ai/techniques/art
- https://export.arxiv.org/abs/2402.07927
Transkrypcja rozmowy
Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.
Karol: Byłem na kilku Twoich wystąpieniach i wiem, że jesteś osobą, która nie tylko łączy praktykę, ale również wiedzę teoretyczną. Opowiesz o swojej drodze do sztucznej inteligencji. O tym, jak to się stało, że robisz to, co robisz.
Agnieszka: Jak kończyłam doktorat, to akurat rozpoczął się ten szał na big data. Wszystkie media pisały o big data i o tym, jak ważne są dane i ile organizacje mogą wygrać pracując z danymi. Zdecydowałam się po prostu na tym skoncentrować, biorąc pod uwagę, że już podczas doktoratu analizowałam duże ilości danych i w tym zostałam. Nigdy tego nie żałowałam tak naprawdę, czyli zajmowałam się najpierw danymi, analityką danych i później rozszerzyłam to na sztuczną inteligencję. I nadal uważam, że te powiązania między sztuczną inteligencją a danymi są niesamowicie ciekawe i niesamowicie ważne, żeby pracować właśnie zdając sobie z tego sprawę.
Karol: Jak ludzie powtarzają garbage in, garbage out, tak.
Agnieszka: Dokładnie tak. I to jest często też bloker, jak na przykład myślimy o wprowadzeniu nowych rozwiązań korzystających z LLM-ów albo z innych modeli sztucznej inteligencji, że po prostu dane, z których chcemy skorzystać, nie są najlepszej jakości.
Karol: A opowiesz o tych danych. Co tak naprawdę w tych danych się liczy. Ich jakość, uporządkowanie. Opowiedzmy o tym obrazowo.
Agnieszka: Może skoncentrujmy się na LLM-ach, bo to jest aktualnie temat, który oczywiście wszystkich zajmuje. Często chcemy stworzyć rozwiązania, które bazują na naszych własnych danych, czyli na przykład chatboty, które odpowiadają na pytania użytkowników na podstawie naszych danych wewnętrznych, na podstawie naszej dokumentacji wewnętrznych. Wtedy korzystamy z tej architektury, która jest określana mianem RAC, czyli to jest pojęcie, które większość osób pracujących trochę bardziej technicznie z LLM-ami zna. Dostarczamy modelowi nasze dane w różnym formacie, to mogą być teksty i zazwyczaj są teksty, ale to mogą być również obrazki i filmy.
Różne inne formaty. No i oczywiście od jakości tych danych zależy, jak dobrze ten nasz robocik, ten nasz chatbot albo inne rozwiązanie będzie działało. To znaczy, jeżeli te dane są sprzeczne, jeżeli są trudne do zrozumienia. Miałam już takie sytuacje, takie projekty, że organizacja chciała na przykład zbudować chatbota dla swoich wewnętrznych użytkowników, który będzie odpowiadał na pytania dotyczące ticketów IT, ale niestety te tickety były tak źle zdokumentowane, że bardzo trudno by było sprawić, żeby ten chatbot sam sobie znalazł rozwiązanie, sam sobie znalazł treści, które odpowiadają na pytanie użytkownika. Oprócz tego to, co jest ważne, to kwestia prywatności danych. Tutaj w Europie mam do czynienia z RODO, GDPR, dlatego warto wziąć to pod uwagę również, że te dane nie zawierają informacji np. o naszych użytkownikach, ich PESELi itd., chyba że mają zawierać, czasami tak jest. Czyli te dane powinny być zrozumiałe, powinny nie być sprzeczne i powinniśmy sprawdzić, czy nie zawierają danych wrażliwych.
Karol: I powinno być ich wystarczająco dużo.
Agnieszka: Tak, to prawda. Możemy oczywiście dodawać różne inne pluginy, różne tule, z których taki chatbot czy inne rozwiązanie może korzystać. Na przykład może się posłużyć wyszukiwaniem w internecie. Natomiast tak, jeżeli chcemy, żeby odpowiadał tylko na podstawie naszych danych, to powinno ich być wystarczająco dużo.
Karol: Pamiętasz taki moment, kiedy zaświeciła ci się ta gwiazdka w głowie gdzieś i pomyślałaś, kurczę to jest ten moment, kiedy rynek to zauważył możliwości i łączy teraz swoje potrzeby z dostępną technologią.
Agnieszka: Masz na myśli, kiedy faktycznie organizacje zaczęły wykorzystywać potencjał AI. Tak. Mam wrażenie, że to było tak mniej więcej półtorej roku temu faktycznie, kiedy wszyscy zaczęli mówić o LLM-ach, bo przecież LLM to nie jest pierwsze wykorzystanie sztucznej inteligencji. Te wszystkie modele speech to text, text to speech, vision, to istnieje od lat i było wykorzystywane.
Karol: NLP, NLU, zobacz, że przecież smart speakery to rok 2017-2018. Dokładnie tak. Iwona, która ma swoje korzenie w Polsce, na bazie której powstała potem Alexa. Zresztą duże centrum R&D, które do tej pory istnieje w Gdańsku.
Agnieszka: Tak, ale jakoś to nie przebiło się do świadomości publicznej. A później jak zaczęło się mówić o GPT-3,5, później GPT-4, to nagle wszyscy zaczęli bardzo się tym interesować. I to jest ciekawe, bo mam wrażenie, że… Faktycznie przez to zainteresowanie LLM-ami również te inne use case, inne sposoby wykorzystania sztucznej inteligencji otrzymują więcej uwagi, czyli właśnie na przykład speech to text. Myślimy sobie o wykorzystaniu sztucznej inteligencji w centrach obsługi klienta. Więc chcemy na przykład konsultantowi dać do dyspozycji możliwość wyszukiwania informacji w naszej bazie danych szybkiej, ale oprócz tego chcielibyśmy mieć transkrypcję tego, co mówi dzwoniący klient i tego, co mówi konsultant, żeby sprawdzić na przykład, czy zachował się według skryptu, według którego miał się zachować.
Karol: A jakie widzisz główne potrzeby, jeżeli chodzi o biznes. Rozmawiasz na pewno z wieloma firmami w Polsce, w regionie. Jakie są takie główne potrzeby, które są formułowane od strony biznesowej w kontekście wykorzystania LLM-u.
Agnieszka: Często zaczyna się od wykorzystania LLM-u wewnątrz firmy i to jest dobra droga, dlatego że umożliwia nam przetestowanie tej technologii, zaznajomienie się z nią. Te modele są super, ale to są modele niedeterministyczne, co oznacza, że czasami mogą się zachowywać w sposób, w który nie chcielibyśmy, żeby się zachowywały. Dlatego jeżeli organizacja zaznajomi się z tą technologią, pozna tajniki, promptowanie, zrozumie dlaczego model zachowuje się w sposób, w jaki się zachowuje najpierw wewnątrz firmy, gdzie te ryzyka są bardzo małe, to jest zazwyczaj dobry pomysł faktycznie. Później chcąc wykorzystać tę technologię w kontakcie z naszymi klientami, na przykład do produkcji materiałów marketingowych, w sprzedaży i tak dalej, musimy oczywiście wprowadzić trochę więcej zabezpieczeń i musimy przemyśleć, jakie tam istnieją ryzyka i jak zapobiec, żeby faktycznie stało się coś, co nie chcielibyśmy, żeby się stało. Natomiast jeśli chodzi o takie najpopularniejsze scenariusze użycia, no to oprócz tych wewnętrznych, czyli wyszukiwanie na podstawie naszej bazy wiedzy, na przykład znajdowanie informacji HR-owych, czyli chcemy umożliwić naszym pracownikom dostęp do naszych polityk, do baz danych wewnętrznych, chcemy im umożliwić sprawdzenie, ile mają jeszcze dni urlopu do użycia albo złożenie jakiegoś wniosku prostego. to użycie właśnie w centrach obsługi klienta jest bardzo szeroko rozważane i już stosowane w wielu organizacjach. Po to, żeby klient miał dostęp do informacji przez cały czas, to znaczy 24 godziny na dobę przez 7 dni w tygodniu, możemy zbudować sobie takiego voicebota albo jako wsparcie obsługi klienta, wsparcie pracy na przykład takiego konsultanta, plus produkcja materiałów marketingowych, prototypów na przykład, niektóre firmy produkujące ubrania na przykład, odpowiednio promptują, dali trzy i w ten sposób otrzymują pomysły na nowe produkty.
Karol: Wiesz, ostatnio rozmawiałem nawet z jednym studentem w Polsko-Japońskiej Akademii Technik Komputerowych, który stworzył dokładnie firmę, która generuje obrazy na odzież i całkiem fajnie mu to idzie.
Agnieszka: Wierzę, bo faktycznie to bardzo fajnie działa. Oprócz tego bardzo często to się stosuje w kontekście e-commerce’u, czyli na przykład mamy zdjęcia produktów, właśnie tych ubrania albo czegoś innego i chcielibyśmy stworzyć również opis słowny po to, żeby umożliwić wyszukiwanie odpowiednie i w tym celu właśnie te modele, które w międzyczasie stały się multimodalne też mogą być wykorzystywane.
Karol: Mówiąc o e-commerce, mówiąc o automatyzacji, znam też jeden z moich znajomych, ma firmę, która drukuje obrazy nieba na plastiku, na elementach metalowych i wyobraź sobie, że przeszedł tranzycję z dwudziestokilkuosobowej firmy do firmy, która teraz zatrudnia trzy czy cztery osoby. Są na wielu innych dodatkowych rynkach, robią kapitalne wyniki, dużo mniejszym zespołem właśnie dzięki automatyzacji procesów, jeżeli chodzi o wizualizację, obsługę, o rozwiązania low-code’owe, o komunikację z klientem itd.
Agnieszka: Tak, nie we wszystkich tych scenariuszach LLM też się sprawdzą. Jeśli chodzi np. o pewne scenariusze związane z automatyzacją, to moje doświadczenie jest takie, że czasami inne rozwiązania oparte na regułach lepiej działają. Natomiast LLM są bardzo wartościowo częścią tego zazwyczaj.
Karol: Dobrze, no ale zobacz, z jednej strony mamy ten hype, który pojawił się po tym, jak światło dzienne ujrzał czat GPT i inne rozwiązania i nagle okazało się, że papież jeździ na deskorolce albo nosi wielkie białe futro. To był pewien moment, o którym rozmawialiśmy, przejęcia tej technologii do zbiorowej świadomości. Ale sama świadomość to jedno, a zrozumienie tej technologii, zrozumienie potrzeb biznesu, możliwości, jakie ta technologia daje, ale też z drugiej strony ograniczeń i całego procesu, który musi być zrealizowany po to, żeby dowieźć teraz rezultat, To druga sprawa. Jak wygląda z twojej perspektywy, ponieważ pracujesz z wieloma klientami tutaj w Polsce, w regionie, kwestia edukacji i tej świadomości właśnie. To pytanie ma też, powiem wprost, trochę ukrytą agendę i moje założenie, że hype hype’em i patrzenie na obrazki, tytuły, które pojawiają się coraz częściej w prasie, w mediach, w internecie, To jedno, ale żeby teraz to przełożyć na realny biznes, jest chyba potrzeba dużo więcej niż tylko takiej ciekawości.
Agnieszka: Tak, to prawda. Ta edukacja, ten cały change management jest bardzo ważny i jest nawet ważniejszy, biorąc pod uwagę, że zazwyczaj zespoły, które zajmują się sztuczną inteligencją, które tworzą rozwiązania bazujące na sztucznej inteligencji, To są zespoły programistów przyzwyczajone do takiej tradycyjnej metody pracy programistycznej właśnie, czyli z językami programowania. Nad rozwiązaniami bazującymi na sztucznej inteligencji pracuje się odrobinę inaczej, zwłaszcza jeśli mówimy właśnie o LLM-ach. Opowiesz o tym. Jak najbardziej. Często zresztą jest tak, że jedno z drugim się łączy i na przykład jeśli chcemy, żeby stworzyć narzędzie, które potrafi nie tylko odpowiadać na pytania na podstawie naszej bazy wiedzy albo danych, na których zostało wytrenowane, ale również na przykład zrobić coś dla nas, czyli wysłać maila, sprawdzić coś w jakimś innym systemie. To czas dodaje się tak zwane funkcje, function calling i można w ten sposób nawet sprawić, że taka aplikacja bazująca na LLM-ie sama zdecyduje, z której funkcji chce skorzystać i to za nas zrobi. Oczywiście najlepiej przy jakiejś kontroli.
Karol: Poruszyłaś tutaj kwestie nie tylko LLM-ów, tylko agentów, którzy też są przyszłością w biznesu i tego środowiska, w którym będziemy się obracać.
Agnieszka: Tak, absolutnie. To jest bardzo ciekawy trend, bardzo szybko się rozwijający. Nadal istnieje tam kilka wyzwań, ale na pewno jest to obszar, który przyniesie sporo ciekawych rozwiązań.
Karol: A wyzwania, o których mówisz, możemy je nazwać.
Agnieszka: Trudno kontrolować zachowanie takich agentów, to znaczy zazwyczaj trzeba je kontrolować, ale pytanie jest, jak wprowadzimy ograniczenia, co tacy agenci mogą zrobić.
Także o tym trzeba pomyśleć. Ja zawsze podaję ten przykład, jak zaczęłam sama bawić się właśnie agentami. I zdefiniowałam cel, co ci agenci mają dla mnie zrobić, dwóch agentów, których sobie odpowiednio zdefiniowałam, mają tam dostęp do wyszukiwarki internetowej, mogą instalować sobie biblioteki itd.
No i kliknęłam, żeby zaczęli ze sobą rozmawiać, żeby zaczęli rozwiązywać ten mój problem. A później ktoś do mnie zadzwonił. I po prostu oderwałam się od tego, co robiłam. Później miałam jedno spotkanie, drugie spotkanie. Trzy godziny później przypomniało mi się, ja przecież to włączyłam. Jak to się skończyło. I wróciłam do swojego edytora kodu. Oni nadal gadali. I.
Karol: To znaczy gadali nie dążąc do celu, tak. I do rozwiązania.
Agnieszka: Właściwie dążyli do celu, ale nie dali rad jednak, bo nie zdefiniowałam ich jakoś tak poprawnie. I oczywiście to można kontrolować, można im dawać z jednej strony pewne ograniczenia odnośnie tego, co mają robić, a z drugiej strony można… jakieś narzucać ograniczenia dotyczące czasu odpowiedzi albo nawet robić to tak, że sprawdzamy co się sprawdzi i później zapisujemy tą całą ścieżkę i ją po prostu odtwarzamy, a to nie jest tak, że za każdym razem ci agenci zaczynają od początku.
Karol: A pamiętasz jaka była rola tych agentów. Do czego dążyłaś. Jakie było zadanie, które miało być rozwiązane.
Agnieszka: To nie było nic skomplikowanego, chodziło o podsumowanie jakichś artykułów naukowych, o stworzenie ich analizy.
Karol: No dobrze, agenci to jedno, to jest ta przyszłość, która może się wydarzyć i możemy mieć agenta, który będzie nam swoją drogą taka mała dygresja. Jak teraz popatrzę sobie na smart speakery, które parę lat temu wydawały mi się szczytem osiągnięć technologii, No to zobacz, że to wygląda trochę jak wynalazek zmienionej epoki. Hej, włącz światło, wyłącz światło, włącz mi muzykę i tak dalej, prawda.
Agnieszka: Tak. A jeszcze wracając do tematu agentów, to mam wrażenie, że szczególnie często to jest aktualnie wykorzystywane w kontekście właśnie software development, czyli definiujemy sobie agenta albo kilku agentów spełniających rolę właśnie deweloperów, później definiujemy sobie testera i tak dalej i prosimy ich o rozwiązanie jakiegoś problemu, napisanie jakiegoś kodu, który coś dla nas zrobi. I takie rozwiązania już są stosowane przez wiele firm.
Karol: Wiesz, przyszło mi takie pytanie teraz do głowy, bo masz background akademicki. Nie znamy się dobrze, ale taki jest mój odbiór twojej osoby, ponieważ słuchałem twoich kilku wystąpień na konferencjach. Mieliśmy okazję rozmawiać parę razy. Jesteś kobietą, która ma niezwykły talent, jeżeli chodzi o input, o gromadzenie wiedzy. Powiedz mi proszę, jesteś człowiekiem o niesamowitym impucie. Czy traktujesz te narzędzia jako szansę czy jako zagrożenie dla siebie.
Agnieszka: Staram się unikać widzenia tego w kategoriach czerni i bieli. To jest technologia, która przyda się w bardzo wielu obszarach życia i ma mnóstwo możliwych scenariuszy użycia, które są pozytywne.
Karol: Zapytam jeszcze, dlaczego o to pytam, bo kiedyś zrobiłem taki eksperyment i weszłem z mikrofonem na ulicę Warszawy i zacząłem pytać ludzi, o to, jakie mają przeczucie w kontekście rozwoju sztucznej inteligencji tych narzędzi, które teraz widzimy. I 90% osób, wiem, że to była niereprezentatywna grupa, pewnie być może jakiś bajas mój, jeżeli chodzi o formułowanie pytań itd., ale zdecydowana większość mówiła tak, hej, sztuczna inteligencja zastąpi nas, zabierze nam pracę itd..
Agnieszka: Tak, i to jest zrozumiałe, że jak pojawia się nowa technologia, to pojawiają się również obawy związane z nią. Ale to jest trochę tak jak z kalkulatorem, prawda. Jak kalkulator się pojawił, to nie oznacza, że przestaliśmy uczyć się matematyki, że nauka matematyki przestała być ważna, chociaż kalkulator przecież większość obliczeń robi znacznie szybciej niż człowiek i jest znacznie bardziej tutaj skuteczny, znacznie bardziej wydajny. Dlatego staram się to również widzieć w tym kontekście. Jeśli chodzi o zagrożenia, to oczywiście trzeba je kontrolować. Dlatego obserwuję również na przykład to prawodawstwo, na którym się pracuje na poziomie Unii Europejskiej głównie. I to są moim zdaniem regulacje, które są również potrzebne.
Karol: No właśnie, jest sporo przeciwstawnych głosów, jeżeli chodzi o regulacje. Z jednej strony słyszy się, tak, regulacje są potrzebne, trzeba zabezpieczać interes Europejczyków, ludzi, którzy potem z tych narzędzi korzystają, ograniczać swobodę, jeżeli chodzi o wykorzystanie danych przez duże korporacje. Z drugiej strony mówi się, regulujemy coś, co tak naprawdę jeszcze nie wiemy, jak będzie miało wyglądać, jaką funkcję pełnić.
Agnieszka: To prawda.
Karol: To gdzie jesteśmy i gdzie jest ten, nazwijmy to, złoty środek.
Agnieszka: Zgadzam się z tym, natomiast co jest alternatywą. To znaczy zostawić to po prostu, żeby się rozwijało, żebyśmy mogli robić wszystko, to pewnie też nie jest najlepsza opcja. Moim zdaniem ta technologia jest świetna i to jest, Właśnie coś takiego dla języka, co wcześniej powstało jako kalkulator dla na przykład obliczeń. Będzie miało na pewno dużo pozytywnych tutaj skutków, natomiast faktycznie trzeba pomyśleć o tym, jak to kontrolować, mimo że te technologie są trudne do kontroli. Podobnie zresztą jak każda inna technologia, która dopiero się pojawia, jest trudna do kontrolowania, bo to wtedy są rzeczy, które niesamowicie szybko się rozwijają. Jeśli chodzi o AI, to widzisz, jak szybko to wchodzi i jak szybko to się zmienia. Nowe modele wychodzą dosłownie co tydzień. I umieją coraz więcej. Tak. I nowe strategie, prace z nimi….
Karol: Drodzy słuchacze, żałuję, że nie nagrywamy tego podcastu na wideo, ponieważ zobaczylibyście właśnie niezwykły błysk w oczach Agnieszki, kiedy mówi o właśnie tych możliwościach i o tej perspektywie rozwoju. Zobacz, ile wydarzyło się w przeciągu tych niecałych dwóch lat od momentu premiery czata GPT, takiego nazwijmy to publicznego. Zobaczę, jak zmieniły się modele i Gen AI, jeżeli chodzi o wideo, o audio. Jestem pod niezwykłym wrażeniem tego, co robi Eleven Labs, jak rozwijają się modele właśnie generatywne, jeżeli chodzi o generowanie obrazu. Nawet miałem ostatnio taką dyskusję z moją żoną. Za chwilę nic nie będzie stało na przeszkodzie, żeby taką Dune, która okazała się hitem kinowym, wyprodukować, mając fajny pomysł w zaciszu swojego domu, oczywiście posiadając odpowiedni zasób środków.
Agnieszka: Mając fajny pomysł.
Karol: Mając fajny, tak. I tu jest znowu element, do którego wracam. Jakiś czas temu rozmawiałem w jednym z odcinków z Dawidem Sypniewskim ze WBS-u. Rozmawialiśmy o kreatywności właśnie. I jakie jest twoje zdanie. Czy być może tym… Pytanie z oczekiwaną odpowiedzią z mojej strony. Czy nie jest trochę tak, że to właśnie ta kreatywność będzie teraz tym dobrem rzadkim i siłą napędową tego, co będziemy w stanie zrobić z tymi modelami.
Agnieszka: Absolutnie tak. Kreatywność z jednej strony, z drugiej strony zdolności analityczne. No bo to tak trochę jak z tą opinią, że za kilka lat zawód software dewelopera nie będzie istniał. Ja się z tym nie zgadzam, bo jeśli chodzi o zrozumienie wymagań biznesowych, jeśli chodzi o stworzenie architektury, jeśli chodzi o właśnie priorytetyzację tego, co chcemy stworzyć… To zawsze będzie ważne i tego taki model za nas nie ogarnie, bo to zależy od kontekstu.
Karol: Czyli co, czyli teraz zamiast uczyć się technologii, stricte technologii, warto byłoby chyba uczyć się logiki, reasonable thinking, kreatywności, ciekawości, właśnie umiejętności łączenia faktów, oczekiwań, świadomości co do narzędzi itd..
Agnieszka: Tak, wydaje mi się, że zdecydowanie to pójdzie w tym kierunku. Zresztą jakiś czas temu widziałam takie porównanie, jak zmieniają się oczekiwania względem pracowników, czyli które cechy są najważniejsze i właśnie te związane z krytycznym myśleniem, z szybką nauką i tak dalej stają się coraz większe.
Karol: A zapytam Ciebie właściwie, Agnieszko, a jak jest u Ciebie, jak Ty się uczysz, w jaki sposób uczysz się logiki tego krytycznego myślenia, bo jesteś niezwykle, tak jest mój odbiór Ciebie osobą o takim analitycznym i chłodnym spojrzeniu na świat i rzeczywistość.
Agnieszka: Dziękuję bardzo. To jest tak, że mnie wiele rzeczy interesuje i zaczęłam już na studiach chodzić na zajęcia z wielu różnych przedmiotów, na wielu różnych kierunkach i po studiach to kontynuowałam. To znaczy mam takie swoje obszary, w których staram się rozwijać. Ale oczywiście od czasu do czasu dochodzą do tego następne obszary. Ogólnie uważam, że świat jest niesamowicie ciekawy. A jeśli pytasz o rozwój właśnie w obszarze LLM-u, w obszarze sztucznej inteligencji, to to niestety nie jest łatwe pytanie. Bo jak wiesz, to się zmieni niesamowicie szybko. I co jest ciekawe, to aktualnie mam wrażenie, że wiele wiedzy pochodzi z research papers. Po prostu publikuje się nowe publikacje naukowe.
Karol: Widziałaś tą krzywą, która pokazuje ilość publikacji naukowych rosnącą geometrycznie.
Agnieszka: To jest super ciekawe z jednej strony, ale z drugiej strony też dosyć trudne, bo nie możemy sobie często odpalić takiego tutoriala na YouTubie, jak często na przykład deweloperzy się uczą, czy uczyli wcześniej, ale musimy iść do źródła, musimy iść i starać się zrozumieć jakiś dosyć trudno napisany research paper.
Karol: A opowiesz o tym, jak ty się uczysz.
Agnieszka: Z jednej strony korzystam z wiedzy innych, to znaczy jestem po prostu followerem kilku osób, które są bardzo dobre i które publikują bardzo konkretne informacje, czyli takie informacje nie marketingowe raczej, tylko raczej idące w kierunku naukowym, idące w kierunku wyjaśnienia pewnych fenomenów. A z drugiej strony są również takie newslettery, które podsumowują na przykład publikacje naukowe na temat AI z ostatniego tygodnia. I one są bardzo dobre również.
Karol: Czy moglibyśmy kilka takich linków podrzucić naszym słuchaczom w notatkach do tego odcinka. Myślę, że to byłoby bardzo wartościowe, bo zakładam, że to są… publikacje i osoby, które rzeczywiście wiedzą, co mówią, a nie chcą sprzedać książki z dziesięcioma tysiącami promptów.
Agnieszka: Jasne.
Karol: Dobra. Dobrze, wróćmy jeszcze do tych wdrożeń. Czy mogłabyś opowiedzieć jeszcze o innych ciekawych przypadkach wdrożeń, w których uczestniczyłaś, wykorzystujących LLM właśnie. Rozmawialiśmy o asystentach, rozmawialiśmy o pewnej roli jeszcze niezaawansowanych agentów. Czy moglibyśmy zrobić taki przegląd branż i wdrożeń, które obserwowałaś, w których uczestniczyłaś.
Agnieszka: Dobrze. To jeśli chodzi na przykład o FSI-e, czyli o instytucje finansowe, to sporo z nich ma rozwinięte te działy obsługi klienta. Dlatego wszystko, co związane z obsługą klienta i z jego automatyzacją odgrywa dużą rolę. Na przykład banki chciałyby mieć takie chatboty albo voiceboty, które umożliwią klientowi zablokowanie swojej karty. Kiedy ten klient mówi, skradziono mi kartę, proszę zablokuj. I to jest o tyle fajne, że łączy właśnie tą umiejętność LLM-u z jednej strony wykorzystywania źródeł danych, a z drugiej strony robienia rzeczy. I ja ciągle wracam do tego robienia rzeczy, bo to jest dla mnie absolutnie kluczowa sprawa, jeśli chodzi właśnie o aplikacje bazujące na LLM-ach, że one są w stanie nie tylko konwersować, ale również właśnie stworzyć jakiś ticket, zablokować kartę, uderzając do jakiegoś innego systemu. A często się tego nie wykorzystuje właściwie jeszcze. Czyli tak, instytucje finansowe, no to customer service z jednej strony, a z drugiej strony na przykład badania związane z compliance’em, czyli sprawdzanie backgroundu, przepraszam za anglicyzm, sprawdzanie backgroundu naszych klientów. Czy możemy pracować z tym konkretnym klientem.
Karol: Wygodność finansowa i tak dalej.
Agnieszka: Dokumentacji ogólnie dostępnej i czasami nie tylko ogólnie dostępnej. To jest również bardzo ważne.
Karol: Czyli tak, finanse, obsługa klienta. Co jeszcze. Przychodzi ci coś do głowy.
Agnieszka: W finansach.
Karol: Nie, właśnie poza finansami.
Agnieszka: Ja bardzo lubię pracować z retailem.
Karol: O, no tak, mnóstwo klientów, mnóstwo interakcji.
Agnieszka: Mnóstwo klientów, mnóstwo interakcji, mnóstwo danych demograficznych, na przykład naszych klientów, którzy są w jakimś programie lojalnościowym, czyli ci klienci z kartą. Retail mnie bardzo interesuje, dlatego że tam istnieje pole do popisu, jeśli chodzi o połączenie tych tradycyjnych metod ML-owych, czyli uczenia maszynowego i LLM-ów. Czyli na przykład tworzymy sobie narzędzie, które ma dostęp do całej historii użytkownika, które ma dostęp do produktów, które chcemy mu polecić na podstawie tej historii, na podstawie jakiejś tam analizy porównawczej z innymi klientami. Z drugiej strony mamy dostęp do informacji dotyczących tego, co ten klient na przykład robi na naszej stronie, w naszym sklepie internetowym. Jak się porusza,.
Karol: Ile spędza czasu na poszczególnych podstronach i tak dalej.
Agnieszka: Tak, i na tej podstawie możemy wysnuć pewne przypuszczenia, czego szuka i możemy mu na przykład coś podpowiedzieć.
Karol: Retail, finanse, księgowość, obsługa klienta, komunikacja. A jak sądzisz, te wszystkie technologie mogą wpłynąć na dziedzinę, która wydaje mi się jest Tobie szczególnie bliska, to znaczy na naukę.
Agnieszka: Tak, jak najbardziej. Mieliśmy już takie projekty. Na przykład w nauce często ważne jest zrozumienie kontekstu naszych badań, czyli co zostało opublikowane. No i takim modelom możemy dać dostęp do właśnie takich publikacji i poprosić o streszczenie tego. o przybliżenie nam, co zostało opublikowane.
Karol: I robisz to właśnie, mówiąc o tych źródłach, o których wspominałaś, jeżeli chodzi o Twoją naukę, wykorzystujesz właśnie w ten sposób LLM, ChataGPT, w Co-pilota.
Agnieszka: Na razie nie. Może w przyszłości.
Karol: Czyli jesteś romantyczna wobec tego, jak było trochę. Wiesz, to broń Boże, żadna złośliwość. Ja sam często używam tego określenia, bo zobacz, jesteśmy romantyczni wobec tego, jak wyglądała nasza rzeczywistość. Tak było chociażby z radiem i z podcastami. Ludzie radia, trudno im było zaakceptować to, że tak samo content audio się zmienia i zaczyna być contentem on demand. Byli romantyczni wobec tego, jak wyglądało radio 10, 20, 30 lat temu. Podobnie z telewizją. Zobacz, jaką rewolucję zrobił YouTube, Netflix i cała reszta w platform on demand. I tutaj mówię o tym podejściu romantycznym wobec nauki, tej jak uczyłaś się kiedyś.
Agnieszka: Tak, jak najbardziej możemy to nazwać romantyzmem. A jeśli chodzi o podsumowywanie badań, podsumowywanie ogólnie dokumentów, to bardzo ciekawym use case’em jest, żeby dać tej technologii dostęp do dokumentów prawniczych.
Karol: Bardzo ciekawe zdradzenie. Mam kumpla, który jest notariuszem. Kilkadziesiąt tysięcy dokumentów w swojej bazie i mówi, on jest w ogóle fanem rozwiązań technologicznych, taka mała historia z nim związana, mówi, Karol, nie jestem w stanie zrozumieć, jak przychodzą do mnie młodzi prawnicy na aplikację i oni korzystają z klawiatury, a nie dyktują. I to jest człowiek, który szuka cały czas rozwiązań i chciałby automatyzować pracę, przeszukiwanie dokumentów itd.
Agnieszka: Tak, to prawda. I nie wiem, przynajmniej dla mnie te teksty prawnicze, ja nie studiowałam prawa, są bardzo trudne. Ale co ciekawe, jak przeprowadzaliśmy odpowiednie eksperymenty czy nawet takie projekty POC, to okazywało się, że czat GPT radzi sobie fenomenalnie z polskim językiem takim prawniczym. I oczywiście trzeba pamiętać o wszystkich ograniczeniach tutaj. Na przykład pamiętam tą historię prawnika bodajże ze Stanów Zjednoczonych, który właśnie tworzył interpretację korzystając z czata GPT, który mu tam wymyślał różne case’y, które nigdy nie zeszły i chyba później nawet stracił licencję przez to. Ale tutaj wracamy do kwestii właśnie edukacji, żeby wiedzieć jak z tych narzędzi korzystać.
Karol: Dobrze, rozwiązania prawnicze, a nietypowe obszary, w których widzisz możliwość wykorzystania GenAI i sztucznej inteligencji. Coś przychodzi ci do głowy jeszcze.
Agnieszka: Czasami w publiku mam wrażenie, że niektóre użycia, niektóre use cases są bardzo ciekawe. Na przykład… Mamy zdjęcia, zdjęcia satelitarne i prosimy modele, albo te modele korzystające również z wyżyn w ramach OpenAI, czyli na przykład ten GPT-4O, albo modele typowe z wyżyn o interpretację tego obrazka. Czy na zdjęciu znajdują się wozy bojowe. Czy znajdują się czołgi. Jeśli tak, to stwierdź, jaki rodzaj właśnie czołgu czy wozu bojowego.
Karol: Patrząc na to, jak zmienia się management OpenAI i dochodzący ludzie z branży militarnej, zakładam, że branża militarna ma sporo narzędzi już, o których nie wiemy i które są wykorzystywane.
Agnieszka: Nie wiem, ciężko mi wypowiadać się na ten temat.
Karol: W końcu internet też był kiedyś wynalazkiem w wojskowości. No dobrze, a jak patrzysz, jak uczestniczysz, wróćmy jeszcze do samych firm, do organizacji, do kultury, do podejścia do zmiany. Uczestniczysz w projektach, we wdrożeniach. Jaka jest obecnie największa przeszkoda w tych wdrożeniach. Jeżeli jest świadomość i chęć z jednej strony… czasami managementu, czasami średniego szczebla ludzi, to co jest potem po tym takim zapaleniu się i w pierwszym spotkaniu, na którym pada hasło działajmy. Co jest największym ograniczeniem.
Agnieszka: Świadomość. Wydaje mi się, że dwie rzeczy. Po pierwsze, z tymi narzędziami pracuje się faktycznie trochę inaczej niż z narzędziami tradycyjnymi. I.
Karol: To połączenie, o którym wspominałaś, że potrzeba jest dwóch stron. Z jednej strony technologia, z drugiej strony Topic Specific Knowledge, tak.
Agnieszka: Topic specific knowledge. Tak, ale mi tutaj chodzi na przykład o promptowanie i o to, że te modele nie są deterministyczne i od tego, jak dobrze właśnie zapromptujemy, jak dobrze je zaplanujemy, zależy jakość odpowiedzi. W tradycyjnym programowaniu jest odrobina inaczej. To tradycyjne programowanie jest bardziej deterministyczne i oczywiście musimy te rozwiązania przetestować. Natomiast jeśli chodzi o właśnie narzędzia bazujące na LLM-ach, to musimy na przykład przepuścić te prompty po kilkadziesiąt, kilkaset razy, żeby sprawdzić, czy za żadnym razem nie pojawi się halucynacja.
Karol: No właśnie, a opowiesz proszę o Twoich doświadczeniach z promptowaniem, jak Ty uczysz się promptowania, jakie są Twoje doświadczenia, jeżeli chodzi o tą genialną dziedzinę.
Agnieszka: Często przyjmuje się, że promptować należy tak, jakby się mówiło z dzieckiem, jakby się rozmawiało na przykład z pięciolatkiem. I faktycznie to zdanie pomaga, jeżeli zaczynamy z promptowaniem. Ale wtedy, kiedy oczekujemy bardzo prostych rezultatów. Tak, ale nawet jak oczekujemy bardzo skomplikowanych, no to wtedy na przykład podajemy mu strukturę odpowiedzi, ale nadal te instrukcje, gdzie opisujemy, jak powinien się zachowywać, powinny być w miarę proste. Nie powinniśmy ich komplikować.
Karol: O, to ciekawe, bo myślałem, że mówiąc o tym, że rozmawiamy tak jak z siedmiolatkiem, to za chwilę powiesz, że tego nie powinniśmy robić, a wynika z tego, co mówisz, że czasami tak jest, żeby formułować nasze oczekiwania w sposób bardzo prosty i zrozumiały.
Agnieszka: Prosty i jednoznaczny, absolutnie. I faktycznie to jest bardzo ciekawy aspekt, bo wydaje mi się, że wiele osób technicznych na przykład nie jest przyzwyczajonych do promptowania po prostu, do takiej komunikacji. I często okazuje się, że jakiś bot zachowuje się w określony sposób… I jak patrzymy na prompta, to okazuje się, że okej, ale opisałeś to w taki sposób, że ja też bym sądziła, gdybym nie wiedziała, czego oczekujesz, że mam się tak zachowywać. Czyli to naiwne spojrzenie na nasze prompty jest dosyć wartościowe zazwyczaj.
Karol: To jak promptować. Jak się tego uczysz ty, Agnieszko.
Agnieszka: Jest sporo świetnych materiałów na ten temat. Na stronach Microsoftu są wskazówki bardzo konkretne, ale również na wielu różnych. I techniki promptowania dzielą się na takie łatwiejsze, czyli właśnie… koncentrujące się na tym, żeby ta informacja, którą przekazujemy, była w miarę prosta albo dobrze ustrukturyzowana, a najlepiej to i to, ale z drugiej strony istnieją bardziej zaawansowane techniki, to znaczy chain of thought, tree of thought i tak dalej, gdzie uczymy nasz model… Moglibyśmy je rozwinąć, te techniki, o których mówisz, chain of thought i tak dalej. One polegają na tym, że uczymy model, w jaki sposób ma myśleć o naszym problemie, o problemie, z którym użytkownik będzie się do niego zwracał. Także to są metody, z którymi nie chcemy eksperymentować na samym początku, bo nie są konieczne, ale jeżeli mamy coś bardziej zaawansowanego, to jest sens to zrobić faktycznie. Oprócz tego możemy podawać strukturę odpowiedzi na przykład. Ja lubię podawać, jak proszę go, żeby na przykład wyodrębnił słowa kluczowe z jakiejś treści, to często po prompcie podaję najlepsze możliwe rozwiązanie. I proszę go, żeby uzupełnił resztę. I wtedy mam wrażenie, że faktycznie od Rapina lepsza jest odpowiedź, którą zwraca.
Karol: Czyli z promptowaniem jest trochę tak jak z życiem, ustalaniem celów i budowaniem wizji, planu na to, co ma się wydarzyć. Nie tylko ogólna ta wizja, wysokopoziomowa, ale przechodzenie od ogółu do szczegółu.
Agnieszka: Tak, i z promptowaniem jest tak, że tam nie ma takich… reguł, które spełniają się zawsze, które są najlepsze w każdej sytuacji. Oprócz pewnie tego, że te instrukcje, które dajemy powinny być jasne, nie powinny być sprzeczne. Dlatego warto poeksperymentować z kilkoma rodzajami promptów, warto pobawić się tym odrobinę. Można oczywiście skorzystać również z LLM-ów i poprosić o napisanie najlepszego możliwego prompta.
Karol: Czasami to pomaga, czasami koncentruje się wtedy LLM nie na tym, na czym nam zależy, ale… A robisz eksperymenty polegające na tym, że łączysz LLM różnych dostawców, pracując na tym samym projekcie.
Agnieszka: Czasami tak, czasami ma to sens.
Karol: Powiem Ci, o czym myślę, bo ja na przykład czasami jak sobie eksperymentuję, czasami wykorzystuję Gemini’a do tego, żeby był krytykiem wobec tego, jakie wyniki otrzymuję pracując na czasie GPT. I bardzo fajnie to działa czasami.
Agnieszka: W drugą stronę też.
Karol: Tak, oczywiście.
Agnieszka: Wyobrażam sobie, że to fajnie działa, tym bardziej, że to są modele różnego rodzaju, czyli decoder only i encoder, decoder.
Karol: Wiesz, ja akurat nie wykorzystuję w czatów asystentów do kodowania. Ja mówię o bardziej, wiesz, budowaniu kontentów, wizji, wymyślania różnych pomysłów i tak dalej. Bardziej do kreatywnej takiej pracy wykorzystuję te modele. Ale to konfrontowanie niesamowicie fajnie działa.
Agnieszka: Różne modele mają różne zalety i wady. Różne modele na różnym poziomie sobie radzą z językiem polskim na przykład. Mają różny ton wypowiedzi. Ten ton można również określać oczywiście w system prompcia na przykład, ale taki naturalny ton wypowiedzi jest różny w różnych modelach.
Karol: A jak patrzysz się na tego typu inicjatywy, jakim jest na przykład Bielik i lokalne modele językowe.
Agnieszka: Super, to jest arcyciekawy projekt i bardzo się cieszę, że coś takiego powstało w Polsce. Kibicuję.
Karol: No dobrze, ale cały AI to nie tylko LLM-y, to jeszcze dużo więcej. To tak samo grafika, to wideo, to całe audio. Który z tych obszarów jest dla Ciebie też taki ciekawy i perspektywiczny.
Agnieszka: Vision. Vision jest arcyciekawy, speech to text jest również bardzo ciekawy. Rozmawialiśmy na przykład przed chwilą o wykorzystaniu LLM-ów głównie w bankowości i w instytucjach finansowych. Na przykład w ubezpieczeniach jest coraz częściej tak. że jak mieliśmy jakiś wypadek, jak coś nam się stało i chcielibyśmy skorzystać z naszego ubezpieczenia, to właśnie robimy jakieś zdjęcia i te modele Vision sprawdzają, czy zgadza się na przykład kolor samochodu, marka samochodu, uszkodzenie faktycznie mogło powstać w okolicznościach, które opisaliśmy.
Karol: Ciekawe, nawet nie myślałem o tym, ale rzeczywiście branża, która agreguje gigantyczne środki pewnie jest też narażona na różnego rodzaju malwersacje itd.
Agnieszka: Albo mamy urządzenia fabryczne, mamy różne wielkie budynki i chcielibyśmy sprawdzić, czy wszystko jest okej, czy na przykład nie ucierpiało pod wpływem wichury i możemy również w tej sytuacji korzystać z wyrzędów.
Karol: Nie wiem, czy kojarzysz historię. Kapitalna firma z rodowodem z Polski, AI Clearing, tworzą rozwiązania właśnie oparte na wieży AI, pozwalające na kontrolę postępów budów, linii energetycznych, farm fotowoltaicznych, budynków, konstrukcji itd. Coś niesamowitego, rozmawialiśmy zresztą z Michaelem Mazurem w jednym z odcinków, Bardzo fajnie komercjalizują ten produkt, mają kilkudziesięcioosobowy zespół developmentowy w Polsce i dokładnie Vision wykorzystują w branży budowlanej. Czyli zobacz, tak jak mogłoby się wydawać po tym hajpie listopadowym w 2022 roku, że AI to rozrywka, śmiechy i chichy, to prawda jest taka, że śmiechy i chichy powodują to, że przedziela się nam do zbiorowej świadomości, ale z drugiej strony wydaje mi się, że 80% wykorzystania tej technologii to biznes.
Agnieszka: Tak, zdecydowanie tak. To jest też tak, że te śmiechy są czasami związane z implementacjami, z wdrożeniami, które nie odniosły sukcesu, prawda. Z tymi wdrożeniami, o których czytamy czasami w gazetach, że na przykład jakiś chatbot, linii, lotniczych obiecał tańszy bilet klientowi i później okazało się, że nie mógł tego zrobić, ale mimo wszystko ten klient wygrał przed sądem. Albo chatbot, z którym można było sobie porozmawiać wierszem, który napisał dla ciebie piosenkę, a to był chatbot firmy dostawczej, dostarczyciela paczek.
Karol: To co zrobić, żeby tego typu sytuacje się nie zdarzały w procesach produkcji tego typu rozwiązań.
Agnieszka: Trzeba mieć realistyczną interpretację tych technologii. Trzeba widzieć je jako takie, jakie są. To znaczy nie na przykład sądzić, że one same zdecydują, których treści nie chcielibyśmy, przy pomocy których treści nie chcielibyśmy, żeby odpowiadały. Bardzo ważny jest ten cały proces wytwórczy, cały proces developmentu, który powinien właściwie zachodzić tak, jak zachodził przed powstaniem LLM-ów, to znaczy przede wszystkim chcemy testować i testować jak najwięcej i jak najszybciej w tym całym procesie wytwórczym. Chcemy wiedzieć również, co chcemy osiągnąć, czyli… I jak nasz bot ma się zachowywać, jakim tonem ma odpowiadać, na jakie pytanie ma nie odpowiadać, to jest również bardzo ważne, bo chcemy pewnie, żeby odpowiadał na pewne pytania, a na niektóre powiedział, że nie, że on niestety nie może się wypowiedzieć na ten temat. I to jest bardzo ważne, no bo jeżeli nie ograniczymy, na jakie tematy ma się wypowiadać, to oczywiście jest to dla nas ryzyko, jak go później wypuścimy na przykład do naszych wszystkich klientów. Czyli jasne oczekiwania. Po drugie testowanie. Jeśli chodzi o to testowanie, to ciekawym trendem jest oczywiście ocena samego działania LLM-ów przez LLM-y. To się nazywa LLM as a judge, to podejście, I polega na tym, że w procesie testowania zatrudniamy właśnie takiego LLM-a, który nam ocenia, czy ta odpowiedź była prawidłowa w kontekście tego pytania i tych materiałów źródłowych.
Karol: Trochę sytuacja, o której rozmawialiśmy przed chwilą, LLM kontra drugi.
Agnieszka: Tak. Ale poza tym oczywiście jak myślimy o rozwiązaniu, które chcemy wdrożyć na produkcję, no to fajnie jest mieć przygotowany, przemyślany proces. Taki, żeby ograniczyć możliwość odpowiedzi w sposób, którego sobie nie życzymy. Czyli właśnie to, co powiedziałeś, że jeden model krytykuje drugi i to może być częścią procesu o odpowiedzi tych LLM-ów. Wcześniej było tak, że te LLM działały dosyć wolno. Zresztą nadal to nie jest szybka technologia. Zazwyczaj czeka się kilka, kilkanaście, nawet kilkadziesiąt sekund na zwrotkę. Natomiast te najnowsze modele już działają szybciej. To jest mniejsze ograniczenie. No i w związku z tym można tym bardziej pomyśleć o tym, żeby dodać ten drugi krok, czyli… W momencie, kiedy LLM sformułował odpowiedź, nie jest ona jeszcze zwracana bezpośrednio użytkownikowi, tylko najpierw idzie do takiego walidatora, do takiego agenta, który spełnia rolę walidatora i dopiero jak walidator potwierdzi, to jest pozytywna odpowiedź, to jest prawidłowa odpowiedź, wtedy ta odpowiedź zostaje zwrócona użytkownikowi.
Karol: Wrazając jeszcze do use case’ów i do ciekawych przypadków wdrożeń, przychodzi jeszcze coś ciekawego, o czym moglibyśmy powiedzieć. Może projekt, który zabrał niewiele czasu, a przyniósł niesamowite skutki i niesamowite korzyści dla organizacji. W sensie niewielkie nakłady, zaskakująco dobre wyniki. Trochę pytanie z oczekiwaniem, ale zastanawiam się, czy moglibyśmy jeszcze o czymś ciekawym powiedzieć. Bo rozmawialiśmy o chatbotach, rozmawialiśmy o agentach, ale jeszcze w niepełnej formule. Rozmawialiśmy o tej branży finansowej, bankowej, o retailu. Czy masz w głowie jeszcze jakiś taki projekt, który okazał się dużym zaskoczeniem pozytywnym dla ciebie.
Agnieszka: Na przykład jeśli chodzi o vision, to to często jest wykorzystywane w kontekście na przykład sprawdzania, czy nam się produkty nie kończą na półkach. Czyli z kamer takich przemysłowych dostajemy zdjęcia i widzimy, że na przykład o dziewiątej tutaj chipsów było 20 paczek, a teraz jest 10 paczek, więc na tej podstawie możemy stwierdzić, że trzeba już zamówić.
Karol: Czyli wsparcie logistyki tak naprawdę na każdym etapie sprzedaży produktu. Nie tylko magazyn, tylko dochodzi do tego, że mamy analizę dostępności dowaru na półce.
Agnieszka: Albo na przykład wykrywanie próby kradzieży. Zwłaszcza w Polsce bardzo popularne są te automatyczne kasy w supermarketach. No i niektóre sklepy chciałyby kontrolować, czy na przykład ktoś nie próbuje czegoś ukraść. I w ten sposób zautomatyzowany sposób również można sprawdzić, czy na przykład ktoś nie chowa czegoś do kieszeni.
Karol: A kulturowo i organizacyjnie w takim razie, jak edukować, jak uczyć, jak zmieniać kultury organizacyjne po to, żeby ludzie nie tylko łapali się na ten hype jajowy i mówili, dobra, zróbmy coś, tylko żeby to robili świadomie.
Mhm. Bo moim zaskoczeniem jest na przykład to, że rozmawiam z dużą organizacją, która ma cały pakiet rozwiązań ofisowych i pytają się mnie, słuchaj Karol, gdzie my możemy tego czata sobie zainstalować. Mającko pilota dostępnego cały czas. To co jest takim złotym środkiem na to, żeby edukować rynek i budować tą świadomość. Masz pomysł.
Agnieszka: Ważne jest, żeby zaadresować różne grupy użytkowników. Na przykład właśnie osoby pracujące w technologii będą chciały pewnie znać się na tym trochę lepiej niż publika taka powiedzmy ogólna. I ja ogólnie uważam, że wszyscy w organizacji powinni mieć jakieś pojęcie o AI, czyli na przykład jak korzystać z tego co-pilota, jak promptować tak, żeby osiągnąć to, co się chce. bo ta wiedza nadal nie jest powszechna, tak jak powiedzieliśmy wcześniej.
Karol: Czytać, uczyć się, słuchać podcastów.
Agnieszka: Tak, ale również chodzi mi o takie inicjatywy typowo organizacyjne, czyli na przykład w wielu firmach istnieją takie inicjatywy jak Piątki, gdzie tam są spotkania i rozmawia się o różnych tematach, No i wtedy, żeby porozmawiać o tym na takim spotkaniu o właśnie co-pilotach czy o promptowaniu, o dobrych technikach promptowania, o bezpieczeństwie również pracy z AIM. I dla odbiorców to faktycznie to promptowanie i bezpieczeństwo to są dwa najważniejsze aspekty. Natomiast jeśli chodzi o osoby, które uczestniczą już w tworzeniu takich rozwiązań albo ich… ideacji to znaczy, albo ich planowaniu ze strony biznesowej, albo we wdrożeniach, no to już jest ta wiedza oczekiwana oczywiście na nieco wyższym poziomie. No i wtedy warto właśnie być na bieżąco z tym, w jakim kierunku te technologie się rozwijają, ale również Również mam wrażenie wartościowe jest posiadanie podstaw odnośnie właśnie scenariuszy użycia, to znaczy gdzie teoretycznie możemy te technologie zastosować. Także warto zobaczyć kilka dem, nie tylko LLM-ów, ale również na przykład vision, speech to text, żeby do naszej wyobraźni dotarły te informacje i gdzieś tam nam się pojawiło, jak później pracujemy, o, a to jest taki scenariusz, gdzie fajnie by było wykorzystać właśnie na przykład.
Karol: Czyli po raz kolejny okazuje się, że kluczem do innowacji jest ciekawość, sięganie po różne źródła i patrzenie na to, co dzieje się ciekawego w obszarze technologii.
Agnieszka: Tak, natomiast sądzę, że warto też nie dać się przestraszyć, bo to może być oszałamiające, jak się patrzy na te wszystkie informacje, które przychodzą i na te nowe modele, które wypadałoby wypróbować oczywiście. Prawda jest taka, że czasami różnice między tymi modelami nie są aż tak ogromne, dlatego warto jest również wziąć głęboki oddech i powiedzieć sobie, nie muszę wiedzieć wszystkiego, ale warto, żebym na przykład potrafił dobrze promptować, wiedział, jakie są główne metody kastomizacji tych modeli, bo to mi się przyda później w pracy.
Karol: Czyli nauka, ewangelizacja, rozmowa o potrzebach i możliwościach, ale też z drugiej strony pewne urealnianie i schodzenie niskopoziomowe. Nie róbmy od razu wszystkiego, tylko zaczynajmy od rzeczy, które łatwo wziąć na warsztat na samym początku.
Agnieszka: Tak, zdecydowanie.
Karol: Zapytam jeszcze o jakiś taki case, czy masz w głowie organizację, która właśnie miała takie podejście, która zaczęła od czegoś niewielkiego, a skończyła na dużym projekcie.
Agnieszka: Więc większość faktycznie tak robi. To jest to, co powiedziałam na początku, że większość najpierw próbuje coś stworzyć na własne potrzeby i później wychodzi z tym na zewnątrz. I to jest często możliwe do zrobienia, bo na przykład wyobraźmy sobie właśnie jakiś bank. który tworzy narzędzie dla swoich konsultantów, które będzie na podstawie prompta wyrzucało informacje dotyczące warunków kredytu, czegoś podobnego. I później jak ci konsultanci dojdą do wniosku, tak, to się nam super sprawdza, niech alucynuje, informacje są poprawne, no to możemy to narzędzie również udostępnić światu zewnętrznemu, czyli naszym klientom bezpośrednio. Natomiast chciałabym jeszcze skomentować to, co powiedziałeś wcześniej, że warto jest zejść na niski poziom, jak robi się te projekty. No faktycznie tak jest, bo zwłaszcza w kontekście tego, że te modele potrafią naprawdę dużo. One potrafią ekstrahować informacje, one potrafią tworzyć nowe teksty w odpowiedni sposób i często mam wrażenie, że jak… że jak firmy rozpoczynają takie projekty, to chciałyby, żeby to narzędzie, nad którym pracują, robiło wszystko w tym samym czasie. I trudno jest ustalić wymagania biznesowe trudniej niż w takich tradycyjnych projektach. A to jest kluczowe. Stąd też wynika ważność testowania i tego, żeby test cases ustalić na samym początku, bo w przeciwnym wypadku jest obawa, że będziemy pracować nad tym rozwiązaniem i je optymalizować bardzo, bardzo długo i nigdy nie dojdziemy do wniosku, że możemy je wypuścić, że działa wystarczająco dobrze.
Karol: Widzę w tym temat następny wartościowy odcinek, czyli cały proces wdrożenia i budowa zespołu, który potem to wdrożenie ma realizować. Agnieszko, dziękuję Ci serdecznie za Twój czas. Dziękuję bardzo. Dziękuję Ci za Twoją wiedzę. Dziękuję Ci za otwartość i bycie jedną z 99 twarzy jaj właśnie.
Agnieszka: Dzięki Karol.