9/99 – Gdzie jest miejsce #AI w Państwie? Po co obywatelom i obywatelkom sztuczna inteligencja? Pamela Krzypkowska, Ministerstwo Cyfryzacji

Kolejny tydzień, kolejna Twarz #AI. Dzisiaj, wspólnie z Pamelą Krzypkowską zastanawiamy się, czy #AI może mieć swoje miejsce w Państwie. Czy rozwiązania wykorzystujące sztuczną inteligencję ułatwią nasze codzienne życie, szczególnie w relacjach obywatel – instytucje administracji publicznej. Posłuchajcie i napiszcie, jakie jest Wasze zdanie w tym temacie…

Pamela Krzypkowska była wcześniej jednym z filarów rozwiązań #AI w polskim oddziale Microsoft w którym pracowała jako AI Cloud Solution Architect, dzisiaj jest wicedyrektorką departamentu Badań i Innowacji w Ministerstwie Cyfryzacji a dodatkowo wykładowcą na Akademii Leona Koźmińskiego i Politechnice Warszawskiej.

Jej celem obecnie jest dbanie o odpowiedzialną cyfryzacje Polski w obszarze AI i nowych technologii.

Zatem rozmawiamy… o tym, jak #AI może wkomponować się w społeczeństwo, w mechanizmy funkcjonowania Państwa a także o tym jak Polska wypada na tle innych Państw eksperymentujących z AI. Posłuchajcie sami!

O czym rozmawiamy dzisiaj?

  1. Jak wygląda AI w administracji publicznej??
  2. Główne pytanie i temat ważny w kontekście rządowym i regulacyjnym AI Act, polskie stanowisko, gdzie jesteśmy, co promujemy, co jest dla nas ważne?
  3. Projekty AI w Ministerstwie Cyfryzacji. Jakie prowadzone obecnie? Jakie planowane?
  4. Społeczna perspektywa na AI. Jak AI jest widziane przez społeczeństwo?
  5. Gdzie jest Polska w #AI. Czy mamy potencjał, jeżeli tak to jaki. Jak wyglądamy na tle innych krajów? 

I wiele innych, ciekawych tematów! Posłuchajcie sami!

Zdjęcia

Notatki

Zdjęcia: Jan Toruński

Transkrypcja rozmowy

Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.


Karol Stryja: Pamelo, witam cię serdecznie. Ogromna przyjemność gościć cię w 99 twarzach AI. 


Pamela Krzypkowska:  Z wzajemnością, być goszczoną. 


Karol: Skąd twoje zainteresowanie AI? Skąd to się wszystko wzięło? 


Pamela:   Generalnie to, co mogę powiedzieć o sobie i co myślę jest prawdziwe w kwestii wielu osób, które zajmują się sztuczną inteligencją, z którymi rozmawiam, jest to, że AI jest niesamowite, bo jest tak szerokim tematem i dotyka wszystkiego. Co nawet, no właśnie, widać po twoich gościach i gościniach. 99 twarzy. Dokładnie, a nawet jeszcze więcej, tak naprawdę, jakby się chciało każdego poruszyć i z każdym pogadać. 


Karol: Polecam przyjrzeć się logotypowi w 99 twarzy. 99 twarzy zamienia się w nieskończoność. 


Pamela:   nieskończoność twarzy AI. I to jest właśnie kwestia nie tylko AI samego w sobie, ale znaczy właśnie ludzi, którzy się zajmują AI, ale także AI samego w sobie. Czyli taka kwestia techniczna, etyczna, no właśnie dotyka to samego pytania o tym, kim jesteśmy jako osoby tak naprawdę. Czyli co to znaczy myśleć, co to znaczy być świadomym i to jest myślę taka rzecz, która no jest, dlatego też to jakby sprawia, że tyle o tym mówimy, ale też właśnie to, że z każdym jest o czym pogadać.   Myślę, że AI to jest taki temat, który pozwala ci dogadać się z każdą osobą, bo w każdej dziedzinie jest coś w tym temacie. 


Karol: Ale wróćmy do Ciebie. 


Pamela: Włączam się do tej grupy, której mega podobało się to, że jest to taki multidyscyplinarny temat i jako osoba studiująca informatykę bardzo mnie to zainteresowało. Nawet jeżeli w tamtym jeszcze momencie AI były tylko dostępne na przedmiotach obieralnych, czyli że po prostu można było dobrać sobie jakieś takie przedmioty np. z uczenia maszynowego,  No i okazało się, że jest to temat tak niesamowicie szeroki, że zaczęłam studiować filozofię, żeby dowiedzieć się coś o tej drugiej stronie sztucznej inteligencji, bardziej właśnie metafizycznej. Dlatego zaczęłam też pracować w tej sztucznej inteligencji z takiej właśnie bardziej perspektywy technicznej, a teraz można powiedzieć z bardziej perspektywy regulacyjno wspierającej pewien ekosystem innowacji.   I to myślę jest najważniejsze też, że ten AI pozwala nam zobaczyć tak dużo perspektyw i dołączyć się do i elementu społecznego, i elementu technologicznego, i elementu naukowego, a także tego edukacyjnego, bo myślę, że też na pewno poruszymy ten temat, że właśnie ta edukacja i uczenie społeczne, nie maszynowe, jest tutaj kluczowe, jeżeli chodzi o ten rozwój. 


Karol: Budowanie świadomości, nauka, a potem wdrożenie. 


Pamela:  Też oczywiście wszystko z głową, ale to takie… Dzisiaj miałam taką rozmowę na temat tego, że ludzie mają wiele żyć. W sensie, że żyjemy w czasach, kiedy możemy sobie pozwolić na to, żeby mieć wiele żyć i wiele perspektyw. I też sądzę, że AI tutaj bardzo świetnie wpisuje się w to, że potrzebujemy widzieć się z każdej strony, tworzyć właśnie multidyscyplinarne zespoły, ale także pozwolić sobie na to, żeby właśnie patrzeć z każdej strony 99 albo nieskończonej ilości stron na tę technologię. 


Karol:   Studia informatyczne, studia filozoficzne, a potem? 


Pamela: Potem pracę w Microsoftzie, potem rzeczy uczelniane, czyli właśnie zaczęłam coś wykładać i o tym AI mówić właśnie z perspektywy Microsoftu. No a po jakimś czasie, cały czas zachowując moją schedę uczelnianą i można powiedzieć akademicką, po prostu Ministerstwo Cyfryzacji i taka perspektywa, no właśnie, tak jak już mówię, regulacyjno-wspierająco-społeczna. 


Karol:   No dobrze, a jeżeli chodzi o ministerstwo, jak wygląda AI w administracji publicznej? 


Pamela: Z mojej perspektywy, w ogóle jeżeli chodzi o innowacje, bo tutaj AI jest jedną z technologii, którą możemy nazwać takimi technologiami przełomowymi, technologiami innowacyjnymi, takimi jak oczywiście na przykład kwantowe technologie albo IoT. 

I w tym ekosystemie innowacji ważne są trzy poziomy. Poziom badań, poziom regulacji oraz taki poziom właśnie wsparcia technologicznego.   I pierwsze oczywiście są badania, co jest pierwsze jajko czy kura, wdrożenie czy badanie wdrożeń, ale właśnie badania z takiej perspektywy, że musimy wiedzieć, co działa, a co nie działa, żeby być w stanie podejmować decyzje. 

I te decyzje później mają taką formę albo regulacyjną, albo właśnie technologiczną i wsparcia technologii. No więc jeżeli chodzi o badania, no to na przykład, jeżeli jesteście tym zainteresowani i zainteresowane, to ministerstwo w 2023 roku po raz pierwszy zrobiło badania  w drodze ku doskonałości cyfrowej, które w sektorze MŚP, w sektorze samorządów, spółek Skarbu Państwa oraz administracji centralnej chciało sprawdzić, jak dużo osób, pracowników i pracowniczek korzysta z EIA, IoT i e-usług.   I to było bardzo ciekawe badanie, bo właśnie pokazało nam, że tak naprawdę 3% sektora MŚP, co jest ważne, cały rynek w Polsce, 99,8% tego rynku to jest sektor MŚP. Więc to jest, nie można powiedzieć, że większość, to jest prawie wieloryb na tym naszym rynku w ogóle. I tylko 3% z tych przedsiębiorstw korzysta ze sztucznej inteligencji. 

Na przykład e-usługi były bardzo popularne, ale to też myślę, że mamy w Polsce bardzo fajnie i dobrze rozwinięte, ale zdecydowanie widać tutaj, że jest miejsce do poprawy. No i to jest właśnie ten punkt, gdzie możemy zacząć się zastanawiać w takim razie, jeżeli sytuacja jest XYZ, to co wspieramy i co regulujemy albo co chcemy rekomendować, na przykład w takich politykach społecznych. 

Więc to jest taka pierwsza warstwa badawcza i to jest bardzo ważne, dlatego że bez wiedzy, bez faktów podejmujemy decyzję rysując na piasku i bardzo łatwo jest powiedzieć, no to się przyda, bo ktoś powiedział, ale to jest mega ważne, że administracja właśnie widzi tą potrzebę badań i ja się bardzo z tego cieszę. I właśnie na podstawie tego mamy te dwa etapy decyzyjności, czyli ten etap regulacyjny i etap technologiczny. No i regulacja to jest oczywiście po pierwsze twarde prawo,  W naszym przypadku, AI-owym przypadku, to twarde prawo tutaj to będzie AI Act, które będzie takim pierwszym światowym twardym prawem w ogóle, które się pojawi. Ale to już wszystkie osoby słuchające już znają od góry i od dołu ten temat, więc najważniejsze jest to, że po prostu będzie taka regulacja, która właśnie będzie oparta na ryzyku.   i będzie mówić nam, jakie use cases tej sztucznej inteligencji są właśnie ryzykowne i musimy na przykład wytłumaczyć nasz model, bo dotyczą zatrudnienia osób i wtedy mamy wysokie ryzyko bajasu. 

I osoby będą płacić za to, że mamy niedobrze dokończone modele. Ale także oprócz czwartego prawa jest po prostu policy. I w tym sensie policy to,  To jest właśnie mówienie, w jakim kierunku ma rozwijać się administracja, państwo, rynek, społeczeństwo, co możemy zrobić, żeby de facto dana technologia albo dana rzecz w ogóle była bardziej popularna, rozumiana. I tutaj, jeżeli chodzi o policy, to taką rzeczą, która jest, a dużo osób nie wie może, że jest, bo może niewystarczająco dużo się o niej mówi, jest polityka do rozwoju sztucznej inteligencji w Polsce.   pojawiła się z nami w 2019 roku, więc to już było jakiś czas temu. To jest naprawdę super, bo Polska była jednym z pierwszych krajów, które miało taką politykę wdrożeniową, jeżeli chodzi o sztuczną inteligencję. No i ta polityka właśnie zakłada obszary takie jak edukacja, nauka, społeczeństwo, firmy, czyli gdzie de facto należy podejmować akcje związane z rozwojem sztucznej inteligencji, czyli na przykład edukacja społeczna, uczenie na przykład dzieci, osób młodych dotyczących technologii przełomowych.   ale także właśnie jakieś takie konkretne działania, które mogą być podjęte, co jest super, bo właśnie pokazuje ona nam, jak chcemy budować to, co już mówiłam, czyli ekosystem innowacji, ekosystem sztucznej inteligencji, czyli współpracę rynku, biznesu, edukacji, administracji, akademii, właśnie żeby zbudować sobie taką perspektywę, że ten AI faktycznie będzie wykorzystywany w dobry sposób,  a z drugiej strony będzie także dbał o prywatność obywateli, obywatelek, o to, żeby wszyscy mieli spokój używając takich rozwiązań. 


Karol: Jakie są te kierunki, o których mówisz, te najważniejsze, w kierunku których należy działać, wprowadzać innowacje? 


Pamela:   Kierunki wynikają właśnie z takich na przykład polityk. Kierunki wynikają w tym akurat przypadku z frameworku Trustworthy AI, czyli godnej zaufania sztucznej inteligencji, który był przygotowany przez OECD, później przyjęty przez Unię Europejską. Ten framework de facto zakłada, jak możemy budować sztuczną inteligencję. Oczywiście są frameworki twardsze i mniej twarde. 

Są frameworki techniczne, które mówią nam na przykład, jeżeli budujemy system, jakie są po kolei kroki, które musimy wykonać, żeby ten system zbudować,  Ale są jeszcze takie miększe frameworki, które po prostu mówią nam o kierunkach, które powinny być dla nas istotne, tak jak polityka. To tak samo Trustworthy AI mówi w ogóle o sztucznej inteligencji, czyli o tym, że musimy mieć nadzwór człowieka, czyli ten human in the loop zawsze musi się znajdować. O tym, że najważniejsze jest utrzymanie praw podstawowych, o to, żeby nie zagrażać poprzez użycie takiej technologii właśnie bezpieczeństwu, demokracji. 

To są takie rzeczy, które Trustworthy AI wprowadza.   Więc to jest ta podstawa, na której budujemy politykę, na której później, no właśnie, bo to jest ta rzecz prawna i jest jeszcze ta druga noga wdrożeniowa, czyli projekty techniczne. I te projekty techniczne oczywiście to też kwestia wsparcia, czyli po pierwsze mówienie o tym, jakie projekty powinny się zadziać, żebyśmy właśnie mogli na przykład korzystać z dobrej technologii,  I tu super projektem, który wspiera ministerstwo jest projekt PLUM, czyli Polski LLM, czyli Large Language Universal, tam musiało się zmieścić, żeby nam wyszła z tego śliwka, więc model. I de facto idea jest taka, że będzie to polski model językowy, oczywiście nie tylko polski, tylko po prostu przeważająca ilość danych treningowych będzie w języku polskim, jakby osadzona w naszym kontekście.   I to będzie model, który będzie open source. I tu już widzimy ten element takiego wsparcia bezpieczeństwa, transparentności, no bo dzięki temu, że to będzie open source, no możemy wiedzieć, co tak naprawdę w środku piszczy. No nie mówiąc oczywiście o tych elementach, że tak naprawdę w sieciach, to kiedy tak naprawdę możemy wiedzieć, co i jak piszczy, ale najważniejsze, że to postawienie na transparentność i postawienie też na to, że to po prostu będzie dla wszystkich. 


Karol:   Oparte na danych, które są związane z nami, z Polakami. 


Pamela: Taka pewnie kulturowa rzecz, no bo oczywiście to też jest tak, że warto wspomnieć, że to nie jest taki pierwszy lokalny model. Takim najbardziej znanym chyba w tym momencie jest model szwedzki, można powiedzieć taki północny, bo tam jest głównie język szwedzki, ale także norweski i duński.   No i też idea była po prostu taka, że hej, potrzebujemy czegoś zlokalizowane, oczywiście w ich przypadku w naszym jeszcze alfabecie bardziej, czy w różnych śmiesznych literkach, ale także po prostu w naszej kulturze i z naszą perspektywą. I to myślę, że jest fajne, że budujemy pewnego rodzaju suwerenność użycia tej technologii. 


Karol:   Pamiętam, jak ja zrobiłem wielkie oczy, kiedy przeczytałem, jaka część danych, z których korzysta LLM czata GPT jest związana z Polską i Polakami. Niewielki odsetek. A nam wydaje się, że rozmawiamy z czymś, co wie wszystko. 


Pamela:   I do tego właśnie jest to rzecz, która jest zamknięta i dla nas niedostępna, co wiąże się z różnymi kwestiami, na przykład takimi jak niedawny różny pozew New York Timesa w stosunku do OpenAI i Microsoft, bo to też jest kwestia taka transparentność, znaczy…   Wspieramy dla wszystkich i robimy dla wszystkich, dla biznesu, dla obywateli i obywatelek, dla ludzi, którzy chcą z tego korzystać. No i właśnie mówimy, jesteśmy audytowalni. Możecie zobaczyć co jest w środku, możecie zobaczyć z czego skorzystaliśmy, bo to też jest druga kwestia, po prostu dostępność zbioru danych treningowych. 


Karol:   I zrozumienie tego, co tak naprawdę się dzieje. 


Pamela: Myślę, że fajnie też powiedzieć o innych projektach, takich bardziej, no bo co to znaczy projekty techniczne? Ja powiedziałam techniczne, ale na przykład też takim innym projektem robionym we współpracy z Ministerstwem Cyfryzacji jest strona AI for MŚP. To jest idea właśnie taka, że jeżeli jesteś, masz przedsiębiorstwo, no i wiesz, skąd masz wziąć data scientista? Jest trudny do znalezienia na rynku, a jeżeli już go znajdziesz, to będzie bardzo drogi i to będzie jego czwarty etat.   Więc wydaje mi się, że to jest tutaj istotne, że ta strona umożliwia trochę taki matchmaking pomiędzy dostawcami sztucznej inteligencji, którzy się na tym znają i mogą pomóc przedsiębiorstwu wdrożyć pewne rozwiązania, a właśnie takimi przedsiębiorstwami. Wchodzisz na taką stronę, sprawdzasz swoje readiness, jeżeli chodzi o właśnie sztuczną inteligencję.  a później masz takie portfolio, gdzie możesz zobaczyć sobie, jacy dostawcy są dostępni oraz jakie rozwiązania na przykład już zrobili, bo wtedy możesz też się zainspirować, że o, to jest coś dla mnie, ja potrzebuję czegoś analogicznego, to de facto możemy wdrożyć to dużo szybciej niż coś, czego jeszcze na rynku nie był. 


Karol: No dobrze, a budowanie ekosystemu innowacji, bo mówiłaś o badaniach, mówiłaś o regulacjach, a to budowanie ekosystemu innowacji, na czym polega i z czego się tak naprawdę składa? 


Pamela:   To też jest trudna rzecz. Jakby ekosystem i innowacja to są też takie dwa słowa, które ciężko się w pewnym sensie definiuje i z mojej perspektywy i myślę z tej perspektywy takiej administracji, to jest łączenie wielu kropek. Czyli właśnie po pierwsze ta polityka, która mówi o nauce, mówi o akademii, ale także mówi o społeczeństwie, ona trochę pozwala…  różnym innym resortom, innym osobom związanym właśnie z budowaniem np. NGO-sów, powiedzieć, hej, tu są jakieś takie perspektywy i my chcemy wziąć w tym udział, my chcemy zaangażować się w jakimś tym konkretnym kierunku, który jest wyznaczony. 

I jeszcze jedna rzecz, czyli to łączenie kropek też nie tylko takie właśnie w polityce, polityce w sensie policy, ale łączenie kropek w kontekście faktycznego kontaktu. I tutaj np. koło ministerstwa działa grupa robocza do spraw sztucznej inteligencji,  która łączy w sobie osoby prawnicze, osoby technologiczne, osoby z właśnie trzeciego sektora, ludzi, którzy po prostu są zainteresowani właśnie na przykład etyką. Więc to jest niesamowite, że mając taki zasób super specjalistów i specjalistek, którzy chcą z nami rozmawiać i z nami współpracować, my ostatnio dyskutowaliśmy sobie tematy właśnie technologiczne,  Na przykład jak mamy e-akt, na przykład jak mamy różne idee, jak wdrożyć różne rzeczy, to powiedzcie nam na przykład, czego wam brakuje. Czy na przykład wy uważacie, że brakuje wam, nie wiem, materiałów na temat jakichś konkretów, albo może brakuje wam wsparcia jakiejś konkretnej grupy społecznej. I dzięki temu, że takie wyjście do tych osób specjalistycznych jest, później też jest łatwiej dotrzeć do szerszego społeczeństwa. Bo każda z tych osób ma pewne swoje…  no nie wiem, chciałabym powiedzieć followersów, czy osoby, które są zainteresowane tym, co ona ma do powiedzenia z punktu widzenia na przykład prawnego. I to są takie osoby ambasadorskie, które mogą potem powiedzieć, hej, może nie wiecie jeszcze, czym jest sztuczna inteligencja, nie może się boicie, ale my razem z ministerstwem zrobimy dla was bardzo fajny program, gdzie będziecie w stanie się nauczyć i gdzie my wam pomożemy to zrozumieć. 

Więc to też jest takie nie tylko branie wiedzy od takich osób i nauczanie się tego, co oni wiedzą o tym świecie sztucznej inteligencji czy innowacji generalnie, ale też właśnie dzielenie się w drugą stronę. Te osoby mogą budować te misje, budować ten ekosystem, a później wychodzić do świata lekarzy, bo na przykład jak jest lekarz, to łatwiej jest zaufać osobie lekarskiej też. I po prostu w pewnym sensie ewangelizować. I to jest naprawdę wartościowa rzecz. 


Karol:   Pamiętam moje zaskoczenie, jak kilka tygodni temu pojawiłem się na spotkaniu pod hasłem konsultacje społeczne, które było zorganizowane przez Ministerstwo Cyfryzacji w obszarze sztucznej inteligencji i technologii. I zakładałem, no będzie kilkadziesiąt osób. Okazało się, że było ile? Dwieście? 


Pamela: Tak, setki na pewno. 


Karol: Setki osób, sala pełna, niezwykłe zainteresowanie. No i to tylko i wyłącznie potwierdza fakt, że…   Być może na dzień dzisiejszy te 3% MŚP wdraża i korzysta z rozwiązań związanych ze sztuczną inteligencją, ale potrzeba, ciekawość i zainteresowanie jest gigantyczne ze strony ludzi. 


Pamela: Tak i myślę, że to też jest ważne, że to jest zainteresowanie oczywiście biznesowe, ale także zainteresowanie społeczne.   I to jest niesamowite w takiej całej idei właśnie konsultowania i budowania tego ekosystemu, że takie konsultacje w kontekście bardzo równych rzeczy, na przykład polityki, bo to, że ja mam jakąś ideę, co powinno się jeszcze znaleźć w polityce, na przykład nie ma tam modeli generatywnych, okej, no to jakieś elementy dotyczące, nie wiem, deepfake’ów powinny się znaleźć.   Ale ja mogę nie mieć perspektywy nauczycielki, lekarki i to jest takie miejsce, gdzie takie osoby mogą przyjść i powiedzieć, hej, z mojej perspektywy to, czego mi brakuje, to jest wsparcie takiego i takiego sektora właśnie na przykład medycznego. I dlatego to jest mega, mega potrzebne i mega się cieszę, że jest tak duży odzew, bo no właśnie, to nie tylko wystarczy, żeby… 


Karol:   Szczególnie, że przechadzając się ulicami Warszawy i rozmawiając na przykład z ludźmi na ulicy i pytając ich o to, jakie mają wrażenie i czego się być może obawiają w związku ze sztuczną inteligencją, pierwsze podstawowe hasło, jakie pada, to to, że sztuczna inteligencja zabierze nam pracę. 


Pamela: Zawsze.   To jest niesamowite, jak, no właśnie, nawet ja się nie spodziewałam tego, jak często to zdanie pada i że faktycznie bardzo dużo osób mówi o tym jako taki główny stres, a także to, że myślę, generalne poczucie dotyczące, znaczy zawsze boimy się tego, czego nie znamy. To jest taki po prostu ludzki, psychologiczny… Nie znamy, bądź nie rozumiemy. 

Tak, taka psychologiczna rzecz, że czegoś, no właśnie, tak jak mówisz, nie rozumiemy, nie wiemy, to jest straszne, ale to, że to jest związane właśnie z tak podstawową częścią ludzkiego życiem, jakim jest możliwość zarobku i pracy i to, że w takim elemencie jakby osoby się boją, no to  To jeszcze pokazuje, jak wiele jest pracy do zrobienia w, no właśnie, i nie tylko w takim, bo też mi zależy, żeby mówić o tej edukacji i o takim oswajaniu w pewnym sensie AI, nie w kontekście, ej, będzie dobrze, o niczym nie trzeba w ogóle myśleć, nie przejmować się, tylko mówienie, hej, zobacz, jeżeli rozumiesz te technologie, nawet w prostym sposobie, tak naprawdę ten LLM uczy się tak i tak, a tak naprawdę potem operuje taki śmak.   to ty możesz po pierwsze zrozumieć, dlaczego pewne rzeczy są z niego wypluwane, nie tylko zrozumieć, czym są te halucynacje, a po drugie jesteś w stanie później pójść i powiedzieć, to ja rozumiem już, na co muszę uważać, a wiem jakby, gdzie mam głos i co jeszcze mogę zrobić, tak? Więc to też jest ten element zrozumienia, który pozwala…   Tak, ten element, który pozwala nam też nie tylko rozumiem, więc się nie boję, ale rozumiem, więc wiem na przykład, że muszę uważać na moją prywatność. Nie wpisuję w otwarte rozwiązania moich danych osobowych. 


Karol: Swoją drogą, polecam Tobie, Pamelo, i polecam naszym słuchaczom i słuchaczkom rozmowę z Yuvalem Harari, którą można odsłuchać w podcaście Diary of a CEO. Genialna rozmowa z Yuvalem Harari na temat sztucznej inteligencji i tego, w jaki sposób wpłynie na nasze życie. Polecam.   Mamy kierunki technologiczne i wsparcie dla innowacji, mamy policy making, czyli mamy AI Act. No właśnie, czym ten AI Act jeszcze tak naprawdę ma być? 


Pamela: To jest myślę ważne, że AI Act, tak jak już powiedzieliśmy, jest twardym prawem, ale jego idea jest dwustronna. Ma on w pewnym sensie kontekst.  chronić obywateli i obywatelki przed de facto tymi use case’ami, do których sztuczna inteligencja nie powinna być używana. 

Moim ulubionym przykładem jest watermarkowanie AI’owego kontentu. To jest rzecz, która mnie bardzo porusza ostatnio, czyli ilość oraz wysyp pewnego rodzaju  generowanego kontentu przez Ajaja, który jest opisywany jako prawdziwa influencerka albo oczywiście prawdziwy tekst, który jest napisany przez kogoś, czyli właśnie jakikolwiek phishing, deepfake i robi się niesamowicie prosty. No oczywiście  Żaden haker czy hakerka jak usłyszy, o nie jest, ej akt, to ja teraz muszę napisać, że to jest phishingowy mail, nie przestanie. Ale nawet kwestia tego, że pewnego rodzaju prawo już będzie w miejscu, żeby próbować sobie z tym radzić w jakiś sposób zintegrowany i operacyjny.   Ale po drugie, żeby na przykład, czyli chronimy, instytucje chronią osoby, ale także osoby wiedzą, że mogą powiedzieć, ej, jeżeli w moim systemie do zatrudnienia był włączony model AI-owy i podjął decyzję, z którą ja się nie zgadzam, to ja mogę się od niej odwołać. Ja mogę powiedzieć, hej, musisz mi wytłumaczyć, dlaczego podjęliście taką decyzję, ja muszę zobaczyć i móc się odwołać do tej decyzji. 


Karol:   Dokładnie o tym mówi Yuval Harari, że to jest najważniejsze, żebyśmy rozumieli my jako użytkowińcy, w jaki sposób algorytmy podejmują decyzje. 


Pamela: To oczywiście jest bardzo skomplikowany problem, dlatego że, tak jak wiemy, są modele interpretowalne i wytłumaczalne, czyli explainable i właśnie interpretable. I te modele interpretowalne, takie proste jak na przykład regresja albo drzewa decyzyjne, jesteśmy w stanie w 100% z feature’ów w naszym zbiorze danych wiedzieć, dlaczego dane decyzje były podjęte.   Widzimy to jak na dłoni, a potem pojawiają się bardziej skomplikowane głębokie sieci, gdzie de facto gdzieś w środku gubimy ten element przez działalność stochastyczną, gubimy ten element możliwości stuprocentowego wyciągnięcia ze zrozumieniem dla nas, bo to też jest istotne, żebyśmy my byli w stanie to pojąć.   Z czego dana rzecz wynika? I w ogóle myślę, że modele wytłumaczalności, rzeczy, które próbujemy budować teraz, jak wytłumaczyć decyzję modeli, nawet nie LM-ów, tylko takich prostych jak modele do tłumaczenia, co kiedyś było high-tech, a teraz to już jest stare śmieci, ale nawet to jeszcze nam robi problem.   Więc to też jest takie kolejne pytanie trochę na temat szybkości rozwoju innowacji, czyli że moim zdaniem mega powinniśmy teraz postawić na to, żeby budować tą właśnie wytłumaczalność i te różne frameworki, które nam umożliwiają rozumieć te modele, bo no właśnie, jeżeli tego nie rozumiemy, skąd mamy wiedzieć, czy mamy się zgodzić, czy nie. 


Karol: Działamy trochę na ślepo. 


Pamela:   Tak. To jest zawsze dobre pytanie pod tytułem, czy działamy na ślepo, czy tak naprawdę i tak świat już działa na takim wysokim poziomie abstrakcji i tak dużo rzeczy nie rozumiemy i korzystamy z rzeczy, których nie wiemy, że to takie rozumienie już było daleko za nami. No moim zdaniem jednak nie, jednak jest tutaj coś innego.   Osoba, która buduje telefon, nawet jeżeli ja nie rozumiem, jak się go buduje, to ona rozumie, co jest w środku i jak działa. A jeżeli nawet osoba budująca model sztucznej inteligencji nie jest w stanie go zrozumieć, no to już mamy problem. 


Karol: Dokładnie, tak. Dokładnie o tym mówił Youval. Cieszę się, że to potwierdzamy. 


Pamela:   No właśnie, niestety on był pierwszy, ale gdybyśmy my nagrywali wcześniej, to na pewno my byśmy to powiedzieli pierwsi. 


Karol: Czy coś jeszcze w kontekście waszej pracy w ministerstwie? 


Pamela: AI4MŚP, bardzo wam polecam. Jeżeli macie osoby przedsiębiorcze albo sami takimi osobami jesteście, to będzie w notesach i koniecznie sprawdźcie, zobaczcie.   Powiedziałam o tym właśnie budowaniu tego wspólnego takiego ekosystemu i także po prostu łączenia ludzi, bo to też jest mega ważne, więc taki projekt po prostu można powiedzieć networkingowy. No i oczywiście jakieś takie projekty techniczne mniejsze, które też są istotne, ale wydaje mi się, że tak jak to się mówi, jeżeli coś macie zapamiętać, to zapamiętajcie to. 


Karol:   Mówiłaś jeszcze o tym ekosystemie i o instytucjach, które badają rozwiązania. Możemy o nich powiedzieć kilka słów? To będzie NCBR, NASK, coś jeszcze? 


Pamela: Które budują rozwiązania, bo to jest tak, że ministerstwo może właśnie powiedzieć, że jakiś projekt jest super, może oczywiście pewne projekty finansować, współfinansować. Są takie instytucje, jest bardzo dużo instytucji, które buduje pewne rzeczy. NCBR to jest oczywiście jedna, czy IDEAS generalnie,  NASK, Łukasiewicz, Instytut Łączności, Centralny Ośrodek Informatyki. To też jest tak, że każdy resort ma jakąś swoją instytucję, która jest jemu bliższa. Więc to też jest kwestia taka, że np. uniwersytety też są ośrodkami akademickimi, które dużo budują. Ale myślę, że fajnie jest, jeżeli szukacie fajnych instytucji, które robią dobrą robotę, to myślę, że fajnie jest followować NASK i fajnie jest followować NCBR Ideas, bo oni robią mega super robotę, szczególnie w tych tematach AI-owych. 


Karol:   A kto jest bezpośrednio odpowiedzialny za stworzenie naszego LLM’a? 


Pamela: Bezpośrednio odpowiedzialne jest konsorcjum PLUM, czyli sześć instytucji, które jest częścią tego konsorcjum, które będą tak naprawdę budować. Liderem tego konsorcjum jest Politechnika Wrocławska, ale jest także włączony w to Instytut Slawistyki, OPI, IPI, NASK, Uniwersytet Łódzki. 


Karol:   Jak wygląda kalendarz? 


Pamela: Kalendarz jest taki, że liczymy, że do końca roku będziemy mieli już coś, co można testować. Do końca roku, powiedziałam to i na to liczymy. 


Karol: Ludzie, tak jak rozmawialiśmy, spotykasz ich na ulicy, pytasz o sztuczną inteligencję i zdecydowana większość obawia się o swoją pracę. Skoro 3% przedsiębiorstw korzysta ze sztucznej inteligencji, nie chcę się nawet zastanawiać, jak mały odsetek  ludzi rozumie, co dzieje się w świecie technologii, jaki to będzie miało wpływ na nasze codzienne życie. 


Pamela: To pierwsza taka tutaj statystyka i teraz te statystyki, o których tu mówię, są zbudowane w badaniu Fundacji Digital Poland i GFK, którzy stwierdzili, kurczę, co tak naprawdę Polacy i Polki myślą o sztucznej inteligencji? I to jest bardzo dobre pytanie, bo właśnie my możemy wyjść w Warszawie  zapytać iluś osób, które akurat o konkretnej godzinie są na mieście, co jest absolutnie zbajasowaną próbką danych. To prawda. 


Karol: Warszawa, duże miasto. 


Pamela: Tak, trzeba się do tego przyznać. I jeszcze ci, którzy akurat chcą z nami rozmawiać, więc jako tutaj jakakolwiek osoba statystyczna, która słyszy ankietę uliczną. Oczywiście to jest wartościowe, bo daje nam perspektywę, ale jeżeli chodzi właśnie o takie badanie ilościowe, to super, że to badanie właśnie zostało przeprowadzone w kontekście właśnie, co Polacy, Polki myślą o sztucznej inteligencji.   I to, co mówiłeś, ile ludzi wie, rozumie. No to, jeżeli zapytasz tak po prostu osób, hej, co to jest sztuczna inteligencja, znaczy, czy wiesz, co to jest sztuczna inteligencja, to mniej więcej, chyba tam było 80% osób powie, no jasne, że ja wiem, ja wiem wszystko o sztucznej inteligencji. A jeżeli powiesz im definicję OECD, to to spada do około 40 paru procent.   Możemy ją tak w skrócie przytoczyć jako, że system sztucznej inteligencji to jest właśnie system maszynowy, który może podobnie jak ludzie dokonywać jakiś prognoz, rekomendacji lub decyzji, które wpływają na rzeczywiste lub wirtualne środowisko. 

Więc mniej więcej tak to się okazuje, że powiedzmy połowa Polaków i Polek wie czym jest sztuczna inteligencja, ale poza samą wiedzą dochodzimy do tego aspektu właśnie można powiedzieć pracowego czy produktywności i z respondentów,  i respondentek 4% często lub zawsze korzysta z AI w pracy, a 50% prawie rzadko lub nigdy. Więc znowu trochę dochodzimy do tego podobnego elementu, że to nawet nie jest tak, że przedsiębiorstwa jako takie, tylko pokrywa nam się ta, jakby te dwie liczby tutaj pokrywają się, jeżeli chodzi o to, że no większość osób nie korzysta w pracy z tych różnych rozwiązań. No oczywiście to jest pytanie,  Skoro pracodawca ich nie udostępnia albo nie facylituje tego procesu, no to oczywiście jest dużo trudniej osobie pracowniczej albo czasem nawet nie może, jeżeli właśnie jest pewnego rodzaju stres czy strach w organizacji. 


Karol: W dużych organizacjach tak, ale w MŚP to często jednoosobowe działalności gospodarcze albo niewielkie zespoły i tam liczy się przede wszystkim ciekawość i umiejętność samodzielnego wdrożenia tego typu rozwiązań. 


Pamela:   Też myślę, że po części tak, a po części jest zawsze taka idea, powiedzmy, to, co jest popularne. Jeżeli ja wiem, że, nie wiem, powiedzmy, jeżeli faktycznie to 103%, tak, no to jeżeli znam stu przedsiębiorców, mam stu kolegów i koleżanki, przedsiębiorców i przedsiębiorczynie i trójka z nich używa AI, no to nic dziwnego, że jeżeli pogadam średnio, nie wiem…  czwórką z nich, no to nie dowiem się niczego w tym temacie. Więc to też jest trochę takie, po pierwsze, facylitacja, żeby to w ogóle się pojawiło w głowach i w perspektywie tych osób, a po drugie, faktycznie potem już idzie trochę taką falą, nie? No bo jeżeli ja tego używam i ty tego używasz, albo ja tego nie używam, a ty tego używasz, to już wchodzi przewaga rynkowa i jakaś taka przewaga właśnie radzenia sobie z rzeczami, no. 


Karol: To czego ludzie obawiają się najbardziej w kontekście sztucznej inteligencji


Pamela:   No właśnie, w sensie a propos tej naszej, można powiedzieć, ankiety z bajosowanego badania, można właśnie spojrzeć sobie na ten raport i to, co mnie bardzo pozytywnie zaskoczyło, to po pierwsze tak, a propos tego, co mówiliśmy o tej pracy, to faktycznie 42% osób sądzi, że sztuczna inteligencja wyeliminuje więcej miejsc pracy niż stworzy, a 18%, czyli powiedzmy połowa, w drugą stronę.   Czyli tutaj widzimy, że faktycznie tych osób jest stosunkowo dużo, no a z drugiej strony jest aż połowa tamtej grupy respondentów, w sensie połowa liczbowo, uważa, że faktycznie jest możliwość, że tych miejsc pracy będzie więcej, co może faktycznie na te 42% akurat trafiliśmy w naszych dyskusjach.   Ale także jeżeli chodzi o strach taki generalny, bo ja byłam bardzo źle nastawiona, zła można powiedzieć nawet, biorąc pod uwagę, jakie było medialna perspektywa na sztuczną inteligencję po urodzeniu się czata, że tak powiem. I to, że było właśnie bardzo dużo takich nagłówków i dyskusji.   AI zabierze ci pracę, AI już jest mądrzejsze niż człowiek, w ogóle my się już do niczego nie możemy tak naprawdę nadawać. Oczywiście koloryzuje, ale tylko trochę, w niektórych przypadkach. I to było dla mnie strasznie smutne i mega mi było z tym ciężko, bo myślałam sobie, wow, cała moja praca, którą robię w tym, że próbuję jakoś zbliżyć ten temat do osób i powiedzieć im, są faktycznie te elementy, gdzie należy uważać, na przykład ta prywatność danych, bezpieczeństwo, ale  Tak naprawdę, jeżeli będziemy tego używać i jeżeli będziemy, jak to mówią w High School Musical, all in this together, to faktycznie możemy użyć tego w dobrej perspektywie i dla naszego wspólnego użytku. 


Karol: A chyba świadectwo działa najlepiej w takim przypadku. 


Pamela: Absolutnie, świadectwo działa, tylko też jest kwestia, żeby pokazywać, no właśnie, jak i też w taki sposób, żeby to było zrozumiałe. Bo też jest znowu ta kwestia tego, że ja mogę pokazywać, nie wiem, jako programistka, patrzcie, napisałam sobie takiego super snippeta,  Ale nie wszyscy może mogą takiego z niej pytań napisać, albo nawet zrozumieć, albo nawet go przełożyć na swoją perspektywę. Więc to też jest taka kwestia, znowu, pracy u podstaw. Najpierw wytłumaczenie, o co tu chodzi, a potem pokazanie, jak to można użyć, nawet nie rozumiejąc czy nie umiejąc pewnych rzeczy. Co jest tutaj mega ważne. I właśnie w kontekście takiego straszenia trochę sztuczną inteligencją, mega mnie pozytywnie zaskoczyło w tym raporcie,  że ludzie po tym, czego ja się spodziewałam, nie boją się aż tak bardzo sztucznej inteligencji. 

Tylko 6% tutaj respondentów, respondentek czuje strach, jeżeli chodzi jakby, jakie emocje zgłóza w tobie temat AI, to to jest 6%, a zaciekawienie to jest 40%.   Więc więcej jest ciekawości. Oczywiście znowu dochodzimy do kwestii tego, jak są zbierane dane w badaniach, jak ludzie odpowiadają i może ci ludzie, którzy się bali, to w ogóle nie chcieli rozmawiać. Więc oczywiście znowu dochodzimy do tego, jak w ogóle te dane zbieramy i jak z punktu widzenia takiej ankiety, czy jakby perspektywy zbierania danych od ludzi to wygląda. Ale no to była rzecz, która mnie ucieszyła i sprawiła, że myślałam sobie, kurczę, może jeszcze jest miejsce, gdzie możemy faktycznie pokazać, że należy uważać, gdzie należy.   Ale generalnie używajmy tego po prostu bezpiecznie i odpowiedzialnie. 


Karol: Podobnie tak jak w przypadku rewolucji przemysłowej. Rewolucja przemysłowa zebrała mnóstwo miejsc pracy, ale zobaczmy ile stworzyła nowych. 


Pamela: Tak, a z drugiej strony dla mnie to tutaj możemy wrócić sobie do E-Aktu. Jak myślę o rewolucji przemysłowej i o 14 godzinach pracy 10-letnich dzieci,  to myślę sobie o tym, że niesamowicie ważne jest to, że teraz mamy perspektywę na przykład regulacji, która umożliwia nam, mam nadzieję, nie znalezienia się w takim samym miejscu, w sensie, że możemy rip the rewards bez radzenia sobie z takimi Manchesterowymi fabrykami, które kiedyś faktycznie istniały. 


Karol:   A kto wie, być może doprowadzimy do tego, że dzień pracy to będą cztery dni, a trzy dni będziemy mieli wolnego. 


Pamela: Myślę sobie, że to znowu jest kwestia, znaczy tutaj musimy wejść trochę głębiej i szczerze mówiąc, tak jak zawsze powtarzam, właśnie ta multidyscyplinarność sprawia, że bardzo chciałabym wiedzieć wszystko, a niestety mogę wiedzieć tylko ograniczoną ilość rzeczy związanych tutaj w przypadku z ekonomią, tak? Czyli  Jeżeli faktycznie bylibyśmy w stanie zgodzić się, że możemy mieć taki sam poziom produktywności, czyli taki sam poziom zysków, to super faktycznie, bo EA może dać nam dużo więcej, ale jakby w przypadku, kiedy cały czas chcemy więcej i idea jest taka, że rynek musi cały czas rosnąć, no to… Giełda musi rosnąć. No to gdzie jest granica tej naszej pracy i czy faktycznie możemy pracować mniej? 


Karol: Temat na odrębny odcinek. 


Pamela: Na pewno nie ze mną, bo ja mogę tylko pomachać rękami i powiedzieć, że ekonomia to ważna rzecz. 


Karol:  Dobrze, a gdzie w takim razie Polska jest w temacie AI? 


Pamela: No to wydaje mi się, że tutaj możemy absolutnie wrócić do tego, co już sobie powiedzieliśmy, czyli tak, mamy politykę, która na pewno potrzebuje właśnie szerokich konsultacji społecznych, a także potrzebuje update’u, jeżeli chodzi o różne elementy związane z technologiami, które się pojawiły, bo to jest zawsze kwestia  że pewne prawo czy pewne dokumenty nie nadążają za technologią i jak sprawić, żebyśmy byli jakby jak najbliżej i tę tutaj dziurę zmniejszali, więc to jest jedna rzecz. Druga rzecz jest właśnie taka, że staramy się promować te ważne projekty i to też jest super, że  Właśnie one się dzieją i właśnie te, o których tutaj sobie powiedzieliśmy, czyli właśnie Plum, strona, próba właśnie takiego zbliżania sztucznej inteligencji czy innowacji do obywatela, obywatelki, różne właśnie perspektywy takie społeczne i ta dyskusja dwustronna, czyli to wsparcie grupy roboczej plus to jak grupa robocza właśnie wspiera także obywateli i obywatelki swoją pracą.   Ale oczywiście jest jeszcze dużo miejsc, gdzie możemy się poprawić. Jak spojrzymy sobie tutaj na taki rynek, nawet na perspektywę europejską. No bo to jest też, jest oczywiście perspektywa światowa, ale też perspektywa europejska. 

Już w kontekście absolutnie administracji publicznej. No oczywiście nie da się nie wspomnieć o Estonii, która jest koroną, nosi koronę cyfryzacyjną w Europie. I mają do tego bardzo dobre powody, bo na przykład oni… Mają swojego CTO.   Tak, oczywiście, więc jakby państwo firmowe, które się firmuje w pewnym sensie można tak powiedzieć. No oczywiście o innym setupie, to też jest kwestia tego, różne państwo mają różne setupy, jeżeli chodzi o kto z kim, jak pracuje, jakie mają ministerstwa, resorty, to też oczywiście zmienia pewnego rodzaju to, gdzie się znajduje.   Ale jeżeli chodzi właśnie o różne projekty i plany, oni też mieli plan sztucznej inteligencji, więc też jest i update’ują, więc warto wiedzieć, że nie tylko my ciężko pracujemy, ale Estonia także. 


Karol: Przepraszam, że ci wejdę w słowo. Czy masz może wiedzę na temat tego, ile firm w Estonii wykorzystuje sztuczną inteligencję? Ciekaw jestem niezwykle. Jak wiesz, skoro Estonia jest takim jednorożcem,  i krajem, który jest wskazywany jako ten, który najszybciej rozwija się w kontekście usług cyfrowych i usług związanych ze sztuczną inteligencją w sektorze publicznym, to ciekaw jestem, jak wygląda adaptacja tych technologii przez firmy w Estonii. 


Pamela: Niesamowite. W 2023 to było 5% przynajmniej jednej AI-owej technologii. W zeszłym roku było to 3%. 


Karol: Z drugiej strony stosunkowo mało, patrząc na to, że u nas to 3%


Pamela:   Tak, znaczy jedno to jest to, że nie tylko liczy się wartość bezwzględna, ale także wartość względna, więc jakby wartość względna to jest tutaj istotne, że to jest jednak od 3 do 5, czyli wzrost 66%, co jest dużo, ale no, więc widać, że to jest trudna robota.   Nie tylko dla nas jest trudne, tylko generalnie jest trudne. Ale generalnie polecam Wam sprawdzić, dlatego że przyznaję się, że to, co teraz sprawdziłam, to sprawdziłam w Bing AI. 


Karol: Tak naprawdę jesteśmy na początku tej drogi w każdej dziedzinie. Dobrze, Estonia jedno, a jak wygląda w tym temacie Europa? Jak wyglądają pozostałe regiony? Może mamy jakieś ciekawe przykłady wdrożeń w ramach administracji publicznej w innych krajach? 


Pamela:   Właśnie w Estonii mamy bardzo fajne, o którym chcę powiedzieć, bo to jest wdrożenie, które jest już w testach i oni planują je wyrolować w 2025. I to jest aplikacja, która nazywa się Biurokrat, czyli takie trochę wsparcie dla obywatela, obywatelki w kontekście wszystkich rzeczy związanych z administracją publiczną.   Czyli tak jak my mamy, powiedzmy, M-Obywatela i mamy apkę, no ale z M-Obywatelem sobie nie pogadamy. Idea jest taka, że wyobraźcie sobie, że macie jeden interfejs, w którym możecie zapytać głosowo, pisemnie o to, jakie macie recepty na koncie, do kiedy one są, z którymi możecie pogadać o tym, że chcecie się umówić na 8.30 jutro do urzędu, żeby odebrać dowód i żeby wam zasetupowali takie miejsce. Więc jakby trochę włączenie właśnie tego elementu  takiego interfejsu głosowego, ale też pisemnego, ale języka naturalnego, co jest najważniejsze, podłączenie do wszystkich interfejsów takich właśnie publicznych administracji. 


Karol: Chyba nigdy wcześniej nie było tak dużej potrzeby integracji działań pomiędzy ministerstwami, instytucjami publicznymi i działania razem. 


Pamela:   Po pierwsze jest bardzo ważne właśnie w tym naszym kontekście polityki, o którym mówiliśmy, pewnego rodzaju wspólna perspektywa na wiele rzeczy, ale to, co jest właśnie ważne, to jest to, że w jednym miejscu możemy zobaczyć wszystko, bo to, co jest bolączką ludzi często i to jest moją też bolączką, więc to nie jest tak, że mówię ludziom moją nie, jest to, że rzeczy są w pewnym sensie czasem rozczłonkowane, a potrzebujemy je konsolidować. 


Karol:   A prawda jest taka, że państwo jest tak naprawdę jedną wielką korporacją i wychodzi na to, że do tej pory bardzo mocno rozczłonkowaną. 


Pamela: To też jest na inną dyskusję oczywiście, kwestia jak i na jakich zasadach tutaj to działa, ale myślę, że zawsze jest ciężko łączyć, jakby nawet w ramach Departamentu Operacji i Departamentu Marketingu w korporacji ciężko jest łączyć działania, więc zawsze ten wspólny front, zawsze w dużych organizacjach wspólny front jest trudny.   I to też z perspektywy tutaj cyfryzacji, jako takiego miejsca, gdzie możemy wypracowywać wspólny front, który ładnie się później przenosi na wszystkie dziedziny życia i działania państwa, jest ważne. W ogóle powiedzmy sobie jeszcze o tym, że to nie jest tak, że Estończycy mają, a Polska nic nie ma, dlatego że w Gdyni zrobiono wdrożenie właśnie w mieście związanym z tym, jak jesteśmy w stanie, czyli osoby, które są na infolinii i normalnie gadają z osobami mieszkającymi, którzy mają jakieś zapytania,  mają swojego wdrożonego właśnie takiego bota działającego na generatywnej sztucznej inteligencji, który wspomaga te osoby w odpowiadaniu na pytania petentów. Chyba już nie ma tego słowa jak petent. 

Klientów, osób, które przychodzą. Więc to też jest tak, że oczywiście w mniejszej skali, ale takie rzeczy także są u nas lokalnie i to super, że także oddolne inicjatywy, no bo to jest inicjatywa mięśna, czyli inicjatywa powiedzmy niższego szczebla, więc jakby to super, bo ten  No właśnie, ekosystem i ta cała praca musi iść z dwóch stron, więc to też mega mnie to cieszy. Inne case’y, na przykład ja jestem bardzo dużą fanką case’u z Helsinek, bo oni wymyślili taką rzecz, że hej, w sumie robimy dużo zmiany na mieście, u nas, na dzielni i chcielibyśmy, żeby ludzie mogli zobaczyć, jak to będzie wyglądać.   I de facto pozwalają ludziom generować, jak na przykład pewna zmiana może wyglądać w wersji obrazowej i oni mogą potem powysyłać. Hej, w sumie to jest fajne, chcielibyśmy mieć klombik tutaj po lewej stronie, a tu na przykład by się przydała latarnia. Więc jakby to też jest taka perspektywa zobaczyć faktycznie, ta sztuczna inteligencja, no w tym przypadku też generatywna, pozwala im zobaczyć ten przyszły wygląd miasta. Co moim zdaniem jest mega. To się nazywa Urbanist AI. Możecie sobie zobaczyć.   No oczywiście to nie są tylko generatywne historie. 


Karol: Śmieję się w duchu, bo ostatnio miałem ciekawą rozmowę dotyczącą tego, jak bardzo potrzebna jest urbanistyka w naszym pięknym kraju i jak do tej pory była zaniedbywana. 


Pamela: No właśnie i to też jest miejsce, gdzie sztuczna inteligencja może nam pomóc, a nie przeszkodzić. Ale no właśnie, to nie są tylko generatywne historie. To są też historie, na przykład Singapur bardzo dużo robi takich testów związanych z tym na przykład, czy biorąc pod uwagę…  różne twoje warunki fizyczne i psychiczne, jakie masz szanse na to, że będziesz na przykład miał jakieś choroby w przyszłości. I robią takie testy przesiewowe. Więc to też jest ważne, że to też jest w pewnym sensie bold move, bo to jest już zdrowie publiczne. I oni faktycznie, generalnie polecam wam zobaczyć sobie, jakie tam różne setupy mają w Singapurze, bo to jest naprawdę społeczeństwo 10.0, jeżeli chodzi właśnie o taką perspektywę. 


Karol: Byłaś ostatnio na konferencji w Indiach. Coś ciekawego tam usłyszałeś? Coś ciekawego zobaczyłaś? 


Pamela:   Rzecz, która mnie mega zadziwiła i stwierdziła, że super bym chciała, żeby coś takiego było zrobione w Polsce, jest rejestr modeli. Czyli wszystkie modele, które są używane przez administrację w Amsterdamie, są udostępnione w takim rejestrze i możesz sobie zobaczyć właśnie na przykład taki model bazuje na tym i na tym, tak możemy go rozumieć. W sensie jakby pokazanie osobom ten rejestr, żeby znowu wzbudzić, budować to zaufanie. 

Więc to jest mega rzecz. Po drugie, wielkie wsparcie rolnictwa.   W Indiach generalnie mają bardzo dużo projektów związanych z wsparciem, ten Amsterdam oczywiście, to jest Amsterdam amsterdamski, a nie w Indiach, ale o tym właśnie mówili, więc tak mi się wbił, ale w samych Indiach właśnie na przykład bardzo dużo projektów związanych z wsparciem rolnictwa, czyli wegetacji, jak można optymalnie podlewać, jak można optymalnie nawozić, też związane z tym jaka jest pogoda, nie tylko z jakimiś zasadami, które są wypisane na kartce.   Więc to też na przykład z perspektywy polskiej, gdzie u nas także mamy rolnictwa sporo, no to też jest taka rzecz, która myślę, że potencjalnie jest istotna i do zastanowienia się. No ale generalnie dużo bardzo fajnych case’ów także w administracji, no ale generalnie także w życiu obywateli. I to, co dla mnie było najważniejsze, że to nie tylko były case’y w sensie o właśnie jak super podnieśliśmy produktywność,  Ale jak zbudowaliśmy zaufanie, jak pokazaliśmy o co chodzi i jak ludzie mogą już wiedzieć, że tak naprawdę te systemy są zaufane? 


Karol: Jak patrzę na to wszystko, wydaje mi się, że to co zmienia sztuczna inteligencja, to przeniesienie poziomu komunikacji na zupełnie inny poziom. Dzięki dostępności informacji, dzięki ułatwianiu komunikacji właśnie. 


Pamela:   Tak, to też, ale oczywiście to jest zawsze takie, nie da się mieć ciastka i zjeść ciastka. W pewnym sensie to doprowadziło nas, w sensie rozwój tego jest obusiecznym mieczem, bo ten dostęp do informacji jest bardzo szybki, ale na przykład bardzo długa jest ścieżka sprawdzenia informacji. Czyli na przykład w momencie, kiedy korzystam z jakichkolwiek modeli generujących informacje, to dotarcie do tego, z jakich źródeł te informacje zostały zbudowane, a później zweryfikowanie już samych źródeł, dlatego że w internecie oczywiście źródła są różne,  to jest kolejna warstwa czy kolejny poziom, na którym te informacje muszą być zweryfikowane. Już nie tylko czym jest źródło artykułu. 


Karol: Trustworthy AI. 


Pamela: Dokładnie, Trustworthy AI, czyli na czym jakby, bo źródło to jest jedno, czyli powiedzmy źródło takie boczne w stylu newsy, ale na czym model był zbudowany, także wpływa na to, jak on przetwarza te informacje. Więc open source, open data, w ogóle otwieranie wszystkiego, pełna transparentność, to jest kierunek, w którym, no oczywiście gwiazdka,  zgodnie z zasadami bezpieczeństwa. W sensie jakby otwieranie na tyle, żeby cały czas była to bezpieczna technologia i żeby bezpiecznie można było jej używać, ale to jest po prostu dla mnie klucz. 


Karol: Twoja wizja państwa cyfrowego za 5-10 lat? 


Pamela: Myślę, że jeżeli jest jedna rzecz, która dla mnie byłaby kluczowa, no bo cyfrowe to jest jedno, czyli jakby jakie cyfrowe technologie, jakie innowacje możemy wprowadzić, ale znowu wracamy do tego elementu świadomości.   I dla mnie podstawą cyfrowego państwa jest świadomość obywateli, osób młodych, osób starszych, wszystkich o tym, co, czym jest i jakby jak działa. I jeżeli uważam, że jest coś, co może faktycznie sprawić, żeby Polska była cyfrowym państwem, ale cyfrowym w sposób odpowiedzialny, cyfrowo w sposób bezpieczny, to jest to świadomość. I to podnoszenie świadomości, znowu wracam do tego słowa, klucz jest tym elementem,  który myślę, że tą wizję może zrealizować. 


Karol: Słysząc to zakładam, że linia komunikacyjna pomiędzy waszym Ministerstwem Cyfryzacji a Ministerstwem Edukacji powinna być czerwona. 


Pamela: Tak, ale znowu jest ta kwestia, że trochę z wszystkimi ministerstwami, każdy z każdym musi rozmawiać. 


Karol:   Możesz polecić jakieś ciekawe źródła wiedzy, blogi, książki, kanały na YouTubie? 


Pamela: Przyznam się wam, że ja w moim wolnym czasie dosłownie jestem jak zwykły człowiek i słucham kontentu na temat Imperium Rzymskiego. Więc mogę wam polecić rzeczy, które uważam za wartościowe. I po pierwsze, jeżeli jesteście osobami, które aż tak się nie znają może na sztucznej inteligencji, to ja w ogóle uwielbiam tą całą serię rzeczy for babies.   Czyli są właśnie np. Neural Network for Babies i jeżeli mówimy o tłumaczeniu i świadomości i rozumieniu, to w taki sposób, w jaki w tej książce macie wytłumaczone sieci neuronowe, w taki sposób musimy tłumaczyć w ogóle sztuczną inteligencję i jakiekolwiek technologie cyfrowe. 


Karol:   To było moje założenie, jak tworzyłem jakiś zarys tego, w jaki sposób mają wyglądać 99 twarzy, że chciałbym tłumaczyć ludziom sztuczną inteligencję mniej więcej tak, jak tłumaczy się siedmiolatkom otaczający świat w sposób zrozumiały, obrazowy. 


Pamela: Sztuczna inteligencja for babies. W takim razie to jest nowy, wspaniały projekt.   Myślę sobie, że z polskiej perspektywy bardzo Wam polecam konto Sylwany Kaźmierskiej na Instagramie programistka podkreślnik AI, która właśnie opowiada znowu w prosty sposób, tłumaczy pewne technologie, właśnie sztuczną inteligencję. 

Miała bardzo fajną serię o LLM-ach, o co tam chodzi, co to ta halucynacja, o co w ogóle chodzi z tymi wszystkimi rzeczami, więc też osobom babciowym, dziadkowym, wszystkim ludziom mega polecam.   Dla osób bardziej, jak chcecie się więcej dowiedzieć, to po pierwsze bardzo Wam polecam newsletter Gary’ego Marcusa, który jest profesorem na uniwersytecie bodajże teraz w Nowym Jorku, Marcuso Neyaj, gdzie on mówi, on jest etykiem, ale socjologiem, osobą, która de facto trochę podważa status quo, jeżeli chodzi o narrację dotyczącą sztucznej inteligencji w wielu przypadkach.   I dla mnie to jest taki fajny wytrych, jak czasem mega wpadnę w jakąś kolejne myśli, to on rzuca takie rzeczy, które czasem myślę, ej w sumie to może on ma rację, a może powinnam myśleć o tym inaczej. Więc to jest dla mnie taki fajny właśnie wytrych myślowy. I dla tych z was, którzy no właśnie, albo boją się bardzo, albo boją się za mało sztucznej inteligencji,  Dla tych z Was, którzy chcieliby zobaczyć sobie, jak to może działać i jakie są argumenty niektórych osób dotyczące sztucznej inteligencji i tego, dlaczego potencjalnie jest ona niebezpieczna, myślę, że to jest mega wartościowa książka, jeżeli chodzi o argumentację, to jest Superinteligencja Nika Bostroma.  który właśnie trochę porównując sobie taką perspektywę właśnie na przykład Nicka Bostroma i Gary’ego Marcusa, myślę, że to są takie wartościowe punkty, od których można też wiele się dowiedzieć i być adwokatem albo adwokatką diabła na wszystkich dinner discussions na temat sztucznej inteligencji. 


Karol:   Pamela, serdecznie Ci dziękuję za Twój czas. Gratuluję Ci Twojej energii, wiedzy, zaangażowania i trzymam kciuki za to, co chcesz zrobić w ciągu najbliższych miesięcy i lat dla nas Polaków. Może to zabrzmi grudnolotnie, ale wiesz, tak jak na Ciebie patrzę, życzę sobie i nam wszystkim takich ludzi po stronie administracji, którzy działają w taki sposób, z taką energią i z takim zaangażowaniem. 


Pamela:  Dziękuję i niech twoje 99, znaczy nieskończoność twarzy AI i niech buduje nasz wspaniały, polski, światowy ekosystem sztucznej inteligencji. 


Karol: Niech AI będzie z nami wszystkimi.   Dzięki serdeczne za Waszą uwagę i czas. Jeżeli podobał Ci się ten odcinek, będę serdecznie zobowiązany, jeżeli puścicie go dalej w świat. A tymczasem pozdrawiam Was serdecznie. W przypadku jakichkolwiek pytań lub chęci nawiązania potencjalnej współpracy, piszcie na adres karol@99twarzyai.pl. Do usłyszenia.