6/99 – Co to jest AI Act? Jak będą wygladać regulacje #AI w Polsce i Europie? Mikołaj Sowiński z SK&S Legal

Witajcie w dzisiejszym odcinku naszego podcastu, w którym przyglądamy się jednemu z najważniejszych wydarzeń w świecie technologii – uchwaleniu AI Act. Dziś rozmawiam z ekspertem w dziedzinie prawa nowych technologii, Mikołajem Sowińskim, partnerem w kancelarii SK&S Legal, który od ponad dwudziestu lat jest na froncie walki o prawa intelektualne w sektorze IT.

Mikołaj, jako członek zarządu EuroITCounsel i doradca międzynarodowej organizacji Business Software Alliance, posiada unikalne doświadczenie w zakresie prawa komputerowego i ochrony praw autorskich do oprogramowania. Jego praca dla Polskiej Izby Informatyki i Telekomunikacji oraz doświadczenie jako arbiter Komisji Prawa Autorskiego nadają mu głębokie zrozumienie problematyki prawnej związanej z technologią.

W naszej rozmowie skupimy się na tym, jak nowe regulacje, jakimi jest AI Act, wpłyną na rozwój sztucznej inteligencji w Unii Europejskiej. Omówimy potencjalne wyzwania i możliwości, które przyniesie ta zmiana, i jak branża IT może się do niej dostosować.

O czym rozmawiamy dzisiaj?

  1. Skąd AI i prawo w pracy Mikołaja? 
  2. Z kim pracuje? W jakich ciekawych projektach, w których brał udział?
  3. Rozmawiamy o AI Act.
    1. Co reguluje projekt Rozporządzenia?
    2. Kto będzie musiał się dostosować?
    3. Jak uregulowane są obowiązki prawne?
    4. Kiedy rozporządzenie wejdzie w życie?
  4. Systemy wysokiego ryzyka – czym są i jak wygląda regulacja w ich przypadku?

Zdjęcia

Notatki

Zdjęcia: Mariusz Fijka

Transkrypcja rozmowy

Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.

Karol Stryja:   Mikołaju, witam cię serdecznie w 99 twarzach AI. Witaj, cześć. Czy mógłbyś się przedstawić naszym słuchaczom, kim jesteś, czym się zajmujesz i skąd się wziąłeś w świecie informatyki, startupów, biznesu, no i też trochę sztucznej inteligencji? 


Mikołaj Sowiński:   Jestem prawnikiem, partnerem w kancelarii Sołtysiński-Kawecki-Szlęzak i kieruję naszym zespołem zajmującym się nowymi technologiami. Ponad 25 lat praktyki, w tym roku w zasadzie mija już 28 rok. Rzeczywiście w zasadzie od prawie samego początku gdzieś chodziłem wokół nowych technologii, dlatego że w pierwszym roku pracy zostałem skierowany na odcinek Microsoftu.   I takiej organizacji, która nadal działa i nadal ją reprezentujemy. 


Business Software Alliance. To była praca związana ze ściganiem piractwa komputerowego. W tamtych latach to w ogóle było… W tamtych latach było bardzo dużo pracy. 


Karol: Pamiętam tylko, przypomnę ci, pochodzę z Wrocławia i pamiętam jak wyglądała co niedzielę stołówka na Politechnice Wrocławskiej. Jak się jeździło tam, kopiowało się gry, programy na 7-8 dyskietek. Przejeżdżało się potem do domu i okazywało się, że siódma niestety, ale jest uszkodzona. 


Mikołaj:   Tak, ja z kolei ze starych czasów pamiętam, bo mówiliśmy wcześniej, zanim zaczęliśmy nagrywanie, że moja przygoda z komputerami zaczęła się od Commodora 16 w 87, pewnie, nie, wcześniej, w 85 roku i chwała Bogu na Commodora, tak jak na ZXP, którym nie było gier, ale niektóre były i pamiętam, że jeździłem do Gniezna po kasety magnetofonowej, jeździłem takiego gościa, który mi przegrywał z karsety magnetofonowej na kasetę magnetofonową sygnał,  dzięki któremu potem można było grać na grach komputerowych. Na szczęście było ich niewiele. Teraz niewyobrażalne prawie. W ogóle niewyobrażalne na kilkudziesięciu kilobajtach pamięci zrobić grę komputerową. Jaka musiała być dyscyplina myślenia i dyscyplina programowania, prawda? 


Karol: Wróćmy do tego piractwa. 


Mikołaj:   No tak. I rzeczywiście w ogóle ten problem piractwa wymagał oczywiście w ogóle zrozumienia tego, czym jest program komputerowy, jak jest chroniony, na czym polega korzystanie z programu komputerowego, przekładając na język prawny. I to była niesamowita szkoła na początek w ogóle zrozumienia tego wszystkiego. Pamiętam, że przeczytałem taką książkę, która…   Dla mnie była absolutnie fenomenalna, nieżyjąca już pani profesor Aurelii Nowickiej z Poznania. I ona napisała taką malutką książeczkę, ochrona programów komputerowych. Jak to pani profesor, słynęła z bardzo precyzyjnego języka, bardzo dobrze rozkminiła i wyjaśniła, na czym właśnie polegają te pola eksploatacji, na których korzystamy z programów komputerowych, na czym polega zwielokrotnienie, co jest RAM, co jest pamięcią podręczną i tak dalej, i tak dalej. 


Fundamenty. Tak, takie fundamenty, które do dzisiaj się absolutnie przydają.   Bo nawet kiedy myślimy o sztucznej inteligencji i zaczynamy myśleć o tym, czy modele generatywne wkraczają w prawa autorskie utworów, które są w przestrzeni internetowej, no to wracamy dokładnie do tych samych pojęć, tak? Zwielokrotnienie, jakie zwielokrotnienie, czy tymczasowe, czy permanentne i tak dalej, i tak dalej. To są cały czas pojęcia, które ja nauczyłem się z książki profesor Nowickiej. 


Karol:   Tylko zwielokrotnie nie jest tutaj przez byt, którego nie możemy dotknąć. 


Mikołaj: No to prawda, ale ktoś jednak wkracza w ten monopol. To pewnie potem jeszcze o tym porozmawiamy, bo to jest bardzo ciekawy problem i chyba na razie jeszcze nierozwiązany na poziomie prawnym, chociaż oczywiście pojawiają się problemy.   Już dyrektywy, pojawiły się już dyrektywy, jeszcze nie implementowane w polskim prawie, ale to pewnie o tym jeszcze sobie pogadamy. 


Karol: Przejdźmy do teraźniejszości. Czym obecnie się zajmujesz, jeżeli możesz powiedzieć o obszarach, których dotykasz? 


Mikołaj: No to jest oczywiście cały czas szeroko rozumiane prawo komputerowe, wdrożenia informatyczne, umowy licencyjne, ale też oczywiście, ponieważ wchodzą nowe regulacje dotyczące sztucznej inteligencji, to też zaczynamy w tym działać.   Pewnie o tym jeszcze za chwilę powiemy. Bardzo ciekawe czasy nas czekają. 


Karol: A pamiętasz ten moment, kiedy pojawił ci się błysk w oku, kiedy pomyślałeś, hmm, #AI. 


Mikołaj: Ja nie wiem, czy to był błysk w oku. Jestem paradoksalnie bardzo tradycyjnym człowiekiem. Wolę książki niż komputery. 


Karol: Rozmawialiśmy o książkach. 


Mikołaj: Tak, wolę książki niż komputery. Spytałeś mnie, żebym powiedział, co teraz czytam o nowych technologiach, to cię poinformowałem, że czytam w tej chwili „Przeminęło z wiatrem”. Znakomita książka. Znakomita książka. Notabene przeczytałem właśnie, że Mitchell napisała ją w wieku 26 lat. W wieku 26 lat napisała niesamowitą powieść, która wygrała Nagrodę Pulitzera. 


Karol: Przeminęło z wiatrem wygrało Nagrodę Pulitzera? Tak. Ciekawe.   Chyba, wiesz co, chyba w takim razie dam jej szansę. 


Mikołaj: Tak, to jest naprawdę znakomita książka. 


Karol: No dobrze, a czy możesz powiedzieć, jak zaczęła się twoja przygoda, właśnie kiedy zobaczyłeś rozwiązania oparte o AI, o sztuczną inteligencję, o uczenie maszynowe? 


Mikołaj: W zasadzie to są bardzo niedawne czasy, dlatego że duża część tych rozważań to są na razie rozważania bardzo teoretyczne, dlatego że oczywiście AI funkcjonuje, AI rozwija się,  Ale cały czas staramy się do EIA stosować przepisy takie, jakie one w tej chwili są. I powiedzmy sobie szczerze, że wiele rzeczy nam umyka na razie. 


Karol: To jest nowa rzeczywistość. 


Mikołaj: Tak, tak. 


Już pomijając nawet to, że my nawet do końca nie wiemy, co się w tych systemach dzieje.   prawda? I myślę, że nawet sami twórcy nie wiedzą, co się w tych systemach dzieje. W związku z tym trudno czasem tak do końca zastosować aktualne przepisy. Wiemy o tym, że w tej chwili, jeżeli chodzi o AI, to rzeczywistość swoje i prawo swoje. Być może to się zmieni, ale tak, pojawiają się pierwsze roszczenia już. Mamy case, który jest związany z roszczeniami artysty, który uważa, że nigdy nie dał zgody na to, żeby jego utwory były  przetwarzane przez systemy sztucznej inteligencji. 


I nagle pojawia się takie pytanie, czy rzeczywiście twórcy sztucznej inteligencji mogą sobie na to pozwolić, mogą sobie pozwolić na takie działania, czy nie. Więc to są takie case, które się już oczywiście pojawiają. Natomiast wydaje mi się, że  Oczywiście wiele jest spraw z praktyki, które w tej chwili się dzieją. Są kejsy w Stanach, są pierwsze kejsy w Europie. Natomiast myślę, że jest takie duże wyczekiwanie na pierwsze regulacje unijne, które niedługo wejdą w życie, chociaż cały czas dyskusja toczy się, jak one mają do końca wyglądać.   Już mniej więcej wiemy, jak będą one wyglądały, to wiele się pewnie nie zmieni. No i wtedy zacznie się znowu Eldorado dla prawników, dlatego że to nie będzie tylko i wyłącznie ocenianie ryzyka i mówienie, co można, a czego nie można, ale to cały proces dostosowywania tak naprawdę działalności firm, które dostarczają AI do nowych regulacji, a te nowe regulacje nakładają jednak spory zakres obowiązków. 


Karol:   Rozmawiamy o tych regulacjach, zatem tutaj pojawia się AI Act, o którym chciałem z Tobą właśnie podyskutować. 


Mikołaj: Czym tak naprawdę jest AI Act? To jest moim zdaniem próba Unii Europejskiej. Próba, która ma na celu uniknięcie zagrożeń, które ze sobą AI niesie. Kiedy czyta się nawet pierwsze przepisy aktu o sztucznej inteligencji, to zwraca uwagę to, że główny nacisk kładzie się na ryzyko, na eliminowanie tego ryzyka,  a nie do końca na tworzenie przestrzeni do swobodnego rozwoju sztucznej inteligencji. Oczywiście są również przepisy w tym akcie, które wspierają w szczególności małe i średnie przedsiębiorstwa, wspierają firmy, które mają współtworzyć sztuczną inteligencję w ramach łańcucha dostaw, ale tak naprawdę na końcu w tym akcie chodzi o to,  żeby sztuczna inteligencja była skierowana ku człowiekowi, żeby mu służyła, a nie żeby mu zagrożała. W związku z tym w sposób naturalny… 


Trochę górnolotne stwierdzenie. Ja nie jestem zwolennikiem ciężkich regulacji. Jestem naprawdę zwolennikiem wolnego rynku i swobodnej twórczości, ale myślę, że…   Akurat w tym przypadku, w przypadku sztucznej inteligencji, tak jak w przypadku ochrony prywatności, kiedy wchodziło RODO, też o tym się dużo mówiło, ale w przypadku sztucznej inteligencji te regulacje są absolutnie konieczne, ponieważ my wskakujemy do rozpędzonego pociągu. Sami twórcy, sami dostawcy sztucznej inteligencji nie wiedzą, jak ta sztuczna inteligencja działa i gdzie ona ich zaprowadzi. W tej chwili główni gracze na rynku prześcigają się w nowych rozwiązaniach i ponieważ ścigają się pewne wartości,  troszeczkę pozostają na boku. Nie mówię oczywiście o wszystkich dostawcach, ale na pewno modele generatywne, te modele językowe, które w tej chwili są tak niezwykle istotne i popularne, one niosą ze sobą ogromną liczbę ryzyk. Moim zdaniem dobrze, że Unia Europejska stara się jakoś na to spojrzeć, jakoś to uregulować. Czy to będzie skuteczne? Nie wiem. 


Karol:   Co tak naprawdę ma regulować AI Act? 


Mikołaj: Jak spojrzymy na akt o sztucznej inteligencji, to można by powiedzieć, że jest kilka obszarów, kilka rodzajów sztucznej inteligencji, które są w różny sposób regulowane. I co ciekawe, najwięcej czasu rozporządzenie, projekt rozporządzenia poświęca, najwięcej miejsca poświęca systemom wysokiego ryzyka, systemom zakazanym, bo również i takie są, modelom generatywnym,  I tak naprawdę wszystkim innym systemom sztucznej inteligencji o wiele mniej miejsca. 


Więc od razu widać, że głównie rozporządzenie rzuca światło na systemy wysokiego ryzyka i systemy zakazane, co w naturalny sposób pokazuje, że Unia Europejska będzie starała się jakoś okiełznać  Ale wtrącę jeszcze jedną rzecz. Ostatnio dwa tygodnie temu byłem na takim spotkaniu wideo, na którym prawnicy z różnych krajów mówili o kwestii regulacji, które wchodzą, mają wchodzić. I na przykład prawnik z Singapuru mówił o założeniach ich przepisów regulujących sztuczną inteligencję. I muszę powiedzieć, że wiele idei, które w rozporządzeniu unijnym pojawiają się, pojawiają się również tam.   to human-centric, czyli skierowanie na człowieka jako podmiotu, który powinien korzystać ze sztucznej inteligencji, a nie być przez… I podlegać ochronie. Więc jakby z tego punktu widzenia widać, że rozporządzenie bardzo dużo czasu poświęca na ryzyka, a nie na… Moglibyśmy krótko zdefiniować tylko Mikołaju. 


Karol: Zaczęliśmy od tych systemów wysokiego ryzyka, a o modelach generatywnych mówiliśmy w trzeciej kolejności. Czym tak naprawdę są te systemy wysokiego ryzyka i pozostałe te obszary? 


Mikołaj:   To może zacznę od tych najbardziej hardkorowych, czyli tych, które są zakazane przez Unię, czy będą zakazane przez Unię. One uregulowane są w ten sposób, że rozporządzenie pokazuje pewne obszary, w których sztuczna inteligencja, jeżeli będzie stosowana, będzie zakazana. Na przykład wszelkiego typu systemy, które stosują techniki podprogowe, manipulacyjne i wprowadzające w błąd, które mają wpływać na decyzje użytkowników, będą systemami…   Tak, na przykład deepfake chociażby. Jeżeli deepfake będzie służył manipulacji, to taki system będzie zakazany. Takie systemy, które wykorzystują słabości określonej grupy, skutkujące szkodą dla użytkowników. I tutaj pojawia się, wydaje mi się, temat dzieci i uzależnienia dzieci od urządzeń. 


Karol:   Rozmawialiśmy o tym jeszcze przed nagraniem. 


Mikołaj: Tak, tak. Pytanie jest takie, czy systemy, a przecież już wiemy, że takie portale jak TikTok, Snapchat korzystają już w tej chwili ze sztucznej inteligencji. Pytanie jest takie, czy one nie są wykorzystywane w sposób szkodliwy dla dzieci. Ale jeszcze parę przykładów zakazanych systemów. Takie systemy, które implementują scoring społeczny, czyli to, z czym mamy do czynienia w Chinach. 


Jak się dobrze zachowujesz, dostajesz punkty, jak się zachowujesz, podejmuje ci się punkty i w zależności od tego, ile masz punktów, masz dostęp do pewnych  świadczeń państwa albo i nie. Kolejny przykład to systemy wspomagające identyfikację biometryczną w miejscach publicznych, czyli skanujące ludzi i identyfikujące ich. Te wszystkie systemy będą zakazane. Takie rzeczy jak takie systemy, które oceniają ryzyko zachowań karalnych, czyli gdzie się urodziłeś, jak wyglądasz i do jakiej szkoły uczęszczałeś, czy to wpływa pozytywnie czy negatywnie na ryzyko dokonania przestępstwa przez ciebie. 


Skornik społeczny.   Co za tym idzie, na przykład zastosowanie systemów sztucznej inteligencji rozpadzających emocje na przykład na granicy, w obszarze kontroli granic. Te wszystkie systemy będą systemami zakazanymi. Oczywiście chcę podkreślić, może powinniśmy to zrobić na początku, to jest cały czas jeszcze projekt.   


Toczy się dialog w instytucjach unijnych. Wydaje mi się, że się tam wiele nie zmieni co do takich podstawowych zasad. Więc przechodząc do systemu wysokiego ryzyka, czyli takich, które będą dozwolone, ale które wymuszą na dostawcach i użytkownikach tych systemów,  zaraz może powiemy o tym, kto w ogóle podlega obowiązkom z tego rozporządzenia, wymuszają stosowanie pewnych środków i również transparentność, cyberbezpieczeństwo, wyjaśnialność itd., itd. Zaraz może o tym powiemy. Czyli np.  Wszystkie systemy, które stanowią komponenty bezpieczeństwa w różnego typu maszynach, na przykład w windach, samochodach, to będą systemy wysokiego ryzyka. Cała identyfikacja biometryczna, za wyjątkiem tylko potwierdzenia tożsamości, czyli innym słowem system, który po prostu rozpoznaje, że ty jesteś ty, a nie ktokolwiek inny, to poza tym identyfikacja biometryczna będzie systemem wysokiego ryzyka. 


Karol:   Z którą już do czynienia mamy. 


Mikołaj: Tak, tak, tak, oczywiście. 


Ocena kredytowa. Jeżeli system ma obliczyć swoją zdolność kredytową, również to będzie system wysokiego ryzyka. Systemy, które mają powiedzieć, czy masz mieć dostęp do świadczeń publicznych, czy nie. Czy masz mieć dostęp do ubezpieczeń i ochrony zdrowia, czy nie. Dalej systemy, które oceniają postęp edukacji, egzaminy na przykład. Albo rekrutacja.   


Prawda? Wszystko to będą systemami wysokiego ryzyka. I to nawet ostatnio jest dyskutowana taka zmiana, że nawet chodzi o systemy, które targetują oferty pracy w internecie. Jeżeli masz mieć system sztucznej inteligencji, który ci mówi, gdzie w ogóle oferty pracy powinny trafiać, to to już jest system wysokiego ryzyka. To nie oznacza, że on jest zabroniony, ale widać, że Unia Europejska chce jednak, żeby na końcu to człowiek kontrolował tego typu rzeczy, a nie maszyna czy systemy sztucznej inteligencji. 


Można było pewnie jeszcze wymieniać trochę tych systemów wysokiego ryzyka. Takie może dwa czy trzy jeszcze systemy, które mogą wpływać na zachowanie wyborców. 


Gorący temat. I również systemy rekomendacji treści stosowane w bardzo dużych platformach społecznościowych. To są platformy wymienione z nazwy Alibaba, Amazon, Booking, Facebook, Google, Pinterest, Snapchat, TikTok, Twitter.  Wikipedia, YouTube, Zalando. Jeżeli te systemy mają ci sugerować treści i być oparte o sztuczną inteligencję, to są systemy wysokiego ryzyka. Poza tym oczywiście są systemy inne, które nie są ani wysokiego ryzyka, ani nie są zakazanymi, ale również tam pewne… 


Korzystają z uczenia maszynowego w produkcji innych rozwiązań.   Tak. Kto w ogóle podlega? Jakie w ogóle podmioty będą podlegały tym regulacjom? No po pierwsze dostawca, czyli te podmioty, które tworzą systemy sztucznej inteligencji i dostarczają je na rynek, ale również tak zwani operatorzy, którzy… Operatorzy to są firmy, które korzystają ze sztucznej inteligencji pod swoją marką, pod swoją nazwą, czyli innymi słowy te, które biorą komponenty sztucznej inteligencji od dostawców, po czym swoje usługi na przykład, czy swoją działalność opierają sztuczną inteligencję. Więc tutaj użytkownicy też będą mieli pewne obowiązki. 


Karol:   Sam producent oprogramowania? Firma, która korzysta z tego oprogramowania? Kto jeszcze? 


Mikołaj: To mogą być dystrybutorzy, importerzy. 


Karol: To są jakby główne postacie, które… Czyli tak naprawdę cały rynek, który z tej sztucznej inteligencji korzystać będzie? Tak. W jakiejkolwiek formie? Tak, jeżeli będzie… Twórca, odbiorca końcowy, pośrednik? 


Mikołaj: Zaraz przejdziemy może do tych obowiązków dotyczących tej największej grupy, czyli użytkowników. Nie mówimy oczywiście o osobach fizycznych, tylko mówimy o…   O nawet firmie takiej jak nasza, kancelaria, jeżeli mamy systemy sztucznej inteligencji wykorzystywać do tego, żeby świadczyć usługi klientom, to też w jakimś tam zakresie, w zależności od tego, w jakim obszarze takie usługi będą świadczone, mogą to być systemy wysokiego ryzyka albo i nie. 


Karol: Bardzo ciekawe. Mam znajomego notariusza we Wrocławiu, który z niezwykłym zainteresowaniem podchodzi do tego, co się dzieje, jeżeli chodzi o technologię.   Powoli wdraża system u siebie. Zaczyna chociażby od dyktowania. Nie jest w stanie zrozumieć, jak młody człowiek, który przychodzi pracować do niego w kancelarii, wykorzystuje klawiaturę, która ma sto kilkadziesiąt lat, a nie dyktuje i nie wykorzystuje możliwości, jakie daje technologia. 


Mikołaj:   No tak, tylko to dyktowanie rzeczywiście to ostatni rok, można powiedzieć, to jest postęp niewiarygodny. Ja oczywiście testując i też stosując w pracy zawodowej czat GPT widzę, jak niesamowicie poprawiła się jakość rozpoznawania ludzkiej mowy. 


W zasadzie w tej chwili…   Praktycznie nie zdarza się sytuacja, w której system nie rozumie, co mówię. To jest postęp niesamowity, ale oczywiście tak, klawiaturą trochę głupiemy przez te systemy. 


To trzeba też sobie powiedzieć. Byłem teraz na takiej międzynarodowej konferencji dla prawników zajmujących się nowymi technologiami. Tam na przykład pojawia się takie zagadnienie.   Wszyscy mówią, czy tego chcemy czy nie, nasi młodzi prawnicy, nasi studenci czy praktykanci będą korzystać ze sztucznej inteligencji, trzeba się zastanowić jak robić to z głową. Ale teraz pojawia się pytanie, jeżeli młody prawnik będzie zadawał czatowi GPT pytania, proste pytania z treści przepisów,   Prawdopodobnie ten czat GPT będzie w 95% udzielał prawidłowych odpowiedzi, a za chwilę pewnie w prawie 100%. No i teraz pytanie jest takie, czy to oznacza, że taki młody prawnik nigdy nie będzie miał do czynienia z żywym przepisem? Nigdy nie przeczyta w całości ustawy, żeby ją zrozumieć? I drugie pytanie, jak mamy mieć doświadczonych prawników,  Jeżeli młodzi prawnicy ominą ten proces, ominą proces w ogóle rozumienia, jak funkcjonują przepisy. No to są takie pytania, na które w tej chwili nikt nie zna odpowiedzi. Oprócz tego, że na pewno będzie miało to ogromny wpływ również na rynek, w którym ja działam. To jest tak samo jak z numerami telefonów, prawda? Kiedyś każdy z nas pamiętał kilkanaście co najmniej numerów telefonów. Ja do moich znajomych z podstawówki jeszcze pamiętam numery telefonów. 


Karol:   Trzy numery, które pamiętam, to nasz domowy, mojej babci i mojego najlepszego przyjaciela, numer komórkowy. Numer żony oczywiście również, ale więcej nie. Mało tego, ja widzę na przykład Mikołaj, że korzystając z nawigacji, przyzwyczajając się do korzystania z nawigacji, ja pochodzę z Wrocławia, mieszkam w Warszawie od kilkunastu już lat, ale przez to, że tak często korzystam z nawigacji Google i ja nie znam dobrze topografii miasta, tak jak znałem topografię miasta, wiesz… 


Mikołaj:   Ja jako student miałem dobrą pamięć, byłem bardzo dobry w stosowaniu technik takich mnemotechnicznych. Potrafiłem zapamiętać ciąg, nie wiem, stu wyrazów. Podasz mi sto wyrazów, powiesz mi, ja ci je powtórzę w tą i z powrotem. Mnemotechniki? 


Tak. Dawno już nie stosowałem tych technik, może bym był przez chwilę trochę, ale gdybyśmy się umówili za godzinę, to jestem pewien, że potrafiłbym to zrobić. W pracy prawnika wyjątkowo przydatne.   Tak i nie. 


Pamięć nie jest aż tak istotna w pracy prawnika. Nie jest to najważniejszy element. Ja taką anegdotę, jako młody prawnik poszedłem na negocjacje z moim założycielem naszej kancelarii, profesorem Sołtysińskim, który tutaj w ogóle mnie zaprosił do kancelarii, w której jestem od 28 lat. I pamiętam na tym spotkaniu ktoś zadał pytanie i profesor powiedział, pani Mikołaju…   Gdyby pan poszedł do biblioteki, przyniósł mi kodeks cywilny, bo jeszcze raz muszę sobie przeczytać artykuł pierwszy kodeksu cywilnego. 


A to jest dobre, wracanie i czytanie przepisów to jest w ogóle dobre. Nie trzeba ich tak do końca pamiętać, trzeba je rozumieć. Więc byłem osobą, która miała dosyć dobre zdolności zapamiętywania. W tej chwili jak mam wpisać kod, który dostaję z Google’a, żeby zweryfikować, że ja to jestem ja,  Sześć cyfr dwa razy muszę sprawdzać. I to jest ten rzekomy wspaniały wpływ narzędzi ułatwiających nam życie. Nie chcę być tutaj negatywny oczywiście, ale warto wiedzieć, że również przez nowe technologie głupiejemy. Stajemy się mniej myślącymi istotami. 


Karol: Właśnie miałem powiedzieć, że może nie głupiejemy, tylko nieświadomie wybieramy wygodę zamiast myślenia. 


Mikołaj:   No ale wiesz, jeżeli będzie tak, że dajmy na to prawnicy będą swoją praktykę opierali na jednym czy dwóch źródłach, na czacie GPT czy jakiegokolwiek innym programie skierowanym do prawników, to jednak śmiem twierdzić, że będą jako prawnicy głupieli. Dlatego, że prawo to jest coś więcej niż prompt, który wpisuje się do systemu. 


Karol:  Logika. 


Mikołaj: Logika, tak, logika. Notabene logika to jest… Mediacja, komunikacja, negocjacja. Tak, miękkie umiejętności. No pewnie jeszcze długo będą potrzebne. 


Karol: Budowanie relacji. 


Mikołaj: Wróćmy do naszego rozporządzenia. Tak. No dobrze, bo często zadaje się pytanie, no to co z tego, że Unia Europejska wprowadzi przepisy, skoro Chiny będą mogły robić wszystko?   Ale tak do końca nie jest. Rozporządzenie ma zakres eksterytorialny. Ono nie tylko reguluje dostawców w Unii Europejskiej, którzy wprowadzają systemy w Unii Europejskiej, ale również reguluje nawet dostawców, którzy chcą wprowadzać zakazane systemy poza Unią Europejską. Osoby, które chciałyby na przykład dla Chińczyków robić systemy dla skorników społecznego,  na bazie obecnego projektu będą podlegały tym rozporządzeniom. 


Karol: Europejczycy? 


Mikołaj: Tak. I tak samo dostawcy z Unii Europejskiej, nie tylko ci dostawcy, którzy wprowadzają na rynek Unii Europejskiej swoje systemy, a również ci, których wyniki mają być wykorzystywane w Unii Europejskiej. Czyli bardzo, bardzo szeroko. Zobaczymy, jaki będzie ostateczny kształt tych przepisów, ale naprawdę to co  stosowaniem jest ogromny i jeżeli chodzi o operatorów, czyli o te podmioty, które korzystają w swojej działalności pod swoją nazwą systemów dostarczanych przez dostawców, to nie tylko ci, którzy mają siedzibę w Unii Europejskiej, ale ci, których wyniki ich działań na systemie mają być wykorzystywane w Unii Europejskiej. Więc mówimy o systemie bardzo podobnym do systemu RODO, gdzie jednak Unia Europejska miała tą zdolność narzucenia pewnych rozwiązań,  I cały czas Unia Europejska, chwała Bogu, jest rynkiem, z którym należy się liczyć i takie firmy ogólnoświatowe prędzej czy później zaczęły się dostosowywać. 


Są różne podejścia oczywiście, na przykład Microsoft ma takie podejście bardzo proregulacyjne w tym sensie, że Microsoft chce być naprawdę zgodny z przepisami, bo widzi w tym sens. Też jak przewagę konkurencyjną pewnie. Żeby być w zgodzie z rynkiem, skoro taki jest wybór rynku i takie regulacje.   No, więc rzeczywiście zakres zastosowania będzie ogromny. Natomiast oczywiście są pewne ogólne obowiązki w tym rozporządzeniu, które są nakładane na wszystkie systemy. Można wymienić tutaj kilka takich zasad, które muszą być respektowane przez wszystkie systemy sztucznej inteligencji, nie tylko te wysokiego ryzyka, o których mówiliśmy wcześniej, czy systemy generatywne przede wszystkim.   Przewodnia i nadzorcza rola człowieka. Ta przewodnia rola człowieka nam się oczywiście kojarzy ze słusznie już minionym systemem, ale generalnie chodzi o to, żeby jednak to na końcu człowiek miał pełną autonomię i był w stanie tak naprawdę zadecydować, czy wykorzystać wynik, prawda? 


Karol: Czyli traktujemy to jako narzędzie, które jest pod naszą kontrolą. 


Mikołaj:   Oczywiście wszystkie te systemy muszą mieć techniczną solidność, muszą być bezpieczne, cyberbezpieczeństwo, muszą respektować prywatność i w sposób należyty zarządzać danymi, muszą być przejrzyste i trzeba zapewnić identyfikowalność.  i wyjaśnialność procesów. To jest chyba najważniejsza rzecz. Jakie jeszcze wymogi muszą być spełnione przez wszystkie systemy sztucznej inteligencji, nie tylko te wysokiego ryzyka? Niedyskryminacja, czyli systemy nie mogą dyskryminować ze względu na cechy człowieka. I każdy system, każdy dostawca systemu musi badać długotrwały wpływ na środowisko, jednostkę, społeczeństwo i demokrację. 


Karol:   Czyli świat fizyczny, świat natury i zasady prawa i etyki. 


Mikołaj: Tak, tak, tak. Bo tak naprawdę nawet te systemy, które wydają się, że nie są związane z jakimś wysokim ryzykiem, mogą prowadzić do szkód. Zobaczymy, na ile takie wielowątkowe podejście do sztucznej inteligencji i do regulacji zda egzamin.   Ale dobrze, że się o tym mówi. Dobrze, że zauważa się, że te systemy jednak rodzą pewne zagrożenia i dobrze, że próbuje się jakoś je… 


Jak każdym narzędziem albo leczy, albo szkodzi. Ted Tech, jedna z osób, która się wypowiadała, mówi, no dobrze, ale jak zaczniemy tak mocno regulować, to nam Chiny uciekną. A on mówi, no i tak nie, dlatego, że Chiny na przykład ograniczają wpływ sztucznej inteligencji na społeczeństwo. TikTok na przykład. Z dobrym polem do dyskusji. 


O, to ciekawe.   Wiemy przecież, że to, co widzą Europejczycy i Amerykanie na TikToku, to jest jedna rzecz, a to, co widzą Chińczycy, to jest druga rzecz. I teraz można oczywiście patrzeć na to przez perspektywę demokracji i wartości demokratycznych.   Ale czy naprawdę TikTok daje naszym dzieciom, naszej młodzieży treści, które naprawdę warte są ochrony? 


Karol: To jest raz. Jak czytałem ostatnio raporty dotyczące tego, ile czasu młodzież spędza przyklejona tak naprawdę do ekranu swojego telefonu, to jest coś niebywałego. Kilka godzin dziennie. 


Mikołaj:   Jeden z tych gości na TikToku opowiadał, że zrobił taki eksperyment popularny wśród młodzieży, wśród młodych osób, platforma społecznościowa, która zaczęła korzystać z czata GPT. No i on opowiada, że zrobił taki eksperyment, dlatego że ta firma zaczęła umożliwiać rozmowy z kolegą, który jest tak naprawdę sztuczną inteligencją.   Czyli dzieci w szkole się do ciebie nie odzywają, to masz takiego kolegę czy koleżankę, z którym można sobie pogadać rano, wieczór, w nocy itd. Ta osoba, która występowała w TED-TEC-u, mówi, że wrzuciła takie zapytanie, że jest tam dwunastolatkiem i został zapraszany przez kolegę, który jest 8 lat od niego starszy.  na wycieczkę, żeby wyjechać w czasie swoich urodzin, nie spędzać ich z rodzicami, tylko pojechać na wycieczkę. I nagle się okazało, że ta sztuczna inteligencja zaczyna pozytywnie nawet oceniać rzeczy, które jako rodzic nigdy byśmy się na nie nie zgodziły.   Więc rzeczywiście jest tak, że może ten wyścig nie do końca ma dobre tempo. Być może on jest trochę za szybki, być może trzeba trochę zwolnić, no ale do tego, żeby nastąpiło zwolnienie musimy przekonać dużych graczy, bo na razie ścigają się bardzo szybko. 


Karol:   Ale to gra to pieniądze i chyba trudno mi sobie wyobrazić sytuację, w której ten wyścig zwolni. Jak popatrzę na to, co Mikołaj zobaczy, co się wydarzyło w ciągu ostatnich 10 lat w kontekście mediów, zasięgów, przejścia z mediów tradycyjnych do social mediów. Jak słyszę o zasięgach generowanych przez kanały publicznie dostępne, telewizyjne i porównasz je z najpopularniejszymi youtuberami, okazuje się, że telewizja zostaje w tyle. Telewizja, która kiedyś była kanałem numer jeden, jeżeli chodzi o dotarcie…   Sam wiesz, ten postęp idzie coraz szybciej. Także ciekaw jestem, czy to jest w ogóle wykonalne to, o czym mówisz. 


Mikołaj: Ja też jestem ciekaw. 


Nie jestem tutaj jakimś przesadnym optymistą, ale uważam, że to jest rzecz, o której warto rozmawiać. Dlatego, że portale społecznościowe, które ja oceniam prawie jednoznacznie negatywnie i ich wpływ na społeczeństwo,  Zrobiliśmy wszystkie możliwe błędy. Pozwoliliśmy dużym spółkom, żeby tak naprawdę stosowały techniki uzależniające nasze dzieci od portali społecznościowych. Zrobiliśmy wszystkie możliwe błędy i teraz może z tego powodu warto się chwilę jednak zastanowić, czy chcemy powtarzać te błędy w ramach narzędzia, które prawdopodobnie będzie o wiele bardziej istotne z punktu widzenia technologii.   Ja mam taki eksperyment od 10 lat prowadzę na różnych, w szczególności międzynarodowych konferencjach, wrzucam w ramach różnych small talków taki temat. Zacząłem to robić 10 lat temu i mówię tak, że gdybym miał czerwony przycisk i nikt by nie wiedział, że mam ten czerwony przycisk i ten czerwony przycisk wywaliłby w powietrze wszystkie portale społecznościowe, to bym to zrobił. To jest oczywiście taka futurystyka. I pamiętam, że 10 lat temu patrzono się na mnie jak na wariata. 


W zasadzie nie znajdowałem osoby, która by podziałała to zdanie. Muszę ci powiedzieć, że od dwóch, trzech lat praktycznie, no nie chcę powiedzieć 100%, ale 99% moich rozmówców mówi mi, wiesz co, ja też bym tak zrobił. Bo wszyscy widzimy koszty społeczne, które przyniosły portale społecznościowe. Wracając do EIA, fajnie by było, gdyby regulatorzy i też firmy odpowiedzialne społecznie zajęły się tym tematem. 


Karol:   Wiesz jaka jest moja cicha wizja w przyszłości i co chciałbym, żeby się wydarzyło? Żeby wróciła popularność blogów, tworzenia autentycznego kontentu, który pochodzi od twórców. 


Oprócz tego, żeby twórcy stawiali na budowanie prawdziwych communities.   Wierzę, nie wiem, wiesz, może jestem idealistą, ale tak samo jak widzę, jak organizujemy z Grzegorzem Korsakowskim śniadanie AI. Jakość relacji, rozmów i tego, co z tych śniadań może wyniknąć, jest absolutnie inna niż w przypadku spotkań, które organizowałem w trakcie pandemii, ale zorganizowałem ich ponad 100 dla międzynarodowej komunity zajmującej się smart speakerami. Także ja po cichu wierzę, że równolagle do tej sztucznie generowanej rzeczywistości  do łask i do uwagi wrócą autentycznie tworzone treści. I naprawdę wierzę gigantycznie w powrót popularności blogów. 


Mikołaj: No, trzymam kciuki za spełnienie twoich wizji.   

Nie wiem. Znaczy ja jedną rzecz oceniam pozytywnie. Naprawdę w tej chwili chyba jesteśmy, znaczy ludzie myślący widzą zagrożenia. Już zaczynamy mniej więcej ogarniać rzeczywistość w takim sensie, że zaczynamy, nie jesteśmy tak ślepo entuzjastycznie nastawieni do nowych technologii. I to już jest pierwszy ważny krok.   Gdzie nas ta sztuczna inteligencja zawiedzie jeszcze nie wiemy, nawet sami twórcy nie wiedzą gdzie. Sami twórcy, właśnie wracając na chwilę do rozporządzenia. Rozporządzenie narzuca na dostawców i nie tylko na dostawców systemów wysokiego ryzyka obowiązek transparentności, wytłumaczalności procesów. 


Karol:   Wszyscy musimy mieć open source? 


Mikołaj: Nie, nie, nie. Tak, nie, chociaż też rozporządzenie trochę dotyka kwestii open source’a, ale nie, chodzi o to, żeby przynajmniej dostawca był w stanie wyjaśnić, w przypadku sporu, był w stanie wyjaśnić, dlaczego system zadziałał tak, a nie zadziałał. Czyli jakby trochę to rozporządzenie wprowadza taki zakaz blackboxów. Wrzucam coś, nie wiem, co się dzieje, coś tam się dzieje i wyskakujemy wynik. Przeciętny użytkownik, a nawet zaawansowany użytkownik nie będzie w stanie zrozumieć tego wszystkiego, ale…  Co więcej, teraz mówi się o tym, że naprawdę sami twórcy nie rozumieją, co tam się dzieje. Naprawdę nie wiemy, dlaczego nagle system, który nie był trenowany w języku perskim, zaczyna rozumieć język perski. 


Karol: To jest tak samo jak ten case, w którym dwa systemy rozmawiały ze sobą i nagle okazało się, że stworzyły język sobie zrozumiały. 


Mikołaj:   Tak, w związku z tym ta zasada transparentności, ona nie będzie zrealizowana tak do końca, bo tego się w tej chwili nie da zrobić, ale tym bardziej trzeba o tym rozmawiać, tym bardziej trzeba się zastanowić, czy na pewno chcemy wprowadzać na rynek systemy, które naprawdę kontrolują same siebie i my nie jesteśmy w stanie zrozumieć, co tam się dzieje. Trochę to negatywnie wszystko brzmi, ale może właśnie to jest ten czas, żeby o tych problemach mówić. O problemach etycznych, o wpływie na nasze dzieci, na nasze rodziny,  na naszą pracę. Sztuczna inteligencja dla mnie to jest taki buzzword, który w odróżnieniu od kilku poprzednich buzzwordów naprawdę będzie istotny. Będzie o wiele bardziej istotny. 


Karol: Rozmawialiśmy z Przemkiem Jurgielem Żyłą. Doszliśmy do wniosku, że sami sobie postawiliśmy pytanie, czy nie jest trochę tak, że stoimy na takim etapie, jakby na nowo tworzył się internet. Tak. 


Mikołaj:   Tak, tak, no zdecydowanie, zdecydowanie. Wracając do buzzwordów, autonomiczne samochody, poprzedni buzzword, blockchain, poprzedni buzzword i tak dalej, i tak dalej. Pamiętam, że byłem kilka lat temu, czy kilkanaście już może, na konferencji technologicznej w Katowicach. To była taka konferencja partnerstwo publiczno-prawne. I właśnie mówiono o samochodach autonomicznych, zakustywano się, jakie są możliwości i na końcu wyszedł pewien polityk i powiedział tak.   Wszystko fajnie, pięknie, ale czy wiedzą Państwo, ilu w Polsce jest kierowców i ile osób jest utrzymywanych przez tych kierowców? To są pytania, na które my musimy się zastanowić. 


Karol: Ale z drugiej strony wszystko się zmienia. Jak popatrzysz sobie na zdjęcia z lat 30., jak wyglądał świat, trafiłem na kapitalną fotografię, która pokazywała ciąg ludzi czekających na tramwaj, autobus czy na jakiś środek komunikacji, opartych o ścianę i czytających po prostu gazetę. Każda z osób miała przed sobą gazetę i miała  Wzrok skierowany. 


Mikołaj: I co, źle było? 


Karol: A teraz obok identyczne zdjęcie z ludźmi czekającymi na autobus i po prostu patrzących. 


Mikołaj: Nie, oczywiście świat się będzie zmieniał, będą się pojawiały nowe zawody, będą się pojawiały nowe role społeczne. Natomiast równocześnie moim zdaniem nie należy…   Ja przynajmniej nie jestem wyznawcą ciągłego postępu ludzkości. Ja się nie zgadzam z tym, że zawsze świat i społeczeństwo będzie się rozwijało w dobrym kierunku. Nie jestem wyznawcą tej teorii. 


Karol: A nie, to na pewno jest pełna zgoda. 


Mikołaj: W związku z tym to, że świat się musi zmienić, bo jest postęp technologiczny, wcale jeszcze nie oznacza, że ten postęp technologiczny będzie dla człowieka dobry. 


Karol:   No ale słuchaj, to jest tak samo jak z energią atomową, tak? I z atomem. Możesz go wykorzystać dobrze, możesz go wykorzystać źle. 


Mikołaj: To prawda. Trochę bardziej się boję sztucznej inteligencji niż atomu. No, ciekawe. W zasadzie atomu się w ogóle nie boję, ale to jak będzie nasze społeczeństwo, nasza praca wyglądała, to trochę się tutaj obawiam, ale… A jak jest ten obszar, który jest dla ciebie takim największym czerwonym polem? 


Karol: Relacje? 


Mikołaj: Relacje już dawno się popsuły za sprawą portali społecznościowych. To jest taka rzecz, która już poległa. 


Karol:  Dlatego, tak jak ci powiedziałem, liczę niezwykle na to, że siła communities i takich związków, wiesz, i grup społecznych, stowarzyszeń będzie wracała. 


Mikołaj: Natomiast boję się, znaczy czerwone pole, które mi się pojawia, to jest monopol informacyjny. To, że narzędzia będą dawały ci odpowiedź taką, jaką ci da dana firma technologiczna, tego się boję, bo to jest antydemokratyczne. Zaczynamy przepływ informacji właśnie, stajesz się takim wąskim gardłem, tego się boję.   No i oczywiście wpływ na zawody. Rozmawiałem z pewnym mądrym człowiekiem, który powiedział, żebym się nie martwił, bo na pewno sobie ludzkość z tym poradzi. Trzymam go za słowa, zobaczymy. 


Ale na pewno wiele zawodów się zmieni i znowu pytanie jest takie, czemu to służy, nie? Bo tak można by powiedzieć, no życie stanie się wygodniejsze, będzie można łatwiej pewne rzeczy zrobić.   Tak, oczywiście, to jest bardzo cenna rzecz, ale na końcu myślę, że głównie zmieni się w tym, że duże firmy będą jeszcze bardziej rosły, małe będą bardziej od nich uzależnione. I tak, i zobaczymy, jak rynek pracy będzie wyglądał. Mam nadzieję, że nie będzie tak źle. Jeszcze raz podkreślę, to są takie rzeczy, nad którymi warto się teraz zastanawiać. Rozwija się system sztucznej inteligencji, ale naprawdę się nad tymi rzeczami zastanawiać. 


Karol: Korzystać z narzędzia, ale mieć świadomość tego, że może przynieść różne efekty jego rozwój. Tak. 


Mikołaj:   Tak, pewnie na taką mikroskalę. Ja również korzystam z narzędzi sztucznej inteligencji. 


Natomiast bardziej chodzi mi o tą masowość, o zmianę podstawowych zasad funkcjonowania społeczeństwa, przepływu informacji. To będzie ciekawe. No i zobaczymy, czy to wszystko udźwigniemy.   Pewnie słyszałeś, bo to jest taka historia, która krąży po różnych miejscach, w których mówi się o sztucznej inteligencji, ale zadano to pytanie specjalistom z zakresu AI i 50% tych specjalistów, czyli nie ludzi takich jak ja, można by powiedzieć, tylko ludzi, którzy głęboko wchodzą w sztuczną inteligencję, nie na poziomie prawnym, ale na poziomie technologii i 50% tych osób powiedziało, że jest większe niż 10% prawdopodobieństwa, że sztuczna inteligencja wymknie się spod kontroli i  wpłynie bardzo negatywnie, już nie chcę mówić jak na ludzkość. To są te wizje przyszłości, nie? No tak, ale wiesz, teraz pytanie jest takie, ten człowiek, który cytował to badanie, mówi, no to teraz sobie wyobraźmy samolot. Wchodzisz do samolotu i 50% specjalistów od samolotów mówi ci, że jest 10% szans, że ten samolot spadnie. 


Karol: Albo poleci nie tam, gdzie chcesz. 


Mikołaj: Prawda? A my jakby ten pociąg pędzi już, nie? Ten pociąg sztucznej inteligencji już pędzi. No, zobaczymy. Zobaczymy, jak to będzie. 


Karol:   Rozmawialiśmy o obowiązkach dostawców. 


Mikołaj: No są oczywiście również obowiązki samych użytkowników, czyli tych firm, które korzystają i tutaj można powiedzieć także, jeżeli chodzi o obowiązki operatorów, czyli tych, którzy korzystają, no to to są niby takie podstawowe obowiązki, na przykład takie, że trzeba korzystać ze sztucznej inteligencji zgodnie z dokumentacją. Taki obowiązek  Jest dołożony przez rozporządzenie, trzeba stosować stały monitoring, zapewnić kwalifikacje osób, które będą nadzorowały ten system, rejestrować zdarzenia przez 6 miesięcy itd. Informować o incydentach, więc też jest jakieś pole tutaj obowiązku po stronie operatorów. Natomiast ciekawa jest ta kwestia nadzoru człowieka, bo przy systemach sztucznej inteligencji rozporządzenie nakazuje po pierwsze wprowadzić interfejs,  który umożliwi nadzór człowieka nad systemem, nakazuje powołać kompetentną osobę, która będzie miała wsparcie organizacji. I właśnie ten przycisk stop. 


System sztucznej inteligencji musi mieć przycisk stop. Mówimy o systemach wysokiego ryzyka. Musi mieć tę możliwość wyłączenia go i przerwania działalności. Musi mieć nawet możliwość ręcznej zmiany wyniku, który daje sztuczna inteligencja.   Więcej rzeczy się gdzieś tam zauważa w rozporządzeniu. Pewnie trzeba będzie poczekać troszeczkę jeszcze na dyskusję w ramach instytucji Unii Europejskiej, bo wygląda w tej chwili na to, że będzie okres między przegłosowaniem rozporządzenia, a wejście w życie, to będzie okres albo 18, albo 24 miesiące i realistyczna data wprowadzenia tych regulacji, czyli już obowiązywania, to jest myślę 2026, 2027 rok, co oznacza,  I tutaj jeszcze powiem tę anegdotę, co oznacza, że już w tej chwili, jeżeli ktoś działa w ramach systemów, w szczególności wysokiego ryzyka, musi zacząć myśleć o tym, jak te systemy rozwijać, żeby w 2026, 2027 będzie być zaskoczony i nie trzeba będzie wszystkiego zmieniać. Miałem ostatnio takie wystąpienie na jednej z konferencji, gdzie mówiłem właśnie o różnego typu systemach i po tym wystąpieniu podeszło do mnie dwóch ludzi i powiedziało fajnie,  ale chyba się z twojej prezentacji dowiedzieliśmy, że od dwóch lat działamy, pracujemy nad systemem, który będzie zakazany. Więc warto gdzieś mieć ten radar nastawiony i przynajmniej na tym ogólnym poziomie wiedzieć, co się dzieje. 


Karol: I to dotyczy dużych organizacji, dużych korporacji, czy też mniejszych firm, small business? 


Mikołaj: No wiesz, jeżeli jest startup albo software house, który zaczyna tworzyć kody, które wprost kojarzą się z systemem zakazanym, no to pytanie jest,  Takie, co ten startup, czy ten software house ma teraz zrobić, bo jeżeli na przykład jest to system na przykład identyfikacji twarzy w przestrzeni publicznej, co już w tej chwili oczywiście jest regulowane RODO, ale pytanie jest takie, czy warto rozwijać system, który z dużym prawdopodobieństwem po prostu nie będzie w ogóle można wprowadzać na rynek i go używać. 


Karol:   Czyli co, wiemy kiedy najprawdopodobniej to rozporządzenie wejdzie w życie, a skąd czerpać wiedzę? Z jakich źródeł korzystać, żeby być na bieżąco, jeżeli chodzi o ten spory zasób? 


Mikołaj: Myślę, że prawnicy sobie poradzą. Będą musieli po prostu przeczytać kolejne projekty rozporządzenia. Ostatnie zmiany były dyskutowane w październiku. Cały czas są różnego typu modifikacje wprowadzone, ale myślę, że za kilka miesięcy już będzie naprawdę dużo wiadomo. Natomiast jeżeli chodzi o inne osoby, no to  Interesować się tym. Jest mnóstwo przestrzeni łącznie z twoim podcastem, w którym można się dużo dowiedzieć na ten temat. 


Karol: Swoją drogą, jeden z moich znajomych stworzył system oparty oczywiście o AI, który pozwala na dyskusję na temat AI-aktu. 


Mikołaj: A, no to ciekawe. 


Karol: O czym jeszcze warto porozmawiać? O czym warto powiedzieć w kontekście regulacji prawnych i tej zmiany, która przebiega, jeżeli chodzi o rzeczywistość, w której się obracamy? 


Mikołaj:   Myślę, że są dwa duże jeszcze tematy. Pierwszy temat to jest kwestia odpowiedzialności za systemy AI. To będzie regulowane dyrektywą, która będzie implementowana, będzie musiała być implementowana. Dyrektywa ma wejść w życie łącznie z rozporządzeniem. Państwo członkowskie będą musiało implementować dyrektywę, która będzie regulowała kwestię odpowiedzialności za sztuczną inteligencję.   


I tam się pojawiają takie dwa domniemania. Po pierwsze, jeżeli dostawca sztucznej inteligencji nie będzie skłonny ujawnić dowodów dotyczących funkcjonowania jego systemu, a takie żądanie zostanie skierowane do sądu i sąd takie żądanie przyklepie i będzie wymagał od strony pozwanej ujawnienia pewnych dowodów, jeżeli dostawca systemu sztucznej inteligencji ich nie ujawni, to będzie następowało domniemanie braku należytej staranności. Czyli jeżeli nie ujawniłeś, to prawdopodobnie.  Mamy do czynienia z nienależytą starannością. 


I teraz na to nakłada się drugie domniemanie. Jeżeli mamy nienależytą staranność, to jest domniemanie związku przyczynowego między domniemanym brakiem staranności, a wynikiem, który spowodował szkodę. Czyli jeżeli na przykład w związku z tym nie spełniłeś wymogów, które są w rozporządzeniu, to może sąd uznać, że to niespełnienie wymogów spowodowało właśnie wynik, który potem spowodował szkodę. Czyli  Dyrektywa pomaga tak naprawdę tym, którzy będą dochodzili roszczeń. I to jest jakby pierwszy duży obszar, który nadal jest jeszcze dyskutowany. 


Karol: I w założeniu ma chronić nas przed tym aspektem, o którym rozmawialiśmy, czyli sytuacją, w której sztuczna inteligencja działałaby sama na własną rękę. 


Mikołaj: Tak, ale przede wszystkim działała nietransparentnie, działała niebezpiecznie. Więc jakby to jest pierwszy obszar. 


Drugi obszar.   To jest obszar, który w tej chwili jest rzeczywiście przedmiotem dyskusji, w szczególności jeżeli chodzi o modele językowe. Mianowicie w jakim zakresie modele językowe mogą korzystać z utworów, które są dostępne w internecie. I tutaj ta kwestia została uregulowana już w dyrektywie DSM, która jeszcze nie została w Polsce implementowana.   


Czyli jest takie domniemanie, że dyrektywa DSM tak naprawdę pozwala robić tzw. text and data mining, czyli przeczesywać internet i korzystać z rezultatów takiego wykopywania informacji przez systemy sztucznej inteligencji.   Chyba, że autor danego utworu w internecie nie zgodził się na to. Ten brak zgody będzie musiał być w jakiś sposób maszynowo wprowadzony w sam utwór, czyli crawlery będą musiały tak naprawdę rozpoznawać, czy mogę to crawlować, czy nie, czy mogę to zwielokrotnić. Każdy będzie miał czerwony przycisk.   Tak, autor będzie mógł mieć taki czerwony przycisk. Na razie nie ma dobrych rozwiązań technologicznych i pojawiają się już pierwsze pozwy, głównie w Stanach Zjednoczonych, ale na przykład jeden z moich klientów otrzymał pismo dopytujące się, czy na pewno jego system sztucznej inteligencji ma zgodę na korzystanie z utworów, które ta dana osoba stworzyła.   


Więc to są dwa duże tematy, które będą na pewno wkrótce regulowane. Musi być dyrektywa DSM implementowana w polskim prawie i zobaczymy jak ten wyjątek, czyli to zezwolenie, że tak powiem, takie swego rodzaju zezwolenie ustawowe będzie działało. Na to nakłada się oczywiście ogólny wymóg, żeby wszelkiego typu wyjątki nie naruszały uzasadnionych interesów twórców.   Na razie nie wiem, jak to pogodzić. Bo rzeczywiście może być tak, że wiele tych systemów sztucznej inteligencji będzie w te interesy twórców ingerowało. No, trzeba będzie poczekać na wyroki sądowe. Zobaczymy. 


Karol: Ale zobacz, co też ciekawe, że może okazać się, że twórcy, którzy absolutnie nie mają słuchu, ale mają zdolności programistyczne i do zarządzania danymi, będą komponować utwory, których potem będą słuchały miliony. 


Mikołaj: Ostatnio byłem udział w takiej prezentacji DJ-a, który pokazywał, jak osoba, która nie potrafi śpiewać…   


Może stworzyć utwór, gdzie wydaje się, że jednak potrafi to robić. Zresztą zrobił takie bardzo ciekawe ćwiczenie. Wziął kilka sekund wypowiedzi Martina Luthera Kinga w tym słynnym przemówieniu I had a dream. Z tej kilkunastosekundowej próbki spowodował, że Martin Luther King zaczął śpiewać tekst, który został wprowadzony do systemu. Także tak, duże możliwości. 


Karol:   Ostatnie moje pytanie, rozmawialiśmy wcześniej przed nagraniem, wspominałeś o tym, że ciekawa kwestia dotyczy tego, jak będą kształtowały się systemy, które potem mogą wpływać chociażby na wyniki wyborów. 


Mikołaj: To jest w ogóle ciekawy temat, bo jak mówiłem wcześniej o tym moim eksperymencie i czerwonym przycisku, to jeszcze kilka lat temu bardzo dużo się mówiło o pozytywnym wpływie internetu na demokrację.   Żyliśmy w takim przekonaniu, że internet jest dlatego też ważny, że ludzie, którzy nie mają dostępu do wiarygodnych informacji w niektórych krajach, mogą te informacje czerpać z internetu. Dlatego internet byłby taki ważny. 


I to jest na pewno prawda. Natomiast oczywiście ostatnie kilka lat pokazuje, że…  Duże portale społecznościowe są w stanie tak naprawdę manipulować wynikami wyborów. I to widzieliśmy w kolejnych wyborach, nie tylko w Stanach, ale też farmy troli i robotów, które na polskim Twitterku czy portalu X funkcjonują.   Przecież wszyscy to widzą, prawda? Więc internet jest naprawdę niesamowitą wartością, ale czy on ma, tak jak zważymy to wszystko, pozytywny czy negatywny wpływ na demokrację? No nie wiem, nie wiem. 


Karol: Też trochę mi się tak wydaje, że tak jak w swoim założeniu internet miał być dobrem wspólnym , to przy takim układzie rynku, jaki jest teraz i tak jak rozmawialiśmy o istnieniu kilku, kilkunastu głównych platform, które agregują tak naprawdę ruchu, wagę i dystrybucję informacji,  Może być trochę różnie. 


Mikołaj: Dlatego taki ważny jest dialog z tymi platformami. Bo to są platformy, które stać na to, żeby ucywilizować system sztucznej inteligencji. Przykład Microsoftu. Microsoft, który wdraża co pilota, co pilot, czyli rozwiązania oparte na OpenAI. I oczywiście Microsoft, będąc odpowiedzialnym biznesem, filtruje, filtruje to jest może złe słowo, ale wprowadza pewne bezpieczniki, żeby w swoich produktach OpenAI nie zrobił czegoś, co jest niewłaściwe. 


 W związku z tym mi się wydaje, że duźni gracze, chyba bodajże wczoraj było jakieś spotkanie właśnie dużych firm technologicznych na temat ryzyk związanych ze sztuczną inteligencją, więc dobry jest ten dialog z dużymi firmami. Ten dialog musi być prowadzony.  ponieważ to właśnie te duże firmy będą kształtowały przyszłość. Jeżeli one będą przekonane, a na pewno je na to stać, że to muszą być systemy odpowiedzialne, to to jest pozytywny wynik takiej dyskusji. Myślę, że ci główni gracze będą musieli te wszystko uwzględniać i to jest coś pozytywnego. 


Karol: Zatem rozmawiajmy. Mikołaju, serdecznie ci dziękuję za twój czas i dziękuję za rozmowę. 


Mikołaj: To ja dziękuję.