14/99 – Czy sądy mogą działać w oparciu o sztuczną inteligencję? Na czym polega responsible #AI? Michał Nowakowski

Poznajcie Michała Nowakowskiego.

Radca prawny – ekspert i trener w dziedzinie wdrażania oraz rozwijania systemów sztucznej inteligencji (uczenie maszynowe, głębokie, LLM) z perspektywy biznesowej, technologicznej oraz prawnej, a także zarządzania ryzykiem ICT.

Posiada ponad 12 lat doświadczenia we współpracy z największymi instytucjami finansowymi i innymi podmiotami regulowanymi oraz dostawcami rozwiązań technologicznych. Doradzał bankom, telekomom, podmiotom z branży retail i przemysłowej oraz platformom eCommerce, gdzie odpowiadał za kluczowe obszary związane ze wdrażaniem nowych rozwiązań technologicznych. Autor publikacji naukowych z obszaru sztucznej inteligencji oraz regulacji.

O czym rozmawiamy dzisiaj?

  • Co to znaczy tworzyć systemy godne zaufania?
  • Jak MY ludzie mamy się odnaleźć w nowej rzeczywistości, która będzie opierać się o #AI?
  • CRS / ESG / Inclusion and Diversity – dużo słów, mało działania. Jak nie popełniać błędów w kontekście budowy nowych systemów, w oparciu o które będą działać organizacje?
  • Jaką rolę pełnią w każdej organizacji WARTOŚCI?
  • Jaka jest różnica między etyką, a responsible #AI?
  • Czy sądy mogą wykorzystywać sztuczną inteligencję do wydawania wyroków?
  • I wiele innych…

Posłuchajcie sami!

Zdjęcia

Notatki

Zdjęcia: Jan Toruński  

Linki, o których rozmawiamy:

Transkrypcja rozmowy

Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.

Karol: Michał, serdecznie Cię witam w 99 twarzach AI.

Michał: Cześć, bardzo dziękuję za zaproszenie, bo to jest wydaje mi się, że w ogóle fajna koncepcja, fajny pomysł na to, żeby promować AI, który już i tak jest dość dobrze wypromowany.

Karol: Wiesz co, nie chodzi chyba nawet o promocję, tylko moim celem i moją misją jest tłumaczenie i poznawanie, dawanie naszym słuchaczom szansy na to, żeby poznać AI właśnie z wielu różnych perspektyw, stąd 99 twarzy.

Michał: No i to jest bardzo dobre podejście, bo rzeczywiście tej edukacji to my po prostu najzwyczajniej w świecie potrzebujemy. Ja to też obserwuję w trakcie pracy ze swoimi klientami, którzy mówią, kurczę, nie rozumiemy tej AI, bo chcemy ją poznać i chcemy ją poznać z bardzo wielu perspektyw.

Karol: Michał, kim jesteś, czym się zajmujesz?

Michał: Ja z wykształcenia jestem prawnikiem, ale mam też taką swoją przygodę trochę inżynieryjną, ponieważ pierwszym moim kierunkiem, który wybrałem była mechanika i budowa maszyn. O, politechnika? Nie, akurat nie. To była dawna Akademia Techniczno-Rolnicza, to jeszcze były te czasy, kiedy akurat to był taki okres transformacji, więc to już był wtedy uniwersytet. Ale taka uczelnia właśnie techniczna, dziadek mnie pokierował w zasadzie na tę mechanikę i budowę maszyn. Niestety była geometria wykreślna, która wykreśliła mnie po prostu najzwyczajniej z tych studiów i w którymś momencie musiałem zmienić swój kierunek, czy zmienić swoje zainteresowania. No i poszedłem na prawo po prostu, ale w dalszym ciągu jakby mając to ogromne zamiłowanie do tej technologii, do programowania, trochę ze względu na studia, obciążenie też pracą, trochę zaniedbałem to. ale potem, kiedy już pewne rzeczy mi się tak trochę ustabilizowały, to też zacząłem wracać właśnie do tych aspektów takich inżynieryjnych. Natomiast tak już bardziej zawodowo patrząc, poza tym, że jestem partnerem w kancelarii Zackiewicz Partners, której odpowiadam za obszar AI i CyberSec, wspólnie też z moją koleżanką, to też prowadzę spółkę, czy współprowadzę spółkę Governed AI, która zajmuje się tworzeniem czy wspieraniem klientów właśnie w tworzeniu takich ram na odpowiedzialnej, bezpiecznej, godnej zaufania sztucznej inteligencji, ponieważ to jest coś szalenie istotnego. Jeszcze dodam tylko, bo to też myślę, że to jest ważne i to też może zainteresuje naszych słuchaczy, że mamy coś takiego jak sekcja aktualne wyzwania sztucznej inteligencji przy Polskim Towarzystwie Informatycznym.

Karol: Widzę w tym materiał na odcinek.

Michał: Zdecydowanie, ale co ciekawe, Polskie Towarzystwo Informatyczne skupia głównie informatyków, sporo jest tam ludzi z Akademii Politechniki m.in. czy różnych politechnik, ale ta nasza sekcja, w której ma swoje władze i w tych władzach jako przewodniczący jestem ja, jako prawnik, Poza tym profesor matematyki Maria Ganża i profesor informatyki inżynier Przemysław Biecek, co pokazuje, że właśnie ta sztuczna inteligencja, ta odpowiedzialna sztuczna inteligencja…

Potrzebuje interdyscyplinarności. Dokładnie tak. Tam zresztą mamy też przedstawicieli nauk społecznych. Ja staram się też angażować ludzi na przykład zajmujących się psychologią. To jest wątek, który jest absolutnie kluczowy w kontekście AI na bardzo wielu poziomach i biznesowo i społecznie.

Karol: Razem z Grzegorzem Kosakowskim i Piotrem Nowosielskim organizujemy Śniadania AI i też zależy nam na tym, żeby zgromadzić grupę interdyscyplinarną. To nie tylko o to chodzi, żebyśmy poklepywali się po plecach i mówili, jaki mamy świetny development, albo co wydarzyło się, jeżeli chodzi o ostatnie modele, ale właśnie o dyskusję z wielu różnych perspektyw.

Michał: Ja bym jeszcze dodał jedną rzecz. Mówienie tym samym językiem, bo bez tego będzie nam ciężko się dogadać. To też jest bardzo ważne.

Karol: No więc właśnie, czy w takim razie Responsible AI to kolejne pustosłowie?

Michał: To jest trudne pytanie i odpowiedź będzie chyba taka wielowątkowa.

Karol: Powiem Ci absolutnie szczerze, jak ja słyszę Responsible AI, to widzę kampanie marketingowe różnych brandów międzynarodowych, które już teraz, albo być może za parę miesięcy, lat, w kontekście wdrożeń i technologii, którą będą wykorzystywać, będą robiły wokół tego fajny hype, jesteśmy okej, jesteśmy firmą, która działa w Responsible AI.

Michał: Jeżeli pozwolisz, to ja bym zrobił jeszcze krok wstecz, jakby postarał się zdefiniować, czym jest w ogóle to Responsible AI, bo żebyśmy wszyscy byli on the same page. Generalnie, jeżeli chodzi o tą koncepcję, to i takie podwaliny bardziej sformalizowane pojawiły się mniej więcej w 2018 roku, może ciut wcześniej. kiedy eksperci Komisji Europejskiej zaproponowali coś takiego, nie przytoczę teraz dokładnie, jak się nazywał ten dokument, ale takie wytyczne dla sztucznej inteligencji godnej zaufania, w której określili sobie takie cztery podstawowe zasady, między innymi zasady sprawiedliwości, przewodniej roli człowieka i oraz siedem wymogów, które musi spełnić system.

Ja idę trochę w innym kierunku, mówiąc, że to organizacja musi spełnić te zasady, a potem oczywiście na poziomie pewnych projektów One też muszą być implementowane, żeby mówić o tym, że te nasze systemy sztucznej inteligencji, czy my jako dostawcy albo wdrażający i wykorzystujący te systemy, jesteśmy godni zaufania. Jakkolwiek sobie to zdefiniujemy, to też nie ma za bardzo znaczenia. Dlaczego o tym mówię? Dlatego, że to nie sztuczna inteligencja jest odpowiedzialna, to nie jest godna zaufania, tylko tak naprawdę ludzie, którzy ją wykorzystują. I teraz to jest właśnie taka pewna koncepcja mówiąca o tym, słuchaj, jeżeli decydujesz się na tworzenie i wdrażanie tego typu rozwiązań, które mają też impakt społeczny, bo to jest bardzo ważne, mają impakt na drugiego człowieka, to ty musisz postępować w odpowiedni sposób.

I teraz nawiązując do Twojego pytania, czy to jest kolejny taki chwyt marketingowy? Pewnie dla wielu, nie wiem czy wielu, ale pewnie dla jakichś części przedsiębiorstw może tak rzeczywiście być. Tak samo jest z CSR-em, tak samo jest z ESG, gdzie wszyscy mówią jakie to niesamowite projekty robią, a w rzeczywistości sprowadza się to do tego, że płacimy za to i tyle, kropka.

Dokładnie tak, dokładnie tak. Akurat inkluzywność i ta właśnie różnorodność jest też bardzo ważnym elementem tego responsibile’a i tego nie można w żaden sposób ignorować, to w ogóle na wielu poziomach ma zastosowanie, o tym sobie też pewnie jeszcze Troszeczkę powiemy, ale jakby jeszcze kończąc jakby tą wypowiedź, starając się, chociaż rozwlekają pewnie na kilka zdań, to jest trochę tak, że pierwszym elementem, czy pierwszym krokiem, który musi wykonać organizacja, żeby w ogóle zacząć tworzyć, czy wykorzystywać tą koncepcję responsibility, jest odpowiedź na pytanie, jakie są moje wartości. Więc jeżeli organizacja nie odpowie sobie na to, jakie są jej wartości i nie przekona do tego swoich pracowników, oczywiście to musi iść z góry samej, czyli z zarządu, z tego tak zwanego C-level, to wszystko to, co będzie realizowane na tym niższym poziomie, na przykład Responsible AI, Trustworthy AI, whatever, jak to nazwiemy, etyka AI też to możemy tak nazywać, to nie będzie miało żadnego sensu. Oczywiście to też trzeba sobie uświadomić, że to Responsible AI to nie jest tylko koncepcja taka nazwijmy ją filozoficzna, bo ona ma bardzo konkretne techniczne aspekty. Gdybyśmy mówili na przykład o wdrażaniu koncepcji Responsible AI w wykonaniu Microsoftu, to my musimy mieć szereg metryk, takich twardych metryk informatycznych, które pozwalają nam na mierzenie tego, czy na przykład nasze datasety rzeczywiście są różnorodne, są adekwatne, nie zawierają jakichś uprzedzeń, zawsze będą zawierały, ale czy i czy nie są w jakiś tam sposób dyskryminacyjne. No ale to w dalszym ciągu nie będzie takie rozciąganie tej koncepcji, czyli wiary w to, że musimy tworzyć tego typu rozwiązania w taki sposób. No, Responsible AI zyskało na popularności za sprawą de facto big techów, które w którymś momencie powiedziały, słuchajcie, my musimy zrobić self-regulation, musimy się samodzielnie uregulować, no bo widzimy, że to AI ma bardzo duży impakt społeczny. Oczywiście można się zastanawiać, jakie były tego pobudki, ale summa summarum to bardzo pozytywne jest, że ludzie zaczęli o tym rozmawiać.

Czy to jest chwyt marketingowy? Pewnie dla niektórych tak, tak jak powiedziałem, ale ja na przykład ze swoimi klientami, jak pracuję, to my tworzymy takie zasady, które realnie są potem wykonywane. Czy tak będzie do końca? Nie wiem, ale jest, że tak powiem, rzeczywiście ten komitment, jest to zaangażowanie co do tego, żeby coś takiego tworzyć. Czasami jest to wymóg prawny, w tym sensie może bardziej kontraktowy, że jeżeli wdrażamy jakieś usługi, na przykład dużych big techów,

Karol: Czy już mówisz o wymogu prawnym w kontekście aktu?

Michał: to jak się wczytamy w te terms conditions, te zasady, które obowiązują, to my po prostu zwyczajnie musimy wdrożyć zasady Responsible AI akurat w tym wypadku. Więc siłą rzeczy to jest trochę tak, że w niektórych przedsiębiorstwach to dana usługa, którą się wdraża i którą się będzie chciało wykorzystywać na potrzeby tworzenia np. swoich produktów czy usług, wymusza niejako tworzenie tych ram. Czym innym jest AI Act, czym innym są pewne regulacje na poziomie organizacji międzynarodowych, które w jakiś sposób też nakierowane są na kwestie, tu akurat bardziej trustworthy AI, czyli tej sztucznej inteligencji godnej zaufania, ale to jest semantyka, nie ma ona aż tak dużego znaczenia. dużego znaczenia. O tym pewnie jeszcze sobie powiemy, no bo jest na przykład norma ISO 42001 z 2023 roku, która odnosi się do systemu zarządzania AI i ona w bardzo wielu miejscach, pomimo tego, że jest w jakimś stopniu techniczna, chociaż też biznesowa, nawiązuje do tego, że systemy, które są tworzone i wykorzystywane przez organizacje, no muszą być responsible czy non-trustworthy, tak? w tym wypadku. Więc ja nie chcę chyba dawać takiej jednoznacznej odpowiedzi na to twoje pytanie, czy to będzie marketingowy chwyt, czy nie.

Karol: Dobrze, a zatem gdybyś miał w jednym, dwóch zdaniach zdefiniować tak naprawdę Responsible AI, to czym ono by było?

Michał: To są zasady tworzenia, rozwijania i wdrażania sztucznej inteligencji zgodnie z określonymi wartościami.

Karol: Czyli tak naprawdę to jest Responsible AI jest taką metodologią uniwersalną?

Michał: Nie zgodzę się, że uniwersalną, bo mamy szereg kultur, szereg społeczności, w których inaczej będziemy to definiować.

Karol: Przez uniwersalne mam na myśli, że każda firma tak naprawdę tworzy wytyczne pod Responsible AI w oparciu o swoje własne wartości.

Michał: Tak, znaczy one muszą stanowić pewien fundament.

Karol: Stąd Responsible AI dla różnych organizacji może oznaczać coś innego.

Michał: Tak, to prawda. I tak zresztą nawet, jeżeli byśmy znowu nawiązali do Big Techów, no bo tam to jest najbardziej rozwinięte, dlatego też do nich referuję, wcale nie uważam, że to jest oczywiście jeden najlepszy model, ale jeżeli spojrzymy sobie na przykład na zasady Responsible AI dla Google’a i dla Microsoftu, to one się od siebie różnią. Ostatecznie, jak sobie to wszystko złożymy do kupy i zrobimy z tego taką jakby deltę wymagań czy deltę po prostu tych zasad, to one będą zmierzały do tego, do tej jednej rzeczy, do ochrony człowieka, tak przynajmniej powinno być w założeniu, bo to człowiek jest centrum.

Karol: Albo zyskowność.

Michał: Cóż, to też nie można tego ignorować, bo jak ja na przykład rozmawiam… Prawda jest taka, że każda organizacja powstała po to, żeby generować przychod, przenosić zyski i tak naprawdę wyrosnąć. Ale tutaj jeszcze powiem o jednej bardzo ważnej rzeczy, bo o tym się zapomina. Często jak mówimy o tym responsibilejaj, no to patrzymy rzeczywiście na to, a tak kolejny wymóg na przykład, który musimy zrobić, żeby wykazać się albo przed regulatorami, albo przed społeczeństwem.

Ale są badania, nie będę teraz przytaczał, bo ich nie mam tutaj przy sobie, ale są badania, które wskazują, że w perspektywie najbliższych powiedzmy 10 lat firmy, czy przedsiębiorstwa, które będą decydowały się na wdrażanie tego typu rozwiązań, czyli będą przykładały wagę do tej takiej etyki AI, wiele na tym zyskają. Ponieważ ludzie też oczekują bardziej odpowiedzialnego podejścia. Ludzie jeszcze nie wiedzą, czego oczekują w kontekście odpowiedzialnej sztucznej inteligencji, ale to się zmieni, prędzej czy później. Też czego mi się wydaje? Bezpieczeństwa. Bezpieczeństwa, to na pewno. To jest coś, co się przewija tak naprawdę w każdej dyskusji. Bezpieczeństwo, oczywiście różnie identyfikujemy sobie to bezpieczeństwo.

Karol: I to może być bezpieczeństwo w wielu różnych obszarach. Ja pamiętam, zrobiłem taką niewielką ankietę na ulicach Warszawy i pytałem ludzi o to, co myślą o sztucznej inteligencji, o naszej przyszłości. I po pierwsze widzę brak zrozumienia, a po drugie ludzie boją się. I 90% odpowiedzi, które słyszałem, oczywiście to nie jest grupa reprezentatywna, mówi sztuczna inteligencja zabierze mi pracę.

Michał: Częściowo mają rację, ale to nie zabranie pracy jest tak naprawdę największym zagrożeniem, bo też znowu nawiązując do zasad Responsible AI, tam są takie dwie zasady, które tłumacząc, jak je tłumaczymy, to one brzmią tak samo, ale w praktyce są czymś zupełnie innym.

Jedno to jest safety, a drugie to jest security. I teraz to drugie, to to jest taki aspekt techniczny, czyli bezpieczeństwo w znaczeniu odporność na przykład na cyberzagrożenia. Czyli nasz system musi być odporny, żeby na przykład nie doprowadzić do wycieku jakichś danych wrażliwych. Ale ten pierwszy element, czyli to safety, to takie bezpieczeństwo szeroko rozumiane, to to jest zapewnienie, że systemy sztucznej inteligencji nie będą szkodziły. często używa się tego słowa harm, jako tej szkody, która może zostać wyrządzona przez system sztucznej inteligencji. I ta szkoda może mieć bardzo, znaczy w zasadzie ma takie trzy, powiedziałbym, charakterystyki. Szkoda fizyczna, rzadziej, ale też może się to wydarzyć. Szkoda psychiczna, to dużo, dużo częściej. I szkoda ekonomiczna, która też może się tutaj pojawić.

I na przykład AA Act, czyli projekt rozporządzenia w sprawie sztucznej inteligencji, który za chwilę, dosłownie, za chwilę mówiąc od momentu, w którym nagrywamy ten nasz podcast, czyli początek 2024 roku, stanie się obowiązującym prawem. Wszystko na to wskazuje. On zawiera w sobie katalog praktyk zakazanych. To jest artykuł 5, w którym są takie wskazane praktyki z wykorzystaniem systemów sztucznej inteligencji, które nie będą mogły być wykorzystywane. Poza tym, że są takie kierowane, powiedziałbym, bardziej do sektora publicznego, to są tam też takie dwie znaczące praktyki, de facto sprowadzające się do tego, że nie możemy wykorzystywać systemu do manipulowania albo wykorzystywania czyjejś słabości, żeby wyrządzić znaczącą szkodę. Oczywiście dla prawników tutaj będzie naprawdę bardzo duże pole do popisu, jak to wszystko zinterpretować, bo jest wiele jakichś niejasnych pojęć, ale sama idea, sam fundament jest jak najbardziej poprawny. Musimy przeciwdziałać właśnie wyrządzaniu szkody. Jeszcze nawiążę do tego, co powiedziałeś w kontekście zabierania pracy.

Ja myślę, że to wynika z tego, że my, też mówię jako państwo, czy państwa szerzej, nie edukujemy, nie mówimy, jakie są rzeczywiście potencjalne korzyści, co trzeba zrobić, żeby znaleźć się w tym nowym świecie, w którym będzie sztuczna inteligencja. Bo ja wychodzę z założenia i zacząłem wychodzić tego 7 lat temu, jak się zacząłem tym tak na poważnie interesować, bo to nie jest tak, że nagle pojawił się czar GPT i nagle zacząłem się tym interesować. w to bawić, to ja już uświadomiłem sobie jedno. Mówię, Michał, kurczę, no masz jakieś tam twarde kompetencje jako, powiedzmy, prawnik, trochę masz tych kompetencji takich biznesowo-technologicznych, ale pomyśl sobie, co będzie za 10, 15, 20 lat. 10, 15, 20 lat będzie to AI, które będzie Ciebie wspierało i tak dalej, ale w wielu rzeczach, w wielu rzeczy nie będziesz musiał wykonywać. W związku z tym musisz się skupić na przykład na budowaniu kompetencji miękkich. czyli na przykład na kwestii komunikacji, na tym, żeby trudne rzeczy przekładać na prosty język.

Karol: To jest właśnie mój cel w tym podcaście, żeby tłumaczyć całą tę rewolucję, której jesteśmy świadkami i uczestnikami jednocześnie w sposób zrozumiały i zawsze używam tego porównania, gadajmy tak, jakbyśmy gadali z siedmiolatkiem.

Michał: Dokładnie, albo nawet z trzylatkiem, bo niektórzy mówią, że sztuczna inteligencja to obecnie taki trzylatek. To jest moim zdaniem trochę zbyt daleko idące stwierdzenie.

Karol: Rozmawialiśmy z Dotą Szymborską w pierwszym odcinku 99 twarzy o etyce. Czy zatem responsible AI i odpowiedzialne AI to etyczne AI? Czy można postawić między etyką a tą odpowiedzialnością znak równoważności?

Michał: Zależy jak na to spojrzeć.

To jest taka typowa odpowiedź prawnika. To zależy. Ale zależy od czego. Responsible AI czy trustworthy AI są pewnymi koncepcjami biznesowo-technologicznymi, które mają bardzo wyraźne przełożenie właśnie na jakieś mierniki, na KPI-e, na wynik, jakiś wynik. Czyli one są na poziomie organizacji w jakiś tam sposób wdrażane,

są opakowane politykami, procedurami, instrukcjami, dokumentami, dokumentami, które należy stosować. Natomiast etyka AI to myślę, że jest czymś zdecydowanie szerszym. I ona obejmuje już nie tylko kwestie takie stricte biznesowe, nie tylko kwestie stricte technologiczne, ale też bardzo wiele aspektów takich społecznych, bym powiedział, tak? Oczywiście najczęściej w kontekście etyki sztucznej inteligencji mówi się o… właśnie to responsibility jest takim biznesowym trochę konceptem opakowanym właśnie tymi politykami, procedurami, dokumentami, instrukcjami. Z kolei ta etyka jest czymś takim pojęciem trochę szerszym, no bo jeżeli w ogóle sięgnęlibyśmy do korzeni etyki, no to co to jest? to jest ocena tego, czy postępujemy w sposób właściwy. Ale co to znaczy postępować w sposób właściwy? Podobnie jest z systemami sztucznej inteligencji. Pojawia się pytanie, co to znaczy wykorzystywać albo tworzyć, rozwijać sztuczną inteligencję czy systemy sztucznej inteligencji. Bardzo unikam tej sztucznej inteligencji, bo ona kojarzy się trochę z Terminatorem, a to przecież tylko narzędzie.

W jaki sposób właśnie to robić tak, żeby to było zgodne z jakimiś określonymi wartościami. Te wartości będą się oczywiście różniły w zależności od tego, w jakiej kulturze jesteśmy, w jakim społeczeństwie. Też jakby w kontekście tej etyki sztucznej inteligencji, no to jest mowa dosyć dużo np. o wykorzystaniu jej na cele militarne, dajmy na to, tak?

No to jest ważny wątek, którego też nie możemy pomijać. Natomiast nie mówimy raczej o Responsible AI czy Trustworthy AI właśnie w kontekście na przykład tych aspektów takich militarnych. Więc moim zdaniem, ale mogę się jeszcze jasno mylić, ale bardziej to Responsible AI i Trustworthy AI jest pewną taką już opakowaną bardzo koncepcją, już taką uporządkowaną, mającą swoje pewne jakieś fundamenty i strukturę, natomiast etyka jest czymś, pojęciem szerszym. Z etyką AI oczywiście. Oczywiście najczęściej jak mówimy o etyce AI, to mamy na myśli ten dylemat wagonika, który już jest tak wyświechtanym dylematem, ale od którego zazwyczaj się zaczyna.

Karol: Rozmawialiśmy o tym do to nawet.

Michał: To nie będę nawet tego wątku gdzieś tam poszerzał, natomiast on rzeczywiście pokazuje, o co w tym wszystkim chodzi, czyli tak naprawdę zastanawianie się nad tym, jakie działania możemy podejmować, jakich działań nie możemy podejmować. Z kolei responsibly AI już mówi o tym, że mamy metryki, mamy jakieś określone działania, konkretne, też techniczne, no bo to przecież są pewne narzędzia, której gdzieś tam wykorzystujemy, co oczywiście łączy się z etyką AI bardzo mocno, bo jednak ma realizować pewne założenia, czyli tego właśnie moralne wykorzystanie AI, ale nie mówię o tym tak bardzo wprost, to znaczy tam rzadziej pojawia się kwestia właśnie tej takiej moralności, a bardziej takie aspekty już mówię, bardziej skonkretyzowane, co wcale nie znaczy, że to nie chodzi o to samo, czyli tak naprawdę o właśnie takie dobre wykorzystanie AI. AI for good, tak? To może jest takie najlepsze określenie. Pytanie kogo?

Karol: Super. To powiedz, gdzie zaczyna się w Responsible AI?

Michał: W znaczeniu, jeżeli organizacja chciałaby zacząć… Developmentu tego. No to musi wyjść od ludzi, którzy się tym zajmują.

Karol: Musi ktoś wziąć na siebie… Określić wartości i potem na bazie tych wartości zdefiniować kodeks.

Michał: Myślę, że trochę inaczej. Ja myślę, że musi się znaleźć w organizacji ktoś, kto powie, słuchajcie, my wykorzystujemy, rozwijamy systemy sztucznej inteligencji. Powinniśmy to robić w pewien określony, uporządkowany sposób i w sposób zgodny z wartościami. W związku z tym Zbierzmy się do kupy, zastanówmy się, jakie są nasze rzeczywiście wartości. Zderzmy to ze strategią, którą mamy. Większość organizacji jakąś strategię i wizję przedsiębiorstwa ma, więc ma też pewien katalog wartości. Spróbujmy z tego wyciągnąć to, co jest dla nas ważne, szczególnie w kontekście właśnie rozwijania biznesu.

technologii, no i zacznijmy to robić. Oczywiście drugą alternatywą jest to, o czym ja wspomniałem, czyli to, że ktoś z góry narzuca Ci wdrażanie tego typu rozwiązań. Podam też taki bardzo konkretny przykład. W jednej z iteracji projektu rozporządzenia w sprawie sztucznej inteligencji pojawił się artykuł 4a. W ostatecznej wersji go nie widziałem, więc zakładam, że go już tam nie będzie. który stanowił o tym, że wszystkie systemy sztucznej inteligencji objęte tym projektowanym rozporządzeniem mają mieć w sobie, że tak powiem, te zasady dla sztucznej inteligencji godnej zaufania. I z jednej strony uważam, że to był fajny krok. Zresztą przyznam się szczerze, że na początkowym etapie, kiedy była jeszcze pierwotna wersja, sam sugerowałem podobne rozwiązania. Może nie aż tak drastyczne, jak w tym przypadku, ale w jednej z opinii, której byłem współautorem dla Parlamentu Europejskiego, o tym wspomnieliśmy. I tam pojawiła się właśnie ten artykuł 4a, który właśnie narzucał niejako wymogi dla sztucznej inteligencji godnej zaufania. Czy to było dobre? No moim zdaniem nie. Z prostej przyczyny, że jednak etyka sztucznej inteligencji musi wychodzić, przepraszam za takie górnoletne stwierdzenie, ale z serca. To znaczy musi być to realne odzwierciedlenie naszych przekonań, przynajmniej tak powinno być.

Karol: Skoro ma źródło w wartościach, to tak samo jak w biznesie, tak samo w życiu prywatnym, tymi wartościami powinniśmy się kierować.

Michał: Dokładnie tak. I teraz jeżeli my narzucalibyśmy na przykład twardymi przepisami działanie w sposób etyczny, to to by się sprowadzało do twojego pierwszego pytania, czy tam jednego z pierwszych pytań, że to Responsible AI, Trustworthy AI byłoby jakimś konceptem takim trochę marketingowo-PR-owym w tym wypadku. Oczywiście ono miałoby swoje przełożenie prywatne, na realizację przepisów, no ale nie oszukujmy się, jeżeli ktoś Ci coś narzuca, no to robisz to, bo ktoś Ci coś narzuca, zazwyczaj, a nie z głębokiego przekonania o tym, że to jest dobre. Zresztą to jest charakterystyczne w sektorach regulowanych, gdzie narzuca się bardzo dużo różnych obowiązków, w tym na przykład raportowych, no i Przedsiębiorstwa, które są takimi podmiotami regulowanymi nie zawsze mają przekonanie co do tego, że to jest właściwe, ale robią to, bo muszą. Więc jakby to też trochę próbując odpowiedzieć też na to pytanie, jaka jest różnica pomiędzy responsable AI a etyką AI. Etyka AI musi wychodzić naprawdę od nas samych. Z kolei Responsible AI może już mieć korzenie nieco gdzie indziej.

Karol: Czyli taki już bardziej… Biznes, misja wartości, zyskowność, produkt, rozwój itd.

Michał: Oczywiście na poziomie potem realizacji tych zasad my też powinniśmy czuć, że to jest dla nas ważne. Ale to już jest trochę coś innego. Takie jest moje zdanie. Pewnie wielu w Polsce też ludzi, którzy zajmują się etyką AI się ze mną nie zgodzi.

Karol: O to chodzi dyskusja akademicka. Michał. Nie teoretyzujmy. Przygotowując się do naszego spotkania, podrzuciłeś coś absolutnie fenomenalnego. Incident Database AI. Opowiesz o tym? Pogadajmy o przykładach, o tym jak to Responsible AI działa albo nie działa raczej w tym przypadku. Żebyśmy zapracowali jakich dotyczy case’ów i co tak naprawdę dzieje się realnie w firmach.

Michał: Tak, to i to w ogóle jeszcze wyjaśnimy czym to w ogóle jest. To jest w ogóle taka strona internetowa, wyszukiwarka, gdzie możesz sobie określić parametry, które ciebie interesują w zakresie incydentów, które miały miejsce z użyciem właśnie jakichś systemów sztucznej inteligencji. Nie ma co ukrywać, że ostatnio najwięcej tych incydentów krąży wokół tej tak zwanej generatywnej sztucznej inteligencji.

Karol: Prawo autorskie?

Michał: Prawo autorskie na przykład, ale też ochrona prywatności, też na przykład tak zwany illegal albo sensitive content. Czyli generowanie treści, które nie powinny się po prostu na zwyczajnym świecie zdarzyć w jakichś tam określonych sytuacjach. I tu podam od razu bardzo konkretny przykład z kilku tygodni, gdzie, chociaż zastanawiamy się, czy to nie był jakiś taki marketingowy chwyt, ale jedna z firm kurierskich wystawiła swojego chatbota. I jedna z pań, która jest związana z Akademią, chyba bodajże w Stanach Zjednoczonych, jeśli się nie mylę, postanowiła sprawdzić, jak ten chatbot działa. I zaczęła zadawać różne pytania, na które zasadniczo ten chatbot nie powinien odpowiedzieć. Przykładowo, żeby napisać, tam akurat było hajku, czyli taki króciutki wierszyk. na temat tego, jak ta firma kurierska jest niedobra.

No i on to zrobił. Tak samo jak zaczął wyzywać, jeśli można tak tu, ja się nie lubię personifikować tych systemów, ale przyjmijmy, tak? Zaczął wyzywać tą panią, tak? Więc to jest jeden z takich przykładów, gdzie coś nie zagrało do końca i gdyby na przykład były wdrożone odpowiednie, w odpowiedni sposób te zasady responsible AI, to również dałoby radę w jakimś stopniu przynajmniej zmitygować tego typu ryzyko.

Nie mówię, że to się da wyeliminować, bo to jest ciężka sprawa. Ja jednak opowiem też o kilku innych takich przykładach, które są moim zdaniem bardzo istotne. Na przykład Amazon.

2014 rok, wiadomo, odległa przeszłość 10 lat temu, ale to jest taki kluczowy przykład, znaczy bardzo dobry przykład na to, żeby pokazać, jak to działa albo nie działa w praktyce. Inżynierowie Amazona postanowili wdrożyć taki system służący do rekrutacji. Czyli do podejmowania decyzji, decyzji właściwie, bo nie rekomendacji, ale decyzji o tym, czy kogoś przyjąć, czy kogoś nie przyjąć. Przez 6 miesięcy, jak ten system działał, nie zatrudnił bodajże ani jednej kobiety. Dlaczego tak było?

Było tak dlatego, że wzięto jako dane treningowe, te wykorzystywane właśnie do stworzenia pewnego określonego modelu rzeczywistości, dane za okres 10 lat wstecz. 10 lat wstecz, mniej więcej 10, mogę się mylić, bo nie pamiętam, czy wtedy Amazon już był, ale był chyba. Kobiety nie chciały pracować w magazynach Amazon. To było traktowane jako bardzo ciężka praca fizyczna, bardzo słabo płatna. Do 2014 roku to już… Nie przeprowadzono podstawowych działań, które trzeba zrobić na danych, czyli sprawdzić po pierwsze, czy dane są adekwatne, czy one odpowiadają rzeczywistości istniejącej. Wtedy kobiety już zaczęły aplikować. Praca była lepsza, robotyzacja procesów itd., itd., Nie zweryfikowano, czy nie będzie tam przypadkiem nawet nieintencjonalnego bajasu, czyli tego uprzedzenia i wrzucono to do wytrenowania modelu. Siłą rzeczy jest taka pewna zasada. Garbage in, garbage out. Jeżeli wrzucasz śmieciowe dane do modelu, to otrzymujesz śmieciowe rezultaty.

Nie ma innej opcji. Model uczy się na tym, co mu dostarczy. Znaczy system uczy się na tym, co dostanie. Więc siłą rzeczy jakby stwierdził ten model, jeśli tak to można ująć, wymodelował tę rzeczywistość, której kobiety się po prostu do tego najzwyczajniej w świecie nie nadawały. W związku z tym, nawet jeżeli pojawiło się w CV, to jest właśnie przykład tego zastosowania, że ktoś był trenerem na studiach kobiecej drużyny siatkarskiej czy tam koszykarskiej, to z automatu jakby został to CV gdzieś tam wyrzucane. To jest taki jeden przykład tego, jak tego nie robić. Podam jeszcze inny przykład, ale nie związany z incydentami, tylko tego, co się obecnie dzieje w kontekście systemu sztucznej inteligencji.

Bardzo popularne stały się systemy, które pozwalają rozbierać zdjęcia ludzi. Nie wiem, czy słyszałeś o tym, ale to jest chyba AI Nude coś tam, już dokładnie nie pamiętam, ale jest takie narzędzie, które podobno świeci triumf w Stanach Zjednoczonych, gdzie wrzucasz zdjęcia jakiejś osoby i otrzymujesz prawdopodobne zdjęcie nagie w tym wypadku. I to jest moim zdaniem przykład, już abstrahując od kwestii ochrony prywatności czy braku ochrony prywatności w tym wypadku, ale też godności ludzkiej, bo to też jest bardzo ważne, że to jest przykład nieetycznego zastosowania systemu sztucznej inteligencji. Gdyby ktoś miał, że tak powiem… z tyłu głowy na przykład te zasady, które określa na przykład Unia Europejska, no to by tego zwyczajnie w świecie nie zrobił. Absolutnie od tego, że uważam, że jeżeli są wykorzystywane tam modele generatywne dostarczane przez jakieś podmioty, to po prostu zwyczajnie to może być naruszenie terms and conditions.

Ale nie wiem, jakie są w tej chwili, jak wygląda ta sytuacja. Więc to też jest taki przykład czegoś, co nie jest incydentem jako takim, Jeszcze tylko jednej rzeczy ostatnio chciałem powiedzieć, że coraz więcej jest incydentów związanych z tak zwanym facial recognition, czyli z rozpoznawaniem twarzy i tu jest rzeczywiście bardzo duży problem, także na poziomie Unii Europejskiej jest to już nie tylko dyskutowane, ale wręcz opakowywane jakimiś konkretnymi przepisami. ponieważ z jednej strony takie systemy rozpoznawania twarzy, czy identyfikacji biometrycznej np. w przestrzeni publicznej mogą prowadzić do dyskryminacji. To jest jeden wątek. On może w Polsce nie jest tak bardzo jeszcze istotny, ale już np. w krajach, w których mamy większą różnorodność, to jest to realny problem. A z drugiej strony to jest kwestia takiego dość istotnego naruszenia naszej prywatności też. Więc w tym zakresie pojawia się sporo problemów, Wątpliwości, podam zresztą konkretny przykład, chyba to była Dania albo Szwecja, gdzie jedna z gmin zakupiła system właśnie takiej identyfikacji biometrycznej kamer i okazało się, że zakupiła ją od firmy chińskiej, która wykorzystywała te dane, które były tam zbierane np. do dotrenowywania swoich modeli, a także tak naprawdę nie wiemy, Co z tymi danymi się działo dalej. Więc tych przykładów różnych incydentów czy zdarzeń z wykorzystaniem sztucznej inteligencji jest naprawdę cała masa. I w związku z tą też tak zwaną demokratyzacją, czyli takim upowszechnieniem tego AI, tego będzie coraz więcej. Bo teraz przeciętny Kowalski może zrobić swojego deepfake’a.

Karol: Wiesz co, ale a propos tego nudity, o którym wspominałeś, to być może to nie jest responsible, ale patrząc na chociażby to, co dzieje się w świecie mediów, ale jest profitable.

Michał: No tak, zdecydowanie.

Karol: I zobaczcie, to rzeczywiście cały czas wracamy do tych wartości, co chcę osiągnąć, co chcę zrobić, jakimi zasadami się kieruję i jak tak naprawdę ma wyglądać mój biznes.

Michał: Dlatego ja nie mam wątpliwości, że jednak części przedsiębiorstw, które nawet wdrożą to Responsible AI, to to będzie taka trochę wydmuszka, pokazanie, że jesteśmy responsible, ale dalej będziemy robili swoje. Zresztą są przykłady big techów, nie będę wskazywał których, Akurat był taki moment, że te duże firmy technologiczne zaczęły sprzedawać swoje systemy rozpoznawania twarzy, na przykład policji. No i w którymś momencie okazało się, że to takie parcie społeczne na to, żeby i też wewnętrznie w ramach tych organizacji, żeby odejść od tego spowodowały, Przynajmniej zgodnie z deklaracjami, te duże firmy technologiczne, policji, wojsku nie sprzedają tego typu rozwiązań. Czy tak rzeczywiście jest? To pewnie pozostanie bardzo długo zagadką, ale publicznie wiemy, że tak jest.

Karol: A co będzie, jeżeli wymiar sprawiedliwości oprze się o systemy AI?

Michał: W Polsce też jest całkiem sporo ludzi, którzy są ogromnymi entuzjastami. Ja jestem bardzo dużym sceptykiem z tego względu, że dla mnie bardzo ważną zasadą, właściwie taką, od której ja wychodzę w swojej pracy i w swoim życiu, jest tzw. human-centric approach, czyli skupienie się na człowieku. I ja wychodzę z założenia, że jednak w kontekście naszych praw, naszych obowiązków o tym powinien decydować człowiek. Przykłady z krajów anglosaskich pokazują, że ludzie bardzo szybko przyzwyczajają się dobrego i bardzo szybko zaczynają ufać tego typu narzędziom. To jest ryzyko.

Karol: Wygoda.

Michał: projektu rozporządzenia w sprawie sztucznej inteligencji, unoszącym się głównie do nadzoru, ale w którym mowa o tym, że organizacja musi wdrożyć u siebie dla systemu wysokiego ryzyka rozwiązania przeciwdziałające tak zwanemu over-reliance, czyli nadmiernemu poleganiu na systemach sztucznej inteligencji. I teraz wracając do przykładu tych krajów anglosaskich. W krajach anglosaskich bardzo popularnym narzędziem jest kompas. To jest system, który pozwala na dokonywanie oceny prawdopodobieństwa popełnienia przestępstwa przez określoną osobę. Już takim sztandarowym przykładem tego, jak on może źle działać.

Karol: I to jest rozwiązanie, które działa w wymiarze sprawiedliwości już teraz?

Michał: Już od wielu lat.

Od wielu lat. Czyli ocenia tak naprawdę prawdopodobieństwo recydywy. I teraz ja podam bardzo ten sztandarowy przykład, który jest często pokazywany. Około 16-letnia dziewczyna, która ukradła rower, czyli wydaje nam się, że to jest raczej takie przestępstwo, powiedziałbym, no małe, versus mężczyzna, który dopuścił się jakiegoś cięższego przestępstwa, w przyszłości był karany za rozboje i tak dalej.

W przypadku tej dziewczyny kompas ocenia prawdopodobieństwo w skali od 0 do 10, gdzie 10 to jest najwyższe prawdopodobieństwo, 9. W przypadku mężczyzny 3. I teraz co wyróżnia te osoby? Właśnie, ale co wyróżnia te osoby na przykład? Jak myślisz? Dlaczego akurat takie wartości zostały przypisane?

Karol: To jest w Stanach Zjednoczonych.

Michał: Nie mam do tego pojęcia. Otóż dziewczyna była czarnoskóra, a mężczyzna był biały. Więc tam są pewne też jakieś tam uprzedzenia, które są efektem tego, jak wygląda nasz świat, jak my podchodzimy do pewnych rzeczy. No bo też powiedzmy sobie szczerze, systemy nie są autonomiczne. One same z siebie, że tak powiem, nie biorą jakichś na przykład korelacji, nie dostrzegają pewnych jakichś korelacji. I to jest taki przykład dość kiepski, ale wracając jakby do tego sedna, o którym tutaj rozmawiamy. Ludzie się przyzwyczajają do dobrego i bardzo szybko zatracają swój instynkt, nie wykorzystując własnego doświadczenia, własnych przekonań, tylko polegają po prostu na tym tak bezwiednie trochę.

Karol: Ale zobacz, że to samo stało się z orientacją w przestrzeni.

Michał: I to jest bardzo dobry przykład i też Ci podam przykład wykorzystania takiego, powiedziałbym, pseudo AI. To jest autentyczny przykład. Bodajże to była Irlandia, był mężczyzna, który jest zawodowym kierowcą. Jechał do swojego domu, zapaliła mu się kontrolka paliwa, okazało się, że nie wystarczy mu tego paliwa na to, żeby dojechać, w związku z tym albo musiał znaleźć jakąś stację benzynową i jej nie było w pobliżu, albo znaleźć skrót. Włączył TomToma, czyli GPSa takiego. który znalazł alternatywną drogę, która miała go doprowadzić do tego domu, czy tam do stacji benzynowej jeszcze z tym paliwem. No i tak jechał, jechał, jechał, w pewnym momencie zaczęła się zwężać ta droga mu coraz bardziej, no ale to nie zbudziło jego, że tak powiem, jakichś tam podejrzeń i w którymś momencie samochód stanął tak, że druga jego połowa, ten przód był nad klifem. ileś tam metrów w dół jakby jeszcze dojechał, no to tak by się to skończyło.

Dwa dni bodajże trwała akcja wyciągania tego samochodu, bo warunki były bardzo trudne. Facet został oskarżony o tam niebezpieczeństwo spowodowania, no już tam nie pamiętam, ale niebezpieczeństwo spowodowania jakiejś katastrofy w ruchu. No i sędzia go zapytał, mówię, proszę pana, jest pan zawodowym, oczywiście spłycam pewne rzeczy, jest pan zawodowym kierowcą, no nie zbudziła pana wątpliwości.

Ja mówię, dlaczego? No miałem tą Toma, zaufałem mu, zawsze mu ufałem, zawsze się zgadzał, tak? No i to jest właśnie przykład tego, kiedy za bardzo polegamy na działaniu tego typu systemu. Zresztą my mamy tak na co dzień. Ja coraz rzadziej korzystam na przykład z GPS-a, Bo stwierdziłem, że gdyby na przykład nagle przestał działać internet całkowicie, to ja bym sobie nie poradził w tej przestrzeni. Więc zaczynam, że tak powiem, znowu mój mózg przyzwyczajać do tego, że musi myśleć na drodze.

Karol: Ale to jest to samo, zobacz, co robi skandynawska branża edukacyjna. odchodzi od komputerów. Nie wiem, czy widziałeś tą wiadomość. Nie słyszałem akurat. Szkoła wraca z powrotem do zeszytów, książek papierowych i uczenia tego, do którego byliśmy przyzwyczajeni, wiesz, lata temu.

Michał: I bardzo dobrze, ja się z tym całkowicie zgadzam. Sam też notuję w swoim papierowym notatniku, choć miałem chwilę, kiedy myślałem o takim, to nie jest żona reklama, jest taki remarkable, to jest taki notes.

Karol: Słuchaj, zastanawiam się właśnie cały czas, używasz remarkable?

Michał: Właśnie nie. Postanowiłem, że jednak wykorzystam papierowy notatnik, który lepiej będzie mi się sprawdzał. Ale o tym za chwilkę możemy do tego wrócić. Ja bym jeszcze chciał wrócić do wymiaru sprawiedliwości, o którym zaczęliśmy. Ja wychodzę z założenia, że jeżeli my damy sędziom na przykład tego typu rozwiązania, które wyręczą ich w myśleniu, to to nie będzie dobre rozwiązanie.

Karol: Bo tak naprawdę wymiar sprawiedliwości stanie się wymiarem administracyjnym.

Michał: Dokładnie. I teraz nawet jeżeli człowiek podpisze się pod tym wyrokiem, to to nie będzie wyrok wydany przez człowieka. I przyjmuję argumentację, że no ale przecież to jest znaczne ułatwienie, wyszukiwanie orzecznictwa i tak dalej, i tak dalej. Pewnie w niektórych sytuacjach można by było to dopuścić, ale to też trzeba byłoby się zastanowić, czy to jest też uzasadnione nawet. Mówi się o sprawach jakichś tam gospodarczych, jakichś nakazach zapłaty, zresztą jakieś rozwiązania automatyzacyjne są już dzisiaj też wykorzystywane w tym zakresie. Ale ja nie chciałbym mieć takiej sytuacji jak w Chinach, gdzie nawet już w bardziej poważnych sprawach karnych decyzje podejmują algorytmy. Dane zawsze w jakiś sposób są zbajasowane, nawet nie przez sam fakt tego co tam jest, ale tego, że ktoś decyduje o tym jakie dane wykorzystywać. Czyli już na poziomie samej decyzji o tym jakie dane wykorzystać może istnieć jakieś uprzedzenie.

W związku z tym ja bym był bardzo ostrożny w zakresie wykorzystywania tego typu rozwiązań. Jakiś czas temu miałem też okazję komentować w chyba bodajże dzienniku Gazecie Prawnej pomysł zastosowania, taki pilotaż w więziennictwie na przykład jakiegoś tam rozwiązania z wykorzystaniem też takiej de facto identyfikacji biometrycznej.

Możemy twierdzić, że tej identyfikacji biometrycznej nie ma, bo jest zaszumianie danych i tak dalej, i tak dalej. Ja zawsze podchodzę do tego z bardzo dużym dystansem. Natomiast gdzieś tam pewnie można to wykorzystywać. Na przykład ten system, o którym ja mówię, miał służyć do tego, żeby weryfikować, czy nie dzieje się coś złego w celu. Z jednej strony może to jest fajne rozwiązanie, a z drugiej strony dość duża ingerencja też w sferę takiej prywatności.

Karol: Z drugiej strony więzienie jest obszarem nadzerowanym. Zakładam, że prywatność w więzieniu może się ograniczyć do prowadzenia takiego dziennika, o którym mówisz.

Michał: Tak, ale ja w dalszym ciągu uważam, że to jednak człowiek powinien tutaj mieć najwięcej do powiedzenia, więc ja zawsze wychodzę z… Nie chcę tworzyć dystopijnych wizji po prostu z użyciem AI, ale na przykład, nie wiem, czy kojarzysz grę Cyberpunk 2077?

Karol: Kojarzę, nie gram, bo ja swoją przygodę z grami skończyłem na Prince of Persia w Wolfenstein 3D i tego typu rzeczy.

Michał: Piękne czasy swoją drogą, też się bardzo z takim rozżywieniem wspominam. Ja akurat specjalnie dla tej konkretnej gry kupiłem Xboxa, czy żona mi kupiła akurat na urodziny Xboxa. Tam jest taka trochę dystopijna wizja, w której rzeczywiście jest ta sztuczna inteligencja, która z jednej strony nas wspiera, ale z drugiej strony stanowi dla nas też ogromne zagrożenie. Ja się trochę boję tej wizji i nie mówię tutaj o wizji, w której mamy autonomiczną, świadomą, sztuczną inteligencję, bo ja uważam, że my nigdy nie będziemy w stanie tego stworzyć, a jeżeli będziemy, to przyznam rację tym, którzy twierdzili właśnie w ten sposób. Natomiast boję się bardziej tego, że ten postępujące profilowanie, postępująca ocena emocji i tak dalej spowoduje, że my będziemy już poddawani tak dużej też takiej inwigilacji, tak dużej manipulacji, że bardzo wiele na tym stracimy. I ja wcale nie uważam, że tego typu rozwiązań nie należy wykorzystywać, tylko je należy wykorzystywać w jakiś sposób. który na przykład nie narusza naszych praw.

Karol: Tak, żeby cały czas mimo wszystko, mimo tak dużego obszaru wykorzystania technologii w centrum był człowiek i człowiek traktował to nie jako byt równoległy, tylko jako narzędzie w swoich rękach.

Michał: Ja zawsze daję taką analogię, że sztuczna inteligencja jest trochę jak nóż. Z jednej strony możemy go wykorzystać do posmarowania kromki chleba, a z drugiej strony możemy go skrzywdzić.

Karol: Dobrze Michał, powiedz kogo czytać, kogo śledzić, jakie warto przeczytać książki, śledzić newslettery, kogo warto słuchać, jeżeli chodzi o kwestie związane właśnie z tym Responsible AI, o którym rozmawiamy.

Michał: Ja przyznam szczerze, że nie mam pamięci do nazwisk, mam swoich takich ulubionych autorów, których followuję.

Karol: Możemy zrobić w ten sposób, że jeżeli prześlesz listę, to umieścimy po prostu informacje w notatkach dla naszych słuchaczy.

Michał: Dobrze, to jak najbardziej, natomiast jest na pewno jeden człowiek taki Murat Darmus, chyba jeśli się nie mylę.

Może trochę przekręciłem nazwisko. To jest człowiek, który jest filozofem, ale związanym z technologią od bardzo wielu lat, który pisze bardzo sensownie właśnie o tych ryzykach związanych z AI i też nie tworzy takiej bardzo mocnej filozoficznej otoczki wokół tego, pomimo tego, że jest autorem naprawdę takich… że tak powiem, książek w tym zakresie. Jest świetna książka pani profesor Kate Crawford, Atlas of AI, która dotyka takiej właśnie nieoczywistej sfery wykorzystania AI, czyli przykładowo wykorzystania trochę niewolniczej pracy, niskopłatnej pracy, wyciągania zasobów z naszej ziemi, na przykład do tworzenia półprzewodników itd., itd., Więc tych wątków jest tam bardzo dużo i warto ją przeczytać, żeby tak zrozumieć, że to AI to jest trochę coś więcej niż tylko takie oprogramowanie, tylko za tym stoi też cała machina, fabryki, które tworzą to wszystko, ta energia, która jest tam gdzieś tam wykorzystywana.

O tym nie możemy w żaden sposób zapominać. Jest pani Stefanie O’Hare, która na LinkedIn też pisze dużo ciekawych felietonów na ten temat. Są książki rzeczywiście, które już zaczynają się pojawiać w kontekście na przykład tego Responsible AI. Mam tutaj ze sobą takie dwie, przy czym jednej jeszcze nie przeczytałem, więc nie będę dawał recenzji, ale jest na przykład książka pana Adnan Masud i pani… I to jest taka próba pokazania, jak wygląda w praktyce wdrażanie tego typu rozwiązań, czyli tego Responsible AI.

Jest książka też bardzo fajna, nie pamiętam niestety autora, We the Robots, która jest… O, świetny tytuł. Tak, bardzo dobry tytuł, która porusza też właśnie wiele takich wątków dotyczących etyki sztucznej inteligencji, ale też takich innych nieoczywistych aspektów, na przykład związanych z wykorzystaniem dronów w ramach działań wojennych. To też jest jakieś tam zagrożenie, którego nie możemy w żaden sposób… ignorować. No i oczywiście polecam swojego newslettera. Tylko, że ja już tak piszę bardziej rzeczywiście o tym takim praktycznym aspekcie wykorzystania AI.

Karol: Podeślemy linki. Ja też ze swojej strony polecam lekturę Twoich tekstów, które regularnie pojawiają się w Rzeczpospolitej.

Michał: Tak, co dwa tygodnie w bezpiecznej firmie rzeczywiście te artykuły, tam felitony się pojawiają. Dziękuję bardzo.

Karol: Michał, serdeczne dzięki za spotkanie, serdeczne dzięki za Twoją wiedzę, ekspertyzę i za Twoją energię i chęć do dzielenia się tą wiedzą.

Michał: Dzięki i mam nadzieję, że to nie jest ostatni raz, że jeszcze pojawią się takie wątki, które będziemy mogli omówić.

Karol: Dziękuję Ci serdecznie za rozmowę.

Michał: Dzięki, do usłyszenia.