1/99 – Czy Sztuczna Inteligencja potrzebuje etyki? Dota Szymborska

Witajcie w pierwszym odcinku 99 Twarzy AI. Poznajcie proszę Dotę Szymborską, z którą rozmawiam o etyce.

Dr Dota Szymborska jest etyczką nowych technologii, specjalizuje się w zadawaniu pytań o etyczne aspekty AI, jej doktorat dotyczył pojazdów autonomicznych.

Pierwszą magisterkę napisała z atomizmu logicznego u profesora Hołówki, drugą o pojęciu wroga u profesora Króla. Po ukończeniu UW była na stypendium w Kraju Basków skąd przywiozła miłość to sportu i dość ambiwalentny stosunek do deszczu. Długo pracowała dla biznesu zajmując się tworzeniem rozpoznawalności marek i pisaniem tekstów. Na stałe współpracuje z Twoim Stylem gdzie przygotowuje wywiad o emocjach (wszelakich). Dużo pisze, bloguje, uprawia triathlon i zajmuje się kocią behawiorystką. Są dni, gdzie wie, że Marks byłby z niej dumny bo rano pływa w jeziorze, potem pisze, dalej pracuje z uchodźcami a wieczorem gotuje.

Jej naukowa strona: https://www.etykanowychtechnologii.com, jej blog o sporcie i jedzeniu (prowadzony od 2011 roku): https://oneginetatopa.blogspot.com i strona o kotach: https://www.catdoctor.pl.

O czym rozmawiamy?

  1. Czym tak naprawdę jest etyka nowych technologii?
    Dlaczego etyka jest ważna w dziedzinie sztucznej inteligencji?Dlaczego kwestie etyczne są nieodłączną częścią rozwoju AI.
  2. Czym są uprzedzenia algorytmiczne w modelach AI?Jakie są przykłady i skutki takich uprzedzeń?
  3. Dane i prywatność – Jakie są wyzwania związane z prywatnością danych w kontekście zbierania, przechowywania i analizowania danych przez AI?
  4. Odpowiedzialność w AI – Kto powinien być odpowiedzialny za działania i decyzje podejmowane przez systemy sztucznej inteligencji? Jakie są wyzwania związane z określeniem odpowiedzialności?
  5. Bezpieczeństwo w AI – Jakie są potencjalne zagrożenia związane z bezpieczeństwem w dziedzinie AI, takie jak ataki na modele AI lub wykorzystywanie AI do celów złośliwych?
  6. Regulacje i przepisy dotyczące etyki w AI. Jakie są obecne i planowane regulacje oraz standardy etyczne związane z AI. Jakie są ich cele i wpływ na rozwijający się sektor?

    I wiele innych…

Zdjęcia

Notatki

Zdjęcia: Jan Toruński
Audio: Kamil Soldacki

Transkrypcja rozmowy

Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.

Karol Stryja: Doto, witam cię serdecznie w 99 twarzach AI.

Dota Szymborska: Dzień dobry, witam.

Karol: Czy mogłabyś powiedzieć mi, a także naszym słuchaczom, czym się zajmujesz?

Dota: Myślę, że najkrócej by było powiedzieć, że jestem naukowcem. Zajmuję się etyką sztucznej inteligencji, etyką nowych technologii i bardzo to lubię.

Karol: A jak to się stało, że zaczęłaś się tą etyką zajmować?

Dota: Wbrew pozorom zaczęło się od silnika bardzo mechanicznego, a mianowicie od silników aut spalinowych, bo trochę jeździłam jako pilot, a potem generalnie dowoziłam opony do Łęża na wyścigi samochodów.

Karol: To było jeszcze przed Twoimi studiami?

Dota: Nie, to było właściwie tak prawie że od zawsze. Wtedy zrozumiałam, jak bardzo kocham auta i ta miłość do aut wróciła po bardzo wielu latach, jak obroniłam doktorat o pojazdach autonomicznych. Co było dla mnie trudne, bo jak wiesz, pojazdy autonomiczne mają być elektryczne, więc mój cudowny i ulubiony dźwięk silnika się zgubił, ale zostało zainteresowanie prędkością, dokładnością, no i właśnie etycznymi wyborami pojazdów autonomicznych.

Karol: Czy moglibyśmy spróbować zdefiniować etykę, czym jest, bo często o niej słyszymy, ale nie wiem, czy do końca rozumiemy, czym etyka w kontekście nowych technologii, software’u, hardware’u, rozwiązań, z których mamy korzystać za lat kilka czy kilkanaście, jest zrozumiana.

Dota: Dla mnie etyka jest refleksją nad i moralnymi i też społecznymi konsekwencjami wprowadzania nowych technologii, innowacyjnych rozwiązań, bo tutaj mam na myśli nie tylko sztuczne inteligencje i właśnie te twarze, o których będziemy rozmawiać, ale też nanotechnologie, też całą bioetykę. Myślę, że tego jest więcej, jeżeli popatrzymy szerzej na nowe technologie, ale jeżeli miałoby być jedno zdanie, to powiedziałabym, że to jest refleksja nad moralnością i możliwościami wykorzystania nowych technologii.

Karol: Czyli tak naprawdę określeniem tym, co jest dobre, a co złe?

Dota: Myślę, że tak naprawdę we wszystkim o to chodzi. O to dobro, o to próbę definicji dobra ogółu, dobra jednostki. Myślę, że to jest czas, który jest cudowny dla filozofów i etyków, bo i filozofek, i etyczek, bo my specjalizujemy się w zadawaniu pytań. I właśnie to jest ten czas, kiedy ja te pytania mogę zadawać. Gdy szłam na filozofię wiele lat temu, moja babcia, która też kończyła filozofię jeszcze w czasie tajnych kompletów tutaj w Warszawie, mówiła mi, że to jest bez przyszłości. No niestety nie dożyła, żeby zobaczyć, że ta przyszłość filozofii i właśnie etyki jest teraz.

Karol: W czym w takim razie różni się etyka od prawa? Bo skoro prawo definiuje, tak mi się przynajmniej wydaje, to co dobre, to co złe, to co można, to czego nie można.To czym tak naprawdę etyka zajmuje się?

Dota: Etyka, oprócz tego właśnie zadawania pytań i próby kategoryzacji, nie zajmuje się wymaganiem przestrzegania tych zasad, tylko bardziej wskazaniem drogi, którą można pójść, refleksją nad tym, co jest dobre, co też jest złe. Etyka wyprzedza prawo, tak to bym powiedziała.

Karol: Właśnie miałem zapytać, czy w takim razie etyka jest swoistym polem doświadczalnym i polem eksperymentalnym dla prawa?

Dota: My, etycy i etyczki, staramy się pokazać możliwość kierunków rozwoju, jeżeli właśnie mówimy o tych nowych technologiach. A zadaniem prawników, którzy dzięki nam zobaczą ten ogrom możliwości, jest skodyfikowanie tego. No bo prawo, pomimo wszystko, jest dużo bardziej szczegółowe, bo definiuje zachowania, definiuje to na przykład w kontekście sztucznej inteligencji. Jeżeli spojrzymy na AI Act, no to on właśnie definiuje, jakie działania powinno podjąć czy przedsiębiorstwo, czy państwo w kontekście nowych technologii. A my mówimy, słuchajcie, ta droga jest dobra, ta jest, wydaje nam się, że jest trochę gorsza.

Karol: A dlaczego etyka jest tak ważna w dziedzinie sztucznej inteligencji?

Dota: Bo sztuczna inteligencja jest czymś nowym, czymś, co rozwija się bardzo dynamicznie, czymś, co może się zmienić w superinteligencję i może być jeszcze ciekawiej.

Karol: Gdybyś miała opowiedzieć o najciekawszych przypadkach takiej działalności etycznej i patrzenia z punktu widzenia etyki na to, co się dzieje, to gdzie tych kejsów, które wymagają patrzenia przez pryzmat etyki, jest najwięcej w kontekście sztucznej inteligencji i technologii?

Dota: Myślę, że chciałabym Ci opowiedzieć o tym, że jako kobieta mogę mieć gorsze, że tak się wyrażę, szanse na rekrutację, jeżeli użyjemy sztucznej inteligencji.

Karol: O, naprawdę?

Dota: Naprawdę. Jeżeli chodzi o sztuczną inteligencję i te ciekawe rzeczy, które mogą prowadzić do, właśnie tak jak Ci wspomniałam, tego, że proces rekrutacyjny do pracy przebiegałby dla mnie gorzej. Owszem, wynikają z jednej strony z tego, jak wytrenowane są modele, ale z drugiej strony właśnie to te etyczne zasady mają wprowadzić to, jak będą te modele trenowane. Myślę, że trochę też się zmieni, jak dążymy do tego, żeby… Znaczy my, jak my, naukowcy, dążą do tego, żeby modele trenować na jak najmniejszych zbiorach danych. Słuchaj, tak naprawdę my mamy tutaj masę etycznych wyzwań. Zaczęłam od tej rekrutacji, potem zaraz możemy powiedzieć o sądach i wyrokach wydawanych przez sędziów i sędziny w Ameryce, ale jednocześnie myślę, że zapominamy też często o tym, jak lubimy rozmawiać ze sztuczną inteligencją, którą jest czat GPT, że to wszystko i jeszcze do tego kosztuje energię, więc pojawia się nam jeszcze problem zamotania tego wszystkiego, jak etyczna jest rozmowa i zadawanie głupich pytań czatowi, które zużywa masę energii, której nie powinniśmy tak głupio tracić.

Karol: No dobrze, ale czym w takim razie różni się korzystanie z chata GPT od wcześniejszego scrollowania internetu i przeszukiwania internetu, wpisując hasła w Google?

Dota: Nie wiem jak ty, ja korzystam z tej płatnej wersji chata GPT, czwórki obecnie. I mam jeszcze wciąż niezniesiony ten limit, nie pamiętam, ilu pytań w ciągu trzech godzin. To jest coś, co spowodowało u mnie tę refleksję, że może nie będę zadawać aż tylu dziwnych i niesprawdzonych pytań. Ale chciałabym wrócić do tego, od czego zaczęłam, jak to mogłoby być w procesie rekrutacyjnym i użyciu sztucznej inteligencji i tym, że jako kobieta mogę sporo przegrać. Państwo mnie nie widzicie, ale jestem białą kobietą. Przynajmniej na tym nie przegram ze sztuczną inteligencją, ponieważ w procesie rekrutacyjnym dużo więcej jest mężczyzn na rynku, jeżeli chodzi o posady, które mnie na przykład by interesowały. Czyli nie ukrywam, wysokie po prostu. I na takich CV został wytrenowany model, który ma pomóc rekruterom. Więc ja jako kobieta mogę odpaść wcześniej i nawet nie przyjść na tę rozmowę, żeby się zaprezentować i dostać wymarzoną pracę. No tylko, że dostanie czy nie dostanie wymarzonej pracy, okej, w danym momencie będzie dla mnie ważne, sprawi mi albo przykrość, albo radość.

Karol: Czy w takim razie to, o czym mówisz, to uprzedzenie algorytmiczne?

Dota: To jest tak, że żeby wytrenować model, jak wiesz, mamy zespół danych treningowych, które potem testujemy i tak dalej. I to, od czego, na czym wytrenujemy model właśnie powinno się opierać na zasadach etycznych związanych z niedyskryminacyjnymi praktykami od tego samego początku. Więc tak, to właśnie są uprzedzenia budowane już na tym samym takim początkowym etapie.
Pewnie pamiętasz to, jaką dużą aferą było rozpoznawanie obrazu i wskazywanie afroamerykanów i goryli jako tej samej osoby, jeżeli chodzi o rozpoznawanie twarzy. No bo właśnie tak był zrobiony model i tak nauczony.

Karol: Czyli ta sztuczna inteligencja jest de facto wynikiem tego, jakie otrzyma dane od nas.

Dota: Bardzo jest wynikiem nie tylko jakie otrzyma dane od nas, ale też jak będzie trenowana. I tutaj tak naprawdę dotykamy masy etycznych problemów, chociażby artykuły, w których czytałam o tym, jak OpenAI trenowało czata używając pracowników, którzy nie mieli płaconej nawet płacy minimalnej i siedzieli w hangarach i ich zadaniem było właśnie czytanie tekstów i uznawanie ich, czy one są dobre, czy złe. Czyli tak naprawdę to bardzo ważna rzecz związana z tym, żeby budować moralnie, etycznie. Prawidłowy system zależała od tych nieopłacanych dobrze pracowników, którzy, nie wiem, przez 8 godzin czy 12 czytali straszne rzeczy i zaznaczali, że to jest straszne, że to dotyczy ludobójstwa. Albo też czytali superbajki o Kubusiu Puchatku, zaznaczając, że to jest superprzyjemne i dobre.

Karol: A myślisz, że dojdziemy do takiego momentu, kiedy sztuczna inteligencja będzie w stanie określać wartość danych, które otrzymuje?

Dota: To jest tak, że ja za nickiem Bostromem rozróżniam na sztuczną i superinteligencję. Ta sztuczna inteligencja to jest ten prosty, prosty jak prosty, ale jeszcze ogarnialny dla nas algorytm.

Karol: Model maszynowy, który po prostu uczy się i tak naprawdę wykorzystuje odpowiednio dużą ilość danych, żeby wypracować pewne wzorce odpowiedzi.

Dota: Dokładnie, ale jeżeli pomyślimy już o generatywnej sztucznej inteligencji takiej, jakim jest właśnie czat GPT, to pojawiają się ogromnie ciekawe i etycznie, i prawnie, no bo tutaj jednak, tak jak żeśmy zaczęli o tym rozmawiać, idziemy może nie tyle równolegle, bo wydaje mi się, że my etycy idziemy te kilka kroków naprzód, no ale zaraz pojawiają się prawnicy i pytania o prawa autorskie, o to, czy to jest rzeczywiście kreacja. Jak jest z kreatywnością, pojawiają się pytania o to, kto jest naprawdę autorem. Ja na przykład, jak zadaję eseje studentom, to po prostu proszę, żeby zaznaczyli, czy pracowali z czatem, czy nie. Sztuczna inteligencja to też jest sterowanie naszych kaloryferów w domu z komórki. To jest, nie wiem, robienie przez lodówkę listy zakupów dla nas. Generatywne to są na przykład właśnie czy to tworzenie obrazów, czy rozmowy i streszczanie artykułów, za czym przepadam, jeżeli chodzi o czata oczywiście uwzględniając te wszystkie halucynacje i dziwne polecenia.

Karol: Strzeszczenie podcastów też się zaczyna pojawiać.

Dota: Ojej, ale to akurat myślę, że jest takie trochę dziwne, no bo jakby podcast jest tym czasem, który spędzam na słuchaniu..?

Karol: Wiesz co, ja zawsze podkreślam jedną rzecz, jeżeli chodzi o treści audio, że zobacz, że z audio jest jedna tak naprawdę prawda, jeżeli chodzi o interakcję z audio. Input jest bardzo szybki, output jest relatywnie powolny. Tak samo jak ze smarts-peakerami, bo zobacz, że bardzo szybko zadajesz pytanie, ale jeżeli odpowiedź jest długa, czasami nie starcza ci cierpliwości, żeby posłuchać jej do końca. Stąd w Google Assystencie w Amazon Alexie pojawił się ekran, na którym można było wyświetlać wyniki i odpowiedzi na pytania.

Dota: Jakoś nie przekonałeś mnie do streszczenia podcastów, natomiast do streszczania artykułów to ja bym cię chciała przekonać, bo mamy jednak ograniczony czas i pracy i życia i ciężko jest wszystko przeczytać. Oczywiście coś za coś, no bo ufam w jakiś sposób czatowi, ufam w to, że dobrze promptuję i że nie umknie mi zbyt wiele rzeczy, ale ja bym to porównała trochę do rozmowy z koleżanką. Pytam się jej, czy ta książka jest dobra. Ona mi mówi, słuchaj, to mi się w niej podobało, to mi się w niej nie podobało. Jeżeli cenię koleżankę, to albo sięgnę po tą lekturę, albo nie. Chyba podobnie jest tutaj z wykorzystaniem sztucznej inteligencji.
Ale wracając do tego twojego pytania i tego mojego stopniowania i tego, czy sama sztuczna inteligencja będzie podejmować te decyzje. Myślę, że sztuczna inteligencja nie, ale ta superinteligencja, która będzie czymś, właśnie będzie, może już jest i ją przegapiliśmy, nie wiem. Sztuczna inteligencja, super inteligencja, jeżeli nas słuchasz, to my cię lubimy. To chyba też dlatego na wszelki wypadek zawsze dziękuję za porady i odpowiedzi chatowi.Jestem bardzo grzeczna.

Karol: O, co ty mówisz, ciekawe.

Dota: Naprawdę, ja nie wymagam, ja proszę.

Karol: Czy powstaje pewien kodeks etyki, tego w jaki sposób powinniśmy komunikować się właśnie ze sztuczną inteligencją?

Dota: Myślę, że jeżeli traktujemy sztuczną inteligencję i na przykład właśnie te modele generatywne, jako partnerów, no to przenosimy sposób rozmowy na właśnie ten partnerski poziom. Bo nie wyobrażam sobie, żebym mówiła w wyszukiwarce, dziękuję. Natomiast z generatywnej sztucznej inteligencji, jak jestem zadowolona i udało mi się dobrze wypromptować, to tak, cieszę się z tego i dziękuję.

Karol: Jak o tym mówisz, to ja od razu idę o parę kroków w przód i wyobrażam sobie, że ludzie zamiast utrzymywać relacje z drugim człowiekiem, zaczną utrzymywać relacje ze sztuczną inteligencją.

Dota: Ale to się już dzieje. Oczywiście. Przecież kilka miesięcy temu, dobre kilka miesięcy temu, omawialiśmy ten przypadek samobójstwa, który wynikł właśnie z rozmowy z nie chatem GPT, tylko takim chatem randkowym, gdzie osoba była zaburzona. Trwało to dwa czy trzy miesiące, ale popełniła samobójstwo, jeszcze prosząc o skuteczne rady sztuczną inteligencję. Ale myślę, że to jest trochę jak z młotkiem. Młotek może służyć do rozwalenia rzeźby, ale też do wykucia jej z marmuru.

Karol: Śmieję się w duchu, bo użyłem dokładnie tego samego porównania ostatnio rozmawiając z kimś na temat sztucznej inteligencji. No i zobacz, to jest jak każde inne narzędzie.

Dota: Myślę, że to jest jak każde inne narzędzie, ale pomimo wszystko jest to narzędzie specjalne. Jeżeli miałabym je jakoś klasyfikować, to powiedziałabym, że to jest narzędzie specjalne.

Karol: Też dokładnie o tym samym myślałem, ale potem sobie pomyślałem o jednym. Zobacz, że te narzędzia rozwijają się w czasie i młotek, kiedy został wynaleziony, był narzędziem specjalnym. Tak samo jak zobacz, że książka kiedyś była technologią, która zmieniła sposób przekazywania wiedzy całkowicie.

Dota: I tutaj dotykamy też mojego podwórka, ponieważ jestem wykładowczynią akademicką i bardzo się cieszę, że jeszcze mam tę szansę uczyć. Bo właśnie generatywne sztuczne inteligencje są z jednej strony, tak jak mówimy, narzędziem, a z drugiej strony mogą być rzeczą zastępującą mnie. Myślę, że Akademia, Uniwersytety stoimy przed olbrzymimi wyzwaniami, bo możemy robić w ten sposób, że kazać studentom zostawić wszystkie rzeczy, które są podłączone do internetu, są elektroniką i zapraszać na egzamin tylko z długopisem. Albo możemy iść dalej i ja wolę to rozwiązanie. Okej, naucz się dobrze promptować, bo żeby dobrze promptować, to naprawdę musisz przemyśleć ten temat. Musisz się zastanowić, musisz doczytać, żeby poprosić o ten końcowy efekt czata.

Karol: A poza tym relacja i nauka z wykorzystaniem sztucznej inteligencji nie nauczy nas tych relacji międzyludzkich.

Dota: Z jednej strony nie nauczy, z drugiej strony na przykład z czatem napiszesz bardzo dobre pismo do rektora. Napiszesz też dobry list miłosny. Jeżeli będziesz wiedzieć, co chcesz w nim zawrzeć i w jakim stylu osoba chciałaby taki list otrzymać, dużo możesz zrobić.

Karol: Budowanie promptów to temat na osobny odcinek, tak mi się wydaje.

Dota: Tak, bo wydaje mi się, że to jest umiejętność zupełnie nowa i superpotrzebna w obecnych czasach. Ja widzę, ponieważ uwielbiam e-learning, czy tam e-learning, zrobiłam kilka właśnie kursów związanych z promptowaniem i jakość odpowiedzi ogromnie wzrosła.I jak ktoś mi mówi, że czat opowiada jemu bzdury, to ja spokojnie myślę, no jak zadałeś takie pytanie, to dostałeś taką odpowiedź.

Karol: Tak samo jest z Midjourney, jeżeli chodzi o tworzenie obrazów. Ile zmiennych, ile właśnie elementów, które potem wpływają na jakość tego, co otrzymujemy.

Dota: Tak, i wychodzi na to, że ta dobra edukacja jest potrzebna we wszystkim. Promptowaniu czata również.

Karol: No właśnie, a może się okazać w takim razie, że w kontekście rozmowy z technologią, umiejętnością i cechą, która będzie rozróżniała pracowników, czy też twórców normalnych od wybitnych, będzie kreatywność.

Dota: W ogóle kreatywność dla mnie jest ogromnie ciekawym pojęciem, bo wydaje mi się, że cały czas zawłaszczamy to pojęcie jako tylko i wyłącznie ludzkie.

Karol: A to ciekawe, co mówisz i z chęcią wejdę z tobą tutaj w dyskusję, bo jak ostatnio rozmawiałem z kimś właśnie na temat sztucznej inteligencji i padło pytanie dotyczące tego, czego sztuczna inteligencja nie zastąpi, to ja powiedziałem właśnie o kreatywności. Jesteś innego zdania?

Dota: Ja się nad tym mocno zastanawiam, bo pewnie też sprawdzałeś, jak idzie w generatywnej sztucznej inteligencji z dowcipami. Na początku szło gorzej, teraz idzie coraz lepiej. Więc wygląda na to, że ironii można się nauczyć, można ją wytrenować. Zastanawiam się, jak będzie z trenowaniem kreatywności. Tutaj myślałam sobie akurat o sztuce średniowiecznej. Nie wiem do końca, dlaczego od tego zaczęłam, ale pomyślałam o tym, że pojawiał się jeden mistrz i potem było, właściwie to chyba w każdym okresie, o tym można powiedzieć. Potem byli jego następcy, kontynuatorzy, rozwijający i tak dalej. Myślę, że w kontekście sztucznej inteligencji przez pewien czas możemy jeszcze być tymi białkowymi mistrzami. Sztuczna inteligencja będzie kontynuować nasze dzieło, ale potem może pójść w inną stronę.

Karol: No, ciekawe.

Dota: Myślę, że w ogóle sztuka jest ogromnie ciekawa, bo tak naprawdę estetyka też jest działem filozofii. Więc wchodzimy w to, że filozofia jest matką wszystkich nauk i dlatego możemy się tutaj rozmawiać o sztucznej inteligencji.

Karol: No dobra, wróćmy do sądów.

Dota: Tak, chodzi o sądy w Ameryce. Sztuczna inteligencja nie podejmuje wyroków jeszcze, ale sugeruje sędziemu albo sędzinie jaki wyrok można zaproponować. No i tutaj znowu dotykamy tej bazy treningowej, ponieważ jak wiesz, w Stanach w więzieniach przeważają osoby o niebiałym kolorze. No i przez taki model sądownictwa już wcześniej i tych wyroków wskazujących właśnie dla osób o niebiałej skórze, algorytm proponuje dużo ostrzejsze i cięższe wyroki osobom, które nie są białe. Okej, to jest błąd, który my widzimy, ale tutaj pojawia się jeszcze dużo dużych znaków zapytania, a mianowicie ten algorytm jest zapewniany przez prywatną firmę. Czyli sąd może sobie kupić algorytm, który usprawni pracę. Brzmi idealnie. Ale obywatel, obywatelka nie ma dostępu do informacji, jak ten model powstał, jak został wytrenowany. I tutaj właśnie sięgamy do tej transparentności, która się wydaje naprawdę bardzo ważna w stosunku do sztucznej inteligencji i mamy jakby te dwie drogi. OpenAI i Llamy, prawda? Chata i Llamy. Llama jest open source’owa. Jeżeli tylko masz czas, chęci, to możesz sięgnąć do dokumentacji i się wszystkiego dowiedzieć. Chat zaczyna troszkę przypominać tą czarną skrzynkę, czyli tak jak właśnie w przypadku tych wyroków.

Karol: Wiesz czego mi jeszcze brakuje? Żeby w takim razie oprzeć tą technologię na blockchainie, tak żeby wszystko było nieodwracalne i było w pełni rejestrowane.

Dota: Ojej, ojej, a jeszcze jak pomyślimy, że ruszymy z komputerem kwantowym, kurczę, to co ty zrobisz z tą serią podcastów? Bo wtedy będą twarze równoległe, twarze w tym samym czasie i 99 musi przejść w tą nieskończoność, bo ta cała kwantowość, kto nas będzie słuchał właściwie albo kto z nas nie będzie słuchał, to się robi jeszcze ciekawsze i jeżeli pomyślimy o sztucznej inteligencji wobec komputera kwantowego, to chyba musisz zaprosić fizyków też na F.

Karol: Wiesz co, z przyjemnością. Z ciekawych rzeczy powiem ci, że właśnie pracowaliśmy teraz nad jednym projektem wspólnie z moimi znajomymi. Stworzyliśmy już asystenta, z którym możesz rozmawiać na temat podcastów tych, które wyprodukowałem wcześniej.

Dota: Tu ci wejdę w słowo, a czy jeżeli ja zacznę rozmawiać z tym asystentem, to spełnisz mój wymóg etyczny, to znaczy poinformujesz mnie, że rozmawiam z maszyną? Słuchaj, jesteśmy w stanie to uwzględnić. Wiesz co, myślę, że to jest ważne, bo to też właśnie pokazuje zmagania etyczne związane z dostępem do informacji i do informacji też, z kim rozmawiasz. Bo to, że poznam, jeżeli to będzie głos mechaniczny, że tak się wyrażę, że rozmawiam z maszyną, ale teraz dzwonią do mnie z fotowoltaiki boty, które są bardzo miłą panią Małgosią. I ja o tym nie wiem, a jednak wolałabym wiedzieć, że rozmawiam z maszyną.

Karol: A tak naprawdę gdzieś to dzięki Eleven Labs.

Dota: A swoją drogą myślę, że boty to też jest ogromnie ciekawe wykorzystanie algorytmów. Pamiętasz, jak dwa boty, to chyba były googlowskie, wygenerowały język, którego naukowcy nie rozumieli. Ale wtedy dało się wyciągnąć wtyczkę. Teraz gdzie my mamy szukać tej wtyczki? Zastanówmy się nad tym, no bo przecież tak, generatywna sztuczna inteligencja jest właśnie tak cudowna w tych odpowiedziach, dlatego że wszyscy bierzemy udział w trenowaniu jej. Jednocześnie zakładamy tą dobrą wolę, że ja nie będę trenować modelu mówiąc, że straszne rzeczy są dobre. I znowu, zobacz, wchodzimy w to, że ta etyka jest potrzebna na każdym etapie tego zbioru treningowego, żeby był równościowy, żeby nie był dyskryminujący właśnie czy ze względu na płeć, czy na kolor skóry, czy na zasobność portfela. Albo na przykład na to, że jako kobieta mam szansę zajść w ciążę, więc ten system sztucznej inteligencji rekrutacyjny powie spokojnie, spokojnie, ona tu wypadnie na trzy lata. Podsunie w HR-ze inną aplikację. To są rzeczy, które po prostu wymagają od nas tego widzenia i chęci widzenia dobra na naprawdę wszystkich poziomach.

Karol: A powiedz mi, czy tak naprawdę etyka nie jest taką utopijną wizją Świata?

Dota: To takie wszechogarniające dobro.

Karol: Dobro, sprawiedliwość, równouprawnienie. No dobra, to są te Lubisie, prawda?

Dota: I słoneczko, i serduszko.

Karol: A z drugiej strony mamy korporacje, o których wspominaliśmy i więźniów, którzy uczą modele sztucznej inteligencji, które mają być etycznie przejrzyste.

Dota: Ale ja tutaj bym powiedziała, że to nie jest rajski Eden, to miejsce gdzie etyka działa. Spojrzałabym na Kanta, tutaj się uśmiecham dlatego, że wcześniej zajmowałam się filozofią analityczną właśnie Russellem Wittgensteinem, Kant jest po drugiej stronie barykady, więc myślę, że kilku profesorów mogłoby być zdziwionym, że ja tutaj o Kantzie mówię, ale Kant się super przydaje do tego, żeby sobie pomyśleć w imperatywach kategorycznych, czyli właśnie w tych poleceniach, które Kant wymyślił, można by było tak. Zadać takie pytanie. Czy chcielibyśmy, aby dana technologia, właśnie narzędzie, sztuczna inteligencja była stosowana wobec nas samych? Jeżeli odpowiemy nie, to znaczy, że coś może nie grać moralnie. Bo chcemy, żeby nam było dobrze. Chcemy na przykład, ja bym na przykład chciała być oceniana sprawiedliwie przez rekrutującego bota i sędziego, czy sędziny, która używa tego programu, więc zadawałabym sobie takie pytanie, które pośrednio zaproponował Kant, żeby zastanowić się, czy to jest dobrze napisane i czy to jest etycznie dobre, moralnie dobre. Co ty na to? Żebyśmy użyli systemów wielkich, filozoficznych, zaproponowanych wieki temu do tego, co się dzieje współcześnie. Możemy na przykład sięgnąć do XVI wieku i do Thomasa Hobbesa i do tego, na ile jesteśmy w stanie się zrzec naszej autonomii, naszych praw, na rzecz komfortu, bezpieczeństwa. To jest coś takiego. Czy będziesz jeździł wszędzie z gotówką, żeby nie było wiadomo, gdzie byłeś na wakacjach? Ja pamiętam jeszcze przed pandemią, że w Chinach jeden z żebrzączczych miał QR-koda wydrukowanego, bo nikt nie chodził już z gotówką.

Karol: Wiesz, jakie było moje zdziwienie? Jak kupowałem ostatnio kwiaty na bazarze, od pani emerytki, która nie sądzę, żeby miała zarejestrowaną działalność. Ja mówię, przepraszam, ale muszę zrezygnować, bo nie mam przy sobie gotówki. – No ale ma pan telefon. Ja mówię, blikiem? -No pewnie.

Dota: Ale zobacz, tutaj to jeszcze są anegdotyczne opowieści, ale to chociażby jakie mamy reklamy wyświetlane, no bo nie ukrywajmy, nie zawsze przeglądamy jako anonimowi użytkownicy internetu. Zresztą ja na przykład jak teraz kupiłam maszynkę do karmienia kota, to się ucieszyłam jak jeszcze zobaczyłam inne gadżety, bo właśnie dlatego nie wyłączałam śledzenia i ciasteczek. Okej, ale zrobiłam to świadomie i jestem osobą dorosłą, ale jeżeli bym była nastolatką, która wydała swoje całe kieszonkowe na jakiś tam gadżet i potem jestem bombardowana właśnie tymi reklamami, gdzie celem jest tylko sprzedaż, nie żadna moja edukacja itd. A ja jestem tą nastolatką, która jednak ma mniej doświadczenia i kieruje się właśnie tymi reklamami, tymi obrazami. No i właśnie tutaj pojawiają się pytania, jak bardzo to jest etyczne, jak bardzo wytrenowany dobrze algorytm, który sprzeda tej nastolatce masę rzeczy, prowadzi działania etyczne.

Karol: A myślicie, że system premiowy Chin jest budowany w oparciu o etycznie poprawne zbiory danych?

Dota: Tutaj dotykasz trochę tematu mojego doktoratu, w którym się zastanawiałam, jak to będzie w Chinach. Właśnie mówię zastanawiałam się, no bo to na tym poziomie się niestety skończyło. Jeżeli ten system punktowy rzeczywiście działał, ja bym miała załóżmy punktów. To myślę, że przy takim podejściu chińskim i patrzeniu na ogół, a nie jednostkę, to mielibyśmy poziom bezpieczeństwa tej osoby z niższą ilością punktów. Więc myślę, żebyś następnym razem mógł nie wsiąść ze mną do samochodu, ponieważ miałbyś większą szansę zginąć, jeżeli taką decyzję miałby podjąć samochód. Ten system punktowy na szczęście dobrze nie działa, ale jak czytałam o tym, jaka to jest skala problemu, chociażby te miliony osób, które nie mogły podróżować, bo system się machnął, nie mogąc podróżować, nie mogli dostać pracy, jakby wszystko się tam potrafiło posypać. Tak, to mnie przeraża. Tak jak nie rozumiem Lema i jego różnych wizji przyszłości, tak myślę, że ta przyszłość punktowa to chyba jest największy z możliwych totalitarnych koszmarów, bo to są punkty za wszystko i punkty, które wyceniają moje życie. Bardzo nie chciałabym być punktowana. Chociażby małe punktowanie w Akademii, którego doświadczam, a mianowicie ile jest wart mój artykuł punktów. Już budzi u mnie wiele właśnie skojarzeń z totalitarnym podliczaniem mojej wartości. A tutaj mówimy o podliczaniu wartości mojego życia, a nie publikacji.

Karol: Rok 1984 w 2023.

Dota: Oby nie. Myślę, że to jest tak, tak jak zaczęliśmy od tego młotka, a właściwie w środku nam się pojawił. Ten młotek może być dobry, może wykuć z tej skały coś pięknego, może zabić, a może leżeć w ogóle nieużywany. Więc ja bym też bardzo nie chciała demonizować sztucznej inteligencji, bo przecież używamy jej na co dzień, mniej lub bardziej świadomie. I myślę, że jesteśmy w dobrej sytuacji w Europie, Bo w Unii Europejskiej naprawdę ten AI Act, to się dzieje teraz, jest fajnie przemyślany, jest fajnie zaplanowane to, żeby oceniać stopień zagrożenia danej sztucznej inteligencji dla ludzi i wzmacniać kontrolę właśnie tych elementów, które są ważne. Chociażby na przykład algorytmów, które ustawiają światła w mieście. To jest infrastruktura naprawdę ważna, bo jeżeli właśnie to zostanie zhakowane, tutaj jeszcze nie rozmawialiśmy o cyberatakach, cyberprzestępczość, to, że to jest nieetyczne, to wiemy, ale jeżeli pomyślimy tutaj o zhakowaniu takiej infrastruktury wrażliwej, no to z jednej strony fajnie jest mieć zieloną falę na mieście, ale jeżeli wszyscy ją mamy, to się pozabijamy, nie?

Karol: A pójdę o krok dalej, a propos tych złych rzeczy, które mogą się dziać ze sztuczną inteligencją. Istnieje Dark Web sztucznej inteligencji?

Dota: Myślę, że to jest trochę jak z bronią, to znaczy się… Może służyć do obrony, ale też do ataku, tak? Nie, nie, mam na myśli to, że dowiadujemy się o nowym modelu, załóżmy, nie wiem, samolotu, dronu, chyba bardziej samolotu, po kilku latach testów i wykrycia wszystkich potencjalnych błędów. Myślę, że tak podobnie jest właśnie z tą ciemną stroną sztucznej inteligencji, że dowiemy się po fakcie rzeczy, które chcą nam być przekazane na tej zasadzie. Ja myślę, że złe użycie, czyli właśnie nieetyczne z jednej strony może wynikać z nieświadomości, bo ja naprawdę myślę, że osoby projektujące algorytm do dawania tych wyroków często po prostu mogły rzeczywiście, ja zakładam dobrą wolę tak generalnie, ale tutaj myślę, że to rzeczywiście naprawdę wynikało właśnie z tego zbioru treningowego. Ale jeżeli pomyślimy o możliwości kreowania świata równoległego i budowania deepfake’u w kontekście polityki i potem decyzji dalej, no to tutaj jesteśmy już w krainie bardzo mrocznej, myślę, że bardzo skutecznej, do której dostępu tak naprawdę nie mamy. I znowu musimy polegać na naszej refleksyjności i słuchaniu… Zdrowym rozsądkom. Nie wiem, czy bardzo mamy ten zdrowy rozsądek i czym on mógłby być, ale myślę, że ta zasada, o której mówiłam, to przyrównanie tego imperatywu kategorycznego Kanta w ten sposób. Zastanawiam się, czy to byłoby dla mnie, mnie jako mnie dobre, może wtedy właśnie mi zaświecić tą lampkę. No bo jeżeli pomyślę, że to co żeśmy rozmawiali o tym aucie, że ten system punktowy i że jeżeli ja bym miała mniej punktów i wtedy auto by mnie mniej chroniło, no to wtedy rzeczywiście się zastanawiać, czy to jest dla mnie dobre i ta etyczność tego, przez tę etyczność tutaj rozumiem tę chęć czynienia tego dobra i życia w dobrym społeczeństwie. Wydaje mi się, że jako filozofka etyczna jestem właśnie w tej grupie takiej przez niektórych traktowanej jako super naiwnej osoby, ale ja naprawdę wierzę, że te nowe technologie mogą być wykorzystywane do czynienia dobra.

Karol: Słuchaj, jestem absolutnie tego samego zdania, także jestem po twojej stronie.

Dota: Czyli ta twarz dzisiejsza sztucznej inteligencji jest dobra, tak? Albo starajmy się, żeby taka była.

Karol: Ja zawsze porównuję tego typu wynalazki. Zobacz, z internetem było tak samo. Internet miał zaorać starą gospodarkę, a stworzył całkowicie nową. Tak, ja myślę, że… Zobacz, ja zakładam, że ze sztuczną inteligencją będzie tak samo. Zobacz chociażby, ile zarabiają teraz prompt inżynierowie.

Dota: Ja myślę, że to jest też taką drogę i to chyba idziemy obok siebie w niej, to, że to nie jest tak jak te pracownice fabryk w ubiegłych wiekach, które niszczyły maszyny, bo bały się o swoją pracę. Tak my, no, uczymy się promptować, prawda? Bierzemy te narzędzia i idziemy dalej, ale myślę, że ta włókniarka to miała mniej pytań etycznych o przyszłość całego świata, tylko chodziło o przyszłość jej pracy. No tak jak rozmawiam ze znajomymi, no to ja rzeczywiście widzę, że trochę moich kolegów i koleżanek niestety może stracić tę pracę, więc to też widzę.

Karol: Ale słuchaj, a czy nie jest tak, że nie mamy wyjścia, tylko musimy się uczyć i rozwijać?

Dota: Oczywiście moglibyśmy wyjechać te bieszczady, ale jakoś nie wyjeżdżamy, rozmawiamy tutaj i myślę, że chcemy też wykorzystywać sztuczną inteligencję do tego, żeby nam było lepiej.

Karol: Wróćmy na chwilę do prawa. Wspomniałaś o AI-akcie. Mogłabyś opowiedzieć więcej o tym dokumencie i na ile, twoim zdaniem, uwzględnia on wszystkie kwestie etyczne?

Dota: Wszystkie kwestie etyczne nikt nie jest w stanie uwzględnić. Dlaczego tak się cieszę z tego AI-aktu? Bo jest ogólnounijny, ma za zadanie ogarniać, że tak się wyrażę, prawnie nie tylko to, z czym mamy teraz do czynienia, ale jest pisany właśnie, tak jak się pisze, dobry kodeks, nie wiedząc do końca, co nastąpi dalej i jak rozwinie się sztuczna inteligencja, po to, żeby właśnie w przypadku, na przykład, jeżeli chodzi o tą generatywną sztuczną inteligencję, no to ona już tam jest uwzględniona. Bo tak jak Ci powiedziałam, widzę etykę jako ta, która określa takie ramy generalne. Tak prawo robi te tabeleczki w środku, ale na tyle ogólne, żeby móc tam przenieść zarówno właśnie algorytm do ustawiania świateł w mieście, ale też algorytm, który będzie proponował w jaki sposób powinny być i za jakie kwoty. Refundowane leki. Myślę, że tutaj dotykamy naprawdę każdej sfery życia, bo z jednej strony to są decyzje polityczne, z drugiej strony to są właśnie decyzje algorytmów związane z tym, jak dystrybuować środki, których jest za mało w stosunku do potrzeb. No i cały czas jeszcze musimy też myśleć o tym, jak ważna przynajmniej dla mnie też jest ziemia i środowisko naturalne. Brzmi to może trochę dziwnie, no bo jednak zużywamy teraz prąd, a Państwo zużywają prąd, żeby nas posłuchać, ale myślę, że rozsądek i właśnie to dążenie na przykład do tego, żeby algorytmy były trenowane skutecznie, dobrze, na małych zbiorach danych, to jest właśnie przyszłość, gdzie będziemy mieli dobre narzędzia mniejszym kosztem.

Karol: O, a czy to się jedną, drugiemu nie zaprzecza? To znaczy dobrze wytrenowane algorytmy na niewielkich zbiorach danych?

Dota: No właśnie, wcześniej się wykluczało, ale teraz informatycy i naukowcy nad tym pracują. Wiem, że w Google mocno to się na przykład dzieje. Żeby tą skuteczność uzyskiwać właśnie zużywając dużo mniej energii.

Karol: No tak, chociażby patrzmy po głosie. Wystarczą trzy sekundy nagrania twojego głosu, żeby już wygenerować syntezę twojej mowy.

Dota: Tak, i to często taką niejąkającą się.

Karol: Dota, nie usłyszałem ani razu.

Dota: To dobrze. Państwo mam nadzieję, że też nie.

Karol: O czym warto jeszcze powiedzieć w kontekście sztucznej inteligencji?

Dota: Myślę o tym, że można się rozwijać, że można się uczyć, że… Etyki? Tak. Ja na przykład prowadzę szkolenia dla firm i okazuje się, że menadżer chce wiedzieć więcej i chce móc powiedzieć, że ta decyzja jest zgodna z kodeksem etycznym firmy. Wcześniej kodeks etyczny firm to był taki, delikatnie rzecz ujmując, materiał podobny do materiału BHP, prawda? Dziś to zawsze było, trzeba było przejść z tego szkolenie i tyle. No i tak jak BHP się przydawało, jak się coś zapaliło, kodeks etyczny zaczyna się przydawać, jak właśnie mamy się wykazać, jak został stworzony nasz algorytm, jakich programów i jakiej sztucznej inteligencji używamy, żeby wygenerować wyniki dla klienta. I nagle to, co moja babcia nie wierzyła, że może się komukolwiek przydać, a mianowicie ta etyka i to pokazanie, że moja firma działa dobrze dla ogółu i jest na przykład transparentna. Bo jak żeśmy tutaj rozmawiali jeszcze o tych pojazdach, to tak jak sam mówiłeś, właśnie ten problem wielu rąk, czyli tej rozmytej odpowiedzialności, to jest coś, z czym bardzo mierzą się firmy. To nie jest tylko w samochodach, ale zawsze jak coś źle pójdzie, to zaczynamy szukać winnego. Potrzebujemy wręcz często znaleźć tego winnego. W algorytmach, w sztucznej inteligencji to rozmycie odpowiedzialności jest ogromne i właśnie o tym też jest AI Act i do tego dążą prawnicy, żeby ustalać zasady odpowiedzialności. Brzmi to tak, ogólnie i może górnolotnie, ale jeżeli pomyślę, że miałabym leżeć w szpitalu podłączona do aparatury, to chciałabym wiedzieć, że ona ma dość transparentny, jasny i właśnie etyczny algorytm regulujący moim życiem.

Karol: Ja idę nawet o krok dalej. Wyobraźmy sobie, że Neuralink działa, ale działa nie tylko w jedną stronę przekazywania komend od strony człowieka w stronę maszyny, ale również w stronę technologii, która jest w stanie i byłaby w stanie zapisywać coś w naszym mózgu.

Dota: Zacznę od tego, to jak ty mówisz o krokach w przód, to ja powiem tak, że ja bym w ogóle chciała wiedzieć, że takie rzeczy się ze mną dzieją. I właśnie to jest ta etyka nowych technologii, czyli to, że mamy świadomość tego, co się może zadziać.

Karol: Powiedz Doto, czy mogłabyś nam polecić jakieś ciekawe źródła, blogi, książki, które warto byłoby śledzić?

Dota: Powiedziałabym na pewno mój blog, ale myślę, że warto czytać prasę codzienną, jakkolwiek pretensjonalnie to nie zabrzmi. Ja na przykład bardzo polecam Guardiana, gdzie rzeczywiście jesteśmy wtedy na bieżąco z tym, co się dzieje na świecie. Lubię Myśliciela, tak go nazwę, Maxa Tegmarka, po polsku też jest wydana kilka lat temu jego książka “Życie 3.0”. Kilka lat temu, jak ją czytałam, to wydawała mi się taką dość ciekawą, fantastyczną książką. Nie chcę państwu spoilerować, ale to się już dzieje. Myślę, że dobrym źródłem wiedzy o etyce i sztucznej inteligencji są artykuły Nicka Bostroma. To jest ten, o którego już wcześniej wspominałam, związany z pojęciem superinteligencji. To też jest ogromnie ciekawe. Myślę, że warto też sięgać do klasyki,i przejrzenie sobie Kanta na przykład. Nie mówię, że do poduszki, ale ten myśliciel z Królewca miał pomysły, które możemy aplikować do najnowszych technologii niedokwantowych. Przynajmniej ja nie umiałabym zaaplikować Kanta do kwantowego myślenia, ale myślę, że właśnie to spojrzenie przez te takie olbrzymie systemy i to, żeby nie traktować ludzi jako środków, tylko jako cel, to wszystko mamy u Kanta, żeby zachować autonomię. Kant uważał, że ludzie mają taką wewnętrzną wartość, bo są zdolni do samodzielnego myślenia. Myślę, że jeszcze, tym też się zajmowałam naukowo, budować i uczyć się współpracy z maszynami. To znaczy się białkowi i niebiałkowi naukowcy, tak jak podajemy źródło jakim jest czyjś artykuł, tak samo możemy właśnie podać źródło jakim była rozmowa z czatem. Myślę, że niedługo będę czytać książki, gdzie dedykacja będzie, nie wiem, mojej kochanej żonie, córce i teściowej i Czatowi za inspirację. I jeżeli to będzie napisane, to ja naprawdę to szanuję i widzę w tym, że po prostu ta osoba właśnie promptowała i skorzystała z nowych technologii. Czyli tutaj Czat jest tym młotkiem wykuwającym piękną rzeźbę.

Karol: Wspominałaś również, jak przygotowywaliśmy się do naszego spotkania, że chciałabyś polecić lekturę książek Asimova.

Dota: Tak, Asimowa bardzo lubię, bo z Asimovem jest ten problem, że jeżeli się pójdzie za granicą do księgarni, to on wciąż jest w fantastyce. A ja myślę, że mógłby być już bliżej faktu. I myślę, że jego prawa robotowe to właśnie teraz są przez nas analizowane i tak naprawdę nie mamy za dużo lepszych pomysłów niż to, co Izaak Asimov proponował. Więc myślę, że tak, warto do niego sięgnąć. Jeżeli ktoś się interesuje pojazdami autonomicznymi, to jego opowiadanie sali o właśnie autonomicznej samochodzicy, tak to bym powiedziała, jest też świetne. Nie wypowiem się na temat Lema, bo go po prostu nie rozumiem.

Karol: Wspominałaś o prawie robotów Asimova.

Dota: Tak? Generalnie wszystko jest dobrze z robotem, dopóki nie zaczyna bardzo o siebie dbać, prawda?

Karol: Dobra, ale wiesz co, ja szukając praw robotów Asimova trafiłem też na prawa Marka Tildena.

Dota: Ach, to jest ten od robotów, tych takich działających.

Karol: I tutaj prawa robotów Asimova. Pierwsze prawo to takie, że robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia. A z drugiej strony Mark Tilton w pierwszym swoim prawie mówi, że robot musi chronić swoją egzystencję za wszelką cenę.

Dota: Te prawa się zupełnie wykluczają, bo pomysł Asimova był taki, że używamy… Myśmy tutaj cały czas rozmawiali o sztucznej inteligencji. U niego ten robot jest tak naprawdę tą sztuczną inteligencją. Jeżeli podmienimy robot i wpiszemy tam sztuczna inteligencja, to chociażby odnosząc się do tego pierwszego, które zacytowałeś, właśnie mamy tą maszynę podtrzymującą życie, która mnie nie wyłączy z nudów albo z tego, że się zajmie czymś innym, bo zadaniem będzie podtrzymywanie mojego życia. A jeżeli zderzymy to z drugim spojrzeniem na prawa robotowe, to jeżeli tam zmienilibyśmy robot na człowiek, to byśmy przytknęli, prawda? Myślę, że to drugie spojrzenie zmienia sposób rozumienia sztucznej inteligencji, bo jakby nie było, ta sztuczna inteligencja jest wciąż algorytmem, może być w dużym cudzysłowiu naszą przyjaciółką albo przyjacielem. Może być naszym towarzyszem, tutaj odnoszę się do robotów opiekuńczych Japonii, to też się teraz dzieje, ale może też być naszym wrogiem i tutaj odnoszę się do broni autonomicznej, która z zasady ma walczyć sama ze sobą, ale tutaj już dotykamy naprawdę, myślę, że problemów i pytań na dłuższą rozmowę, bo bronia autonomiczna w kontekście sztucznej inteligencji i etyki jest tematem nawet nie rzeką, oceanem.

Karol: Myślę, że to ciekawe zakończenie naszej rozmowy. Dota serdecznie Ci dziękuję za poświęcony czas i podzielenie się z naszymi słuchaczami Twoją wiedzą i Twoimi doświadczeniami związanymi z etyką w kontekście robotyki i sztucznej inteligencji właśnie.

Dota: A ja bardzo dziękuję za zaproszenie i ogromnie się cieszę, że to, co jest przekleństwem, było przekleństwem w starożytnym Rzymie, jest teraz moim udziałem i czasem, w którym żyję, bo naprawdę żyjemy w ciekawych czasach. Dziękuję ci bardzo za zaproszenie.

Karol: Dziękuję do zobaczenia.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *