7/99 – Po co sztucznej inteligencji, po co #AI kreatywność? David Sypniewski, SWPS

Kolejna Twarz AI. Kolejny niezwykły Gość. Poznajcie Davida Sypniewskiego z SWPS w Warszawie.

David współpracuje z SWPS od trzech lat. Prowadzi m.in. Robotykę społeczną, Kreatywne kodowanie i Sztuczną inteligencję w sztuce i działaniach twórczych na wydziale Projektowania. Jest członkiem Centrum HumanTech i współorganizuje konferencję HumanTech Summit, a zwłaszcza towarzyszący mu hackathon. Jest pomysłodawcą i kierownikiem powstałej w tym roku Otwartej Pracowni Sztucznej Inteligencji na Wydziale Projektowania USWPS.

Poza wykładaniem zajmuje się projektowaniem doświadczeń interaktywnych i wizualizacji. Pracował wcześniej w studiu kreatywnym Rzeczyobrazkowe, gdzie był koordynatorem działu Internet+animacja i prowadził warsztaty strategiczne. Wyrósł z trzeciego sektora i do dzisiaj definiuje się jako społecznik.

Jego pierwszą miłością był teatr, z którego wyniósł umiejętność chodzenia na szczudłach. A żonę poznał w chórze eksperymentalnym. Wychowują teraz 6 letniego syna, Jonasza.

O czym rozmawiamy dzisiaj?

  1. Czy #AI zabije kreatywność?
  2. Czy może istnieć rzeczywistość, w której #AI zastąpi ludzi?
  3. Czy media w przyszłości będą personalizowane? Ten sam film – w zależności od preferencji widza będzie miał bohaterkę blondynkę, w innej opcji brunetkę, Azjatkę?
  4. Jak widzi świat internetu / mediów za 5-10-15 lat?

I wiele innych, ciekawych tematów! Posłuchajcie sami!

Zdjęcia

Notatki

Zdjęcia: Jan Toruński

Transkrypcja rozmowy

Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.


Karol Stryja:  No dobrze. Dawid, przede wszystkim witam Cię serdecznie w 99 twarzach AI. Dzięki serdeczne, że znalazłeś czas. Dzięki za zaproszenie. Opowiedz, kim jesteś? Czym się zajmujesz? Skąd AI w Twoim życiu? 


David Sypniewski: Definiuję siebie jako projektanta. Zainteresowanie technologiami przyszło mi razem z jeszcze technologią Flash.  którą moi studenci już nie pamiętają, a ja jednak w niej robiłem 10 lat. I to był taki sposób programowania, ale też rysowania, w taki sposób, żeby były interaktywne i w Internecie i na tamte czasy to było dosyć rewolucyjne.   I tak przyszło do różnych, no właśnie bardziej interaktywnych, graficznych projektów, które robiłem najpierw jako freelance, a później pracowałem w studiu kreatywnym. 


I zrobiłem studia podyplomowe Creative Coding tutaj właśnie na SWPS-ie. I takie miejsce dla mnie się zrobiło, bo potrzebowali więcej osób do pracy. Zacząłem prowadzić tu zajęcia i w pewnym momencie dostałem taką propozycję, że skoro ja jestem w tych technologiach, to może bym się zajął takimi zajęciami, które zostały osierocone, bo osoba, która wymyśliła te zajęcia, zniknęła.   Nazywały się one „Sztuczna inteligencja w sztuce i kreatywnym działaniu”. I ja to przejąłem z takiej perspektywy, że okej, coś tam wiem, ale jednak powinienem się jeszcze tak douczyć. 


I to było dwa lata temu. A perspektywa była półtoraroczna, że przez ten półtorarok miałem się przygotować do tego.   I po drodze zdarzyła się rewolucja, co oznaczało w pewnym momencie, że co tydzień zmieniałem program tych zajęć. Na początku one miały być programistyczne, miałem się sam douczyć. Bo z wykształcenia jesteś programistą? Nie, w ogóle nie, jestem kulturoznawcą. 


Jestem kulturoznawcą i byłem animatorem kultury przez bardzo długo.   Ciekaw jestem skąd, wiesz, ukierunkowanie w stronę kodowania. Wydaje mi się, że ten Flash, który tam dał mi taką możliwość, który miał dosyć niski próg wejścia, tak jak Processing teraz, którego też uczę, to są takie programy, w którym można wejść i się nauczyć samemu rzeczywiście od podstaw, jak się bardzo chce.   No i to chyba po prostu mi przypasowało jakoś tak charakterologicznie. No więc tak, no więc jakby zajęć, które miały być programistyczne, zrobiły się humanistyczne tak naprawdę, bo po drodze w takim powszechnym odbiorze zmieniła się definicja sztuczej inteligencji. 


Karol: Wyjaśnisz?

Tak, oczywiście. Więc sztucza inteligencja wcześniej była jednak w pewnej bańce. Była zarezerwowana dla osób, które…   Byli jakoś tam specjalistami i tak te zajęcia były zaplanowane, że będziemy programować te sztuczne inteligencje, będziemy robić jakieś bazy danych z obrazami, generować nasze własne obrazy. 


I to była sztuczka naprawdę dostępna dla bardzo niewielu wtedy. I nagle pojawił się DALI pierwszy, chwilę później ChartGPT, jeśli chodzi o tekst.   I w powszechnym takim odbiorze sztucznej inteligencji to zaczęły być te narzędzia. Czyli to nie jest może dokładnie poprawne, no ale nie ma co się kłócić z powszechnym odbiorem. Tak po prostu jest, że teraz jak się mówi sztuczna inteligencja, to ma się na myśli chat GPT właśnie. Czyli de facto interfejs tak naprawdę, w którym pod spodem jest algorytm LLM, czyli Large Language Model, czyli model lingwistyczny,  który wcześniej był nowo używany sztuczną inteligencją, tak? Więc w tym sensie zmieniła się definicja i uznałem, że ci moi studenci i studentki bardziej skorzystają na tym, żeby jakoś umieć postawić właściwe pytania wokół  intygencji jako zjawiska kulturowego, niż by nauczyć się programować coś, co i tak inne algorytmy i tak to robią, ale już lepiej. 


Karol: Nie wiem, czy słyszałeś, ale w Stanach Zjednoczonych jako prompt engineerów zaczynają zatrudniać poetów. 


David: Nie słyszałem, ale to jest bardzo ciekawe, tak.   Z tym promptem engineeringiem to jest ciekawa sytuacja, ponieważ to też jest zawód, który się bardzo zmienia, który się dopiero co pojawił i być może zaraz zniknie. Bo na przykład najnowsza wersja Daliego już nie używa właśnie tego specyficznego języka promptów, w którym trzeba było wiedzieć, czy tam są jakieś wagi.   jakieś słowa kluczowe, które nie są takie oczywiste, tylko właśnie przeciwnie, używa ChataGPT, czyli tłumaczy taki zupełnie zwykły język na te prompty z jednej strony. A z drugiej strony okazuje się, że jest bardzo dużo rzeczy, których się powinno robić innymi parametrami.   Jak się generuje obrazy w Stable Diffusion, to tam prompt to jest podstawa, ale później jest mnóstwo różnych dodatków, kontrol net, jakieś parametry wierności jakimś elementom, które tam wprowadzasz, co sprawia, że ta praca stała się znacznie bardziej specjalistyczna i znacznie mniej oparta na słowie. Więc kto wie, ten prompt engineering być może zaraz zniknie z powrotem. 


Karol:   Powiedz jeszcze, co robisz, czym się zajmujesz i czego uczysz? 


David: Prowadzę takie zajęcia, kreatywne kodowanie, robotyka społeczna i tutaj mam wokół siebie takie różne małe procesory, lampki LED i takie różne rzeczy i to są właśnie elementy, których lubię.   używam na moich zajęciach i na tych zajęciach uczę osób, które mają zostać projektantami, po pierwsze kodować, ale używać kodu jako tworzywa. I to jest taka fraza, którą się nauczyłem od mojego mistrza Wiesława Bartkowskiego, którego tutaj zastąpiłem na SWPS-ie.  który właśnie miał takie podejście, że kodowanie powinno się uczyć tak jak ceramiki. Że ceramiki nie uczy się tak, że się przez 4 lata najpierw dowiadujesz, jakie są rodzaje gliny i dopiero robisz pierwszy kubek, tylko odwrotnie. Robisz filiżankę, ona jest bardzo brzydka na początku, ale masz ubrudzone ręce gliną. 


I o to chodzi. Na moich zajęciach otwieramy program do kodowania i od razu osoby kodują, nie wiedząc zbyt wiele.   Więc to jest to podejście. No i jakby celem tego jest, żeby nauczyć, może nie żeby zrobić z nich koderów, ale bardziej nauczyć pewnego sposobu myślenia i języka, żeby oni mogli coś sobie zakodować, ale też współpracować z osobami, które umieją kodować w przyszłości. Ale też, żeby uświadomić im, i to jest strasznie ważne, i to chodzi o ten człon właśnie robotyka społeczna, ten człon społeczna w tej nazwie,  jaką wielką odpowiedzialność mają na sobie, że dzisiaj potencjalnie ich przedmioty lub usługi mogą być używane przez miliony ludzi. Jak oni to zaprojektują, tak będzie to działać i powinni być świadomi potencjalnych skutków działania na wielką skalę, dlatego współpracuję często z humanistami. Ewa Klekot przez dwa lata ze mną współpracowała z antropolożką i ona prowadzi z nimi takie zajęcia z prowadzenia badań, po to, żeby oni mieli kontakt z rzeczywistością.   No i celem, jakby takim semestralnym projektem jest instalacja interaktywna, czyli jakaś instalacja elektroniczna, w której jest jakiś kawałek kodu, która odbiera jakieś fizyczne bodźce i jakieś wysyła światło, dźwięk, ruch. 


Karol:   Czyli projektujecie interakcję. 


David: Tak, więc to jest to, a poza tym właśnie prowadzę te zajęcia, o których mówiłem wcześniej, czyli sztuczna inteligencja w kontekście sztuki i twórczego działania. 


No i tam to jest pomieszane. Mówimy dużo o historii sztucznej inteligencji, o tym, czym jest kreatywność. To jest na takim bardzo fajnym kierunku, który nazywa się psychologia i informatyka, więc oni mają jakby te dwa obszary naraz.   Poza tym jestem członkiem Centrum Human Tech, w którym badamy relacje człowieka z technologią. I tam właśnie śliśmy teraz korytarzem, pokazałem wam plakat naszej konferencji, która 9-10 grudnia będzie w Warszawie na temat właśnie relacji człowieka z technologią. Bardzo fajne miejsce, przestrzeń do spotkań. Tam będą naprawdę topowi ludzie z obszaru i psychologii, i technologii oraz innych też humanistycznych obszarów.  którzy będą interdyscyplinarnie o tym wszystkim mówić i wydaje mi się, że to jest, kurczę, strasznie ważne dzisiaj, że powinniśmy przełamać te silosy, w których jesteśmy, w których są ci informatycy, którzy w ogóle myślą tylko właśnie informatycznie i ci humaniści i że to są jakby dwa różne światy, które się…  nie komunikują, które się nie lubią też i że branża IT ma taką odpowiedzialność dzisiaj, taki wpływ na społeczeństwo, na politykę, na ekologię i tak dalej, że ona musi zacząć widzieć szerzej niż tylko przez pryzmat samych serii jedynek albo kabelków. 


Karol: Wszystko zaczyna się od myśli. Tak. Wszystko, z czego korzystamy. Każda aplikacja, każda rzecz, która nas otacza, tak naprawdę zaczęła się od myśli. 


David:   No właśnie, ale skąd jest ta myśl? To jest pytanie, nie? Czy ona jest z naszego dumnego ego, które uważa, że my wszystko wiemy? I takie rzeczy powstają też, na przykład w trakcie pandemii były takie aplikacje, które miały uratować świat, łącząc ludzi, ale ewidentnie w praktyce nie działały, ponieważ osoby, które je robiły, miały jakąś wiedzę techniczną, wiedziały, że coś można przeskalować bardzo łatwo, jakąś aplikację, tak żeby ludzie mogli  bardzo szybko w wielu krajach jej używać, ale nie mieli właśnie tego połączenia z kontekstem społecznym. Więc jakby nasze kompetencje są oczywiście ważne, ale też jest ważne, żeby ta myśl, o której ty mówisz, wychodziła od słuchania ludzi, od tego, żeby umieć… Odpowiadać na potrzeby realne. Odpowiadać, żeby umieć sobie powiedzieć, że ja nie wiem, tak? I wejść wśród ludzi, popatrzeć, co oni robią,  zdziwić się, że używają na przykład naszego produktu zupełnie inaczej niż my chcieliśmy, żeby go używali i celebrować tą kreatywność ludzką. Powiedzieć, okej, super, to zróbmy coś razem, a nie, że fochać się. 


Karol: To czym jest zatem ta kreatywność w kontekście tych narzędzi, rozwiązań i wizji przyszłości, która trybuje się na naszych oczach? 


David: Te relacje są niejednoznaczne i można by do nich podejść w różny sposób.   Z jednej strony można zadać pytanie, czy nowe narzędzia oparte na sztucznej inteligencji nas wzmacniają, czy zubożają w kontekście kreatywności. To jest jedno pytanie. Inne pytanie jest takie, czy maszyna sama w sobie jest kreatywna. To jest inne pytanie, które ludzie zadają. Więc w kontekście tego pierwszego, no to ja mam takie poczucie, że te narzędzia nas nie zastąpią.   Bardzo podoba mi się to podejście. No tak, mógłbym po prostu postawić tu kropkę, ale rozwiniemy to w ten sposób, że bardzo łatwo w mid-journey na przykład zrobić coś niesamowitego, ale bardzo trudno jest zrobić dokładnie to, co my chcemy, żeby ono zrobiło. I dlatego takie pierwsze wrażenie jest takie, o wow, to po prostu można zrobić w tym wszystko i zaraz nie będziemy potrzebni.   Ale jak się zaczyna tego używać w celach profesjonalnych, to bardzo szybko docieramy do ściany, do ograniczeń tych narzędzi. 


Karol: Tu mamy słaby interfejs. Nasze wyobrażenia i myśli trudno przełożyć czasami na słowa, a co dopiero na słowa, które będą zrozumiałe przez technologię. 


David:   To przypomina się takiego mema, którego widziałem, który funkcjonuje w środowisku projektantów właśnie, że żebyśmy zostali zastąpieni w przestrzeni inteligencji, klienci powinni móc wyraźnie i precyzyjnie wyrażać swoje potrzeby. Jesteśmy spokojni o naszą przyszłość. I oczywiście to jest trochę śmieszne i tak naprawdę nie chodzi o klientów, tylko w ogóle o ludzi. To jest w ogóle taka ukryta praca osób projektujących, o której się mało mówi, to znaczy odkrywanie tych potrzeb. 


To jest właśnie ta humanistyczna część.   To znaczy, że klienci klientami, ale w ogóle ludzie mają jakieś myśli, jakieś stereotypy, jakieś utarte ścieżki i naszym zadaniem jako osób projektujących jest zdekonstruowanie ich, tak? Popowiedzieć, ty tego nie potrzebujesz tak naprawdę. Obejrzyjmy razem, co ty tak naprawdę robisz. Ja prowadziłem bardzo wiele warsztatów strategicznych z różnymi klientami, jak pracowałem w takim studiu rzeczy obrazkowe.   I to było niesamowite, że niezwykle często nasze warsztaty, które miały dotyczyć np. strony internetowej, czyli czegoś, niektórzy by mogli powiedzieć błahego w kontekście działalności całej organizacji, okazywały się pierwszym momentem od wielu lat, w którym osoby po prostu zaczęły się zastanawiać, po co one robią to, co one robią.   


Dla kogo? Niby to wiedziały, ale może to się zmieniło po drodze, może świat się zmienił. I wtedy okazywało się, że być może są jakieś ścieżki dojścia, które są zupełnie nieoczywiste, a już zupełnie są nie tym, z czym one przyszły, co myślały, że potrzebują. Często się zdarzało, że ktoś mówił, że potrzebuje plakatu. Okazało się, że zupełnie nie potrzebuje plakatu, tylko właśnie potrzebuje przemyśleć swoją identyfikację wizualną.   i to, co ma w ogóle do powiedzenia do osób, dla których w ogóle robi tę pracę, dla których jest sens tej pracy. 


Jak patrząc z tej perspektywy na pracę osób projektujących, jesteśmy bezpieczni. Ponieważ te narzędzia oczywiście robią różne rzeczy fantastycznie, ale one są bardziej z takiego rzemiosła, z takiej dziedziny. A to, co my robimy lepiej i bardzo długo wciąż będziemy robić lepiej,  To jest to, co się kryje pod zdrowym rozsądkiem, słuchaniem, łączeniem kontekstów. 


Bo o ile maszyny oparte na sztucznej inteligencji potrafią w wąskich zakresach świetnie znajdywać patterny z bardzo dużych baz danych, nie będzie takie oczywiste łączyć je z patternami z bardzo różnych kontekstów.   Dam Ci przykład. Kiedyś poszedłem na cmentarz, kiedyś mieszkałem na Ursusie w Warszawie i tam był taki bardzo dziwny, brzydki tak naprawdę cmentarz, ale przez tą brzydotę ciekawy. I tam robiłem sobie zdjęcia, kiedy zajmowałem się dużo więcej fotografią. I ostatnio robimy taki projekt właśnie z Agnieszką Rejs, która jest fotografką tutaj teraz na School of Four na SWPS-ie.  w ramach otwartej pracowni sztucznej inteligencji, o której nie wspomniałem, to jeszcze jest temat osobny, który dotyczy kadru fotograficznego, ten nasz projekt. I być może wiesz, że Photoshop oraz inne programy oferują teraz taką możliwość, żeby poszerzyć obraz.   


I my chcemy zbadać… Magiczna gumka, poszerzenie obrazu, poszerzenie kadru. I my chcemy zbadać, jak to wpływa na tą tradycyjną definicję kadrów w fotografii. No i zacząłem się tym bawić i wziąłem sobie właśnie zdjęcie z tamtego cmentarza i zacząłem sobie je poszerzać. To był jakiś taki kamień. 


Karol: Nagrobek. 


David: Nagrobek, dziękuję. I on poszerzył je w taki sposób, że ten kamień został rzeczywiście dobrze zrobiona ta tekstura,  ale okazało się, że kształt krzyża jest nie taki, że tutaj „T” wychodzi, że on się zaczynał na moim zdjęciu, a przy poszerzeniu wyszło z tego „T”. I teraz każde dziecko w Polsce przynajmniej od razu zobaczy na tym zdjęciu, że coś jest nie tak, bo to jest kontekst kulturowy. I to jest to, co ludzki mózg robi znacznie lepiej niż maszyna, to znaczy umie połączyć bardzo różne konteksty.  kulturowy, estetyczny, etyczny, lingwistyczny. I to są rzeczy, których sobie nawet nie uświadamiamy. To one są jak powietrze. One są tak oczywiste dla człowieka, że de facto świadczą oni jego człowieczeństwie właśnie. 


Karol: A czy to nie jest tylko i wyłącznie kwestia czasu, kiedy systemy będą właśnie mogły łapać te intersekcje pomiędzy zbiorami danych? 


David: Być może.   Ale teraz trzeba sobie uświadomić, jakim kosztem został stworzony chart GPT i inne modele. To jest algorytm, który świetnie robi swoją robotę, ale znowu w pewnym wąskim zakresie, który jest naprawdę, no robi ogromne wrażenie, ponieważ jest taki bardzo ludzki w tym języku, ale jednak to jest tylko język.   Paterny w języku w ogóle. Paterny nawet nie w języku, tylko w ciągach znaków. I żeby móc tego typu algorytm wyćwiczyć, trzeba wielu miesięcy i gigantycznych centrów komputerowych, i gigantycznej ilości prądu. Ja ostatnio trafiłem na taką informację, że ChurchBT, żeby działać… Czytaliśmy ten sam artykuł. 100 tysięcy dolarów chyba dziennie. 


Karol:   Nie chcę skłamać. 


David: Astronomicznej ilości, jeżeli chodzi o utrzymanie i generowanie energii. Nawet jeśli to jest miesięcznie, ale wydaje mi się, że to jest dziennie, to to jest gigantyczne. I oczywiście zaraz mi powiesz, że wejdą nowe technologie. Oczywiście, że tak, ale tak czy inaczej.  jakby to jest tylko jeden kontekst, a połączenie tego z innymi wymagałoby wiele, wiele więcej właśnie fizyczności sztucznej inteligencji. Polecę jedną książkę, jeśli mogę. Oczywiście. 


Atlas of AI. Teraz uciekła mi autorka. Jest to książka na temat właśnie fizyczności sztucznej inteligencji.   O tym, że sztuczna inteligencja, mamy właśnie takie obrazki przed oczami, że to jest taki algorynt, te liczby, jak w Matrixie spadające zielone, że to jest taki byt niematerialny. Albo jakiś taki robot, ale on jest też taki eteryczny. A tak naprawdę sztuczna inteligencja pochłania strasznie dużo zasobów. Są takie osoby, które mówią, że w 2050 był 10%.  całej elektryczności wyprodukowanej na świecie będzie pochłaniały bazy danych. I strasznie dużo się wykopuje też jakichś takich rzadkich metali, wykorzystuje się bardzo niskopłatnych robotników tych w kopalniach, ale też tych, którzy uczą te bazy i tak dalej, i tak dalej, że ciało sztucznej inteligencji jest stworzone z cierpienia ludzkiego, rzadkich metali z naszej dogrywającej ekologii. 


Karol:   No ale słuchaj, świat chyba nie jest sprawiedliwy w innych dziedzinach też. Korzystamy z tej energii nie tylko dla sztucznej inteligencji, tylko dla naszej przyjemności, rozrywki, media i wiele różnych innych rzeczy, z których korzystamy na co dzień, tak samo pochłaniają energię. Tą, która jest tak cenna i która jest tworzona czasami, tak jak mówisz, przez innych ludzi. 


David:   Ja wciąż uważam, że to jest kwestia skali, to znaczy, że to jest jakby taki obszar, który dla nas ludzi jest trudny sobie do wyobrażenia, jaka jest różnica między milionem, miliardem, a jakimś tam kwadrylionem, że to już są takie liczby, których nie do końca czujemy intuicyjnie i że tu jest chyba taka sytuacja, że można zawsze powiedzieć, że w pewnym momencie usiągniemy technologicznie ten moment, w którym będziemy mogli  stworzyć general AI, czyli taka, która będzie robić to, co my… Być samoistniejący, tak? Tak, ale ja jednak uważam, że ta skala jest tak duża. Po drodze powinny się wydarzyć tyle rewolucji technicznych, jak one się nazywają, te przekaźniki. Chodzi o takie kable, które potrafią lepiej przewodzić prąd na wskrócie. No właśnie, jest parę takich rewolucji technologicznych, które powinny się wydarzyć również w kontekście trzymania tych baz danych, posiadania więcej miejsca jakby na nie.   ale też więcej miejsca na tą elektryczność, która jest nam tu wszystko potrzebna, że moim zdaniem jeszcze nam daleko do tego. 


Karol: Ale rozwój technologii przyspiesza w sposób niezwykły. Zobacz, 10 lat temu jak wyglądały nasze telefony, jak wyglądało korzystanie z mediów, jak wyglądało nasze codzienne życie. 


David:   No tak, to tak możemy się przerzucać, tak? I tak prawda jest taka, że ani ja nie wiemy tego. 


Karol: Też ja nie kwestionuję tego, co mówisz, tylko staram się dwie perspektywy złapać. 


David: To jest tak, że jeśli nie chcemy wszyscy zginąć za parę dziesięć lat i to i tak będziemy musieli jakoś samo ograniczyć albo nas natura sama ograniczy.   Więc myślę, że w momencie, w którym będziemy mieli już nóż na gardle, to jak będziemy mieli do wyboru zrobienie generalnej sztucznej inteligencji, a uratowanie półświata, no to jednak chyba pójdziemy tą drugą drogę. Mam nadzieję. 


Karol: No dobrze, wróćmy do sztucznej inteligencji i do kreatywności. Czy według ciebie…  Te narzędzia, które powstają, tą kreatywność pobudzają, czy też w pewien sposób zabijają? 


David: W pewnym sensie pobudzają, w tym sensie, że tworzą nowe przestrzenie wyobraźni, nowe przestrzenie możliwości wyrażania się i widzę to codziennie na różnych forach, które oglądam. 


Mógłbyś dać przykład?   Generowanie obrazów za pomocą słowa sprawia, że zaczynamy myśleć o obrazach w sposób lingwistyczny, opisywać je i to tworzy nowe połączenia w naszym mózgu. Teraz to, co mówię, to nie jest badana rzecz, tylko taka moja percepcja.  i że ludzie się bawią. Widzę oczywiście mnóstwo takich bzdurek, jakichś śmiesznych rzeczy, które ludzie robią, ale to jest zupełnie nowe. Ludzie spędzają godziny na tym, żeby cyzylować jakieś obrazy, których by nie byli w stanie zrobić wcześniej. I to nie tylko dlatego, że one są doskonałe technicznie albo bardzo dobre technicznie,  Ale dlatego, że tam jest na przykład jakiś żart, połączenie dwóch kontekstów portugalskich kafelków, tych tradycyjnych, malowanych na niebiesko z Gwiezdnymi Wojnami. I to taki projekt, który kiedyś wymagał finansowania, dużych kompetencji i teraz w zasadzie wpadasz na taki pomysł i jesteś w stanie to zrealizować.   I wydaje mi się, że to otwiera właśnie nowe przestrzenie kreatywności. 


Karol: Czyli tak naprawdę sztuczna inteligencja, z którą mamy do czynienia teraz, jest narzędziem, które służy nam do działania i tworzenia nowych rzeczy. 


David: Tak ją postrzegam, ale jest też taki obszar, to jest bardziej związane z tymi narzędziami generującymi tekst.  że mamy tendencję do wchodzenia na skróty. U siebie już to zauważam. Na jakim etapie wchodzimy na skróty? Jeśli da się coś zrobić automatycznie, jakimś algorytmem, to jednak częściej to robimy, bo to przyspiesza pracę. I teraz podam Ci przykład, analogię z innego obszaru, nie z sztucznej inteligencji, ale też technologii, która nam coś zabiera, przyspiesając pewne czynności. Chodzi o GPS. 


Mhm.   Okazało się, są takie badania, które mówią, że mapy, nawigacja automatyczna sprawiła takie powszechne używanie, sprawiła, że jako ludzkość jesteśmy głupsi. 


Karol: Jestem tego najlepszym przykładem, bo pamiętam doskonale jak kiedyś potrafiłem orientować się w przestrzeni dużo lepiej. 


David: Tak jest. 


Karol: Korzystałem z fizycznej mapy. Sam łapię się na tym, że czasami  Nawet w Warszawie, którą znam już, włączam nawigację po to, żeby wybrać najwygodniejszą drogę. 


David: I teraz orientacja z przestrzeni to jest ta oczywista kompetencja, którą nam zabiera ta mapa. Ale okazuje się, że tę część naszego mózgu, która jest odpowiedzialna za tą kompetencję, jest blisko  Tej części, która jest odpowiedzialna za pamięć. I jak sobie przypominasz takie ćwiczenia mnemotechniczne, to one rzeczywiście często są związane z przestrzenią. Że sobie ustawiam jakieś liczby albo jakiś ciąg elementów, które chcę zapamiętać gdzieś w przestrzeni, żeby móc je zapamiętać.   No i okazuje się, że mamy gorszą pamięć. I to jest jakieś takie zjawisko zupełnie niespodziewane. Z tego absolutnym dowodem. 


Taką ogólną pamięć. No i w związku z tym, wracając do narzędzi opartych na sztucznej inteligencji, ja na przykład mówię dobrze po polsku, mówię dobrze po francusku, bo urodziłem się we Francji, ale z angielskim daję sobie radę, ale nie jest to jakieś super wygodne dla mnie. No i teraz regularnie korzystam z różnych narzędzi,  które po prostu ułatwiają mi pisanie maili albo przygotowywanie prezentacji po angielsku. Mam mnóstwo teraz wykładów. No i oczywiście staram się z tego korzystać świadomie, czytać ten tekst, poprawiać go samemu albo nawet wręcz go sam pisać najpierw, a później tylko sprawdzać, czy coś mógłbym zrobić lepiej.   Ale nie ujrzykujmy się, często jak nie mam czasu, to po prostu wrzucam, robię kopię i wkleję i używam. To jest jedna rzecz. Są kolejne nowe narzędzia, które ten tekst poprawiają też gramatycznie. 


Karol: To jest trochę tak samo jak z mięsiami i ćwiczeniem fizycznym. 


David: No i teraz w moim przypadku to jest pół biedy, bo ja już jednak mówię po angielsku, czytam i tak dalej. Ale wyobrażam sobie takie niebezpieczeństwo w kontekście młodych ludzi, którzy dopiero się uczą.   


I teraz bardzo dokładnie obserwuję moich studentów i studentki, jakim mówię, że na przykład możecie korzystać z czata GPT przy kodowaniu, ale musicie rozumieć, co jest w tym kodzie. Ale jednak od czasu do czasu zdarzają się takie sytuacje, że ktoś w panice wrzuca jakiś kod i to mu działa, ale inaczej i nie umie tego naprawić. I właśnie mówi mi, że taki był proces, że on tu skorzystał z takiego modelu lingwistycznego, który niby pomógł mu, ale on się nie nauczył w związku z tym.   Czyli wniosek z tego jest taki, że co, uczmy się logiki? Myślę, że korzystajmy z tych narzędzi świadomie, bo chat CBT może być też nauczycielem, tylko trzeba to wiedzieć i korzystać z tej funkcji, tak? Okej, zadajmy mu, znowu wrócę do mojego przykładu, zrobienie tego kodu, który jest na moje zajęcia na przykład.  przejrzyjmy, zobaczmy go, czy rozumiemy, a jak nie rozumiemy, to zapytajmy go właśnie, czy ją w sumieniu określać, co to znaczy. 


Ono, tak. Co to znaczy to, co tam jest napisane. I on wytłumaczy. A jak wciąż nie będziesz wiedział, to możesz go poprosić, żeby wytłumaczyć tak jak pięciolatkowi i on użyje takich właśnie słów i nigdy nie będzie zmęczony i będzie cię tłumaczył do upadłego. Znaczy ty jak upadniesz, bo on nie upadnie. 


To jest wielki atut jakby tych narzędzi. Bardzo ważny jest ten moment,  Włączanie myślenia, żeby nie używać tego jak część naszego ciała. Tylko jako narzędzie. Jako świadome narzędzie po to, żeby nas to rozszerzało, wzmacniało, a nie osłabiało. I tego trzeba uczyć w szkołach. 


To jest bardzo ważne. Jak tego uczysz? Na razie jeszcze nie ma dobrych praktyk, to jest za wcześnie, ale to tak jak przed chwilą powiedziałem. To znaczy przede wszystkim sprawdzać, mieć kontakt fizyczny z osobami.   jednak preferować zajęcia w rzeczywistym świecie nad online, patrzeć ludziom w oczy i tłumaczyć i patrzeć, czy w tych oczach jest zrozumienie tego, co mówimy. 


Karol: Działać wspólnie, wykorzystywać te narzędzia i dzielić się wrażeniami i realizować wspólnie projekty. Uczenie przez doświadczenie, bardzo ważne oczywiście. 


David: Mieć kontakt z rzeczywistością. 


Karol: To jak będzie wyglądał nasz świat za lat 5, 10, 15? Masz jakąś wizję tego?  jak możemy się rozwijać, bo z jednej strony ta wizja, o której mówiłeś, jest trochę czarna. 


David: Jest też bardzo wiele obszarów, w którym sztuczna inteligencja jest ewidentnie i bezdyskusyjnie dobra dla nas. Takim obszarem jest medycyna.   Ja sam tutaj właśnie w ramach tej otwartej pracowni sztucznej inteligencji, którą kieruję na Wydziale Projektowania na SWPS-ie, na Uniwersytecie SWPS, będziemy mieli właśnie współpracę z taką firmą, nie mogę za dużo powiedzieć, bo to dopiero jest w toku, ale która wytwarza właśnie usługi w kontekście leczenia, no i gdzieś to pośrednictwo botów może bardzo ułatwić pracę lekarzom.   


O, to ciekawe. Możesz coś więcej powiedzieć? Mogę powiedzieć, bo to jest jakby, jeśli chodzi o samą zasadę, to jest coś, co się wykorzystuje w wielu miejscach. To znaczy w pewnych zawodach jest taki obszar, który jest związany z taką powtarzalną i mechaniczną właśnie pracą w zbieraniu danych. No i w kontekście medycyny jest to związane z tym, że jest jakaś diagnoza postawiona, a później trzeba sprawdzać, co się dzieje z tą osobą, z tym pacjentem.   No i to sprawdzanie to jest tak, jak właśnie u sędziego czy u prawnika też są takie… W pewien sposób odtwórcza praca. Tak, to są rzeczy bardzo automatyczne. Stwierdzenie danych. Tak jest. No i do tego można zatrudnić bota właśnie. 


Karol:   No dobrze, wiesz co, zapytałem ciebie, o czym ty chciałbyś również porozmawiać i wspomniałeś o perspektywie filozoficznej sztucznej inteligencji. 


David: Tak, ta perspektywa filozoficzna jest taka, że mam takie poczucie, że jest takie drżenie filozoficzne, które się dzieje z każdą osobą, która jakoś dotyka po raz pierwszy takiego czata GPT. Nie jest takiego, czy to jest ludzkie. 


Karol: I teraz to jest jakby… Czy sama interakcja jest ludzka? 


David:   Czy ludzkie jest narzędzie? Czy to jest byt w ogóle, tak? I przeglądamy się w oczach tych sztucznych inteligencji metaforycznych i zaczynamy widzieć tam jakieś coś, co przypomina nas. I nagle, jak się zaczynamy o tym czytać i wchodzić w to głębiej, to się okazuje, że to jednak jest taka maszynka, która właśnie widzi paterne w znakach, nie? Więc jak widzimy nasze odbicie w tych oczach i widzimy siebie widzącego algorytm jako człowieka, to nagle  zaczynamy się zastanawiać, co to o nas mówi, jeśli w czymś takim widzimy człowieka. Są takie ewolucyjne mechanizmy, które sprawiają, że widzimy świadomość tam, gdzie jej nie ma. Albo widzimy, no właśnie… 


Albo może chcemy widzieć świadomość.   Tak, objawy człowieczeństwa. Zgaduję, no nie jestem w tym ekspertem, ale zgaduję, że to miało coś wspólnego z jakąś taką potrzebą bardzo szybkiego zdefiniowania, czy byt, który jest przed nami jest człowiekiem, czy na przykład lwem, który nas chce zjeść. Jeśli jest człowiekiem, to może jesteśmy w stanie się z nim dogadać. 


Jeśli jest to lew, to jednak powinniśmy uciekać. I te osoby, które nie uciekały przed tym lwem zbyt szybko, zostały zjedzone. W związku z tym, wiadomo, genetyka, ewolucja sprawiła, że  bardzo szybko identyfikujemy, czy coś jest mniej więcej podobne do człowieka lub nie. Widzimy twarze bardzo łatwo w różnych przedmiotach, które nie mają twarzy, w drzewach, w chmurach, w oknach, dlatego że tak jesteśmy ewolucyjnie przystosowani. I wydaje mi się, że twarz to jest jedna rzecz, ale że właśnie różne inne objawy człowieczeństwa i nagle odkrywamy, że to jest właśnie posługiwanie się językiem naturalnym jest takim objawem,  sprawia, że mamy ochotę wchodzić w interakcje, poznawać, działać. Zadam ci pytanie, czy ty dziękujesz chatowi na GPT? Nie. Dałeś mu jakieś zadanie, on ci odpowiedział i nie mówisz. 


Nie, nigdy. A używasz proszę, jesteś uprzejmy wobec niego? Tak, jestem uprzejmy. Aha, czyli używasz, jakich używasz takich słów? Proszę, czy mógłbyś. Czy mógłbyś, właśnie. Dlaczego to robisz? 


Karol:  Wiesz co, bo dla mnie to jest naturalna forma konwersacji, którą przejąłem ze świata ludzkiego. Skoro czat GPT w pewien sposób jest humanoidalną formą elektroniki, to stąd moja forma komunikacji z czatem dokładnie taka sama, w jaki sposób komunikuję się z innymi ludźmi. 


David:   Ja miałem taką rozmowę z moim przyjacielem informatykiem, który właśnie gdzieś się siłował z tym dziękowaniem. W sensie miał ochotę to zrobić, więc to robił. 


Karol: Podziękować nigdy nie podziękowałem. 


David: No raczej, że ty nie dziękujesz.  Nie ma takich uczuć.   A chodzi o to, że właśnie mamy taką łatwość. Dążę do tego, żeby powiedzieć, że skoro my obdarzamy człowieczeństwem, no to być może powinniśmy zacząć się temu człowieczeństwu przyglądać, temu, co ono oznacza dla nas. I że być może, i to jest trudna myśl do przyjęcia, że to człowieczeństwo jest jakimś zestawem cech, objawów częściej niż tym, co jest pod spodem dla nas. I teraz…   Prowadzimy takie badania, znaczy będziemy prowadzić za chwilę z Sonią Ziębą z Polsko-Japońskiej Akademii Technik Komputerowych. 


Karol: Wyższej Szkoły Technik Komputerowych


David: Tak, ona się nazywa PJSTK, która również współpracuje właściwie z moją pracownią sztuczej inteligencji na temat tego, czy ludzie mogą się zakochać w bocie. 


Karol: Idę o zakład, że mogą. 


David:  Mogą. Znaczy są takie, przynajmniej są artykuły na ten temat. 


Karol: Zobacz, że boty tak naprawdę mogą mówić to, co ty chciałbyś usłyszeć, a człowiek nie zawsze mówi ci to, czego chcesz usłyszeć. 


David: No i teraz nie rozstrzygając, czy to jest rzeczywiście miłość, czy tam będziemy to sprawdzać za pomocą neuroobrazowania i tak dalej. Wnioski przed nami dopiero. Ale to, co wiem już teraz z tego, że czytałem artykuły, spotkałem ludzi, którzy po prostu mieli głębokie relacje, przynajmniej takie definiowali z botami,  Można się zastanowić tak naprawdę, to znaczy czy miłość, czy zakochanie nie jest jakimś objawem kulturowym, taką cienką jakąś warstewką, którą opisujemy jakiś zestaw automatycznych bodźców, na które jesteśmy w stanie zareagować.   jak nam się zaprojektuje odpowiednią maszynkę. 


Karol: Czyli jest tak, że jeżeli maszyna sprawi, że będziemy czuli się bezpieczni, że będziemy posiadać uwagę, pamięć i ciekawość po drugiej stronie tej maszyny, to będziemy czuli się komfortowo. 


David: Albo będziemy ją jako tak redefiniować, tak? Co to znaczy uwaga, pamięć, tak? Jeszcze to jakby tak zostało to zaprogramowane, nie umie inaczej. Taka uwaga człowieka  jest związana z jego intencją. Ja jestem teraz na ciebie uważny, ponieważ mam wobec ciebie dobrą wolę, ponieważ chcę być w kontakcie z tobą w tym momencie. Maszyna jest uważna, bo nie może inaczej. Więc nie ma intencji z tyłu. I teraz być może jest to przerażające, ale być może powinniśmy wejść w tę refleksję i przejść na drugą stronę jej i odkryć coś ważnego na temat tego, kim jesteśmy jako ludzie. 


Karol: Pytanie, czy my potrzebujemy tej intencji?  czy wystarczą nam same przejawy skupienia uwagi itd. 


David: – To jest wielkie pytanie. I tutaj chyba wydaje mi się, żebym powrócił do tego pytania, na które nie odpowiedziałem wcześniej, tzn. co będzie za 10 lat. I myślę, że bardzo ważne jest powiedzieć „nie wiem”. Jakby mieć odpowiedzialność za to, że się nie wie. 


Bardzo wiele wielkich myślicieli miało różne predykcje, które się nie sprawdziły. Często mówili o tym, że maszyny będą odbierać nam przede wszystkim te proste prace.   a że kreatywność zostanie po naszej stronie. Tu zaczęliśmy się jednak zastanawiać, czy tak rzeczywiście będzie. 


A po drugie będą się zdarzać zjawiska emergentne, to znaczy sytuacje, które wynikają z kompleksowości systemu,  a przede wszystkim ze spotkania tych systemów z kreatywnością ludzką objawioną w interakcjach milionów, żeby nie powiedzieć miliardów osób, które wchodzą właśnie w te interakcje z tymi maszynami. Przykładowo taksówki w Stanach Zjednoczonych są taksówki autonomiczne już w niektórych miastach. W ramach danego miasta, nie wyjeżdżają zbyt daleko. I to działa w ten sposób, że zamawiasz przez aplikację taksówkę, podjeżdża pojazd, wsiadasz z tyłu,  nie ma kierowcy i dojeżdżasz. I są tam zaciemniane szyby. I okazuje się, że bardzo szybko ludzie zaczęli wykorzystywać te taksówki do tego, żeby uprawiać w nich seks. Ponieważ są tańsze niż hotel na godzinę. 


Karol:   Zakładałem, że powiesz, że ludzie zaczęli jeździć tymi taksówkami, ponieważ był tam interfejs głosowy i mogli w tej taksówce porozmawiać z kimś w sposób otwarty. 


David: Nie, to nie była puenta. Chodzi mi o to, że tego typu wykorzystanie tego systemu, jakim są te autonomiczne taksówki, jest zjawiskiem, które nie zostało przewidziane, tak zakładam, przez twórców, tak jest emergentne. Wynikło z pomysłowości konkretnych ludzi.   I jest mnóstwo takich zjawisk, tego typu, których nie jesteśmy w stanie przewidzieć. I jakby to powiedzenie nie wiem, jest oczywiście jakimś takim wyrazem bezsilności, ale jest też wyrazem pewnej czujności, że to jest to, do czego bym namawiał. Do tego, żeby być czujny na zjawiska emergentne i na przykład jeśli nasz system prawny nie jest w stanie nadążyć, to może jesteśmy w stanie nadążyć.   jakoś otwierać te systemy, te duże systemy, sprawić, żeby były bardziej elastyczne, wiedząc o tym, że właśnie będą się zdarzać rzeczy kompletnie nieprzewidzialne, które mogą mieć bardzo dziwne skutki, na które musimy szybko reagować. Więc jakby to powiedzenie, nie wiem, nie jest jakby poddaniem się, jest pewną strategią wchodzenia w przyszłość. 


Karol:   A czy nie jest tak trochę, że wchodzimy w interakcję ze sztuczną inteligencją, z botami, dlatego że w tej interakcji czujemy się bardziej bezpiecznie, aniżeli w interakcji z człowiekiem, którego nie znamy? 


David: Z punktu widzenia badacza musiałbym ci powiedzieć, oczywiście nie wiadomo, trzeba to zbadać i dopiero wyniki ci powiedzą, że tak. I teraz z punktu widzenia osoby prywatnej, która ma pewne swoje intuicje,  i doświadczenia, odpowiem ci, że pewnie tak jest, że to jest byt, który po pierwsze zachowuje się wystarczająco ludzko, żeby mieć z nim przyjemność rozmowy i właśnie tą przyjemność, którą się ma z rozmową z człowiekiem.   a jednocześnie nie jest człowiekiem i my mamy tego świadomość, w związku z tym czujemy się bezpieczni, że nas nie zdradzi, nie ucieknie, nie zmęczy się, nic nie zrobi z tymi informacjami. Chociaż to nie do końca prawda, bo niektóre boty właśnie słuchają, analizują i wykorzystują te informacje, żeby nam coś sprzedać później. Znaczy nie one same, tylko sprzedają te informacje jako bazy danych i jesteśmy dzięki temu łatwiej targetowani. 


Karol:   Wróćmy na chwilę jeszcze do Twoich studentów i do osób, z którymi prowadzisz zajęcia, programujesz. Jak mnie patrzysz, są to ludzie trochę młodsi od nas. 


Tak. Ciekaw jestem, jak ich obserwujesz, jaka jest ich percepcja tych rozwiązań, które się pojawiają w sztucznej inteligencji, wiesz, interfejsów, modeli językowych i tak dalej. Czy jest to ciekawość? Czy jest tam jakaś obawa? Czy jest to dla nich coś, co zaczyna być   Absolutnie rzeczą naturalną, tak samo jak dla nas, jest chusteczka higieniczna, klawiatura kuwerty, z której korzystamy od stu kilkudziesięciu lat. 


David: Znowu muszę poczynić to zastrzeżenie, że to są bardzo wstępne wnioski. Spotkałem się ze studentkami, które zastanawiały się na Wydziale Projektowania, czy przypadkiem nie wyrzuciły do kosza trzech lat swojego życia. To było w zeszłym roku jeszcze, kiedy dopiero jakby zaczynaliśmy nie tyle rozumieć, co doświadczać tych nowych generatorów elektrycznych. 


Karol:   Prawda jest taka, że przełomowy moment nastąpił rok temu w listopadzie, kiedy pojawił się czy GPT i uzyskał taką popularność. Samo uczenie maszynowe istnieje od wielu, wielu, wielu lat i analiza danych istniała wcześniej, tylko dzięki temu czatowi, dzięki tej adopcji, która nastąpiła, stało się tak to wszystko popularne. 


David:   To jest ta zmiana definicji, o której mówiłem na samym początku. Te studentki konkretnie, te, o których mam na myśli, nie czuły się zagrożone sztuczną inteligencją definiowaną jak wcześniej, ponieważ było to narzędzie bardzo specjalistyczne. A teraz w momencie, w którym każdy ma do tego dostęp, właśnie dzięki tym nowym interfejsom i nowym algorytmom,  no to miały takie obawy. Widzę, że ludzie tego używają często, tak jak się używa Google’a, przeglądarek, po to, żeby sobie pomóc, żeby sprawdzić, czy to, co ja mówię, to rzeczywiście ma sens, żeby mieć dodatkowego nauczyciela, tak jak mówiłem wcześniej o tym, w jakich relacjach można być z tymi czatami, ale to nie jest takie jak oddychanie, że to nie jest aż takie powszechne. I teraz mój kolega  z pracowni sztucznej inteligencji Paweł Kowalski, który jest prawnikiem, ma taką teorię, że my z naszego pokolenia zaczęliśmy naszą interakcję z komputerami w sposób bardzo tekstowy. Pierwsze pecety, a nawet wcześniej Atari i tak dalej, to były takie maszyny, z którymi się posługiwaliśmy za pomocą klawiatury przede wszystkim. Dopiero w pewnym momencie weszła myszka, tak bardziej było to sensowne, ale wpisywaliśmy w jakieś  No właśnie takie prompty, tylko nie językiem naturalnym, tylko właśnie takie bardzo podstawowe komendy, nie nazwałbym je programistyczne, ale takie właśnie z takiego świata języka komputerów, to każdy z nas musiał znać. Co do dwie kropki.   – Jaka była ta komenda? 


Karol: – CD, czekaj, to było wejście do katalogu. 


David: No tak, tak, na przykład. Trzeba było bardzo uważać, żeby nie wpisać tego, co usuwa wszystkie dane z komputera. Właśnie teraz znowu mi wypadło z głowy to, co tam się wpisywało. No nieważne. I że to pisanie właśnie, że to przejście z pisania ręcznego na pisanie, że uczyliśmy się szybkiego pisania, jak klawiaturze i tak dalej, że to jest nasz najbardziej naturalny sposób interakcji z komputerem.   a że młodzi nie tak bardzo, że oni klikają jednak bardziej. 


Karol: Klikają, czy wchodzą w interakcje za pomocą języka? Bo ja na przykład dziwię się, jak można nie korzystać z klawiatury Google i z dyktowania wiadomości. 


David: To też, ale to jeszcze młodsi. Znaczy wszyscy ogólnie, ale jakby jeśli mówię o takiej najbardziej naturalnej, no to czyli na przykład mówię o Stanach, tak, bo o nich mnie zapytałeś,  no to oni uczyli się za pomocą jednak klikania, tak? Byli nastolatkami, to jednak jeszcze nie było tak naturalne mówienie do aplikacji, to teraz dopiero to wchodzi. Więc de facto mówienie do czata GPT, no taka jest właśnie teoria mojego kolegi, nie jest aż takie właśnie łatwe jak dla nas.  Do zbadania. 


Karol: Ciekawe. No dobrze, Dawid, czy miałbyś do polecania jakieś źródła, ciekawe blogi, z których ty sam korzystasz, albo książki jeszcze inne, oprócz tej, o której wspominałeś naszym słuchaczom? 


David: Jest taka druga książka, którą polecam z pewnymi obwarowaniami. Nazywa się Artist in the Machine i jest świetna, dlatego że autor naprawdę zrobił bardzo dużą pracę polegającą na znalezieniu wszystkich ważnych osób  związany z sztuczną inteligencją i sztuką od lat 70. i przeprowadził z nimi wywiady. I dlatego warto przeczytać tą książkę. Ale autor ma również taką tezę, że maszyna potrafi być kreatywna i oczywiście niech on sobie ją ma, ale jest bardzo uporczywie ją tam próbuje sprzedać po prostu w każdym akapicie. Nawet tuż po tym, jak osoba, z którą rozmawiam mówi, że według niej to jednak maszyna nie może być kreatywna, to on tak to obróci w ten sposób, że może.   Więc to jest irytujące, przynajmniej dla mnie było, no ale jak się to przełknie, no to naprawdę to jest skarbnica wiedzy na temat właśnie tego, jak powstawały, jak się myślało o sztuce w kontekście sztucznej inteligencji, jak to się zmieniało i teraz bardzo zmieniło. Warto właśnie dlatego, żeby wyjść poza ten kontekst właśnie tych generatorów, które teraz mamy.   Bo tam były jakieś pewne takie ścieżki myślenia, które teraz jakby zanikają przez to, że te technologie się też zmieniają, a warto o nich pamiętać, bo one były ciekawe. Więc tak, Atlas of AI też w kontekście takiej odpowiedzialności ekologicznej, społecznej, ale też nie tylko, też pewnego definicji inteligencji. Autorka tutaj z kolei też zwraca uwagę na to, że  Przez to, że cały czas mówimy o sztucznej inteligencji, to nagle okazuje się, że inteligencja szeroko pojęta, ale ta ludzka, nagle zaczyna być definiowana tak, jak definiujemy tą sztuczną, co jest paradoksalne. A wcale nie ma takiego konsensusu wśród psychologów czy psychiatrów. 


Karol:   Żeby postawić znak równości pomiędzy jedną a drugą. 


David: Nie tyle znak równości dokładnie co do tych algorytmów, które teraz mamy, bo to wszyscy zgadzamy, że to jeszcze nie jest dokładnie inteligentne, ale chodzi o pewne cechy, o pewne parametry, według których badamy inteligencję. Że to jest zawężające, że możemy w różny sposób badać inteligencję i to, jak badajemy sztuczną, wcale niekoniecznie definiuje w pełni inteligencję ludzką. To jest kolejna część tej książki, która jest strasznie ciekawa.   No więc tyle, jeśli chodzi o książki, wydaje mi się. Jeśli chodzi o artykuły, to jest bardzo, bardzo trudne, ponieważ jest tego mnóstwo. Takich autorów, których na pewno zawsze czytam, jak się pojawia, to jest Ted Chiang. Ted Chiang jest autorem książek science fiction, ale też świetnie analizuje naszą rzeczywistość również w kontekście kapitalizmu, jego relacji z technologią. Edwin Bendyk z Polskiego Podwórka,  ale jednocześnie to jest strasznie trudne, bo z bardzo wieloma autorami, których cenię w ogóle, których uważam za inteligentnych, wcale się nie zgadzam. 


Ale chyba o to chodzi. Tak, tak, więc ta wielość głosów, właśnie jak mówisz polecam, czy polecam, no polecam na przykład, polecam posłuchać Jadka Dukaja, co on ma na myśli, ale nie zgadzam się z nim zupełnie, z jego wizją przeszłości, a jednocześnie jest to bardzo oczywiście płodne, inspirujące, odświeżające ten sposób jego myślenia.   Więc tak, ja prowadzę taką grupę na Facebooku, która nazywa się Poskromienie AI. Można ją znaleźć, kliknąć i ja przyjmuję. W zasadzie wszystkich przyjmuję, chyba że ktoś jest botem. I tam wrzucam różne informacje dotyczące projektowania, ale też szerokiej tematyki wokół sztucznej inteligencji. Mam tam parę osób z SWPS-u, którzy są informatykami, których uczyniłem ekspertami w tej grupie i oni też wrzucają bardzo wartościowe treści informacyjne.   Więc to polecam jako taka pigułka. Wszystkie rzeczy są atakowane, więc potrzebowałem takiego miejsca, żeby mieć taki worek, z którego sam dla swoich potrzeb mogę wyjmować i żeby się przygotowywać do różnych wykładów czy wystąpień publicznych. 


Karol: Dawid, serdecznie dziękuję za naszą rozmowę. Dziękuję za spotkanie. Dziękuję, że uczysz tego programowania i łączysz kierunki techniczne z humanistycznymi. To była przyjemność.