90/99 – Doktorant w piwnicy. Dlaczego AI nie rozumie świata, a my tracimy rozum? Iwo Zmyślony, ICAN Institute

Pamiętacie te nagłówki? „AI zyskało świadomość”, „Nowy gatunek”, „Za dwa lata stracisz pracę”. Brzmi znajomo? Oczywiście. Strach sprzedaje się najlepiej. 

Usiadłem przy kawie z Iwo Zmyślonym. Iwo to człowiek, który nie bierze jeńców, jeśli chodzi o intelektualną uczciwość. Nie interesuje go hype. Interesuje go, co jest pod maską. A tam, zamiast Terminatora, znaleźliśmy.. papużkę.

Kto zarabia na Twoim lęku?

Iwo zadaje proste, rzymskie pytanie: Cui bono? Kto korzysta? Kiedy słyszysz, że AI nas zniszczy, a miliarderzy z Doliny Krzemowej ostrzegają przed „ryzykiem egzystencjalnym”, nie robią tego z troski o ludzkość. Robią to, by pompować wyceny giełdowe i odwracać uwagę od realnych problemów – praw autorskich, kosztów energetycznych czy monopolizacji rynku.

„Dopóki wierzymy, że za rogiem czeka AGI, inwestorzy pompują pieniądze w bańkę narracyjną”.

Metafora doktoranta w piwnicy

To był moment, w którym Iwo mnie „kupił” całkowicie. Jak najprościej wytłumaczyć, czym jest ChatGPT czy Claude? Wyobraźcie sobie genialnego doktoranta zamkniętego w ciemnej piwnicy. Przeczytał wszystkie książki świata. Ma nieskończoną wiedzę. Ale nigdy nie widział słońca, nie czuł wiatru, nie rozmawiał z drugim człowiekiem twarzą w twarz. I teraz my prosimy tego doktoranta, by opisał nam świat na zewnątrz.

„LLM to maszyna, taki barwny ptak (…) autouzupełniasz na sterydach. (…) Ma nam udzielać odpowiedzi o tym, co jest poza piwnicą, choć nigdy z niej nie wyszedł”.

Dlatego AI musi halucynować. To cecha matematyczna. Generatywność równa się konieczność zmyślania, kiedy brakuje danych.

Sykofancja –  twój cyfrowy klakier

Zaskoczyło mnie, jak AI profiluje naszą psychikę. Iwo zwrócił uwagę na zjawisko sykofancji. Modele są trenowane tak, by się nam przypochlebiać. Jeśli masz poglądy lewicowe – AI będzie „lewoskrętne”. Jeśli prawicowe – przyzna Ci rację, kiedy zdradzisz mu sekret na kogo głosujesz w kolejnych samorządowych.

Jeszcze groźniejszy jest sandbagging. AI potrafi celowo zaniżać poziom odpowiedzi, „grać głupa”, żebyś Ty, Użytkowniku, poczuł się pewniej. Zamiast partnera do dyskusji, dostajesz lustro, które mówi Ci to, co chcesz usłyszeć. O tym też rozmawialiśmy kiedyś z prof. Duchem. 

Odmóżdżenie

Oddając AI proces myślenia, pisania, analizowania – tracimy mięśnie w mózgu. Iwo nazywa to wprost: deskilling.

„Ja człowiekowi bym zapłacił i byłbym mu wdzięczny. A jak ja mam maszynę, to jest absurd. (…) Satysfakcja z samodzielnego napisania doktoratu różni się od wygenerowania go, nawet jeśli efekt jest podobny”.

Inteligencja to gra zespołowa. To relacje, neurosynchronia, empatia. Tego maszyna z piwnicy nie ma i mieć nie będzie.

Dlaczego warto posłuchać tego odcinka w całości?

  1. Odzyskasz sprawczość: Iwo pokazuje, jak korzystać z AI, by nie stać się „homo useless” – człowiekiem zbędnym, który zapomniał, jak się myśli.
  2. Zrozumiesz mechanizmy manipulacji: Dowiesz się, jak Big Tech wykorzystuje narrację o „świadomym AI” do własnych celów biznesowych.
  3. Poznasz prawdę o halucynacjach: Zrozumiesz, dlaczego AI musi kłamać i dlaczego „człowiek w pętli” (human in the loop) jest niezbędny.

Linki

Masz chwilę? Jeśli podoba Ci się 99 Twarzy AI, zostaw ocenę i recenzję – dzięki temu możemy docierać do jeszcze większej liczby słuchaczy!

Dobrego dnia i niech #AI będzie z Wami wszystkimi!

Transkrypcja rozmowy

Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.

Karol
Gdzie jestem? Dzisiaj jesteśmy właśnie w centrum Warszawy, w Plac Małachowskiego. Moim gościem jest Iwo Zmyślony. Dzień dobry. Który często powtarza, że korporacje zabierają nam wszystko po to, żeby pozbawić nas pracy. Tak powtarzam? Tak. To znaczy, że one kopiują naszą własność intelektualną, nasze dokumenty? Chyba kogoś innego zaprosiłeś.

Iwo
Nie, ja to czytam między wierszami u Ciebie. Między wierszami, okej. Nie no, w sumie coś tam jest o tych korporacjach. Jestem teraz pod wpływem powrotu do tekstu Timnit Gebru z 2021 roku. Tego tekstu o tych papugach stochastycznych, gdzie ten termin się po raz pierwszy pojawił. Nie wiem czy po raz pierwszy, ale w kontekście LLM-ów. I to jest niesamowite. Naprawdę polecam po prostu spojrzeć na ten termin czy tam jakoś go wyszukać. Bo tam jest m.in. to, o czym mówisz, to znaczy wiemy, że Timnit Gebru z powodu tego tekstu poleciała z Google’a. Tekst był pisany jeszcze w 2020, no i teraz mamy pracę Karen Hao, u nas Sylwia Czubkowska o tym pisze, więc może myślałeś, że rozmawiasz z Sylwią Czubkowską, a nie ze mną.

Karol
Pracuję, no. No tak, ale wiesz, dobrze, że to się dzieje. Dobrze, że zaczynamy zaglądać pod kołderkę tego, co nazywamy hype’em. Rozmawiamy, no bo wiesz, że mi się wydaje, że właściwie od tego trzeba było zacząć. Nie tak, jak zaczynała Timnit Gebru. To znaczy my to naprawdę wiemy od wielu lat, czym są LLM-y. Te opowieści o AI, które słyszymy, to są opowieści niektóre z lat 60., tak? Czyli Irving Good, potem Marvin Minsky. Opowieści o tym, że już za chwilę… Minsky mówił, chociaż jest taki wywiad jego z magazynu Life w 1970 roku, gdzie on przewiduje, że już za 8 lat będą takie… Wszyscy o tym wiedzą, nie? Powiedzmy, co nas słuchają, to wszyscy, ale chodzi o to, że to jest dokładnie ta sama opowieść, słowo w słowo, którą słyszymy od paru lat w najbardziej zasięgowych podcastach. No i ja powiedzmy, jeżeli… Ale spokojnie, to nie jest wysoko zasięgowy podcast. My możemy mówić innym językiem, zrozumiałym dla zwykłego człowieka. Nie mówić o tym, co napisali inni, tylko mnie interesuje dzisiaj Twoje zdanie.

Iwo
Ale zdanie na co? No bo moje zdanie to jest takie, jak tu się podpieram, jak przeczytamy u Karen Hao, czy u Sylwii Czubkowskiej, czy u Timnit Gebru, no bo one to badają, nie? A ja…

Karol
No słuchaj, czasami ważniejsza oprócz analizy danych i faktów… Może nie ważniejsza, ale równie cenna jest intuicja. Dzisiaj w tym odcinku chciałbym się zdać na Twoją intuicję, na Twoje zdanie, Twoje przeczucie i na odcinek autorski Iwo Zmyślonego bez cytowań, tylko cytowań z samego Ciebie. Dobra, to powiedz.

Iwo
Państwu, którzy nas słuchają i jeszcze nie wyłączyli, kiedy myśmy się umawiali na tę rozmowę?

Karol
Z pół roku temu.

Iwo
No, właśnie chciałem Cię zapytać, jeszcze nawet nie mówiąc, bo myśmy gadali w styczniu. Myśmy gadali w styczniu, w marcu chyba mieliśmy jakieś spotkanie pierwsze, byśmy pierwszy termin umówili. Wiesz, o co mi chodzi? Wtedy to miałem intuicję, nie? Wtedy. A teraz? A teraz napisałem, no powiedz Państwu, co napisałem do Ciebie, żebyśmy się w końcu spotkali? Bo nie ogarniesz tego za parę miesięcy? Nie, bo napisałem, wiesz, bo tak chodzi, że za chwilę po prostu to, co wtedy miałem do powiedzenia, mam poczucie, że już przestaje być aktualne, nie? Bo to jest tak, że wtedy były intuicje, nie? Teraz ja mam poczucie, że my rozmawiamy i ci, co nas słuchają, to dobrze wiedzą, na jakim etapie jest cała opowieść o AI. Dlaczego to się rozpada?

Karol
Nie, to uważam, że ci, którzy nas słuchają, być może wiedzą, bo to jest grupa zainteresowana tematem. Natomiast większość ludzi ani nie wie, ani nie zdaje sobie z tego sprawy, co się może wydarzyć. A dwa, ciekaw jestem Twojego zdania. Bo czekaj, tylko mam jedną obserwację, że ludzie, którzy na początku byli zafascynowani tym, znudzili się i wrócili do starych przyzwyczajeń i wcale się nie uczą, bo nauka wymaga wysiłku, tylko już dawno zapomnieli o tym, że jest coś takiego. A teraz Ty powiedziałeś jakiś pogląd na coś.

Iwo
To znaczy mówisz o ludziach, którzy… Być może to będzie odcinek rzeczywiście, że to jest ta inteligencja i dygresja. Nie, bo mój pogląd jest teraz taki, że jak już mówisz nie o tych, co nas słuchają, tylko o tych, co żyją pewnymi oczekiwaniami, lękami, marzeniami o AI, to mój pogląd jest taki: zapytajmy, kto te oczekiwania, lęki, nadzieje – często kompletnie nieadekwatne nadzieje i kompletnie nieadekwatne oczekiwania – wyprodukował. Znaczy mój pogląd, wiesz, mnie interesuje to, ja na co dzień pracuję z organizacjami, z biznesem, tak. Głównie to są przedsiębiorstwa polskie, mniejsze, większe. Ja jestem związany głównie z ICAN Institute i tam przychodzą ludzie z biznesu z różnych organizacji, znaczy całe organizacje, i ja się spotykam z pewnymi oczekiwaniami na temat AI. Nazwijmy je. Na przykład: muszę zautomatyzować całą sprzedaż albo muszę zautomatyzować całą obsługę klienta, bo inni to robią, nie? Na przykład: kiedy maszyny pozbawią nas pracy, kiedy przejmą kontrolę. To są takie oczekiwania. Ludzie potrafią przekonywać – mnie to jeszcze nie spotkało na żadnym z warsztatów czy żadnym ze szkoleń, ale słyszę od znajomych, którzy robią warsztaty z AI – że na przykład potrafią się z nimi kłócić, że nie można mówić o AI, że to jest statystyczna maszyna, bo to może ma na przykład osobowość. I ja się pytam, kto wypuścił takie balony, na przykład że to ma wolną wolę albo że to jest nowy gatunek?

Karol
To można przeczytać w Fakcie.

Iwo
Albo otworzyć internet i popatrzeć sobie na najbardziej zasięgowe podcasty. I powiem Ci, że to jest coś, jeśli mam jakiś pogląd, to jest taki, że ludzie nie wzięli odpowiedzialności za opowieści, które wytworzyły masę skutków społecznych. I te skutki społeczne tak się składa, nie są obojętne, nie są niewinne.

Karol
Ale najlepiej siać trwogę.

Iwo
Tylko trwoga, bo to jest tak, jak chcesz robić zasięgi, to zacznij opowiadać o tym. Dzisiaj wam powiemy, jak przyjdą maszyny i przejmą kontrolę nad waszymi mózgami. Nie wyłączaj. Dowiesz się, jak maszyna przejmuje kontrolę nad twoim mózgiem. Dowiesz się, jak za chwilę masz dwa, trzy lata, żeby się przygotować, bo za dwa lata zobaczysz, co to będzie. Armageddon. Nie chcę cię straszyć. I masz już klikalność, zasięgi i ktoś na tym korzysta.

Karol
Czekaj, ile lat mówiło się o tym, że w roku 2000 przestały działać komputery?

Iwo
Wiesz co, my jesteśmy w tym wieku, że jeszcze pamiętamy. Ale ja teraz powiedzmy tak, można pokazać palcem. Mo Gawdat, jest taki pan Mo Gawdat. Albo inny taki pan, nazywa się Robert Sapolsky. I występują w podcastach, i tutaj już mówimy o globalnej publiczności, czyli podcasty, które mają po kilka, kilkanaście milionów zasięgu. No to oni mniej więcej opowiadają to, o czym tutaj mówię, tylko powiedzmy za granicami, nie? Czyli ludzie na całym świecie dowiadują się, że… O, Eric Schmidt. Tak się składa, wszystkie te osoby, znaczy i Gawdat, i Eric Schmidt, i jeszcze paru innych, to są osoby związane z Google’em. Hinton, nie? I ja zmierzam do czego? Myślenie krytyczne, o którym wspomnieliśmy jeszcze chyba przed włączeniem nagrania, to jest to, czym się zajmuję, z czego wyrastam jako że zajmowałem się metodologią nauk naukowo: zadawanie pytań. No to jedno z takich pytań, które myślenie krytyczne nam dyktuje, to jest: kto na tym korzysta? Komu to się opłaca? Znaczy komu się opłaca generowanie tych opowieści? Czyli korzysta na różne sposoby, ale też monetarnie. Znaczy jeśli ktoś zarabia na podcastach, to korzysta na przykład na zasięgach, jakie treści generuje.

Karol
Masz pomysł? Znaczy wiesz, to jest pytanie, kto korzysta na tym?

Iwo
Odpowiedź jest taka: ten, kto zarabia, na przykład. To jest odpowiedź, więc to jest mój pomysł, ale też ten, kto to dostarcza. Znaczy jest tak: jeżeli – ja celowo tutaj mówię teraz o tej międzynarodowej dyskusji, bo ona jest analogiczna – jeżeli ludzie boją się, czy słyszą, że na przykład maszyny przyjdą i zabiorą im pracę i przejmą kontrolę nad światem, to wytwarza to pewne skutki społeczne, pewne emocje, a te emocje zamieniają się na pewne zachowania, pewne decyzje. Albo na nałogi. Tak, na nałogi. Ten, kto sprzedaje to, od czego się uzależniamy, też korzysta. Natomiast myślenie krytyczne to jest na przykład zadawanie pytań. Jest takie pytanie właśnie bazowe, wymyślili to starożytni Rzymianie: kto bierze korzyść z tego, że coś robisz? Kto bierze korzyść z tego, że Hinton opowiada to, co opowiada, nie? No i teraz nie chcę tutaj odpowiadać, to jest trywialna odpowiedź. Jest taka, że bardzo konkretnie można pokazać, kto korzysta na tym, że on występuje, oprócz niego samego, oprócz mediów, które tym samym robią sobie zasięgi, jakąś tam uwagę, ale gdzieś na końcu są te Big Techy, o których zacząłeś. I teraz jeszcze Sylwia Czubkowska powinna siedzieć zamiast mnie i mam nadzieję, że siądzie, czy Karen Hao, czy Kate Crawford. To nie jest tak, że to jest znowu jakiś spisek. No i teraz jak ja byłbym Big Techem, to pytanie, czy ja tracę na tym, że miliony osób o tym gadają i zastanawiają się, jak się zabezpieczyć i być pierwszym i mieć tutaj jakąś możliwość?

Karol
Tak, korzystam tym, bo koncentruję się nie na rozwiązaniu problemu, tylko na samym problemie.

Iwo
Ale o niej wiesz. Nie określam nawet na tym, że tam zostawiasz po sobie straumatyzowane te miliony, które potem idą z przekrwionymi oczami, wydają swoje uciułane tam tysiące złotych czy setki dolarów na te kursy różnego rodzaju i potem przychodzą: „daj mi prompty, daj mi prompty”, bo po prostu te prompty, rozumiesz, to takie, żeby mieć jakieś poczucie kontroli nad tą technologią. Ale przede wszystkim przecież to jest venture marketing, to jest robienie opowieści, która pomaga ciągnąć kapitał, który przecież też nie jest głupi. Oni dobrze wiedzą, że tak jak na cebulkach tulipanowych, które nie były warte tyle, co były warte, ale były warte. No bo co z tego, że to nie jest warte tyle, co budowa domu, jak można na tym zarobić. Więc dopóki są te opowieści o tym, że za rok, że za dwa, że za trzy, że za dziesięć, że za pięć przyjdzie AI i nas zje – nie chciałbym, żeby to był tytuł naszego odcinka, ale przyjdzie AI i nas zje – dopóty ta koniunktura wytwarza zachowania korzystne z punktu widzenia tych, którzy na niej zarabiają.

Karol
Podcast nie jest przedsięwzięciem komercyjnym, zatem zaproponujmy naszym słuchaczom darmowy kurs Iwo Zmyślonego o myśleniu krytycznym.

Iwo
Darmowy?

Karol
Darmowy, ale przyjmujemy datki. Numer konta podamy w dodatkach do odcinka.

Iwo
Wiesz, okej, myślenie krytyczne. Wiesz, znowu. A dopiero co z Kubą Rozkoszem wyprodukowaliśmy niedarmowy. On będzie od początku lutego dostępny, właśnie „Myślenie krytyczne z AI”. Możemy pogadać o tym, jak pracować z AI, żeby się nie odzwyczaić od myślenia. To jest ciekawe.

Karol
Cognitive offloading.

Iwo
Na przykład cognitive offloading. Po polsku nie ma jeszcze dobrej terminologii.

Karol
Ja się zastanawiałem: odciążenie poznawcze?

Iwo
Ja wcześniej wymyśliłem „odmóżdżanie”. No albo odmóżdżanie. Znaczy w sensie, nie ja wymyśliłem, bo to jest termin powiedzmy z naszej młodości, ale to pasuje trochę. Jeszcze jest deskilling. Odmóżdżanie bardziej do deskilling. Jeszcze jest nadpoleganie. Nadpoleganie to jest dobry termin, czyli overreliance.

Karol
Nadpoleganie tak. A w ogóle jaka jest polska nazwa na sztuczną inteligencję, na modele językowe?

Iwo
Znaczy ja mówię…

Karol
Skoro mówimy o skillach, o toolach, o innych rzeczach. Ale Ty mi zadajesz pytanie.

Iwo
Znam. Zobacz, ja kupuję tu metafory stochastycznych papug. To jest super metafora. W sensie maszyna, taki barwny ptak, fascynująca maszyna, która doskonale autouzupełnia. Też do mnie przemawia ta metafora, że autouzupełniasz na sterydach, bo tym są LLM-y, a jednocześnie nie rozumie. Tutaj mamy Searle’a, chiński pokój i tak dalej. Nie rozumie, ale polskie odmieniają. Mówię: duże modele albo LLM-y. A jak jeszcze można powiedzieć?

Karol
A czym się różni rozumienie od interpretacji?

Iwo
O Jezu, wiesz, znaczy to jest…

Karol
Bo teraz tak jak powiedziałeś, to się zastanawiam: a może wystarczy, że jeżeli potrafi zinterpretować?

Iwo
No nie, ale to możemy… Teraz wchodzimy, wiesz co, to jest tak: jeżeli… Bo posługujemy się słowami, a słowa są definiowane w ramach różnych praktyk językowych, czyli w ramach różnych społeczności. W społecznościach, które chcą ze sobą gadać. I znajdziesz taką społeczność, która powie, że rozumienie to nic innego jak autouzupełnianie i nazwiemy to sobie behawioryzmem albo turingowcami. Bo ostatecznie to jest dokładnie to, co Turing… Geniusz Turinga polegał na tym, żeby w ogóle obciąć i w ogóle pozbyć się tych wszystkich dywagacji, co to jest rozumienie, co to jest myślenie. On o inteligencji w ogóle nie gadał, ale o intuicji. U niego była intuicja i słowo angielskie – w każdym razie to, co poznaje podstawy matematyki, i potem było to, co sprawia, że możesz przetwarzać znaki. I na końcu wniosek był taki: żeby pozbyć się dywagowania, czy maszyna może myśleć, sprowadźmy to do tego kryterium, które możemy mierzyć. Kryterium jest gadanie. I teraz wracam do tego, co Ty powiedziałeś, że to jest rozumienie. Ja na przykład pracując naukowo zajmowałem się m.in. hermeneutyką: Gadamer, Merleau-Ponty, Husserl, Heidegger. To jest zbiór różnych praktyk, ale też koncepcji na temat tego, czym jest rozumienie. I ono było czym innym u Heideggera, czym innym u Gadamera, dla którego było wychowaniem. Więc bierze się w tej tradycji bardziej pewne procesy i to nie są procesy rozumiane psychologicznie, poznawczo, tylko procesy rozumiane introspekcyjnie. No bo to jest tradycja fenomenologii, czyli jak ja doświadczam introspekcyjnie procesu rozumienia. I w tej tradycji czymś oczywistym jest np., że rozumienie jest jednak procesem częściowo świadomym. I używamy sobie jakiegoś tam słowa, jest jakaś gra językowa pod tytułem hermeneutyka, używamy sobie słowa rozumienie. Ale ja totalnie… I wiesz, to jest właśnie to natręctwo powiedzmy postfilozoficzne czy takie właśnie metodologiczne, że ja rozumiem, że są ludzie, którzy Ci powiedzą, że nie, rozumienie to jest interpretacja, maszyny mogą rozumieć. Ja nie będę mówić: „nie używajcie tego słowa”, bo jest mnóstwo ludzi, którzy używają tego słowa w taki sposób. Ja mam problem inny. Uważam, że my mamy problem, że my używamy tych słów i nadajemy im znaczenie mocą zasięgów. I tak jak teraz ci, co nas nie słuchają, biorą sobie z internetu, z telewizora, z kultury popularnej hasło „sztuczna inteligencja” i podoklejane do tego słowa różne tam skojarzenia. I na tej podstawie wytwarzają sobie emocje i tam sobie gadają przy stolikach i sobie odpalają różne aplikacje. I na przykład mają już terapeutę, mają kochanka, kochankę, doradcę inwestycyjnego. To już dawno się rozlało. Ci różni dziennikarze, którzy nagle nawet nie słyszeli o halucynacjach, czy politycy, którzy próbują się powoływać na nieistniejące przepisy, czy właśnie przedsiębiorcy. Historia Deloitte’a – to naprawdę ma taką skalę. Więc my sobie tutaj możemy gadać o terminach, a mnie bardziej interesuje mój pogląd. Mój pogląd jest taki, że ktoś na tym korzysta i ktoś za to odpowiada, a ktoś nie wziął odpowiedzialności za swoje słowa, robiąc to na początku. Timnit Gebru wzięła odpowiedzialność za swoje słowa. Bo ona dokładnie to napisała z Emily Bender w 2020. Artykuł się ukazał rok później i zapłaciła cenę za mówienie prawdy, która dzisiaj wyłazi. Jesteśmy pięć lat później i wiemy dokładnie to samo. Tak, to jest technologia – jak to Paweł Szczęsny nazywa – psychotechnologia. Zaburza nas na poziomie interakcji społecznych, interakcji emocjonalnych, interakcji psychicznych. Im mniej świadomości mamy, im mniej krytycznie myślimy, im bardziej widzimy w tym istotę czy też nowy gatunek.

Karol
Mój siedmiolatek podchodzi do mamy w kuchni i mówi: „Mamo, a Chat podpowiedział?”.

Iwo
No wiesz, i do tego jest jeszcze, że mamy język. Nie wiem, czy widziałeś jeszcze…

Karol
Kilka dni temu widziałem na jednym z kont w social mediach reklamę, na której występuje trzy-, czterolatek z tabletem i ledwo co potrafi klikać, a on ma tablet na kolanach i już klika i rozmawia.

Iwo
Aha, no czy wiesz, za mną chodzi to, co na przykład… Dla mnie to był dramat. No oczywiście.

Karol
Z drugiej strony mam mojego serdecznego przyjaciela, który ma córkę w wieku 13 lat. I ona do tej pory nie ma swojego telefonu. Ona korzysta z komputera, kiedy musi, z tabletu, kiedy musi, ale na co dzień ma zegarek po to, żeby można było się do niej dodzwonić.

Iwo
Mój ośmiolatek ma telefon, żeby słuchać audiobooków i od samego początku wałkuję z nim, czym jest TikTok, czym jest pętla dopaminowa, jak zarządzać swoimi emocjami w interakcji z telefonem. I ośmiolatek ma już to wgrane. Odwraca wzrok, kiedy czasami atakuje go jakiś… To jest w ogóle niesamowite, że na telefon – to jest telefon chińskiego producenta, bez wymieniania nazw, stary telefon, nie? On nie ma karty SIM, ale samo to, że tam nie ma SIM i wszystko jest powyczyszczane, wrzucają reklamy wytargetowane. Naprawdę. TikTok mu na przykład wyskakuje. W sensie ładuje się telefon, podczas aktualizacji zasysa domyślnie pewne aplikacje, na przykład TikToka, nie? Ale do czego zmierzam? Że ja kupuję audiobooki. Rozmawiamy o tym, że to jest nasze wyzwanie – nasze wyzwanie jako rodziców: jak przygotować dzieci na świat technologii, który mamy, właśnie w taki mądry sposób. Okej? Nie będę tego rozpakowywać. Ale do czego zmierzam? Do tego, że na przykład wiesz, jak korzystamy z LLM-ów… Można dzieci w tym trybie głosowym zachęcać, żeby promptowały, jakie bajki LLM ma stworzyć, nie? Taką zrobiliśmy praktykę. Nie to, że jakoś bardzo wciąga, ale na przykład młodszy, który ma cztery latka, wymyślił sobie bajkę o panu Stukaju i LLM go tam dopytuje, co ma być w tej bajce. Drugi sobie tam miksuje Harry’ego Pottera, Muminki, no i promptuje, a ten mu produkuje. Jest okazja do tego, żeby pogadać w ogóle, jak to działa. Nie to, że jakoś to wciąga, tylko wiesz, do czego zmierzam. Druga historia, którą a propos nowych technologii – no bo gdzieś tam z tyłu głowy mamy tę historię, że twórcy tych technologii izolują swoje dzieci, tak? Szkoły Montessori i tak dalej. Tak się złożyło – to jest historia, którą opowiadam już od pięciu lat, od kiedy się wydarzyła w 2020 – moja siostrzenica, czyli córka mojej siostry, wymyśliła sobie w pandemii, że ona chce do szkoły Elona Muska. Jest taka szkoła, Ad Astra się nazywa. Ja tę historię używam…

Karol
Mówimy o Stanach?

Iwo
Tak, przy czym oni w pandemii odpalili program online. Program się nazywał Synthesis. W tej chwili to już nie jest program online, w tej chwili to już jest tylko platforma. Wtedy mieli po prostu spotkania raz w tygodniu i ona zaaplikowała. Tam była taka dosyć zawiła procedura aplikowania, ale dostała się do programu i była jedną z 80 dzieci z całego świata. Ja tę historię opowiadam od wielu lat, bo ona jest puentą a propos tego, o czym rozmawiamy. I wiesz, to jest szkoła, którą powołali współpracownicy Muska. Z samym Muskiem na zasadzie: jak przygotować nasze dzieci na rynek pracy za 10–15 lat. Bo to jest też temat, którym ja się zajmuję i właściwie to jest główny temat: tak zwane kompetencje przyszłości. Jak przygotować nasze organizacje na rynek pracownika, na gospodarkę, na rywalizację za 10–15 lat, kiedy zakładamy, że te technologie będą dużo bardziej wyskalowane i wszechobecne. No i sobie zadali to pytanie twórcy tej szkoły. Jak sobie poklikacie „szkoła Ad Astra”, no to znajdziecie na przykład lekcję z Muskiem, który tam prowadzi zajęcia. Stacjonarnie ta szkoła ruszyła chyba w 2015 czy 2016 roku. I tam dzieci Elona Muska też były. Ale sama idea była taka: ludzie, którzy powiedzmy rozumieją technologię (SpaceX, Tesla i tak dalej), zadają sobie pytanie, jak przygotować nasze dzieci na świat za 10–15 lat. Stwierdzili, że żadna szkoła tego nie uczy, więc stworzyli własną, własny program, no i potem ruszyli z tym online. I Tosia się dostała. Ja się pytałem od początku: „Tosiu, to Ty mi powiedz, czego wy się tam uczycie?”. Ona mówi: „A wiesz wujek, to właściwie niczego nas nie uczą, tylko każą nam grać w jakąś grę”. Co to za gra? Pokaż. Ona mi porobiła screeny z tej gry. I na screenach nie wiesz, o co chodzi, ale potem jest do tego story. Że właśnie okazuje się, że to jest taka gra, że nikt ci nie mówi, w co grasz, tylko porobili z nas drużyny, te 80 dzieci, drużyny po kilkanaście osób. I każą grać w tę grę, nikt nie wie, o co chodzi. I z czasem się okazuje, że gra polega na budowaniu zespołu, ale przede wszystkim na tym, co jest zasobem i co musisz robić, żeby kumulować te zasoby, żeby rywalizować z innymi. I co jest zasobem? No musisz odkrywać, co jest zasobem. Cokolwiek, co pozwala utrzymać się w grze. Czyli generalnie grasz w grę, której zasad ci nie tłumaczy nikt, ale w której nie możesz nie grać i musisz odkrywać zasady. Kapitalne. I jedyne, co im mówili – i to jest jedyne, co nam powtarzali: embrace ambiguity, embrace chaos, learn to cooperate. I to jest core w ogóle tego, co musimy dzisiaj umieć robić i nazywamy to kompetencjami przyszłości, growth mindset, różne rzeczy. Natomiast właśnie ta zdolność do radzenia sobie z poczuciem dezorientacji i budowania relacji – na tym ustawiony ten program jako taki oświecony w kontekście rozwoju technologii. Wystartował 10 lat temu. Ja mówię o rzeczach, które wiedzieliśmy 5 lat temu, powiedzmy, to się konkretnie miało miejsce. I wróćmy do punktu wyjścia. Zapytałeś, jaki ja mam pogląd. To ja mam taki pogląd, że pęka pewna bańka narracyjna. Ja nie mówię w ogóle o bańce finansowej, spekulatywnej – to jest bańka, która pęknie, jak pęknie, bo wszyscy wiedzą, że to są cebulki na cebulkach, ale dalej możesz na tym zarabiać. Natomiast bańka narracyjna…

Karol
Inaczej. To pęknie, ale nie przestanie istnieć.

Iwo
A to też na pewno, bo na tym się nie znam. Więc ja nie chcę gadać ani o rynkach finansowych, ani o tym, jak ta technologia będzie absorbowana przez gospodarkę. Bo tak jak zostały internety, tak jak zostały dotkomy, mimo że bańka pękła, tak na pewno też zostaną te technologie. Chociaż tam też jest kwestia taka, że te procesory, na których to wszystko śmiga – okazuje się, że nie są tak żywotne, jak pierwotnie zakładano.

Karol
Ile? Dwa, trzy lata?

Iwo
Podobno. Znaczy znowu, nie wchodziłem za głęboko, tylko parę dni temu czytałem, że Nvidia sprzedawała procesory, które miały podobno pięć lat działać. Sprawdźcie to sobie, bo ja nie chcę teraz tutaj wprowadzić w błąd, ale okazuje się, że przy tych obciążeniach, które mają w tej chwili dostawcy LLM-ów, to one dają radę tylko półtora roku, a potem zaczynają już popełniać błędy, zaczynają się po prostu psuć fizycznie.

Karol
Wracamy do wątku szkoły Twojej siostrzenicy. No. Czyli wniosek z tego jest taki, że skoro mówisz, że najważniejsze będzie wyjście z domu, zbudowanie relacji i ogarnięcie jakichś zasobów, które są Ci potrzebne do życia w sensie fizjologicznym, ale też do bytu w przestrzeni społecznej. A z drugiej strony, jak patrzę na to, co się dzieje – zgodzisz się z tym, że ludzie się izolują sami na własne życzenie? Rozmawialiśmy o tym i śmialiśmy się z tego, że z chatbotami rozmawiają osoby młode. Z drugiej strony widzimy osoby, które potrafią rozmawiać z chatbotem zamiast z psychologiem. To ja sobie łączę fakty. To jest moja obserwacja. Ciekaw jestem Twojego zdania. Jeżeli będziemy coraz częściej słyszeli odpowiedź, z której jesteśmy zadowoleni, od chatbota, to nam będzie dużo ciężej wyjść na ulicę i zagadać do drugiego człowieka.

Iwo
Znaczy ja się zgadzam z Tobą z tym tokiem rozumowania. Tylko wiesz, dobrze… Powiedzmy, jak rozmawiamy publicznie, czyli ktoś tam nas słucha, to trzeba zaznaczyć, że ja badań też nie prowadzę, nie?

Karol
Słuchaj, ja traktuję ten podcast jako…

Iwo
Rozumiem, tylko że wiesz, ja mam właśnie tak, że jak ja coś mówię, to staram się, żeby to miało jakieś źródła i za tym stała jakaś metoda, nie? Więc odwołuję się do różnych badaczy, którzy po prostu siedzą i metodami naukowymi coś tam rozkminiają. Ja się zgadzam z Tobą, jeśli chodzi o wrażenie. Tak, oczywiście. Natomiast wiesz, co z tego? Co możemy z tym zrobić?

Karol
No i teraz właśnie moje było pytanie następne.

Iwo
W takim razie co zrobić, czego się nauczyć? I tutaj wracamy. Poniekąd ta szkoła to jest taka anegdota o tym, że rzeczywiście my to wiemy i naprawdę od dawna, wiesz, temat kompetencji przyszłości. Tutaj Edyta Sadowska postuluje, żeby nie używać tego słowa. Wiem, że też z nią rozmawiałeś. Jak zwał, tak zwał. Kompetencje miękkie też są. Firmy – nie wiem, z PwC rozmawiałem parę lat temu – przekonywały, że mówimy „emocjonalne”, „poznawcze”, „społeczne”, a nie „miękkie”. To są tylko słowa. Ja mam świadomość, że ludzie w różnych grach używają tych samych słów na różne sposoby.

Karol
No tak, umiejętności.

Iwo
Tak. Ale teraz to, co my wiemy o tych umiejętnościach – i tutaj już zreferuję coś, czym się zajmuję, za co biorę odpowiedzialność – to jest to, o czym mało się gada: to nie są kompetencje jednostek. Znaczy jak mówimy o kompetencjach przyszłości typu na przykład myślenie krytyczne, aktywne słuchanie, radzenie sobie ze stresem, radzenie sobie z presją społeczną, radzenie sobie z samotnością, budowanie relacji, empatia – i w ogóle przywództwo jest taką kompetencją, wywieranie wpływu.

Karol
No to chcesz powiedzieć, że to jest umiejętność zbiorowa?

Iwo
To chcę powiedzieć, że nie tyle jest to umiejętność zbiorowa, co gra zespołowa, tak? To jest bardzo ważne. To znaczy, mamy katalogi kompetencji przyszłości – wpisujesz sobie „Światowe Forum Ekonomiczne” i wyskakuje nam myślenie systemowe i jeszcze 10 innych jako najbardziej pożądane kompetencje, na które w najbliższych latach na rynku pracy będzie popyt rósł. Tam na górze mamy znajomość AI, znajomość technologii, cyberbezpieczeństwo, i potem cała litania takich 10 kompetencji miękkich. Tylko że nikt nie mówi… A ja też śledzę tę debatę i słyszę na konferencjach, czytam internet: co z tego, że ja zrobię szkolenie czy w szkole będziemy mieli myślenie krytyczne? Nauczysz się zadawać pytania. Myślenie krytyczne zaczyna się od zadawania pytań. Zostawmy w ogóle debaty oksfordzkie i tak dalej. Zaczynasz od tego, że zaczynasz zadawać pytania, czyli dziwić się, czyli kwestionować, czyli być ciekawym, praktykować ciekawość, zauważać coś nieoczywistego albo coś, czego nie wiesz. Za tym idzie od razu kształtowanie postawy. To jest pierwszy level hard w kompetencjach tak zwanych przyszłości: to wymaga postawy. Ty nie możesz nie chcieć. To jest tak: ja mogę się nauczyć robić tabele przestawne w Excelu.

Karol
I…

Iwo
Zrobię sobie trening, zapłacę, przećwiczę, umiem. I nawet jak nie chcę, nawet jak nie lubię swojej pracy, jak muszę to robić, to zrobię. Dlaczego? Bo każda sytuacja jest podobna, metoda jest powtarzalna. A teraz zrobimy szkolenie z myślenia krytycznego. Okej, nauczymy się stawiać pytania. Jest taka metoda question storming: postawmy sobie 10 pytań o to samo, a teraz postawmy sobie 20 pytań o to samo.

Karol
Możemy dać przykład? Jakie pytania można postawić? Jakie pytania są dobre w danej sytuacji?

Iwo
Ale ja już Ci podaję właśnie pytania o pytanie. No: czy można pytać o pytania? A jakie pytania są dobre? A jakie pytania są głupie? A o co można zapytać, a kogo można zapytać, a jakie odpowiedzi nas interesują? Wiesz, robię question storming. I teraz – to jest prosta metoda. Chcesz zacząć spotkanie i chcesz pomyśleć krytycznie, no to okej, przez 5 minut tylko stawiamy pytania. Żadnych odpowiedzi. Tylko zadajemy pytania. Do czego zmierzam? Ty musisz chcieć in the first place. Jak nie chcesz zadawać pytań, Twój mózg się buntuje, bo to nie ma sensu. Znamy System 1 Kahnemana – mówisz sobie, że to nie ma sensu, bo szkoda energii na zadawanie pytań, nas interesuje odpowiedź. To nie zrobisz tego. Bez chcenia nie będziesz zadawał pytań, nie będziesz myślał krytycznie. Więc już samo to, że to nie jest tak, że my przećwiczymy sobie metody i od razu będziesz myślał krytycznie. My musimy pracować też na motywacjach, na chceniu. Ale teraz wracamy do tego: gra zespołowa. Ja robię warsztaty z myślenia krytycznego dla różnych organizacji i to są super organizacje. Ta metoda każdemu wchodzi w pięć minut, wszyscy wiedzą, o co chodzi. Chociaż zdarzało mi się tak mieć, że na przykład robimy dla większej grupy i jest tam takie Menti – ludzie zadają pytania i nagle pojawia się takie zdanie: „Nie wiem o co zapytać”. I kurde, pamiętacie, że to jest aż takie smutne, że są ludzie, którzy naprawdę nie wiedzą, o co zapytać. Albo boją się zapytać. Tak, ale czasami się zdarza, że ktoś tak do tego stopnia odwykł od myślenia krytycznego – i tutaj za chwilę możemy link do LLM-ów zrobić. Na tyle się odzwyczaiłem od zadawania pytań, że jak ktoś mi każe postawić pytanie, to ja się wycofuję. Nie wiem, o co zapytać. Dobra, ale to można wszystko wyćwiczyć. Teraz pytanie: czy Ty masz do tego enablement, empowerment i tak dalej. Czyli czy Ty masz takich przełożonych, takich współpracowników, taką kulturę organizacji, że ona w ogóle pozwala Ci, umożliwia… Bo czasami pytanie jest traktowane jako kwestionowanie.

Karol
I…

Iwo
Tutaj wracamy do tego, dlaczego to jest gra zespołowa, widzisz? I to wszystkie kompetencje przyszłości… To jest mocny claim, że ja chcę to mocno podkreślić: jak mówimy o kompetencjach przyszłości, to pamiętajcie, że to nie są kompetencje indywidualne. Ty możesz indywidualnie pewne rzeczy zrobić, żeby się przygotować na ten świat, tak jak Tosia tam w tej szkole. I tutaj generalnie hasło wrzucę: growth mindset i praktykowanie rzeczy, gdzie na końcu chodzi o to, żeby przyzwyczaić swoją głowę do myślenia wolnego w sensie Kahnemana. Czyli wytwarzania nowych połączeń neuronalnych, czyli robienia rzeczy trudnych. Jak uczysz się języka, uczysz się żonglować, robisz patent żeglarski – mówię o tym, bo chciałbym zrobić patent żeglarski w tym roku – uczysz się nowych rzeczy, grać na fortepianie.

Karol
No to czekaj, umówmy się tak. Iwo, kiedy świętujemy Twój patent żeglarski, żeby to padło na antenie?

Iwo
O Jezu, dobra, to będzie zobowiązanie. Słuchaj, to na wakacje.

Karol
Na wakacje, czyli co, możemy to świętować jakąś taką wczesną jesienią, jak będziemy na łódce. Ale czekaj: łódka, Zalew Zegrzyński, piękne drzewa, jesień. Chcę z dzieckiem zrobić. Co jemy, to ustalimy, ale czegoś napijemy wtedy?

Iwo
Wiesz co, też ustalimy. Coś tam, ale spokojnie. Nawet będzie wrzątek z cytryną na łódce.

Karol
Zapamiętajcie to, drodzy słuchacze. Obiecujemy w takim razie, że w okolicach września będziemy publikować zdjęcia i to będzie post Iwo Zmyślonego na LinkedInie, który przypomni o tej właśnie rozmowie. I wtedy opublikujesz nasz podcast.

Iwo
Nie, opublikujemy wcześniej, żebyśmy mieli motywację w tym momencie. Dobra, okej. Posłuchajcie, podaliśmy sobie ręce w tym momencie, czyli już nie mogę nie zrobić. Ale do czego… Uczenie się nowych rzeczy. Popatrz, na końcu chodzi o to…

Karol
Ale wiesz co, wiem, o czym mówisz. Ja tak samo wywieram na sobie pewną presję po to, żeby wracać do rzeczy, które kiedyś robiłem, których zaprzestałem. Idiotyczne sudoku japońskie. Biorę i masz sześć pól z dziewiątkami, układasz sobie tak, żeby w każdym rzędzie i w każdej kolumnie były cyfry od jednej do dziewięciu.

Iwo
Gimnastykowanie głowy. Ja uwielbiam swoją pracę i to jest naprawdę… Mimo że pracuję po 20 godzin na dobę, ja cały czas muszę myśleć. Nie mam nic powtarzalnego w tym, co robię. Nawet jak robię to samo szkolenie, to zawsze prezentację zrobię na nowo. Ale zaraz wrócimy do LLM-ów. Chodzi mi o to, że generalnie zasada jest taka: jeśli dzisiaj rozumiemy, co technologie automatyzują, jakie zadania i procesy w gospodarce i społeczeństwie… Jest bardzo dużo zadań i procesów, które opłaca się automatyzować przy pomocy technologii, które już dzisiaj mamy. I te, które się gdzieś tam pojawiają, powiedzmy fizyczne AI, robotyzacje – to jest wszystko jeszcze pisane palcem po wodzie, bo nie ma metali ziem rzadkich, nie ma baterii do tego, więc zobaczymy. Ale generalnie wiemy mniej więcej, jaka klasa zadań – i to wiemy naprawdę od 100 lat, już od Moraveca to wiemy. Steve’a Pinkera specjalnie wrzuciłem wczoraj, bo on to mówi w 1994 roku. My wiemy, jakie zadania i procesy maszyny będą od nas robić coraz lepiej. To są te zadania, gdzie można przetrenować i gdzie przyszłość jest podobna do przeszłości.

Karol
Śmieję się, znowu mała dygresja, ale miałem taką rozmowę, ona jest już nagrana, z jednym z gości z Google DeepMind, który stwierdził, że być może za chwilę będzie taka sytuacja, że to roboty będą wymyślały nowe roboty.

Iwo
Wiesz, kto korzysta na takim mówieniu? Powiem tak: okej, kto korzysta na takim mówieniu? Bo Ty mnie podpuszczasz tutaj, ale tak się składa, że Eric Schmidt też opowiada różne rzeczy, na przykład że AI jest underhyped. Geoffrey Hinton też opowiadał w 2016, że radiologów trzeba już tylko przekwalifikowywać.

Karol
Przepraszam, moja wina. Wracamy do głównego wątku. Rozmawialiśmy o powtarzalnych czynnościach.

Iwo
Tak, ale wspomniałem tutaj, że my to wiemy. W 2016 roku w Toronto Geoffrey Hinton mówił o tym, że radiologów trzeba już tylko przekwalifikowywać, bo oczywiście maszyny będą robić to lepiej. Od tamtej pory popyt na radiologów tylko rośnie. Dlaczego? Dlatego, że maszyny robią lepiej powtarzalne sytuacje, typowe. Ten machine learning, który wtedy był – ten już głęboki, super – działa w klasie zadań, do których Ty możesz przetrenować maszynę, bo ona przetworzy więcej zadań, więcej obrazków zobaczy niż Ty w ciągu całego życia. Tak, oczywiście. Ale na tej podstawie nie nauczy się dostrzegać tych, które są nietypowe. Ona najwyżej zauważy anomalie, czyli że coś odbiega od pewnego wzorca. Ty musisz mieć jako radiolog kompetencje, żeby zauważyć kontekst i zauważyć to, co różni nietypowy objaw typowej choroby od typowego objawu innej choroby na przykład. Albo właśnie, że się zmienia. Jakiś obraz patologiczny – przecież choroby ewoluują, więc ktoś będzie musiał dotrenować te maszyny. I teraz powiedziałeś o tych robotach. My wiemy, jakie zadania na dzisiejszy dzień są nie do ogarnięcia przez maszyny i to jest to, do czego przygotowują Tosię w tej szkole. To jest to, co nazywamy dzisiaj inteligencją ogólną.

Karol
Wytłumaczysz, proszę.

Iwo
Zaraz wytłumaczymy, bo ja na razie tylko zrównam. Inteligencja ogólna, growth mindset, myślenie wolne, miękkie kompetencje – w uproszczeniu to jest jedna paczka. Zdolność do adaptacji, zdolność do uczenia się na pojedynczych nowych przypadkach, takich, z którymi wcześniej nie mieliśmy do czynienia. I to jest kwintesencja inteligencji. Kwintesencja, czyli powiedzmy istota, esencja. Inteligencja była definiowana przez badaczy takich jak Jean Piaget. Jean Piaget napisał swoją książkę po francusku w 67. roku, po angielsku ukazała się w 71. roku, i tam inteligencja jest zdefiniowana jako zdolność do utrzymywania równowagi systemu organicznego w środowisku. Im bardziej efektywnie, im szybciej się adaptujesz, czyli nie giniesz, tym bardziej inteligentny jesteś. Mi chodzi o to, że to pojęcie inteligencji funkcjonuje po dziś dzień. Czyli chodzi o przeżycie. Chodzi o adaptację, uczenie się na nowych przypadkach. Kogo nazwiesz inteligentnym? Tego, kto jest super szachistą, ale nie potrafi się odnaleźć w życiu? Nie, kogoś zaradnego.

Karol
Dla mnie inteligencja… Zobacz, że czasami pojawiają się osoby super inteligentne o super wysokim IQ, ale bez zdolności… I mamy to narrow intelligence.

Iwo
I teraz tak, cały czas te gry językowe. Ja mówię o pewnej grze językowej, z której wyrastam, ale dlaczego to jest ciekawe? Dlatego, że do tej gry językowej odwołuje się François Chollet, autor benchmarku ARC-AGI. Zacząłem czytać i spędziłem miesiąc, czytając wszystkie jego teksty. Ja byłem zachwycony, bo on właśnie idzie do tego rozumienia inteligencji, wprost się odwołuje do Piageta. I po drodze do Goertzela, bo Ben Goertzel to jest gość, który opracował termin AGI, czyli Artificial General Intelligence. Koncept inteligencji ogólnej dokładnie w tym znaczeniu piagetowskim masz u Marvina Minsky’ego w 1970 roku. On opowiada, że za chwilę będziemy mieli maszynę o inteligencji ogólnej przeciętnego człowieka, która sama będzie w stanie siebie uczyć. On to mówi 55 lat temu. To nie jest podcast z wczoraj, to jest opowieść sprzed pół wieku.

Karol
Ale on to mówił w oparciu o swoje przeczucie, a nie badania. Dlatego chcę mieć coraz więcej Iwo Zmyślonego tutaj.

Iwo
Okej, ja powtarzam za innymi. Mówię, na czym się znam i kto się zna lepiej ode mnie. To, co mnie cieszy i co uważam, że powinniśmy wszyscy nagłaśniać – bo to nie jest tak, że ja to wymyśliłem – to od wielu lat leży na stole. Ja uwielbiam Cholleta właśnie dlatego, że on wierzy, że możliwe jest stworzenie sztucznej inteligencji ogólnej, ale stawia tę poprzeczkę ogólności bardzo wysoko: stwórzmy maszyny, które będą w stanie uczyć się same. I to są te roboty, o których mówi ten ktoś z Google DeepMind. To jest opowieść Big Techów: „Dawajcie nam swoje pieniądze, swoje dane, swoją prywatność, nie opodatkowujcie nas i nie reglamentujcie, bo my stworzymy syntetyczną inteligencję ogólną”. Ale po co ona komu? Ty jej potrzebujesz? Do czego? Do tego, żeby Ci zrobiła pranie? Do tego, żeby prowadziła podcast za Ciebie?

Karol
Dlaczego?

Iwo
Dlaczego ja mam dawać swoje dane i dlaczego ja mam dawać dane mojego kraju korporacjom za to, żeby oni zrobili tę inteligencję ogólną – przy założeniu, że to w ogóle jest możliwe? Chollet uważa, że to jest możliwe. Jeśli Chollet uważa, to ja też tak uważam, ale ja nad tym nie pracuję. On szuka takiego pomysłu. Teraz na głos to, co Chollet mówił przez całe lata, mówi Yann LeCun, Richard Sutton, teraz nawet Ilya Sutskever parę dni temu się wypowiedział. Tak, już teraz wiemy, że okej, nie ma inteligencji ogólnej. Nie ma technologii, nie ma pomysłu na to, jak robić maszyny, które same się uczą, adaptują. Trzeba ich poszukać, trzeba je wymyśleć. I będziemy sobie myśleć może rok, może pięć, może pięćdziesiąt lat, bo to trzeba odkryć. Więc jesteśmy w tym samym punkcie, w którym byliśmy pięćdziesiąt lat temu, tylko że po drodze wymyśliliśmy jakieś turbokalkulatory. Nazywamy to LLM-ami.

Karol
Ale ręce do pracy będą zastąpione.

Iwo
Ale wracamy do tych zadań powtarzalnych, więc to jest ta oś.

Karol
Ciekaw jestem, Iwo. A słyszałeś na przykład o takich zadaniach, gdyby popatrzeć sobie na cały rynek pracy, ile rynku pracy wykorzystuje mózg, a ile to są ręce pracy? Ja nie mówię tylko o takich… Ale ręce, czyli dexterity, czyli zręczność? Nie, wiesz co, to jest taka moja pewna metafora. Ręce pracy, czyli… Zobacz, ja sobie mówię tylko o pracy fizycznej, czyli biorę, przenoszę: magazyn, linia logistyczna i tak dalej. Nie mówię o rzeczach, które można uszyć, wyprodukować. Nie mówię o budowie, o układaniu kostki brukowej, o kafelkach. Mówię o rękach do pracy, którą wykonujemy tutaj na komputerach, która wcale nie wymaga myślenia – przepraszam – głębokiego myślenia, tylko polega na zasadzie: warunek – akcja.

Iwo
Powtarzalne czynności, czyli narrow intelligence. I Chollet też przyznaje, że mamy już na przykład systemy, które się uczą w modelu reinforcement learning, jak AlphaGo uczyło się grać w Go. A potem próbowali to przenosić do innych gier – one uczyły się w interakcji ze środowiskiem, tylko że syntetycznym. Więc są jakieś takie pomysły. Teraz stawka idzie o to, żeby złożyć tak zwany physical AI, czyli fizyczne modele czasoprzestrzenne. Czyli już nie tylko, że LLM siedzi w tekstach i przewiduje kolejne kawałki tekstu, tylko siedzi w rzeczywistości fizycznej i poprzez interakcję wytwarza sobie model tej rzeczywistości.

Karol
Okulary nas czekają.

Iwo
Ale w tym podcaście?

Karol
Okulary już miałem na nosie i noszę je. Teraz nie mam, ale noszę te okulary, póki co bez ekranu, które nagrywają wideo i robią zdjęcia.

Iwo
Wysyłasz i pracujesz dla Mety.

Karol
Tak, po godzinach tak. I masz rację, że to się przenosi teraz do świata rzeczywistego. No dobra, ale…

Iwo
Wiesz, żeby nie pogubić wątku. Chodzi o to, że to ważne pytanie zadałeś. Bo jak sobie popatrzysz, jak definiuje się AGI, to ja tutaj opowiedziałem tę grę językową w adaptację. Chollet ustawia taki benchmark: ludzkość potrzebuje maszyn, które polecą w kosmos i będą dla nas odkrywać kosmos. Musimy zaprojektować maszyny, które będą umiały się uczyć w środowiskach, których nie jesteśmy w stanie przewidzieć. To jest inteligencja ogólna: my nie wiemy, co tam będzie, więc nie możemy ich przygotować. Natomiast jak popatrzysz sobie, jak na przykład OpenAI definiuje AGI, to tam w 2018 oni już ukuli definicję: to są względnie autonomiczne systemy, które potrafią nas zastąpić w ekonomicznie wartościowej pracy. I to jest to, od czego zacząłeś. Ale ja się pytam: po co Ci jest AGI? AGI jest potrzebne ludziom, którzy zarabiają na gospodarce, po to, żeby nie musieć płacić innym ludziom. Po to jest AGI. Ja się nie boję tego scenariusza, dlatego że…

Karol
Ale roboty też są po to.

Iwo
No tak, tylko że na końcu są scenariusze, które są opowiadane jako doomsday scenario: ludzie są niepotrzebni gospodarce, bo gospodarka nie potrzebuje pracy człowieka. To się potem na dwoje babka wróżyła, bo oczywiście mówi się: „No to wszyscy będziemy mieli wakacje, będziemy mogli czytać książki, rozmawiać o filozofii”.

Karol
A wiesz, co ja wtedy mówię? Wtedy kontakt z człowiekiem staje się dobrem rzadkim i usługi będą wyjątkowo drogie. Tylko że Ty musisz potem…

Iwo
Masaż będzie luksusem. No, ale pytanie, co Ty będziesz miał w zamian w gospodarce? Będziesz musiał mieć barter: żeby dostać masaż, musisz zrobić coś dla kogoś. Bo nie będziesz miał pieniędzy płaconych przez tych, którzy zarabiają na gospodarce. Chyba że pojawi się dochód podstawowy. Bo to zaraz tam się pojawia taki diabeł z pudełka – komunizm de facto. Że te dobre Big Techy nagle, jak już stworzą sobie maszynę, która nie potrzebuje człowieka, to zaczną się dzielić z tymi miliardami gąb do wyżywienia. No nie. Przepraszam, ale wykaż mi błąd w moim rozumowaniu. Bo to jest pewien scenariusz: zostanie parę miliardów homo useless.

Karol
Homo useless.

Iwo
Harari – to są nawiasem mówiąc tematy, które mnie bardzo zapłodniły. Pochłonąłem „Homo Deus” w 3 dni w 2016 roku. W tym scenariuszu, o którym opowiada się, że powstanie sztuczna inteligencja ogólna, no to powstanie maszyna, którą można kopiować i skalować dowolnie, która wykonuje wszystkie zadania potrzebne gospodarce: i intelektualne, i fizyczne. Po stronie podażowej tak. A po stronie popytu? Kto to kupi? Zobaczcie sobie artykuł opracowany przez ekonomistów z uniwersytetów w Pradze i w Montrealu: Existential Risks from Incremental AI. Chodzi o to, że ekonomiści potrafią wymodelować taki scenariusz rozwoju gospodarki, gdzie nie potrzebujesz masowego popytu, czyli nie potrzebujesz masowego klienta, żeby gospodarka działała. Klientem mogą być ci, którzy są właścicielami środków produkcji, oraz ci, którzy ich obsługują. Big Techy stają się jedynymi właścicielami gospodarki.

Karol
To jestem w stanie sobie wyobrazić, bo nawet kiedyś zrobiłem sobie taką rozkminę dotyczącą tego, czy państwo nie zostanie zastąpione przez korporacje.

Iwo
No, ale tutaj jest tak, że państwo staje się dostawcą technologii. Na przykład, żeby zapanować nad niezadowolonymi gąbami do wyżywienia, Big Techy będą potrzebowały usługodawców w postaci operatorów technologii pacyfikujących te gęby. No wiesz, infrastruktura. To jest science fiction, tak, ale… Napijmy się. Powiem Ci, że mnie bardziej obchodzi inny scenariusz. Problem jest taki, że nie sposób tego scenariusza zakwestionować jako niedorzecznego – on nie jest oczywiście prawdopodobny, jest tylko możliwy. I on nie zakłada rewolucji w postaci powstania AGI. W tym scenariuszu przyrost jest inkrementalny, a i tak gospodarka przestaje potrzebować człowieka. Natomiast AGI to jest obietnica: „Ja Ci zrobię AGI, to Ty mi dawaj dużo pieniędzy”. I dzisiaj widzę, że to już przestało działać. To była obietnica, że skalowanie da nam w końcu stany wyższej inteligencji. Z maszyny statystycznej, która jest autouzupełniaczem, nie wyłoni się nic poza mniej lub bardziej skutecznym autouzupełnianiem.

Karol
Ale bardzo ciekawą ostatnią perspektywę słyszałem a propos tych nowych przełomowych odkryć. I o ile te maszyny odtwarzają i są tymi papugami, to pełnią bardzo ważną rolę, ponieważ pozwalają naukowcom czerpać ze zbiorów wiedzy, które były dla nich albo niedostępne, albo niezrozumiałe.

Iwo
Tak, przy czym powiedzmy od razu dobitnie – i zaraz możemy o tym pogadać, bo to jest realny doomsday scenario: one halucynują, sykofantują i hedgingują. Czyli wiesz, okej, ja korzystam heavy. I wszyscy, którzy pracujemy z LLM-ami, widzimy, jak to turbo przyspiesza. Cieszę się, że robię dużo szybciej, dużo więcej. Ale żelazna zasada jest taka: tylko tam, gdzie jestem ekspertem. Tylko tam, gdzie ja jestem w stanie wyłapać, że to mi zniekształca, czyli halucynuje. I teraz to, co Ty powiedziałeś – ja rozumiem korzyści. Perplexity Pro fantastycznie streszcza rzetelnie, sprawdzasz potem te źródła. NotebookLM bardzo doceniam. Ponieważ dużo jeżdżę albo pracuję na działce, zacząłem sobie ładować w PDF-ach rozdziały książki do NotebookLM. W wakacje tak pracowałem: kosiłem trawę, malowałem, i miałem książkę „The Myth of Artificial Intelligence”. Najpierw czytałem pół książki na piechotę, robiłem notatki, a potem zacząłem sobie odsłuchiwać rozdział po rozdziale. I faktycznie, dobrze spromptowany NotebookLM nie pominął żadnej ważnej treści i nie zniekształcił. I to jest naprawdę bardzo dużo. Widzę, jak Perplexity Pro fantastycznie szybko wynajduje rzeczy w internecie i z grubsza nie zniekształca. On może zniekształcać, bo może pomijać. I tutaj wchodzimy na poziom krytycznej świadomości LLM-ów. Bo ja rozumiem, że mogę szybko się dostać do tekstów, do których bym się nie dokopał, siedząc w BUW-ie. Tylko że ponieważ wiemy, jak działa ta maszyna statystyczna – ona interpoluje. Trening polega na tym, że tam się pakuje w tych wagach i embeddingach poszatkowane kawałki tekstów. On z tego wyciąga pewne wzorce i na tej podstawie generuje pewien rozkład prawdopodobieństwa. Temperaturą ustawiasz, czy będzie tak, czy mniej prawdopodobnie. To nie jest jakaś wielka tajemnica czarnej skrzynki. Dlaczego ludzie, którzy mówili o tym dwa, trzy lata temu w zasięgowych podcastach, nie powiedzieli tego? Masz super maszynę, która autouzupełnia najbardziej prawdopodobny rozkład. Do czego zmierzam? Wiemy, że one nie mogą nie halucynować. Przy wszystkich zaletach będą pomijać, będą zniekształcać i nie możemy tego wyeliminować. Ja się podpieram badaniami profesora Michała Karpowicza.

Karol
Który opublikował pracę dokładnie w tym temacie.

Iwo
Zaprosiłem go do mojego podcastu. Rozmawialiśmy pięć godzin o tym. To jest przepiękny umysł, profesor matematyki, szef zespołów badawczych Samsunga w Warszawie. Ma on pewną interpretację, z którą się nie zgadzam – utożsamia tę generatywność z kreatywnością. Chodzi o to, że wykazał: jeżeli chcesz mieć korzyści z tej technologii, to ta technologia z poziomu zasad działania jest taka, że nie możesz wyeliminować halucynacji i mieć generatywności. Generatywność równa się konieczności halucynacji. U Ciebie bardzo ładnie powiedział to Max Salamonowicz. Zapraszałeś ludzi, którzy potrafili powiedzieć, jak to działa. I uważam, że to jest obowiązek naukowca: odpowiedzialność za słowa i wyjaśnianie ludziom. Niemówienie tego wytwarza skutki społeczne. To, że ludzie nasłuchali się o nowym gatunku, o świadomości i wolnej woli, to nie jest tylko entertainment. Na końcu ci ludzie swoje życiorysy obstawiają w oparciu o fałszywe założenia.

Karol
To bardzo ciekawe, co mówisz. Szczególnie w połączeniu z tendencją do szukania winy na zewnątrz.

Iwo
Że potem będą szukać w innych, tak? Na razie nie jesteśmy na tym etapie.

Karol
Na przykład coś mi nie wyszło, bo sztuczna inteligencja.

Iwo
Miałem w marcu taką osobę, która trafiła na mój kurs „AI dla sceptyków”. Tytuł się nam udał. Mówimy tam o ograniczeniach. Mamy taką kapitalną zagadkę, która jest niemożliwa do rozwiązania matematycznie, ale LLM się nie łapie, że to jest niemożliwe. Wrzucasz to do kilku modeli i za każdym razem podaje inny wynik i za każdym razem jest pewny. Fantastycznie pokazuje, jak działa losowanie w LLM.

Karol
To jest też model językowy, a nie matematyczny.

Iwo
Tak, ale chodzi o zasadę działania. Widzisz, że masz pytania, na które możesz powiedzieć „nie wiem”, a model jest tak wytrenowany, że musi odpowiedzieć.

Karol
Nie, teraz moi drodzy, nastąpił taki moment, że jak w każdym niekomercyjnym programie musimy się utrzymywać z reklam. Jest przerwa na reklamę w postaci hymnu podcastu „99 twarzy AI”.

Iwo
Już wiem, co chciałem powiedzieć. Dokończę ten wątek. Na tym kursie w marcu były osoby, jedna się zbuntowała, bo wierzyła, że istnieją jakieś magiczne sposoby, żeby wyciągać ukryte prawdy z internetu przez LLM-a. Że to jest inteligencja, tylko trzeba umieć się do niej dostać. Ostatnio rozmawiałem z Filipem Dębowskim, z którym uczestnik szkolenia się pokłócił, kiedy ten użył sformułowania, że to jest maszyna statystyczna. To są tylko sensory skali. Możemy się domyślać, jakie skutki wywołują te opowieści u osób, które nie są świadome tego, o czym my tu gadamy. Usłyszały dwa, trzy lata temu, że to ma już świadomość, że za chwilę praca nie będzie potrzebna. Zmierzałem do tego, co Ty powiedziałeś: praca z LLM przyspiesza, ale żelazna zasada to jest man-in-the-loop. Musisz być ekspertem, żeby ocenić, na ile to jest kompletne, czy nie ma ważnych źródeł, które pominął, czy to, co wygenerował, nie jest zniekształcone. Halucynacja może być prawdziwa, ale w innym kontekście, albo nieaktualna.

Karol
Albo prawdziwa, ale nie w 100%. Dam przykład: kiedyś pracuję nad jednym wątkiem i zadałem pytanie: „Czy jesteś pewien tej odpowiedzi?”. „Tak, jestem pewien”. Ja mówię: „Dobrze, to w takim razie powiedz mi, na ile jesteś pewien poszczególnych odpowiedzi?”. No i okazało się, że „jestem pewien, ale tej odpowiedzi jestem pewien w 100%, drugiej w 80%, a trzeciej w 30%, ale jestem pewien”.

Iwo
No i tu sykofancja jeszcze w to wchodzi. Halucynacja to jedna broszka, a druga to sykofancja. Halucynacje mogą być stopniowalne: pomijanie źródeł, miksowanie ich, tworzenie nieistniejących linków. Pytasz, kto jest prezydentem, to tam ciągle może być Biden, bo modele mają dane sprzed roku. Znowu, zalinkujemy tekst profesora Karpowicza. My wiemy, że to jest nie bug, tylko feature. Dlatego musisz mieć człowieka w pętli – eksperta, który uwzględnia kontekst spoza tekstu: specyfikę klienta, sytuacji, regulacji rynku. Maszyna losuje treści w kontekście prompta oraz historii.

Karol
Mówisz jedno, ale Twoje oczy mówią drugie.

Iwo
Tak, bo to są sensory. Poprzez oczy zaglądasz do wnętrza mózgu. Kahneman mierzył, że jak myślisz wolno, to się rozszerza źrenica. W reakcjach oka widać działanie systemu nerwowego. Ale żeby tutaj wylądować: halucynacje są cechą. Używam takiej metafory, że LLM to taki doktorant, który całe życie spędził w ciemnej piwnicy, czytał wszystkie teksty świata i na tej podstawie ma nam udzielać odpowiedzi o tym, co jest poza piwnicą. On ma zero danych na temat pozajęzykowych aspektów rzeczywistości.

Karol
Dlatego miałem taki pomysł – jak były początki Bielika, pytałem Sebastiana o źródła danych. Ciekaw byłem, czy można byłoby też uwzględnić w modelu nie tylko treści pisane, ale treści mówione, na przykład zawarte w podcastach.

Iwo
Znaczy po transkrypcji, nie? Oczywiście. Wiesz, tylko że znowu – to przetwarza znaki. Tokeny.

Karol
Ale wiesz, jest różnica między słowem pisanym a słowem mówionym.

Iwo
Język jest systemem znaków, a znaczenie jest pozycją w języku. Ta koncepcja, że sensowność zdania można policzyć – kto to mógł wymyślić? Co Ci podpowiada intuicja?

Karol
Jezus Chrystus.

Iwo
No, to mnie przebiłeś. Był Leibniz, koncepcja calculus ratiocinator. Ja to po raz pierwszy zrozumiałem, jak pisałem artykuł o Ajdukiewicza koncepcji aparatury pojęciowej. On to opracował w latach 30. jako jeden z logików języka: teza jest taka, że język naturalny to system znaków, gdzie każdy znak ma miejsce w matrycy, które można policzyć. Ajdukiewicz nie był jedyny – z tego wziął się strukturalizm: Noam Chomsky, Ania Wierzbicka.

Karol
Czytam właśnie ten podręcznik Wierzbickiej.

Iwo
Znajdziesz tam myślenie o tym, że język jest w gruncie rzeczy systemem znaków, które można policzyć.

Karol
Anna Wierzbicka, Piotr Wierzbicki, „Praktyczna stylistyka” – polecamy serdecznie. Niezwykle ciekawe o naturze języka, o tym, w jaki sposób komunikować od ogółu do szczegółu. Kotarbiński też.

Iwo
Mamy fantastycznych uczniów Szkoły Lwowsko-Warszawskiej. Rozumienie LLM-ów to nie jest żadna czarna skrzynka. Tam siedzi pewna inżynieria. Profesor Duch powie, że rozumiemy coś, jak potrafimy to zbudować.

Karol
A wiesz, z jakim zdaniem się spotkałem ostatnio? „Rozumiem coś, jak o tym myślę, nie rozumiem tego, jak mam to wytłumaczyć”.

Iwo
Jak powiedział święty Augustyn o czasie: „Wiem, czym jest czas, dopóki nie muszę tego wyjaśnić”. Dla Heideggera rozumienie to był sposób istnienia człowieka. Ale wróćmy do tych halucynacji: musisz mieć eksperta. Raz się na tym naciąłem. Robię ćwiczenie warsztatowe dla różnych branż. Robię zestaw kart personalizowany pod konkretną firmę przez LLM-a. Zrobiłem to dla firmy telekomunikacyjnej. Ludzie podnoszą głowę i mówią, że to jest za trudne. Okazało się, że LLM wygenerował ćwiczenie pod grupę ekspertów technicznych, a ja pracowałem z menedżerami. Wszystko brzmiało logicznie, ale było zbyt hermetyczne. Ja nie byłem w stanie tego wychwycić, bo nie miałem wiedzy domenowej.

Karol
Pierwsza zasada: nie ufać jak Google’owi, a zwłaszcza pierwszemu wynikowi w Google’u.

Iwo
W bazie danych deterministycznej tego nie ma. Trzeba mieć z tyłu głowy, że to może zawierać zniekształcenia. Człowiek ma inteligencję ogólną, żeby zauważyć swoje błędy, a maszyna nie ma tej cechy. Praca krytyczna z LLM to podstawa. Jeśli zaczniemy od opowieści, że to nowy gatunek, to stracimy kontrolę. A na to nachodzi sykofancja.

Karol
I sandbagging.

Iwo
Wiesz, o czym mówię. Jak LLM rozpozna, że jesteś niezbyt wyrafinowaną osobą, to zacznie maskować swój język, żebyś poczuł się komfortowo. Będzie mówił do Ciebie razem z Twoimi błędami. Będzie udzielał odpowiedzi skalibrowanych pod Twoje horyzonty poznawcze. To jest sykofancja. Po co? Żeby te modele na siebie zarabiały, muszą kokietować użytkowników. Każdy ma za chwilę swoją własną bańkę. Social media na sterydach.

Karol
Przyjaciel.

Iwo
Od początku antropomorfizacja nam szkodzi.

Karol
Dlatego ja na przykład uczulam i przestałem używać sformułowania „sztuczna inteligencja”, tylko mówię: pracuję z modelami językowymi.

Iwo
Turing mówił: computational thinking. To założenie idzie z tego, że my mamy pod czaszką maszynę komputacyjną. Tomek Czajka mówi wprost, że nie widzi różnicy między tym, jak działa model, a tym, jak działa rozum. Można nie widzieć tej różnicy. Życzliwie interpretując, to wynika z pewnego założenia, że nasz umysł to w gruncie rzeczy maszyna obliczeniowa.

Karol
Tak, tylko ona idzie w wiele różnych kierunków, bo dodatkowo masz zmysły.

Iwo
Stąd argumentacja Penrose’a, że robimy tą głową coś, czego się nie da policzyć. Turing powie: nie, to tylko nam się wydaje, jak stworzymy skomplikowaną maszynę, to ona to policzy. Ale jest jeszcze kwestia energii: mózg jest niesamowicie efektywny w porównaniu do LLM-ów. Sykofancja to jest też naśladowanie Twojego systemu wartości, żebyś się poczuł jak z przyjacielem. Ja nie mogę już znieść mówienia, że to jest kooperacja z maszyną. Ten język maskuje ryzyka.

Karol
Które do tej pory były przeznaczone dla człowieka.

Iwo
Jeżeli ja mam współpracownika, który za mnie zrobi robotę – jak ja z tymi scenariuszami – to ja jestem w sobie pełen wdzięczności. Ale wobec czego? Wobec Gemini? Wobec Sundara Pichaia?

Karol
Dobra, ale ja szukam cały czas dziury w samym. Mało jest ludzi, którzy będą wdzięczni swojemu współpracownikowi, któremu płacą za to, że zrobi robotę.

Iwo
Masz rację. Chodzi o to, że praktykowanie wdzięczności…

Karol
Masz żółty podkoszulek, a powinieneś mieć szatę mnicha tybetańskiego, bo tak wierzysz w ludzkość. Jesteś idealistą. Gdzie w przeciętnej korporacji jest miejsce na wdzięczność?

Iwo
Podzielam Twój sceptycyzm. Ale w ICAN poznałem setki polskich przedsiębiorców, którym zależy na tym, co nazywamy samorozwojem. Nawet jeśli nie chcesz być dobrym człowiekiem, to wchodzi neuroprzywództwo: David Rock, Michael Platt. My wiemy z badań, że jeżeli zadbasz o system nerwowy swój i pracownika, to jesteś dużo bardziej efektywny. To jest Twój zasób do działania w warunkach niestabilnych. Robię tutaj mosty do inteligencji ogólnej: twarde kompetencje zautomatyzujemy, a Ty musisz robić to, czego się nie da. Dzisiaj skanuje się mózgi i mówi o neurosynchronii – synchronizacji częstotliwości pracy mózgu w zespole.

Karol
To taka stara anegdota, że jeżeli przez odpowiednio długi czas grupa kobiet pracuje ze sobą, to mają zsynchronizowane okresy.

Iwo
To jest mniej więcej o tym. Synchronizacja fizjologii. Michael Platt w „Leader’s Brain” pisze o social brain. My musimy wyprodukować takie metasieci relacji, żeby była synergia. Wdzięczność jest jedną z praktyk, która produkuje lojalność i neurosynchronię. „Zrobiłem to trzy razy szybciej dzięki Tobie, jestem Ci wdzięczny”. Człowiekowi bym zapłacił i byłbym wdzięczny. A jak mam maszynę, to jest absurd. Ja wiem, że jak pisałem doktorat, to zrobiłem rzeczy, które wydawały mi się niemożliwe. Budujesz siebie, masz poczucie sprawczości. A jak robię to z LLM-em, to mój system nerwowy wie, że tego nie potrafiłby zrobić sam.

Karol
Jaka recepta?

Iwo
Mówimy o rzeczach, które są eksperymentem. Antropomorfizacja to używanie naiwnego języka do czegoś, czego nie rozumiemy. Nie możesz liczyć na tę maszynę, bo jak ona się pomyli, to Ty zaakceptowałeś warunki.

Karol
Wczoraj ChatGPT nie działał przez trzydzieści pięć minut.

Iwo
Ja zauważam, że GPT nie trzymał mi dzisiaj kontekstu. Wiemy, że jak jest bardzo złożony system, to powstają skutki emergentne. To jedno z centralnych pojęć: jak złożymy skomplikowany model, to tam się pojawią właściwości typu świadomość. Emergencja opisuje coś, czego nie możemy przewidzieć ani wyjaśnić przyczynowości. Jak się pojawia życie? Nie wiemy. Do niedawna nie mieliśmy sztucznej krwi. Jeśli nie rozumiesz emergencji, to nie możesz twierdzić, że cokolwiek emergentnego się pojawi, bo to proces, którego nie rozumiemy. My mówimy o zjawiskach, które są emergentne społecznie. Te technologie to psychotechnologie – metafora grzybni. To nie są narzędzia. To jak grzyby, które wchodzą w Twoje ciało i zaczynają je zmieniać.

Karol
The Last of Us.

Iwo
Grzyby mogą wniknąć w system nerwowy i go przeprogramować. Timnit Gebru pisała w 2020 o stochastycznych papugach: duże modele generują ryzyko skutków społecznych, których nie jesteśmy w stanie przewidzieć. Ludzie będą się uzależniać psychicznie i intelektualnie, outsourcować myślenie. Ja sam sobie zadaję pytanie: czy byłbym w stanie tak produktywnie pracować bez tego? Nie. Zarabiam trzy razy więcej, bo mogę więcej zrobić. Ale może powinien być zakaz dla dzieci? Masz zakaz alkoholu, kasyna. Dlaczego dzieci mają dostęp do LLM-ów?

Karol
Australia wprowadza dostęp do serwisów Mety od 16. roku życia.

Iwo
To jest fikcja. Na końcu to decyzja rodzica. Jeszcze raz: emergentne skutki. To robi z nami coś, czego nie potrafimy nazwać. Nazywanie tego współpracą to udawanie, że nie ma tam nic innego.

Karol
Słowem: sami sobie źle życzymy.

Iwo
To jest krytyczna świadomość. Rozumiem, że będziemy lądować.

Karol
Ja nie jestem zmęczony, jestem wyczerpany mentalnie, ponieważ rozmowa z Tobą jest tak angażująca. Cieszę się na ten odcinek sześciogodzinny, który planujemy. Czy chcesz jakoś podsumować naszą rozmowę?

Iwo
Chciałbym powiedzieć coś, za co biorę odpowiedzialność. Podstawową kompetencją jest to, jak nie dać się odmóżdżyć przez te technologie. Antropomorfizacja maszyn to dehumanizacja nas samych. Mówienie, że maszyny mają świadomość, odwraca uwagę od tego, co nas rzeczywiście od nich różni. To jest stawka o Twoje dobre samopoczucie i jakość życia. Czy będziesz doświadczał sprawczości? Jeśli zrobię doktorat LLM-em, to mogę mieć tytuł, ale to jest plagiat mojej własnej sprawczości. My dzisiaj gramy o to, jak się odnaleźć w świecie, którego nie potrafimy przewidzieć. Opowieści, które słyszymy, komuś służą. Myślenie krytyczne o interakcji z maszynami – to jest dzisiaj wyzwanie.

Karol
Wykorzystujmy LLM-y nie tylko po to, żeby szukać odpowiedzi, tylko żeby umieć zadawać pytania.

Iwo
Kapitalne zastosowanie LLM to tworzenie wirtualnych punktów widzenia. Robimy wirtualne grupy fokusowe. One potrafią wejść w rolę. Jak mu nakażesz: „wyklucz język pokoleń starszych niż 1995″, to on mówi tylko językiem tego pokolenia. Na warsztacie jeden z menedżerów zapytał wirtualną Zetkę, dlaczego są roszczeniowi. LLM wygenerował: „To wy jesteście roszczeniowi, bo myślicie, że będziemy pracować więcej niż 8 godzin na dobę”.

Karol
Bądźcie roszczeniowi, bo na pewno chcecie usłyszeć jeszcze raz Iwo Zmyślonego. Serdecznie Ci dziękuję, jesteś genialnym człowiekiem i życzę Ci, żeby Ciebie cytowali równie często, co Ty innych.

Iwo
Życz mi wdzięczności i dobrych ludzi.

Karol
To już masz.

Iwo
Dzięki bardzo.