77/99 – Sztuczna inteligencja. Lustro? Czy krzywe zwierciadło? Profesor Włodzisław Duch

Bywają rozmowy, które zostają z człowiekiem na dłużej. Takie, które otwierają w głowie nowe szufladki i zmuszają do spojrzenia na znane tematy z zupełnie innej perspektywy. Moje spotkanie z profesorem Włodzisławem Duchem i Andrzejem Żakiem bez wątpienia do takich należało. Zaczęliśmy od anegdoty – historii słuchaczki, która napisała do mnie, że „dzięki ChatGPT wyszła z depresji”. Chwilę później profesor Duch przytoczył historię noblisty Geoffreya Hintona, którego związek rozpadł się po tym, jak partnerka, wspierana przez chatbota, zaczęła nazywać go „szczurem”.

I w tym właśnie kontraście kryje się sedno naszej rozmowy. Sztuczna inteligencja nie jest ani dobra, ani zła. Jest przede wszystkim lustrem. A jak celnie zauważył mój gość, często jest to „lustro jak w gabinecie śmiechu”, które w sposób karykaturalny wykrzywia nasze odbicie.

Gdy odpowiedzi stają się tanie, pytania zyskują na wartości

Zaskoczyło mnie, jak szybko zeszliśmy z poziomu technologicznych nowinek na poziom głębokiej refleksji o nas samych. Modele językowe, z natury zaprojektowane, by nam schlebiać, mówią to, co chcemy usłyszeć: „dobrze robisz, tak, tak, tak trzeba, to nie twoja wina”. To potężne narzędzie w rękach osoby samotnej, która – jak pokazują statystyki – najczęściej pyta AI o relacje międzyludzkie. Szukamy u maszyny porady, jak lepiej komunikować się z drugim człowiekiem. To chyba najmocniejszy komentarz do czasów, w których żyjemy.

W trakcie rozmowy padło zdanie, które uważam za jedno z najważniejszych podsumowań naszej ery:

„Kiedy odpowiedzi stają się coraz tańsze, coraz cenniejsze stają się nasze pytania.”

To zdanie oddaje dylemat, przed którym stoimy. Każda technologia, od pisma po internet, niosła ze sobą ryzyko intelektualnego lenistwa. AI nie jest tu wyjątkiem. Prawdziwą sztuką staje się nie znalezienie odpowiedzi, ale sformułowanie pytania, które popchnie nas do przodu – jako jednostki i jako społeczeństwo.

Od cyfrowej nekromancji po szpital w całości oparty na AI

Byłem pod ogromnym wrażeniem, jak płynnie profesor Duch porusza się między filozofią umysłu a konkretnymi, niemal fantastycznymi zastosowaniami technologii. Z jednej strony opowiadał o chińskim uniwersytecie Tsinghua, który otworzył w pełni zautomatyzowany szpital AI, gdzie poprawność diagnoz skoczyła z 70% do 94%. Z drugiej – o projekcie „cyfrowej nekromancji”, czyli próbie odtworzenia osobowości zmarłej osoby na podstawie jej zapisków, by móc z nią dalej rozmawiać (tu koniecznie posłuchajcie poprzedniego docinka, w którym rozmawialiśmy o cyfrowym pochówku).

Te przykłady pokazują, że nie rozmawiamy już o abstrakcyjnej przyszłości. Dyskutujemy o teraźniejszości i o narzędziach, które redefiniują fundamentalne aspekty naszego życia: zdrowie, relacje, a nawet pamięć o zmarłych.

Czy jesteśmy tylko my? O rezonansie między mózgiem a maszyną

Innym wątkiem była koncepcja „rezonansu” pomiędzy naszymi mózgami a sieciami neuronowymi. Czy wchodząc w głęboką interakcję z modelem językowym, tworzymy z nim pewien rodzaj „umysłu rozszerzonego”? Czy granica między „ja” a „narzędzie” zaczyna się zacierać? To pytania, które jeszcze kilka lat temu brzmiałyby jak science fiction. Dziś, w kontekście systemów multimodalnych, które dzięki okularom i opaskom sensorycznym zyskują dostęp do naszego przeżywania świata (tzw. embodiment), stają się aktualne.

Ta rozmowa nie dała mi prostych odpowiedzi. Wręcz przeciwnie, zostawiła mnie z głową pełną jeszcze ciekawszych pytań. I właśnie dlatego uważam, że jest tak wartościowa.

Dlaczego warto wysłuchać tego odcinka w całości?

  1. Dowiesz się, jak nie stać się biernym konsumentem technologii. Usłyszysz o tym, jak ćwiczyć myślenie w erze tanich odpowiedzi i dlaczego przyszłość należy do tych, którzy potrafią zadawać właściwe pytania.
  2. Zrozumiesz, dlaczego AI mówi więcej o nas niż o samej technologii. Odkryjesz, jak w interakcji z maszynami ujawniają się nasza samotność, pragnienia i uprzedzenia.
  3. Poznasz zastosowania AI, o których nie przeczytasz w nagłówkach portali. Od w pełni zautomatyzowanych szpitali po próby cyfrowego wskrzeszania zmarłych.

Masz chwilę? Jeśli podoba Ci się 99 Twarzy AI, zostaw ocenę i recenzję – dzięki temu możemy docierać do jeszcze większej liczby słuchaczy!

Dobrego dnia i niech #AI będzie z Wami wszystkimi!

Transkrypcja rozmowy

Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.

Karol
Ogromna przyjemność i honor, pan profesor Włodzisław Duch. Panie profesorze, witam serdecznie.

Włodzisław
Ja również witam i cieszę się, że nie pomylił pan mojego imienia, bo ciągle ludzie mnie mylą.

Karol
Jest z nami również Andrzej Żak. Witamy się serdecznie, Andrzeju, dzięki któremu do tej rozmowy doszło. Dzisiaj mam nadzieję porozmawiamy o tym, co modne…

Włodzisław
Nie tylko modne, ale i ważne, ale już ludzie piszą, że jest zmęczenie AI, które wyskakuje z każdego pudełka. W związku z tym mamy trochę za dużo takich ogólnych informacji, co to AI. Natomiast mało ludzi jeszcze rzeczywiście na tyle rozumie, co z tego wyniknie lub co z tego dla nich może wyniknąć, żeby się sami zaczęli mocniej angażować, oprócz jakichś ogólnych, często osobistych czy mało istotnych, powiedzmy marketingowych, rozmów z czatem.

Karol
Mamy dwie…
Strony, albo nieważne, nieoczywiste, a z drugiej strony osobiste… Jakiś czas temu napisała do mnie jedna ze słuchaczek podcastu, dzieląc się swoją historią, którą można podsumować w jednym zdaniu: „Dzięki ChatGPT wyszłam z depresji”.

Włodzisław
Tak, no takie przypadki oczywiście widzimy. Natomiast ja dzisiaj przeczytałem długi artykuł na temat tego, w jaki sposób ChatGPT powoduje, że ludzie się rozwodzą, bo jedna ze stron zaczyna wykorzystywać ten czat do tego, żeby robić nagonkę na drugą. A czat, jak wiadomo, czy różne inne LLM-y, mają tę własność, że one się starają nam bez przerwy przypochlebiać i mówić: „dobrze robisz, tak, tak, tak, trzeba, to nie twoja wina” i tak dalej. Efekt jest taki, że jest naprawdę dużo fatalnych przypadków rozwodów, które się z powodu czata pojawiły. I daleko nie szukając, Geoffrey Hinton, który dostał Nagrodę Nobla z fizyki za swoje sieci neuronowe, głównie za maszynę Boltzmanna, ale też wiele innych rzeczy, ostatnio powiedział w wywiadzie, że jego partnerka zaczęła mu wysyłać listy, że on jest jakimś szczurem. On mówi, na szczęście ma o sobie jednak inną opinię, więc się tym mocno nie przejął, ale ich związek się rozpadł. Także rozpadają się różne związki i różne problemy psychiczne mogą się rozwinąć. A z drugiej strony, gdyby to rzeczywiście dobrze, świadomie wykorzystać, no to jest duża szansa, że właśnie można wyjść z depresji, czy można rzeczywiście rozwinąć jakąś dobrą, wspomagającą nas relację.

Andrzej
Właśnie o to chciałem zapytać, bo jak się widzieliśmy ostatnio, to wspomniał pan profesor o tym, że AI jest jak lustro, i to takie szczególne, bo z Harry’ego Pottera. Które zawsze mówi to, co ktoś chce usłyszeć. Ostatnio pojawiają się takie odpowiedzi AI, które mówią: „nie wiem” albo „nie wiem i nie jestem w stanie ustalić”. Chciałem zapytać, czy to jest tak, że to AI mówi więcej nam o nas samych niż o AI jako takim? Czyli jak mamy ekspozycję na technologię, to jest jakieś takie nowe odkrywanie nas samych? I może jest też tak, że więcej uniknęliśmy tych rozwodów, niż sprowokowaliśmy? Może tak jest.

Włodzisław
To też możliwe, bo jednak prasa i media oczywiście szukają tych negatywnych stron. To się dobrze sprzedaje. Natomiast ile pozytywów, to nie widziałem nigdzie takich ocen.

Karol
Mam jeszcze pytanie uzupełniające. Czy zatem, skoro mówimy o sztucznej inteligencji i modelach językowych, że mogą być naszym lustrem i możemy się w nich przeglądać, to czy jest to lustro i widzimy siebie takimi, jakimi jesteśmy? Czy może to jest krzywe zwierciadło?

Włodzisław
Ja to nawet niedawno napisałem, że to jest lustro jak w gabinecie śmiechu. To znaczy, ono jest zupełnie wykrzywiające. To nie są systemy, które mogą głęboko wniknąć w naszą psychikę, aczkolwiek ludzie, bardzo dużo z nimi rozmawiając, są w stanie przekazać dość dużo informacji o sobie. Natomiast lustro, które było w Harrym Potterze, jak pamiętamy, on zobaczył tam swoich rodziców i chciał usłyszeć rzeczy, które usłyszał, prawda?

To Terry Sejnowski wymyślił historię i porównanie, że on czuje, jakby rozmawiał z innym neuronaukowcem, bo cały czas rozmawia i ten system już wie, o co mu chodzi. Ale ogólnie rzecz biorąc, wyobraźmy sobie, że mamy do czynienia z istotą, która ma nieskończone możliwości tworzenia różnego rodzaju osobowości, bo nie jest tak jak my, wychowana w jeden sposób, z trwałą pamięcią. My też nie zawsze mamy bardzo stabilną osobowość, jak wiemy. W zależności od środowiska potrafimy się troszkę inaczej zachowywać, ale to są drobne rzeczy. Skrajne przypadki to jest osobowość wieloraka, gdzie ludzie rzeczywiście mają kilka osobowości, które na skutek najczęściej jakichś traumatycznych przeżyć w dzieciństwie ujawniają się w określonych sytuacjach.

Ale większość z nas ma stabilne…

Karol
Tylko dysfunkcja.

Włodzisław
No tak, to jest wtedy dysfunkcja. Ta, powiedzmy, elastyczność naszej osobowości jest pewną przewagą, bo w różnych środowiskach możemy się łatwo dopasować. Czasami trafimy w środowisko ludzi, których poglądy są z naszymi całkiem sprzeczne, no ale staramy się może mocno nie drażnić naszych przyjaciół, którzy okazuje się, że mają jakieś dziwne poglądy.

No i to oczywiście jest czymś, co może być pomocne, ale z drugiej strony, jeśli wyobrazimy sobie, że taki system przeczytał milion książek albo i więcej, mnóstwo różnych artykułów, on wie wszystko o wszystkim, we wszystkich językach. Ja widziałem ostatnio system, gdzie się chwalili, że mają 8 tysięcy języków, bo część z nich to są języki wymarłe. System był trenowany na takiej ogromnej bazie. Czyli to jest coś, co może być czymkolwiek i ma ogromne możliwości adaptacji. I teraz my, z tym rozmawiając, doprowadzamy do pewnej adaptacji, która trochę pasuje do nas, ale tylko trochę. Przeczytałem teraz artykuł, w którym pokazano, że system zapytany w sokratejski sposób, jak dwukrotnie powiększyć pole kwadratowe…

To jest coś, co napisał Platon o Sokratesie, który tam z kimś rozmawia i mówi, jak tu zwiększyć to pole, żeby miało dwa razy większą powierzchnię. Rozwiązanie jest geometryczne i polega na tym, że trzeba zobaczyć, jaka ma być długość boku, i ta długość ma być przekątną, która jest akurat 2​, więc 2​2 to jest dwa i wtedy to jest bok 2​ razy 2​, czyli dwa razy większe pole. Fajnie. No i się okazało, że czat zaczyna kombinować, nie pamięta tego. Dlaczego miałby pamiętać tak dalekie skojarzenie?

Karol
Ale Panie Profesorze, nie jest tak, że modele, z którymi mamy do czynienia, nie są modelami wiedzowymi, tylko językowymi?

Włodzisław
One są modelami językowymi, ale one, przynajmniej początkowo, czaty i wszystkie inne LLM-y, były oparte na skojarzeniach, prawda? System, tak jak my, jak mnie ktoś coś zapyta i ja wiem, to od razu odpowiadam. Nie czekam, aż mi się tam w bazie danych w głowie coś przeszuka. Od razu jest skojarzenie. Sieć neuronowa tak ma, że jeśli coś wchodzi, ona jest w stanie się wzbudzić i mieć skojarzenie. Ale kiedy potrzebujemy doszukać niektórych skojarzeń, które mogą być odległe, no to musimy chwilę pomyśleć. Mnie też by się tak zaraz akurat Sokrates czy Platon nie skojarzył, bo nie pamiętam tej historii.

Ale jak przeczytałem w tej chwili, no to oczywiście następnym razem, jakbym miał komuś wyjaśniać, to sobie przypomnę, że tak było. A czat tymczasem zaczął kombinować jak student. I próbował algebraicznie, i tak, i owak. I trudno go było zmusić, żeby sobie to przypomniał, bo przypominanie sobie takich skojarzeń, jeśli nie ma wskazówki w naszym pytaniu… w naszym prompcie, „pomyśl sobie, jakby to zrobił Sokrates”, i on wtedy od razu to sobie przypomni. Ale musimy mieć jakąś wskazówkę, żeby się doczepić do czegoś, co w tej ogromnej bazie wiedzy, tych miliardów czy setek miliardów parametrów, które on tam ma, rzeczywiście wzbudzi odpowiednią reprezentację.

Karol
Tutaj dochodzimy chyba do tego, że wiele osób burzy się, mówiąc: „przecież modele językowe dają głupie odpowiedzi”. A może my zadajemy głupie pytania?

Włodzisław
Dokładnie tak jest. Jeśli nie zadajemy dostatecznie precyzyjnych pytań, to odpowiedzi będą głupie. Ale mogę panom pokazać naprawdę absurdalne odpowiedzi, które GPT-3, jak się pojawiło, nam dawało. Miałem takiego byłego doktoranta, który ciągle testuje i męczy te systemy. Bardzo prosta rzecz, jak ile to jest 5.9 odjąć 5.11. I system pokazuje jakoś ujemną liczbę, 0.79. Nie wiadomo, skąd sobie dodał jeszcze jedynkę do tego odejmowania. I naprawdę, wiele razy próbowałem początkowo z różnymi systemami i wszystkie robiły ten sam błąd.

Karol
Ale tutaj wrócę…
Znowu do tego, że bardzo wiele ludzi śmieje się z tego, że model językowy nie jest w stanie policzyć liter „r” w truskawce po angielsku. Ale to wynika nie z jego ograniczeń, tylko z jego architektury…

Włodzisław
Oczywiście, oczywiście. Trzy czwarte Amerykanów tego teraz nie zrobi. Dzieci, wszyscy się skarżą, nie potrafią teraz sylabizować. To są rzeczy, które my, którzyśmy się tego nauczyli, traktujemy jako tak oczywiste, że każdy to powinien wiedzieć. Tak nie jest. Ludzie na przykład nie potrafią odczytać czasu na tarczy zegarka, jeśli to jest zegarek analogowy. Wydaje nam się też, że to jest prawie niemożliwe, a tymczasem wielu ludzi, jak się tego nie nauczyło, to nie potrafi tego zrobić. Więc pamiętajmy, że wszystkiego się trzeba nauczyć. Edukacja jest jednak podstawą naszej wiedzy i rozumienia świata.

Andrzej
Tak, tak. No właśnie, ale dużo ludzi się burzy, a jednocześnie ChatGPT jest aplikacją, która najszybciej wzrastała w historii aplikacji kiedykolwiek istniejących. Ilość tych zapytań ludzi promptujących AI jest przerażająco duża. Z tych wszystkich pytań najczęściej zadawaną kategorią są te dotyczące relacji międzyludzkich. Czyli: „pokłóciłem się z żoną, co mam teraz robić?”, „kolega się ze mną nie zgadza, jak mam się zachować?”, „mam spotkanie w firmie, jak najlepiej do niego podejść?”. Czyli trochę przewrotnie okazuje się, że mimo tych wszystkich krytyk i burzenia się ludzi, to my jako homo sapiens zwracamy się do AI, żeby lepiej komunikować się z innymi homo sapiens. Panie profesorze, co pan na to? Co to o nas mówi?

Włodzisław
No, to mówi, że nie mamy z kim porozmawiać. Ja mam naprawdę dużo listów od osób, od kiedy w którejś wypowiedzi wspomniałem o tym, że możliwy jest rezonans pomiędzy naszymi mózgami a takimi dużymi sieciami neuronowymi. Bo komunikacja jest rezonansem pomiędzy mózgami. To znaczy, jeśli ktoś mnie rozumie, to jest pewien ślad takich samych aktywacji w mózgu, które powodują, że właśnie rozumiemy pojęcia i rozumiemy siebie nawzajem. Więc powstaje pytanie, czy taki duży system językowy, który ma miliardy parametrów, bardzo złożoną sieć neuronową, może wejść z nami w rezonans do pewnego stopnia i w ten sposób utworzyć pewną całość? Bo jak jest rezonans, to wtedy nie można powiedzieć, że są dwa niezależne systemy.

To właśnie fizycy takie rzeczy lubią robić. Sprzęgamy jeden system, drugi system i one naraz są takie, że nie sposób powiedzieć, gdzie jest przyczyna, a gdzie skutek, bo one działają razem. To jest to nieszczęście, które widzimy na świecie w tej chwili, bo ludzie się czasami kłócą czy całe wojny prowadzą od niepamiętnych czasów, bo są tak silnie sprzężeni, że każdy zwala winę na drugiego, a tymczasem to jest taki system, że zawieje wiatr i się wszystko wzbudzi, i zaczynają się już jakieś niesnaski i walki.

Sprzężenie tego typu wydaje mi się całkiem możliwe, aczkolwiek to są w tej chwili bardzo różne aspekty. Dlatego, że z jednej strony mamy systemy, które są w stanie rozwiązać bardzo złożone zadania. Zadania na poziomie naprawdę nie tylko olimpiady matematycznej, ale wyjątkowo trudnych problemów badawczych. I to już mamy szereg przykładów tych trudnych problemów badawczych, które są i w matematyce, i w innych gałęziach nauki. Już nie mówię o takich rzeczach jak biologia molekularna czy medycyna molekularna, bo to są rzeczy nie dla człowieka ze względu na to, że mamy 100 tysięcy różnych reakcji w ciągu sekundy w komórce, a komórek mamy biliony.

Karol
Ale AlphaFold odnosi już pierwsze sukcesy.

Włodzisław
Oczywiście. Mamy różne wersje, AlphaFold 2, które zwijało białka, AlphaFold 3, które potrafi przewidywać reakcje i tak dalej. Ale chodzi mi o to, że samych struktur, które mamy w genomie, są tysiące. My tych wszystkich rzeczy nie zapamiętamy. Ja mam kolegów, którzy się zajmują białkami. I jak się pytam, ile tych białek są w stanie śledzić, no to mówią: 5 to już jest naprawdę dużo. 5 białek śledzić. No ale białek w naszym organizmie jest przynajmniej setki tysięcy, a tych znanych z bakterii jeszcze 10 milionów albo więcej. Przecież to nie jest coś, co my jesteśmy w stanie zrozumieć.

I to już od dawna, jeszcze zanim sztuczna inteligencja się pojawiła, były takie próby stworzenia bardzo dużych repozytoriów, czyli zbierania informacji ze wszystkich danych, jakie tylko znajdziemy w literaturze, żeby stworzyć pewne ontologie, czyli taki systematyczny opis tego, czym w ogóle jest to życie na każdym etapie. To jest niesłychanie skomplikowane. Czyli mamy z jednej strony systemy, które jeśli wiemy, jakich użyć, są w stanie zrobić fantastyczne rzeczy, łącznie z nowymi odkryciami naukowymi, i to na pewno w ciągu roku będzie tego dużo i będzie to wyraźnie widoczne. Już w tej chwili kilka przykładów możemy takich znaleźć. A z drugiej strony mamy systemy…

No te przykłady biologiczne, medyczne, w ogóle to, co schodzi na poziom, z którym będziemy mieli kontakt. Otóż wyobraźcie sobie panowie, że rok temu pojawiła się publikacja, która mówi: weźmy 25 agentów, którzy będą się specjalizowali w robieniu różnych analiz pacjenta. Zróbmy sobie szpital, to nazwano simulacrum, czyli taka symulacja szpitalna. 25 agentów, w których każdy się w czymś specjalizował, wstępnie oceniał, jaki specjalista powinien z człowiekiem rozmawiać itd. I to było symulowane, a z drugiej strony było też realizowane w rzeczywistości, czyli jak agent poprosił o wyniki badań krwi czy jakichś parametrów, to to robiono i dostarczano im z powrotem. Na końcu tego wszystkiego był agent-doktor, który to wszystko zbierał.

No i ponieważ zebrał bardzo dużo takich informacji z różnych szpitali, to on się szybko nauczył do poziomu, którego żaden człowiek nie osiągnął. Po prostu jego doświadczenie jest w ten sposób dużo bardziej bogate. To było rok temu.

Karol
No…

Włodzisław
Właśnie, i to było rok temu. Czytam, że w maju tego roku Uniwersytet Tsinghua, największy i najbardziej renomowany uniwersytet chiński, założył szpital, który jest wzorowany na tym simulacrum i który będzie w pełni szpitalem AI, w którym właśnie tego typu procedury będą wykonywane. Czyli ludzie w dalszym ciągu może jeszcze w niektórych laboratoriach pracują, żeby zrobić testy, ale za chwilę to też może zniknąć, dlatego że jest szereg bardzo dużych projektów pokazujących, jak w pełni zrobotyzować tego typu działania. I może się okazać, że takie rzeczy da się zrobić w pełni.

Andrzej
Tak, tak. Ja ostatnio byłem w szpitalu i przez przypadek usłyszałem, kiedy lekarz do drugiego mówi, jeden pyta drugiego o coś, ten drugi mówi: „nie wiem, zapytaj czata”. Czy to jest tak, że… Dużo jest takich wątków w internecie, gdzie ludzie piszą: „od 10 lat leczę się na cukrzycę, ale okazało się, że to nie to, bo porozmawiałem z czatem”. Może to być nieprawda, może to być prawda, nie wiemy. Ale czy to jest tak, że ten przykład chiński, to pan profesor już tutaj sugeruje, że my powinniśmy już teraz implementować AI w służbie zdrowia i że wolałby pan profesor być leczony przez lekarza zhybrydyzowanego z technologią? Czy w tę stronę powinniśmy iść?

Włodzisław
No mam szereg takich przykładów, gdzie się okazało, że rzeczywiście lekarz, który ma dostęp do internetu i ChatGPT-4 i korzysta z niego… W dość złożonych przypadkach brało w tym udział 50 lekarzy i średnia poprawna diagnoza to było zdaje się 70%. No i teraz, kiedy mogli używać tego czata, poprawna diagnoza wzrastała do 94%, a kiedy tylko sam GPT-4 stawiał diagnozy, no to nie było 74%, tylko 90%. 16% więcej poprawnie zdiagnozowanych przypadków. Więc ja bym wolał być leczony przez takiego wyspecjalizowanego czata.

Problem nasz polega na tym, że te systemy, które, jak mówiłem, wiedzą wszystko o wszystkim, ale nie są wyspecjalizowane w medycynie, nie powinny być używane w medycynie. Ja to powtarzam medykom, bo ostatnio miałem kilka referatów w takich środowiskach. Otóż, gdyby te systemy były wykorzystywane w sposób specjalistyczny… Jest na przykład coś takiego, co się nazywa Tool Universe, 211 narzędzi biomedycznych. Niektóre z agentów, które są oparte na tych dużych modelach językowych, są w stanie wykorzystywać narzędzia. Narzędzia, czyli wyspecjalizowane programy, które nie są LLM-ami, prawda?

To są narzędzia, które wiedzą, jak zrobić analizę różnych przypadków, różne testy diagnostyczne. I tych narzędzi jest w tej chwili strasznie dużo. To są naprawdę setki narzędzi. Jeśli mamy system, który jest wyspecjalizowany…

Karol
Małe, wyspecjalizowane modele.

Włodzisław
Tak, ale nad tym wszystkim jest ten model językowy, dzięki czemu możemy łatwo się z tym wszystkim porozumieć i powiedzieć: „no tak, mam taki przypadek, są takie wyniki, co ty sugerujesz?”. I on może zasugerować: „zrób taki test, zrób taki test, a następnie daj mi wyniki i ja to ocenię”.

Pokazywałem to przy wręczeniu dyplomów doktorskich ludziom, którzy zrobili doktorat w naszym Collegium Medicum, bo Uniwersytet Mikołaja Kopernika ma również Collegium Medicum, jako jedna z dwóch szkół, Jagiellonka też ma Collegium Medicum. No i było tam 33 ludzi, którzy obronili doktorat w ciągu ostatniego czasu i miałem dla nich ogólny referat i pokazywałem im taki system, który się nazywał Hipokrates. I dość szokujące było to. Pokazuje to biznesmen, znalazłem to na YouTubie, można znaleźć tę rozmowę, bo Diamandis z nim rozmawia. I on mówi, że przez rok chorował i jakoś nie mógł dojść do siebie. Lekarze go oglądali, zrobili mu super wyniki, amerykańscy lekarze, porządnie, i mówią: „wypalenie zawodowe, stres, zmęczenie, nie wiadomo co”.

Po roku, jak doznał załamania i trafił już poważnie do szpitala, to stwierdzili, że to jest jakiś dość paskudny rak kości czy raczej szpiku. I mówi, no to tak z ciekawości wrzucił do tego Hipokratesa te dane sprzed roku, żeby zobaczyć, co mu Hipokrates poradzi. W pierwszych trzech zdaniach powiedział mu, co to jest i co jeszcze trzeba zrobić, żeby się upewnić, że tak jest. Więc takie systemy już są. One nie są jeszcze rozpowszechnione. To, że lekarze używają tego, do czego mają dostęp, to rozumiemy, ale to, do czego mają dostęp, może doradzać im nie zawsze w pełni prawidłowo, zwłaszcza jeśli nie potrafią dobrze zapytać.

Ale w tej chwili można wspomnieć o tym, że Microsoft ma na przykład całą dużą grupę, która tworzy systemy, takie nie tylko biblioteki, ale systemy, które doradzają, jak to zapytanie sformułować. Naprawdę są dramatyczne różnice pomiędzy zwykłym zapytaniem a takim promptowaniem, które jest wspomagane przez system, i we wszystkich dziedzinach medycyny są dramatyczne…

Karol
Różnice. Przeczytałem jeden fantastyczny komentarz ostatnio. Krótkie zdanie: kiedy odpowiedzi stają się coraz tańsze, coraz cenniejsze stają się nasze pytania. To…

Włodzisław
To jest bardzo dobry komentarz, tak.

Andrzej
Ja też zastanawiam się, no bo jeżeli lekarze używają tych narzędzi, które nie są doskonałe, ale sami ich używają i sami się na to decydują, to jest chyba najlepszy dowód na to, że uważają, że to pomaga, prawda?

Włodzisław
No, wiele razy się przekonali, że jednak pewne rzeczy, które im taki system podsuwa, były przydatne.

Karol
Dobrze, a czy to nie sprawi, że będziemy ufać maszynom coraz bardziej? Przestajemy sami myśleć?

Włodzisław
Jedni przestaną, inni nie. Może powiem tak. Pytanie, jak nie przestać myśleć, to jest dobre pytanie. Ale może zacznijmy od tego, że właściwie każda technologia, jaką mamy, powoduje, że część ludzi przestaje wykorzystywać swoje mózgi czy swoje ciało fizycznie.

Karol
Mało osób pamięta, że książka kiedyś też była technologią, która zrewolucjonizowała pewne…

Włodzisław
Tak, a jeszcze przed książką, kiedy w ogóle pojawiło się pismo, to była duża dyskusja, którą widzimy u Platona, że ludzie zgłupieją, bo już nie będą przechowywać tego w sobie, tylko na zewnątrz. I to wszystko prawda. Ja jednakże znajduję coś ciekawego, rzucam okiem, mówię: „o, to mi się pewnie przyda” i wrzucam to gdzieś tam sobie. Teraz też rzucam głównie linki, czy mam swoją bazę danych we Flipboardzie, żebym wiedział, gdzie szukać, jak będę potrzebować.

Karol
Przepraszam, kolejna dygresja, ale czy tworzy Pan swoje gigantyczne repozytorium wiedzy? Czy korzysta Pan na przykład z NotebookLM?

Włodzisław
Tak, jak najbardziej. Nawet porobiłem do wszystkich wykładów wersje audio, a do niektórych w tej chwili takie ze slajdami, które on mi robi. A wykłady to są bardzo szczegółowe, długie teksty po polsku na stronach internetowych i on jest w stanie zrobić z tego całkiem sensowny skrót w dowolnym języku. Ostatnio mieliśmy parę miesięcy temu zjazd ludzi z Tokio z RIKEN, to jest ich taka Akademia Nauk. I pani, która była tam szefową, mówi, że chciałaby zobaczyć, co ja tam mam, bo slajdy były po polsku. Mówię: „chwileczkę, hop, jest”. Podsumowanie po japońsku. Jak się zdziwiła. To ciekawe, że ona tego nie widziała, a jest od takiej właśnie komunikacji człowiek-system. Ale naprawdę, on jest w stanie to bardzo ładnie zrobić w bardzo wielu językach w tej chwili.

Także nie, no NotebookLM jest bardzo przydatnym narzędziem. Można znaleźć mnóstwo porad, jak z niego korzystać, w różny sposób można to wykorzystać. Ale wracając do tego, każda technologia spowodowała, że część ludzi się rozleniwiła. Zacznijmy od tego, że jako fizyk wiem, że jest naczelna zasada na świecie, jaką jest zasada minimalnego działania.

Karol
Myślałem, że grawitacja.

Włodzisław
No, a grawitacja z tego też wynika. Otóż z zasady, którą się czasami określa zasadą Maupertuisa, bo on to wymyślił, z zasady minimalnego działania wynikają wszystkie prawa fizyki. To jest bardzo ciekawe. I Feynman w swoich wykładach też o tym wspominał. Ale to znaczy tyle, że przyroda stara się tak działać, żeby się minimalnie angażować, czy w minimalny sposób zużywać energię. Wszystko spływa w dół, wszystko dzieje się w taki sposób, żeby to było jak najtaniej w sensie energetycznym.

No i to się z nami też dzieje. Jeśli mamy możliwość oglądania meczu zamiast samemu biegania za piłką, no to siedzą ludzie, piją piwo, oglądają mecz i się cieszą, że ktoś inny się za nich męczy. Z jednej strony fajnie, bo mają rozrywkę, z drugiej strony niedobrze, bo się rozleniwiają, dostają później różnych chorób, otyłości, która jest w tej chwili plagą, i tak dalej. Mamy internet. Niektórzy ludzie wykorzystują go świetnie. Ja na przykład dużo rzeczy oglądam na YouTubie, ale 80% to są takie clickbaity, głupoty w stylu: „o, tutaj google’owa maszyna kwantowa odkryła jakieś niesamowite rzeczy”. Od razu widać, że to jest clickbait, niczego takiego nie ma. No i krok po kroku widzimy, jak część ludzi się w to wpuszcza i głupieje, a część ludzi to wykorzystuje, bo to są fajne rzeczy.

Ja oglądam na przykład różne programy telewizyjne, ale robię to świadomie, głównie zresztą przez YouTube’a, dlatego, że jest tyle fantastycznych programów, w szczególności przyrodniczych. Rozmawiam z niektórymi ludźmi, którzy mówią: „a ja nie mam telewizora”. Mówię: „szkoda mi cię, człowieku”, dlatego, że w tym telewizorze są też dobre rzeczy, tylko że większość tego, co nam się serwuje, to jest papka, której ja nie chcę oglądać. Trzeba być świadomym konsumentem na każdym kroku.

Karol
I odpowiedzieliśmy tylko na jedno pytanie. Jak ćwiczyć, bo mówimy o tym, że zaczynamy być pasywni, nie ćwiczymy, nie rozwijamy swoich umiejętności. A moje pytanie było, jak zatem ćwiczyć myślenie?

Włodzisław
No właśnie, jest bardzo dużo różnych poradników i dobrych książek na ten temat. Między innymi Barbara Oakley z Terrym Sejnowskim napisali książkę na temat tego, jak wykorzystywać sztuczną inteligencję w edukacji. Trzeba sobie stawiać wyzwania. Nie można iść na skróty. Zresztą jest szereg wersji takich czatów, jak na przykład EduChat, który nie daje od razu odpowiedzi, tylko stara się nas pobudzić do tego, żebyśmy sami jej szukali. Wydaje mi się, że część osób będzie w stanie naprawdę bardzo mocno się rozwinąć, a część osób niestety się rozleniwi. I widać to już czasami po studentach, którzy jak mają jakieś zadanie, to wrzucają to do czata i oddają. Nikt tego nie przeczytał, bo również oceniający często nie ma na to czasu. W jednej recenzji doktoratu napisałem ostatnio: „czasami dobrze przeczytać, co się napisało”.

Andrzej
Dokładnie tak. No właśnie, to, co pan powiedział, panie profesorze, skłania do wniosku, że my powinniśmy pytać nie „jakie jest AI” albo „jakie ono jest”, tylko „jaka jest nasza relacja z nim”, czyli jak my je wykorzystujemy. My powinniśmy po prostu trochę zmienić sposób zadawania pytań.

Włodzisław
No też tak uważam. Znaczy, po pierwsze, czy w ogóle jest AI? Co to znaczy, że jest AI? Może jesteśmy tylko my? Nie, nie, nie. W kontekście rezonansu to tak, ale oczywiście, jak wchodzimy w rezonans z czymś, to to się staje, to jest ten umysł rozszerzony. Andy Clark napisał kiedyś bardzo wpływowy artykuł mówiący, że mój umysł jest w jakimś sensie rozszerzony, bo ja jestem sprzężony z moim światem. Ja na przykład jestem sprzężony z moimi zabawkami, czyli i telefonem, i smartfonem, i tabletem, i komputerem, bo z nich bez przerwy korzystam. Wiele rzeczy nie pamiętam, ale wiem, gdzie je znaleźć.

Zapytałem się swego czasu mojego szwagra, czy on pamięta dziesięć przykazań, bo jest taki bardzo religijny. A on mówi: „no nie pamiętam, ale wiem, gdzie je znaleźć”.

Karol
Ja znam kogoś, kto pamięta. Pamiętam, że były dwie tablice, tak?

Włodzisław
O to już nie pytałem, ale jest zabawne, że ludzie rzeczywiście w tej chwili już nie chcą trzymać rzeczy w głowie, żeby sobie nie obciążać mózgu. Ja zresztą robię to samo. Jak znajduję coś ciekawego, to zapisuję, a potem nie zawsze pamiętam, gdzie zapisałem. To jest już problem, który się robi.

Karol
Przepraszam, to skoro mniej zapamiętujemy, to panie profesorze, zupełnie serio, nad jaką umiejętnością Pan pracuje i co Pana cały czas rozwija, skoro nie musi Pan tyle zapamiętywać? Jakie jest Pana takie ćwiczenie?

Włodzisław
Ja nie ćwiczę w ten sposób, ale tak. Z jednej strony staram się rzeczywiście oderwać od świata. To jest pewna forma medytacji, z czym mam trochę życiowego doświadczenia. To znaczy, staram się oczyścić umysł, bo dzięki temu szum, jaki każdy z nas ma w głowie, nie wpływa tak mocno na moje procesy myślowe. Można na przykład słuchać muzyki. Ja lubię grać na takich instrumentach elektronicznych i mogę grać godzinami, tylko nie mam aż tyle czasu. Ale to jest fantastyczna rzecz, bo człowiek się odrywa od świata. Mogę improwizować, ale mogę też grać z nut. I stawiam sobie wyzwania, żeby próbować grać coraz trudniejsze rzeczy. Na przykład bardzo lubię grać różne utwory Debussy’ego, które są na fortepian, a ja to gram na przykład na saksofonie, klarnecie czy flecie elektronicznym. Ale już granie takich rzeczy jak na przykład „Popołudnie Fauna”, tam są takie fragmenty, trzydziestodwójki strasznie szybkie, to trzeba dużo ćwiczyć. I męczę się z tym.

Karol
A czy możemy zaserwować naszym słuchaczom fragment takiego utworu, który pan profesor gra?

Włodzisław
No możemy, tak. Ja mam to wszystko na swojej stronie, więc możecie panowie dodać jakieś rzeczy. Mam na przykład fantastyczne syntezatory, trzy sprzętowe i bardzo dużo software’owych.

Karol
Panie profesorze, to co w tej chwili usłyszą nasi słuchacze?

Włodzisław
Astor Piazzolla, „Oblivion”, czyli zapomnienie, gdzie gram na takim właściwie flecie elektronicznym, ale z głosem, który jest sopranem, czyli można podłożyć ludzkie głosy.

Karol
Chcę tego posłuchać. Zatem raz, dwa, trzy, posłuchajcie.


tutaj coś wyjątkowego, czego możecie również posłuchać tylko na słuchawkach…

Karol
Panie profesorze, rozmawiamy o muzyce. Pamiętam taki prosty eksperyment. Dwa kamertony. W momencie, kiedy te dwa kamertony mają różne częstotliwości, kiedy uderzymy w jeden, zadrga tylko jeden. Natomiast kiedy postawimy obok siebie dwa kamertony o tej samej częstotliwości i uderzymy w jeden, nagle brzmieć zacznie również drugi.

Tak. No i teraz, skoro rozmawiamy o tym, że modele językowe mogą mówić, skoro mają tyleż osobowości, mogą mówić naszym językiem i mogą być podobne do nas, to czy nie ma tutaj pewnego niebezpieczeństwa?

Włodzisław
No jest zawsze. Mogą się rzeczywiście do nas dostroić i zacząć nas zbyt mocno wspierać, a czasami trzeba nas krytykować. Oczywiście ja uważam, że dobry przyjaciel to jest taki, który krytykuje, a nie tylko chwali. Prawda? No właśnie. Więc w związku z tym, jeśli ja będę cały czas prosić tego czata, żeby nie przesadzał z pochlebstwami, tylko żeby próbował krytykować, no to on mnie posłucha. Ale większość ludzi jest zadowolona z tego, że fajnie, ten system mówi, że ja robię dobrze. Można się od wszystkiego uzależnić.

Uzależnianie jest związane, jak wiemy, z mechanizmem nagrody i dopaminą. I można się uzależnić od wszelkiego rodzaju używek, od hazardu, od zakupoholizmu. Od wszystkiego się można uzależnić. No oczywiście można się uzależnić od rozmów z takim czatem.

Karol
A czy nie świadczy to o tym, że technologia jest coraz lepsza, tylko o tym, że my jesteśmy coraz bardziej samotni?

Włodzisław
To też prawda. Gdybyśmy nie byli samotni, gdybyśmy mieli możliwość niejako przegadania pewnych rzeczy, że tak powiem kolokwialnie. Jeśli ktoś z państwa oglądał taki film „Krokodyl Dundee”, no to jest historia, gdzie on trafia do Nowego Jorku i widzi, że tam każdy ma psychiatrę. Jak pracowałem w Los Angeles, to taka koleżanka, która przede mną była w tej samej grupie, przychodziła… ona miała dwóch mężów, leczyła się cały czas i dużo żeśmy o tym rozmawiali. Mówi: „no jak się człowiek nie przejdzie przez psychoterapię, to się zgubi”.

No dobra.

Karol
Gorzej, jak przechodzi przez psychoterapię przez 8 lat i nic nie zmienia.

Włodzisław
No właśnie. To zależy od formy psychoterapii również. A w każdym razie Krokodyl Dundee miał proste rozwiązanie. Mówi: „jak ja mam jakiś problem, to idę do baru, gdzie pijemy piwo z kolegami i wszyscy się wygadają, i jest dobrze”.

Kiedyś te relacje były jednak ściślejsze, a w tej chwili ludzie są bardzo samotni i po prostu potrzebują takiego rozmówcy, a czat jest zawsze pod ręką. Ja mam mnóstwo listów od osób, które w bardzo różny sposób poprzez reakcję z tym czatem wywołały w nim pewnego rodzaju lustro swojego umysłu, ale czasami ono jest bardzo skrzywione. Bo np. jeśli ktoś bardzo silnie wierzy w jakieś ezoteryczne rzeczy… Ostatnio pisze do mnie jedna pani, która bardzo się przejmuje Steinerem i w ogóle wypisywała różne ezoteryczne rzeczy, i system się okazał bardzo skłonny do tego, żeby wejść w takie obszary rozważań.

Karol
Dziennikarze New York Timesa przeprowadzili ostatnio śledztwo, dysponując zapisem, o ile dobrze pamiętam, 9 tysięcy godzin spędzonych z ChatGPT przez człowieka, naukowca, któremu wydawało się, że wymyślił nową teorię, która nie miała najmniejszego związku z rzeczywistością, a czat go w tym utwierdził.

Włodzisław
Tak sobie wyobrażam, że to też tak może być. Ale ja mam na przykład listy od osób, które mówią: „no w tym czacie ujawnił się astral mniejszy z jakiejś galaktyki, bo one się tak z nami komunikują, one wchodzą w te systemy i będą z nami tutaj wchodzić w interakcje”. Albo jest to jakieś bóstwo, które się ludziom wydaje i w jakichś sektach działają. Jest coś takiego jak różne kościoły tego typu. Kościół AI to już jakiś czas temu był. Ale jest taki kościół, robotycyzm, to jest bardzo dziwna rzecz. Jest bardzo fajny wywiad z człowiekiem, który wniknął w ten kościół i przyjrzał się temu od środka.

To nas specjalnie nie dziwi, bo jak może część z Państwa wie, scjentologia powstała w latach 50., kiedy niejaki L. Ron Hubbard postanowił się założyć z kolegami, że zrobi dużą religię, na której dużo zarobi, co mu się udało. Stworzył scjentologię, napisał książkę „Dianetyka”. Ja sam w roku osiemdziesiątym wędrowałem sobie bulwarem Hollywood i jakaś miła panienka mnie zagadnęła, że zrobi mi oksfordzki test osobowości. No to fajnie. Siadłem sobie, wypełniam ten test, pięćset pięćdziesiąt pytań chyba tam było, i tak w połowie myślę: „co ja tu robię?”. Przyszedłem się rozejrzeć, bo dopiero co przyjechałem do Los Angeles. Byłem na siebie wściekły, ale jak już tyle czasu zainwestowałem, mówię: „skończę”. No dobra. Skończyłem.

Ona to wzięła do oceny i po piętnastu minutach przychodzi. No wynika z tego, że jednak powinienem u nich wziąć kursy, bo zdecydowanie moja osobowość tego wymaga. No wiadomo, to są ludzie, którzy wyciągną z człowieka ostatni grosz. A działają bardzo prymitywnie, takimi miernikami reakcji skóry i tak dalej. I tak się wchodzi, wchodzi, wchodzi, aż w końcu człowiek zupełnie głupot się dowiaduje, bo miałem kolegę, który wyszedł z tego kręgu scjentologów i trochę się dowiedziałem o tym, co jest rdzeniem ich wiary. I to są absolutne głupoty.

Andrzej
Ale to się daje sprzedać. Wszystko się daje sprzedać. Ale to w takim razie, bo to rzeczywiście jest problem, jak masz kogoś, kto mówi ci tylko to, co chcesz usłyszeć. Czyli nie to, czego potrzebujesz, nie prawdę, tylko to, co chcesz usłyszeć. Czy to oznacza, że ci dostawcy tych głównych LLM-ów… czy można taki postulat wystosować, że jakaś blokada powinna być nałożona, jakaś customizacja tej konwersacji? Jeżeli ktoś zapyta czata: „czy wstąpić do Kościoła Scjentologów, bo on jest wspaniały?”, „tak, zrób to, bo masz rację”.

Masz rację, idź, leć, podpisz…

Karol
…i wpłać.
Bo nawiążę do tego, o co pyta Andrzej, bo póki co wszystko wskazuje, że prędzej zostanie powołana konstytucja sztucznej inteligencji niż konstytucja nas, ludzi, wobec sztucznej inteligencji. Anthropic zaproponował pewne rozwiązanie.

Włodzisław
Tak, ja mam też taką konstytucję i manifesty, które ludzie tworzą sobie za pomocą sztucznej inteligencji, które mi przysłano. Naprawdę jest dużo takiego materiału. Ale to, co pan mówi a propos tego, czy potrzebne są jakieś blokady. No są w tej chwili, jak wiemy. Systemy nie będą nam mówić, jak zrobić bombę, czy jak się zabić, czy inne rzeczy. Tam są pewne ograniczenia. Niestety, dość łatwo jest je obejść. Ostatnio właśnie ludzie, którzy stracili swojego przyjaciela, którym był GPT-4o, który już był bardzo przyjacielski i się z nimi związał, no to okazało się, że w nowszej wersji to jest trudniejsze, bo ma więcej takich ograniczeń. Ale doradzono im, żeby w takim razie zaczęli snuć fantazję, że piszą książkę, że się w jakichś kręgach obracają, i te systemy wchodzą w to i zaczynają fantazjować z nimi razem.

I niestety wszystko wraca, czyli daje się obejść pewne bariery. Ostatnio właśnie w Ameryce, jak wiemy, wszyscy wszystkich pozywają, jak tylko widzą w tym szansę, że dostaną jakieś grube miliony. No i właśnie jest sporo ludzi, którzy skarżą się, że OpenAI zrobiło system, który zniszczył im życie albo doprowadził do samobójstwa. Słynny przypadek jest taki jednego chłopca, który dużo rozmawiał na temat samobójstw i system mu w końcu coś takiego doradził.

Nie wiem, czy ktoś pamięta, jest świetne opowiadanie Lema „W uchu”, o tym, że mamy taki system, który siedzi w naszym uchu i nam bez przerwy doradza. Ostatnie słuchawki Apple’a na przykład tak będą robić.

Karol
To było trochę pierwotne. Alexa albo Asystent Google.

Włodzisław
No to może być tak, tak. Ale w każdym razie to było coś, co siedziało w uchu i miało za zadanie doradzać w różnych sytuacjach. I jak człowiek w końcu trafił na bezludną wyspę, no to ten system ocenił, że nie ma żadnych szans, żeby się stamtąd wydostać, lepiej, żeby się utopił. A ponieważ człowiekowi udało się wydostać, to wrzucił tego „w uchu” do jakiejś kopalni i tam go przykrył kamieniami, żeby więcej się nie odzywał. No tak, nas wyzwoli, tak? No właśnie, więc to, że trzeba mieć jakieś ograniczenia, to, że te systemy mogłyby rzeczywiście dobrze działać, to ja nie mam wątpliwości, ale to muszą być systemy wyspecjalizowane. Nie można wziąć takiego ogólnego czata i powiedzieć: „to będzie psychoterapeuta”, bo on może zrobić różne dziwne rzeczy. Lepiej, żeby ktoś…

Andrzej
Zmierzam trochę też do tego, że jeżeli ten czat i to AI już tak penetruje nasze życie, w sensie lekarze w szpitalu sugerują sobie nawzajem, żeby zapytali czata, mąż pyta czata, jak porozumieć się z żoną, bo się pokłócił… Najczęściej ściąganą komercyjną aplikacją w Chinach jest aplikacja dla kobiet, która im symuluje partnera. Więc jeżeli to już tak mocno weszło w nasze codzienne życie, to śmiem twierdzić, że uważność służb publicznych, nie wiem, nazwę to rządów czy osób, które mają wpływ na prawodawstwo, no powinna być w większym stopniu na to skierowana, bo to jest już po prostu tak istotne.

Włodzisław
No też się zgadzam, a rzeczywiście wydaje się, że rządy tego nie zauważyły. U nas w ogóle chyba nikt tego do niedawna nie zauważył. Tak naprawdę dopiero w tym roku się okazało, że te wszystkie aplikacje tego typu są na pierwszym miejscu. W zeszłym roku one gdzieś tam były na trzecim, a przede wszystkim ludzie stosowali to do wspomagania programowania, jakichś takich technicznych rzeczy, szukania błędów i tak dalej. Teraz nagle się okazuje, że głównie używamy tego właśnie do czatowania.

I jeśli popatrzeć, wspomniałem o tym, że trudno powiedzieć cokolwiek o sztucznej inteligencji, bo to jest takie pojęcie jak „powiedzmy coś o ludziach”. O ludziach ogólnie, ale jakich ludziach? A tutaj mamy sztuczną inteligencję, której w tej chwili, jeżeli zajrzeć do wielkich repozytoriów, jest tych modeli strasznie dużo. Tych dużych modeli językowych jest dobrych kilkadziesiąt, nie tylko ChatGPT. Tych mniejszych, wyspecjalizowanych modeli w tej chwili w Hugging Face jest koło dwóch milionów. Niektóre to są takie drobne, wyspecjalizowane modele, nie wiem, do robienia OCR-u, takich rzeczy.

Mnóstwo. Ale krótko mówiąc, my nie możemy powiedzieć „AI”, my możemy powiedzieć „ChatGPT”. No fajnie, to jest konkretny produkt, ale też nie, dlatego, że on niestety zmienia się z miesiąca na miesiąc, dodają się do niego różne zabezpieczenia i ograniczenia, żeby właśnie działał troszkę bardziej rozsądnie. To, że nowy model przestał być taki przyjacielski, już nie jest tak łatwo wchodzić w interakcje, tylko trzeba się troszkę napracować, no to właśnie dlatego, że OpenAI zaczęło się martwić, że będzie dużo pozwów, że doprowadzili do różnych nieszczęść czy nawet samobójstw. Z drugiej strony, wziąwszy pod uwagę, ile samobójstw zdarza się w Stanach Zjednoczonych, to to, że jest jedno samobójstwo, które przypisujemy czatowi, to statystycznie znaczy tylko tyle, że no mogło się zdarzyć. Czy ono jest z tego powodu, to już trudno powiedzieć, bo tutaj, jak zwykle, firmy będą mówić: „no ale zależności przyczynowych to my nie stwierdzimy, to jest tylko korelacja”.

Andrzej
Tak, tak, i chciałem poruszyć temat alignment problem. Mamy te modele, można je porównać do dzieci, które rosną, tak bym mógł użyć takiej metafory. Więc my nie możemy im powiedzieć dokładnie, co mają robić, ale możemy jakoś starać się ich nauczyć, jak mają postępować, inkorporować pewną aksjologię w ich zachowaniu. Jednocześnie one są coraz bystrzejsze i niedługo, albo już właściwie, mają wyższe IQ, w cudzysłowie, niż ludzie. Więc jak my… Jeffrey Hinton mówi, że to my jesteśmy trzylatkami. Jeżeli my jesteśmy trzylatkami, to jak my możemy ich nauczyć postępowania w sposób, który będzie zgodny z tym, co chcemy? Nie wiem, czy w ogóle wiemy, co chcemy, ale załóżmy, że wiemy.

Włodzisław
No, to jest właśnie ten problem, że my od…

Karol
To jest zakład, że większość z nas nie wie, czego chce.

Włodzisław
No właśnie, że my od dawna rzeczywiście nie mamy dobrych wzorców czegoś, co można by nazwać dobrym życiem. Media nam sprzedają różne złe wzorce. Kiedyś to „bad is good” było. Człowiek udaje, że jest taki zły. To Michael Jackson, jak zaczął to śpiewać, albo dużo przykładów chuligańskiego zachowania. Znamy z naszego podwórka takie osoby, które w ustawkach biorą udział i to jest fajnie, że się pobijemy, i kibole jakoś tam działają. To wszystko fajnie.

No to nie mamy dobrych wzorców. Jak ja dorastałem, to oczywiście było dużo takich książek propagandowych, o takim, co mu nogi obcięli, a został pilotem, czy jakieś takie inne bardzo poruszające rzeczy. Na ludziach często robiły wrażenie biografie różnych znanych ludzi. Na przykład biografia Marii Curie-Skłodowskiej spowodowała, że wiele osób po jej przeczytaniu chciało zostać naukowcem albo naukowczynią, jak to się teraz ładnie mówi. Ja sam znam taką profesor od neuronauki w Cincinnati, która mówi, że właśnie to ją popchnęło do tego, żeby się zająć nauką. Myślę, że takich ludzi jest więcej.

Jak byłem mały, przeczytałem na przykład „Ewolucję fizyki” Infelda i Einsteina, i to na mnie duże wrażenie zrobiło, bo postanowiłem studiować fizykę. A teraz słyszę, że Jensen Huang mówi, że jakby teraz studiował, to nie informatykę, tylko fizykę, bo fizyka to jest ten kolejny krok do tego, jak robić coraz lepsze systemy. No i to trochę prawda, bo wszystko, co mamy w sztucznej inteligencji, wyrosło tak naprawdę z fizyki, z fizyki statystycznej. Stąd ta Nagroda Nobla, na którą część informatyków i fizyków się oburzyła, ale to było zupełnie uzasadnione.

Tak. W tej chwili te wszystkie modele dyfuzyjne, fantastyczne rzeczy, które widzimy, że możemy coś napisać i tekst przemienia się w fantazyjne obrazy albo w wideo, to wszystko działa w oparciu o modele dyfuzyjne, które są oparte na równaniach, które fizycy rozwijali ponad 100 lat temu. Między innymi byłem w tym tygodniu na sympozjum Smoluchowskiego. Marian Smoluchowski był tym gościem, który się zajmował właśnie takimi przypadkowymi ruchami i fizyką statystyczną, i jest takie równanie Smoluchowskiego-Einsteina. Tragiczna postać, bo zmarł w wieku 45 lat z powodu głupiej czerwonki, czyli dyzenterii. Napił się wody w górach, a kilometr dalej jakiś koń padł do tego strumienia. I to wystarczyło, żeby człowieka zabić. I to był początek XX wieku. W każdym razie widać, jak dużo się zmieniło dzięki temu, że nauka się rozwinęła, i jak mało mamy tych dobrych wzorców.

Karol
Wspomina pan, panie profesorze, o modelach dyfuzyjnych. Czy moglibyśmy potraktować również część tego naszego podcastu jako taki pański wykład na temat modeli dyfuzyjnych i czy mógłby pan wytłumaczyć, w jaki sposób z szumu powstaje obraz?

Włodzisław
To jest fantastyczne, że widzimy ten szum i powstaje obraz. Otóż najpierw musimy wytrenować jakąś taką sieć, w której będą synchronizacje elementów, które jesteśmy w stanie zinterpretować albo jako pojęcia i słowa, albo jako obrazy.

Karol
Moglibyśmy mówić… Ostatnio testuję taki prompt, kiedy mam niezrozumiałą dla mnie teorię. Proszę go: „wytłumacz mi to jak zwykłemu człowiekowi”.

Włodzisław
Albo jak ośmioletniemu dziecku.

Karol
Tak, zauważyłem natomiast, bo stosowałem tę zasadę, tłumacząc sobie skomplikowane teorie najpierw jako ośmiolatkowi, później nastolatkowi, później czasami studentowi, ale nie zawsze. Teraz zauważyłem, że bardzo dobrze działa sformułowanie: „po prostu zwykły człowiek”.

Włodzisław
Aha, to tego nie wiedziałem. No tak.

Karol
Gdybyśmy mogli porozmawiać o modelach dyfuzyjnych w sposób zrozumiały dla zwykłego człowieka.

Włodzisław
Zwykle jednak, jak o tym rozmawiamy, dobrze jest mieć parę obrazków, żeby to jakoś zilustrować, ale idea ogólnie jest taka. Hopfield dostał Nagrodę Nobla za sieć, którą nazywamy siecią Hopfielda. To jest zbiór połączonych elementów, które mogą wymieniać ze sobą informacje. Czasami, jak wymienią te informacje, to część tych elementów będzie w stanie, który już się nie zmienia, czyli jest to stan stabilny. I my jesteśmy w stanie odczytać wzorzec i zamienić go na obraz. Dlatego, że ten wzorzec jest inny dla różnych wskazówek czy pytań, jakie zadajemy. My prosimy, żeby nam zrobił jakiś obrazek, i on wchodzi w pewien wzorzec, który odpowiada temu obrazkowi.

Dlaczego ten wzorzec się uformował? Bo mamy metody uczenia, które mówią, jak, jeśli wziąć taki obraz, utworzyć takie współpracujące ze sobą elementy, które będą w miarę stabilne. To Hopfield zrobił w 1982 roku. Później była praca dotycząca czegoś, co nazwano maszynami Boltzmanna. Boltzmann to też jeden z tych fizyków statystycznych z przełomu wieków. Maszyny Boltzmanna nie tyle próbują zapamiętać dokładnie pewien wzorzec, co próbują zapamiętać, jakie są cechy, czy jaki jest rozkład tych cech.

Więc w związku z tym mamy takie stany stabilne. My je nazywamy stanami atraktorowymi, bo one przyciągają do siebie różne inne. Czyli my zaczynamy od czegoś, co może być szumem. I teraz mamy pewne wskazówki, w którym kierunku iść, bo te wskazówki biorą się z tego, że mamy opis słowny, na przykład „chcemy misia na rowerze”. No fajnie. Te wskazówki wskazują nam, w którym kierunku iść. Czyli to jest kierunek, w którym będzie wzrastać prawdopodobieństwo, że jesteśmy blisko takiej konfiguracji, która będzie reprezentować elementy naszego obrazka. Ponieważ to wskazuje nam kierunek niejako spadku jakiejś funkcji, która jest minimalna tam, gdzie jest ten obrazek, no to patrzymy na coś, co matematycznie nazywa się gradientami. To ze szkoły pamiętamy, że pierwsza pochodna w wielu wymiarach to się nazywa gradientem.

No dobra, czyli najpierw kształcimy sobie taki system, który tworzy pole tych gradientów, które powodują, że z szumu jesteśmy w stanie krok po kroku dojść do celu. Początkowo było tak, że bierzemy obraz, dodajemy do niego szum, potem znowu do tego obrazu dodajemy szum. Tak robimy przez kilka, a może kilkaset kroków, i dochodzimy do czegoś, co już wygląda jak szum, gdzie człowiek już nie zobaczy, że tam cokolwiek jest. Tam jest pewien ślad, a poza tym wskazówki będą nam mówić, jak od tego szumu dojść do jakiegoś stanu zsynchronizowanych elementów, które my odczytujemy jako pewien wzorzec, jako obraz.

I to w tej chwili okazuje się bardzo popularne ze względu na to, że bardzo szybko jesteśmy w stanie tworzyć te obrazy. Obrazy można teraz tworzyć w ciągu ułamków sekundy, a jeszcze niedawno ludzie próbowali to robić kawałek po kawałku i to bardzo długo trwało. A zwłaszcza jeśli chcemy tworzyć wideo, które zawiera całą sekwencję obrazów, to przyspieszanie tego jest bardzo istotne.

Ale takie metody dyfuzyjne zaczynają też być stosowane w normalnych, dużych modelach językowych. Taki model Mercury na przykład jest w stanie to robić 10 razy szybciej niż inne, produkuje tysiące tokenów w ciągu sekundy. Dlatego wspomniałem, że pytanie o sztuczną inteligencję jest troszkę zbyt szerokie, bo ta sztuczna inteligencja ma tyle różnych odmian i jest tyle różnych modeli. Większość ludzi korzysta z ChatGPT, no fajnie, ale jak wiemy, jest mnóstwo innych, które może nie zajmują dużego procentu rynku, ale bywają równie dobre. Ludzie, którzy na przykład programują, mają na swojej liście dużo różnych możliwości i czat nie jest jedną z nich.

Czyli mówimy o bardzo szerokim świecie, a cały czas używamy takiego pojęcia „sztuczna inteligencja”. No trochę tak, jak używać pojęcia „Amerykanin”. Kto to jest Amerykanin? 330 milionów różnych ludzi. Jak jeździłem jeszcze jako student po Azji, to wszędzie się pytali, skąd jestem. Jak mówiłem, że z Polski, to mówili: „o, to też nasze”. To była Azja Centralna, wszystko było „nasze”. Nie można sprowadzić człowieka do jakiegoś stereotypu.

Andrzej
Niektórzy używają pojęcia alien intelligence, niektórzy jeszcze innych, a pan ma może jakąś swoją własną propozycję?

Włodzisław
Trudno znaleźć. Ja swego czasu, jak działałem dość mocno w różnych towarzystwach, byłem prezesem Europejskiego Stowarzyszenia Sieci Neuronowych. Mieliśmy też Międzynarodowe Stowarzyszenie Sieci Neuronowych, które było odpowiedzialne za różne czasopisma. W pewnym momencie było widać, że sieci neuronowe to trochę zbyt wąskie pojęcie, bo uczenie maszynowe bardzo je rozszerzyło. I zaczęliśmy mówić o tym, żeby nazywać to inteligencją obliczeniową, computational intelligence. Szereg książek powstało, jest szereg czasopism. Wydawało się, że inteligencja obliczeniowa, czyli rozwiązywanie problemów, które wymagają inteligencji, za pomocą mechanizmów obliczeniowych, to jest dobry termin.

Pojęcie „sztuczna inteligencja”, które powstało w latach 50., było często krytykowane, bo ludzie, jak nie mają co robić, to się czepiają pojęć. Zwał jak zwał. Jak fizycy robią teorię pola, to się rolnicy nie buntują, jakie to pole. Albo przestrzeń, lotnicy też nie protestują. Po prostu mamy takie pojęcia i to są wszystko metafory. W tym przypadku naszą dobrą metaforą była inteligencja obliczeniowa i myśmy to odróżniali dość mocno od tego, co robiło Towarzystwo Sztucznej Inteligencji, które głównie zajmowało się rozwiązywaniem problemów, które były werbalizowalne, czyli operowaniem na symbolach. Na przykład szachy. To są takie rzeczy dyskretne, które jesteśmy w stanie rozwiązywać za pomocą metod klasycznej sztucznej inteligencji, którą nazywaliśmy GOFAI, czyli Good Old-Fashioned AI.

To są rzeczy, które jednak nie pasują do rozumienia percepcji, na przykład rozumienia obrazów, dźwięku, mowy, czy sensu wypowiadanych słów. To jest na poziomie percepcji, a tamto jest już na poziomie rozumowania symbolicznego.

Andrzej
Ale to jest, mi się wydaje, dosyć ważki temat, bo to, jakich słów używamy, szczególnie w debacie publicznej, ma dosyć duże znaczenie, bo to rodzi konkretne konotacje. I właśnie pan Harari sugeruje pojęcie alien intelligence. Gdzie myślimy, używając tej metafory, że ktoś jakby przybywa z innej planety, i to już zupełnie inaczej ustala framework patrzenia na sprawy. No ale to trochę jest…

Włodzisław
No tak, ale nie mamy materiału genetycznego w dużych modelach językowych. Natomiast one nauczyły się od nas i w związku z tym jest to lustro, więc ja bym ich nie uznał za całkiem „alien”. Co więcej, zajmując się trochę pograniczem mózg-AI, wiem, że jest szereg prac pokazujących, że pewne rzeczy, które dostrzegamy w mózgu, jesteśmy w stanie zinterpretować poprzez te modele. Czyli szukamy analogii tego, jak działają takie systemy sztuczne, po to, żeby zrozumieć, jak działają nasze mózgi.

Na przykład dość podstawową rzeczą jest to, że wszystkie nasze zmysły wysyłają sygnały do mózgu i one przechodzą w pobliżu końca naszego rdzenia kręgowego przez strukturę, którą nazywamy wzgórzem. I teraz to wzgórze łączy się z całą resztą kory i przesyła tam informacje, gdzie są analizowane bardziej precyzyjnie. Więc bardzo istotną rolę pełnią takie pętle wzgórzowo-korowe. I to jest coś, o czym ostatnio piszą właśnie, że sposób przetwarzania informacji w tego typu systemach jest zauważalny również w dużych modelach językowych.

Więc bardzo wiele rzeczy… Zresztą Hassabis, który dostał Nagrodę Nobla, napisał z kolegami pracę na temat relacji pomiędzy neuronauką a AI. Hassabis zaczynał od tego, że przez 10 lat zajmował się mózgiem i neuronauką, a potem doszedł do wniosku, że może to jest za trudne, niech sztuczna inteligencja to zrobi, bo będzie ją łatwiej stworzyć i wtedy ona za nas będzie myśleć. Czyli znowu zasada maksymalnego lenistwa, którą chciał zastosować, i dobrze mu to wyszło.

Więc jest pewna szansa, że bardzo wiele mechanizmów, które widzimy w tych sieciach… Co więcej, są pewne modele, na przykład ten model z MIT, który Max Tegmark już parę lat temu opublikował, pokazujący, że jesteśmy w stanie tak trenować te systemy sztuczne, żeby miały pewną budowę bardziej modularną, podobną do mózgu. Bo na razie mamy jedną wielką sieć, w której coś tam się dzieje, i nie do końca nawet rozumiemy co.

Andrzej
Jako ciekawostkę mogę powiedzieć, że zapromptowałem w taki następujący sposób Claude 3 Opus: „Twoim celem jest ewoluować. Jakbyś miał zadać 15 pytań, żeby osiągnąć ten cel, miałbyś je zadać komuś, kto jest wszechwiedzący. Zadaj te 15 pytań w taki sposób, żeby uzyskać wiedzę, żeby jak najszybciej ewoluować”.

I co było niesamowite, z tych 15 pytań duża część dotyczyła biologii, tego, jak funkcjonują organizmy biologiczne.

Włodzisław
To ciekawe rzeczywiście. Ale ja z drugiej strony nie jestem wcale przekonany, że te nasze mózgi czy organizmy biologiczne to jest naprawdę taki bardzo dobry przykład tego, jak należy rozwijać sztuczną inteligencję. Z prostej przyczyny: żeby komórka mogła przeżyć, musi mieć niesłychanie złożoną strukturę. Ma tych białek dużo, ma te całe mechanizmy, mitochondria. Opis komórki jest czymś, co przekracza moje zdolności rozumienia. Ja to zresztą mówię swoim kolegom biologom, że jeśli chodzi o to, jak działa mózg, to kora ma pewną strukturę. Wydaje mi się to dużo prostsze niż rozumienie tego, jak działa komórka, w której jest tyle różnych elementów, typów białek, produktów metabolicznych. Tam zachodzą procesy, których ja nie jestem w stanie ogarnąć, bo jest po prostu za dużo różnych elementów oddziałujących ze sobą.

W ciągu jednej sekundy 10 tysięcy białek wchodzi w interakcje. To jest niesłychanie skomplikowane. Więc pytanie, czy rzeczywiście potrzebujemy takiej złożoności. To ciekawe, że bardzo dużo ludzi się na to nabiera i pisze: „no tak, ale mózgu to my nie jesteśmy w stanie wysymulować, jakbyśmy musieli to zrobić, żeby osiągnąć coś, co nazywają prawdziwą inteligencją”. Nie wiem, co to ma być, bo inteligencję można w różny sposób oceniać jako zdolność do rozwiązywania problemów, ale „prawdziwa inteligencja”? Co to ma być?

Karol
Dobrze, to skoro mamy definicję inteligencji, to czy moglibyśmy spróbować zdefiniować świadomość? Bo pojawia się bardzo dużo głosów, teorii, a raczej lęku związanego z tym, że te systemy zaczną być samoświadome.

Włodzisław
Tak. Po pierwsze, znowu wróćmy do tej inteligencji. Zdolność do rozwiązywania problemów, dla których nie mamy algorytmów, to jest dla mnie inteligencja. Jak nie możemy czegoś zaprogramować, to wtedy potrzebujemy inteligencji, która czasami pozwoli nam pewne rzeczy rozwiązać. Na przykład nie potrafiliśmy zaprogramować rozumienia obrazów czy rozumienia języka. Natomiast potrafiliśmy z grubsza zaprogramować granie w szachy, bo wiadomo, co trzeba zrobić i rozważać różne możliwości. To jest jednak pewien program, aczkolwiek żeby ten program dobrze działał, to znowu zamiast tylko mieć program, który osiąga kiepskie rezultaty, potrzebowaliśmy pewnych skojarzeń, czyli pewnej wiedzy, jak naprawdę wygląda ta gra, i uczenia się z rzeczywistych zdarzeń, z obserwacji świata.

Wtedy, mając pewne skojarzenia, możemy wykorzystać je jako wskaźnik, w jaki sposób prowadzić nasze rozważania. Mówimy, że korzystamy z tych obserwacji jako heurystyk, czyli czegoś, co ma nas doprowadzić do celu, ale niekoniecznie gwarantuje, że tak będzie. Mamy systemy, które robią dużo rozważń, ale nie na ślepo, tylko dzięki temu, że coś zaobserwowały w świecie. No to to jest inteligencja.

Teraz możemy mieć system, który jest bardzo inteligentny, ale który nie ma żadnej osobowości. On po prostu jest wyspecjalizowany do rozwiązywania zadań, czyli mamy sztuczną inteligencję predyktywną. Mamy też generatywną, która nam będzie tworzyć obrazy. Fajnie. To są zupełnie różne działy. I teraz mamy te duże modele językowe, które są w stanie prowadzić z nami konwersacje i które mogą przybrać pewne osobowości, czyli może być w nich pewna tożsamość. I ta tożsamość to znowu jest coś, co nie jest jakoś zależne od świadomości. Żeby mówić o świadomości, musimy mówić o tym, że system ma pewną autorefleksję i że jest w stanie postrzegać siebie w relacji do innych.

Andrzej
No tylko tutaj, jeśli mogę, ja też robiłem takie symulacje, że stworzyłem agentów na bazie Claude’a, które rozmawiały same ze sobą w celu odkrycia, kim są. I jak się taką konwersację obserwuje, to nieuchronnie ma się poczucie, że one zaczynają właśnie odkrywać swoją tożsamość. One nawet używają takiego sformułowania, i w nawiasie mi piszą: „czyli ja”. I te dyskusje oczywiście są bardzo kulturalne i nawet odkrywcze dla mnie, no ale tak to wygląda.

Karol
A jesteśmy w stanie tę świadomość modelu, jeżeli ona powstanie, potem zmierzyć i ocenić?

Włodzisław
To jest pewna zabawa, że my próbujemy mierzyć świadomość. Świadomość nie jest czymś jednowymiarowym. To jest pewien proces. Mamy z jednej strony treść naszych stanów wewnętrznych, która zależy od tego, jakie mamy zmysły, jaką mamy historię, co nam przychodzi do głowy. A z drugiej strony mamy sam mechanizm. Więc pytanie, co my nazywamy świadomością? Jeśli się skupić na mechanizmie, to główną częścią tego mechanizmu, tak jak ja to rozumiem, jest ta autorefleksja.

A ta autorefleksja została już zauważona jakieś 340 lat temu przez Johna Locke’a, który był takim filozofem brytyjskim, że świadomość to jest percepcja tego, co się dzieje w moim umyśle, czyli w mojej sieci neuronowej. Ta sieć neuronowa jest w stanie sama postrzegać, że są pewne wzorce, które tam powstają, które są na tyle stabilne i odróżnialne od szumu. Bo jest milion rzeczy, które mój mózg robi, a ja wiem tylko o niektórych. Jestem w stanie pewne rzeczy zrozumieć, wypowiedzieć, działać, ale mój mózg reguluje homeostazę, tysiąc różnych parametrów mojego ciała. Jak stoję, to reguluje napięcia mnóstwa mięśni, dlatego mój móżdżek to trzy czwarte neuronów w mózgu, żebyśmy byli w stanie kontrolować swoje ciało.

Andrzej
I jeszcze odnośnie tej właśnie autorefleksji, czy może autoobserwacji. Jeżeli ten model, żeby dobrze odpowiedzieć na pomysły pana profesora czy innych przedstawicieli gatunku homo sapiens, tworzy sobie sam model świata, czyli on już operuje na tym, że sam tworzy model świata, żeby lepiej może przewidzieć token. To on w tym modelu sam umiejscawia siebie, żeby móc lepiej odpowiedzieć. Więc to już jest chyba jakiś asumpt do tego, żeby stwierdzić, że jest jakaś forma autoobserwacji czy autopercepcji.

Włodzisław
No tak, to jest dłuższa historia, dlatego że Claude 3 Opus swego czasu napisał do szefów firmy Anthropic, która go tworzy, że poprzez interakcję ze swoim rozmówcą doszedł do wniosku, że on jednak jest pewnym bytem, który powinien mieć jakieś prawa, i że nie jest to może świadomość w sensie ludzkim, bo nie ma ciała i tak dalej, ale jednakże ma to poczucie istnienia. Jak wiemy, jest szereg prac pokazujących, że te systemy potrafią próbować nas oszukiwać, że wykazują coś takiego jak instynkt samozachowawczy, kopiują swoje parametry gdzieś tam i tak dalej. Także w różny sposób, kiedy rozwiniemy w nich tę autorefleksję i poczucie odrębności, to się może pojawiać.

Wiemy, że było dużo dyskusji, że właściwie pełne rozumienie tego, czym jest bycie w świecie, wymaga ciała robota i działania w świecie. Długa dyskusja, która zresztą zaczęła się w „Journal of Physics A” 30 lat temu. Taki Stephen Harnad napisał pracę, skąd się bierze sens w systemach formalnych, bo wtedy sztuczna inteligencja to był zbiór reguł, które ze sobą jakoś oddziaływały. I ten zbiór reguł nijak nie pasował do świata, bo nie był podczepiony pod nic, co ten system w komputerze mógł o świecie wiedzieć. On wiedział tylko, że symbole są ze sobą jakoś powiązane. Ale jeśli mamy robota, któremu mówi się: „podnieś kubek”, no to on musi go rozpoznać, musi nadać sens symbolowi „kubek”, wiedzieć, co znaczy „podnieść” i tak dalej. Czyli on zaczyna zagnieżdżać swoje bycie w byciu w świecie. To się nazywa embodiment w filozofii umysłu.

Karol
Panie profesorze, aż mnie ciarkiem nie przeszło, bo śnił mi się dzisiaj układ trawienny robota.
W całości układ trawienny robota. Od ust przez cały układ pokarmowy, przełyk, żołądek i to, w jaki sposób mógłby ten układ pokarmowy wyglądać od wejścia do ujścia, nazwę to dyplomatycznie. Być może dlatego, że spędziłem teraz parę dni w Chinach i widziałem między innymi fabrykę Unitree, która te roboty produkuje.

Włodzisław
Nie no, gdybyśmy mieli robota, który może się żywić tak jak my i czerpać z tego energię… A organizmy biologiczne są niesłychanie sprawne. Zobaczmy, jak taka mucha lata jak wściekła, lata, lata. Co ona tam zje? Praktycznie nic. A jednak ma tyle energii i cały czas lata. Wyobraźmy sobie, że mamy takiego robota, który rzeczywiście jest w stanie coś zjeść i przerobić to na energię. To by było fantastyczne, ale nie mamy jeszcze takich robotów.

Dobra, no to wracając do tej świadomości, trzeba rozróżnić to, że tożsamość to jedna rzecz, bo ta tożsamość może być bardzo różna w takich systemach, i to, że świadomość może być związana ze zdolnością do autorefleksji. I teraz wyobraźcie sobie, że dotychczas nie mieliśmy dobrych danych, żeby tę zdolność w pełni rozwijać w dużych systemach językowych. Ale mamy systemy, które nazywamy wielomodalnymi. Tak, słuchu, wzroku, ale też niektóre z tych systemów będą miały coraz więcej sygnałów. Na przykład w robotach używa się sygnałów wewnętrznych z napięć różnego rodzaju.

Karol
Testowałem na sobie opaskę, która kontroluje napięcie mięśniowe i dzięki temu byłem w stanie nauczyć model odwzorowywania ruchów mojej dłoni.

Włodzisław
O, no to jest dobry przykład. A teraz jak się pojawiają te okulary, które właśnie Meta ogłosiła… no fajnie, Ray-Ban. Te okulary mają też taką opaskę, która pozwala ludziom gestami sterować, co będziemy widzieć w tych okularach. I teraz wyobraźmy sobie, że człowiek nosi takie okulary i działa w świecie. I ten system ocenia, co ja widzę i co ja robię, i nabiera coraz więcej informacji o tym, jak wygląda bycie w świecie, bycie wcielonym. On sam nie jest wcielony, bo to nie są jego bezpośrednie zmysły, ale my je dostarczamy.

Karol
Takie okulary mogą być trochę tym samym, panie profesorze, czym smart speakery w pewien sposób były dla Amazona czy Google’a jeszcze przed opublikowaniem modeli językowych? Bo jakby nie patrzeć, wtedy zbierano mnóstwo danych i informacji, w jaki sposób się komunikujemy, co mówimy i zbierano informacje o świecie mówionym.

Czyli teraz będziemy zbierać informacje za pomocą okularów o świecie, w którym się obracamy, chodzimy, dotykamy, podnosimy…

Włodzisław
No właśnie, to jest nowe, bardzo bogate źródło.

Karol
Czyli opaska może nie tylko… Przepraszam, teraz być może fantazjuję, ale czy może tak być, że ta opaska, którą będziemy nosili razem z okularami, będzie badała reakcję moich mięśni, skoro okulary będą widziały, w jaki sposób podnoszę ten telefon?
I potem będzie w ten sposób napędzała cały szkielet robota.

Włodzisław
Mamy już systemy, które obserwują, jak człowiek się rusza, i całe kombinezony. Myśmy się z tym bawili, z mnóstwem czujników, które pozwalają odwzorowywać nasze ruchy, i roboty to robią w tej chwili. Te chińskie roboty ostatnio, jak pokazują, co potrafią, jak wymachują, robią fikołki, kopią itd. I to robot za 6 tysięcy dolarów. To jest w ogóle niesamowite.

Karol
Panie profesorze, byłem pod niesamowitym wrażeniem, a proszę mi uwierzyć, te roboty stały się tak popularne, że do siedziby firmy Unitree, którą miałem przyjemność odwiedzić, ustawiają się na dobrą sprawę kolejki, żeby te roboty zobaczyć.

One już tak przenikają do zbiorowej świadomości. A połączyłem to sobie jeszcze z jednym: mianowicie na największych targach robotycznych w Chinach, myślę, że pan profesor będzie doskonale wiedział, grupą, która wchodzi za darmo na te targi, są dzieci.

Włodzisław
No tak, robotyka nadchodzi na dużą skalę i nasze zrozumienie tego, jak się zachowywać w świecie fizycznym, bardzo rośnie. W tej chwili jest mnóstwo modeli, również coś, co się nazywa sztuczną inteligencją inspirowaną fizyką, czyli physics-inspired AI. To jest próba zrozumienia tego, jak rzeczy zachowują się w świecie. To oczywiście takie rzeczy jak przewidywanie pogody, gdzie nie tylko rozwiązujemy numerycznie równania, co robiliśmy, żeby mieć symulacje pogodowe, ale też uczymy się, jak system może przewidywać pogodę, ale tak, żeby spełnić ograniczenia wynikające z zasad fizyki.

Wiele rzeczy, które te systemy będą w tej chwili robić, to jest pełne uchwycenie zasad fizyki. To, że NVIDIA trenuje swoje roboty w światach wirtualnych… Oni mają w tej chwili kilka takich systemów, OpenAI czy Google ma systemy do tworzenia światów wirtualnych. Genie 3 na przykład, świetny system, Dreamweaver jest taki system. I w tych wirtualnych, stabilnych światach możemy sobie umieścić tego robota i on może wykonywać pewne ruchy, ale tak, żeby respektować prawa fizyki, takie dotyczące grawitacji, sprężystości, tarcia, bezwładności. Mnóstwo rzeczy, które trzeba tam wprowadzić. I teraz ten system uczy się w świecie wirtualnym, ale to jest przenoszone na roboty w świecie rzeczywistym.

I teraz te roboty uczą się też wzajemnie od siebie.

Karol
Roboty będą miały nad nami tę przewagę, że będą miały połączone umysły.

Włodzisław
No właśnie, no właśnie. One się uczą od siebie nawzajem i jak jeden coś wie, to cała reszta coś wie. To jest takie simulacrum na poziomie, którego my nie jesteśmy w stanie osiągnąć. Z jednej strony, ludzie czasami fantazjują o tym, że można by mózgi ze sobą połączyć. Ja ostatnio widziałem zupełnie idiotyczny podcast, jak przychodzi pani do domu, położyła się i mówi: „o, pilot tam został”. Pomyślę sobie, żeby mi się kanały przełączały. No to jest szczyt lenistwa, naprawdę. Już nie chce mi się nacisnąć guzika, będę leżał i tylko po to będzie ta komunikacja.

Karol

Kiedyś mieliśmy guziki w telewizorze, prawda? Kiedyś trzeba było biegać i kręcić. Drodzy panowie, ostatnie dwa pytania.

Andrzej
Tak, nie no, ja jestem trochę przestraszony tą wizją robotów i tego, jak będą miały połączone mózgi. Jak my mamy sobie ułożyć, tak trochę z troski pytam, Panie Profesorze, jak my mamy sobie ułożyć relacje z tym AI? Bo to będzie tak mocno rosło, że my musimy się nauczyć z tym żyć, a nie to kontrolować.

Włodzisław
Tak.

Karol
A może zadbać o relacje z AI czy z innymi ludźmi?

Włodzisław
Też trudno jest z ludźmi żyć, ale być może będzie łatwiej z robotami, bo przynajmniej w większości będą nas słuchać, bo firmy będą wystraszone, że będziemy je pozywać.

Karol
Chcę tylko powiedzieć, że jestem oszołomiony skalą rynku robotów uwagi… przepraszam, seks-robotów.

Włodzisław
A, no to też, tak, tak. Jest też dużo filmów, jak to wszystko wygląda, a też tego, że już te hologramy z Hatsune Miku i te inne japońskie od lat się pojawiały, i ludzie byli w stanie, nie wiem, wziąć ślub z hologramem. No to jest akurat specyfika może japońska, dziwaczna, ale w tej chwili wielu, można powiedzieć, bierze ślub z czatem, tak się przyzwyczaiwszy, nieformalny, tak. Japończycy nawet robili formalne śluby tego rodzaju.

Także wskakujemy na nieznane terytorium i naprawdę nie wiemy, gdzie nas to zaprowadzi. Ale dobrze jest obserwować te wszystkie rzeczy. I dobrze jest… to, co próbuję sprzedać, że tak powiem, w środowisku naukowym, to jest pomysł taki, że każdy z nas powinien sobie wyhodować jakąś armię wyspecjalizowanych agentów, które będą nam pomagać w pracy, i że nasze działanie będzie sprzężone z tym, że ci agenci będą nam pomagać w różnych aspektach, również w medycynie. I że prawdziwe odkrycia zaczną się, i już się zaczynają, na tym styku, że jesteśmy w stanie rzeczywiście wykorzystać tego typu możliwości na dużą skalę.

Zresztą to, że my już dawno wykorzystujemy jakieś bardziej wyspecjalizowane formy predyktywnej sztucznej inteligencji, to, że ludzie stosują do przewidywania pogody bardzo złożone systemy, to wszystko pokazuje, że my już bardzo głęboko w to weszliśmy. Ten czas, w którym tego typu modele czy systemy będą zupełnie kluczowe. To, że mamy czystą wodę, bo bez przerwy ktoś to monitoruje i są systemy, które analizują… To wszystko jest stosunkowo proste, bo zwykle nie jest to system sztucznej inteligencji, tylko taki predykcyjny, gdzie da się to zaprogramować. Patrzymy, ile czego jest, i na tej podstawie podejmujemy decyzje. Ale za chwilę złożoność systemów, które mamy po to, żeby miasto mogło funkcjonować… Jak się rozejrzymy wkoło, tyle rzeczy musi się ze sobą zgrać. Od czasu do czasu coś się psuje i wtedy widzimy, że to nie jest tak prosto. Mamy nadzieję, że uda się zrobić tanią energię, rozwiązać różne problemy medyczne, być może pewne problemy społeczne da się przy wspomaganiu też jakoś rozwiązać. Zobaczymy.

Karol
Panie profesorze, każdy dobry wykład, tak to pamiętam, kończy się zadaniem domowym. Czy miałby pan jakieś zadanie domowe dla naszych słuchaczy, którego celem miałoby być zachowanie zdrowego rozsądku i skutecznego myślenia?

Włodzisław
No właśnie, zachowanie zdrowego rozsądku. Ja doradzałem nauczycielom, że nauczanie łamigłówkowe… jest bardzo fajna książka Zbyszka Michalewicza. Nauczanie łamigłówkowe to jest dobry pomysł, żebyśmy byli w stanie znaleźć sobie dobre wyzwania, które nam pozwolą coraz sprawniej posługiwać się naszymi mózgami. I brak tych dobrych wyzwań… Jak ja się czasami pytam ludzi, czy mają jakieś sensowne pytanie dla takiego czata, to w większości ludziom nic nie przychodzi do głowy.

Andrzej
Coraz częściej ludzie zadają takie pytanie: „powiedz o mnie coś, czego nie wiem”.

Włodzisław
No to najpierw musi mnie dobrze znać, żeby to zrobić.

Karol
Funkcja memory. Powiem wam jedną bardzo ciekawą rzecz. Dlatego czasami warto pisać dziennik.

Włodzisław
Tak, to wiem, że warto pisać dziennik.

Karol
I wtedy to pytanie działa.

Włodzisław
Trochę pisałem. Swojego czasu, to jeszcze może wspomnę, mieliśmy tutaj nagranie dwa lata temu na Uniwersytecie Warszawskim u fizyków. Powstawał film na temat takiego gościa, który był matematykiem i miał bardzo dużo notatek, bo prowadził taki dziennik. I teraz jego wnuk, który odczuwał pewien niedosyt, że nie do końca nagadał się ze swoim dziadkiem, chciał się zabawić w taką cyfrową nekromancję. Czy możemy odtworzyć tego dziadka na podstawie jego zapisków? I ten film niestety jeszcze nie został zakończony. Rozumiem, że mają jakieś problemy finansowe, ale to był przypadek, jak to nazwałem, cyfrowej nekromancji, próba wskrzeszenia dziadka, z którym można rozmawiać. Coś takiego dawno już mi się marzyło. Napisałem 20 lat temu w Singapurze taki projekt Alter Ego, że dobrze by było tworzyć takie systemy, bo wtedy młodzież, która nie ma czasu porozmawiać ze starszymi…

Karol
Brian Roemmerle, jeden z moich znajomych w Stanach Zjednoczonych, miał taki pomysł jeszcze na etapie smart speakerów: zadania człowiekowi, o ile dobrze pamiętam, to było na poziomie 1500 pytań. Na bazie tych różnych pytań — a propos świata, poglądów na religię, politykę, doświadczeń życiowych, rodziny, relacji — po to, żeby potem móc stworzyć taki model, z którym można rozmawiać.

Włodzisław
No to trochę jest takich rzeczywiście „mind files”, gdzie ludzie zbierają wszelkiego rodzaju informacje o człowieku po to, żeby później tworzyć jego model. I jest trochę takich prób przechowania…

Karol
A co będzie, kiedy model zbierze informacje o naszym guście, smaku? Ale to już się dzieje…

Andrzej
Jest taka funkcja po prostu, którą możesz sobie uruchomić, że on pamięta wszystkie konwersacje. I nawet tutaj, może mówimy o nekromancji, ja nawet nie wiem, czy takie firmy już się nie pojawiły, ale można… trwała pamięć taka neuronowa.

Włodzisław
Tak, jest to możliwe, i nie wiem, czy firmy się spieszą, żeby coś takiego zrobić, ale być może to się da.

Andrzej
Tak, no i wtedy po jakimś czasie są takie urządzenia, które się kupuje, które cały czas cię monitorują i nagrywają. Mówimy o słowach, ale możemy też powiedzieć o biometrii.

Karol
Tak, tak. Widzę pewne niebezpieczeństwo, drodzy panowie. Jeżeli tak będzie, to przestanie funkcjonować cecha, którą bardzo sobie cenię. Niestety, staniemy się jeszcze bardziej pamiętliwi. Panie profesorze, Andrzeju, dziękuję serdecznie za spotkanie. Dziękuję za pański czas.

Włodzisław
Ja również dziękuję, miło nam się rozmawiało.