Poznajcie Artura Modlińskiego. Kolejna rozmowa w 99 Twarzach AI. Wydaje mi się, że inna niż wszystkie. Inna, niż zakładałem – zapraszając Artura. Rozmowa, która niezwykle mnie zaskoczyła i spowodowła, że po raz kolejny zdałem sobie sprawę jak wiele zmieni sztuczna inteligencja w naszym życiu.
Kim jest Artur?
Artur obronił doktorat w obszarze nauk ekonomicznych w roku 2018, a stopień doktora habilitowanego uzyskał w roku 2024. Pracował w Katedrze Zarządzania w Społeczeństwie Sieciowym na Akademii Leona Koźmińskiego, aby następnie przenieść się do Katedry Zarządzania, na Wydziale Zarządzania Uniwersytetu Łódzkiego, gdzie od 2019 roku pełni funkcję kierownika Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją.
Jednocześnie jest badaczem w Międzynarodowym Centrum Badawczym (CITAD) przy Uniwersytecie Lusiada, Laboratorium Urban Sensorial w Lizbonie, Instytucie Iris Ankona w Rydze, Laboratorium Augmented Human Intelligence & Digital Ergonomics Lab przy Universita di Pavia we Włoszech, Fundacji Romualdo del Bianco we Florencji oraz Europejskiej Fundacji Rozwoju Człowieka.
Jest laureatem ponad 40 stypendiów i nagród naukowych. Podczas swojej pracy badawczo-wdrożeniowej odkrył i skonceptualizował takie zjawiska jak techno-empowerment, technoizacja, konformizm algorytmiczny, carnal collapse effect. Wraz z posthumanistą Matthew Gladdenem stworzył metaforę organizacji jako cyborga.
Aktywnie angażuje się w działalność biznesową wspierając firmy w ich transformacji cyfrowej pisząc wnioski grantowe, tworząc raporty, prowadząc szkolenia, warsztaty i powerspeeche, a także prowadząc ewaluacje i ekspertyzy wdrożeniowe z zakresu nowych technologii.
O czym rozmawiamy dzisiaj?
- Autonomiczna sztuczna inteligencje (ASI) – pojęcie i znacznie.
- ASI – obszar zastosowań obecnie i w przyszłości. Obecnie ASI wykorzystywana jest w autonomicznych samochodach i aplikacjach do inwestowania zasobów finansowych. Jej zakres wykorzystywania będzie się rozszerzał na wszystkie etapy funkcjonowania człowieka.
- Szanse i zagrożenia związane z ASI.
- Zjawisko techno-empowermentu i jego wpływ na pracę w organizacji.
- Jakie kompetencje warto rozwijać w dobie ASI?
- Poruszymy kwestie nonkonformizmu algorytmicznego i uwrażliwiania ludzi na fakt, że maszyny popełniają błąd, co niestety nie jest tak oczywiste dla współczesnych pracowników.
- I wiele innych…
Aaaaaa i tradycyjnie wielka prośba – jeżeli jeszcze nie wystawiłaś lub nie wystawiłeś oceny 99 Twarzom AI na Spotify lub Apple podcast – pomóż mi proszę z dotarciem do nowych słuchaczy. To zabierze Ci tylko 2 minuty. Z góry serdeczne dzięki!
Dobrego dnia i niech #AI będzie z Wami wszystkimi!
Transkrypcja rozmowy
Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.
Karol Stryja: Accenture zrobiło projekt dla jednego z banków, posiedzenia Rady Nadzorczej Banków, transkrypcja i cała reszta. Kilkanaście dni zajmowało tworzenie tych transkrypcji i podsumowań, spotkań, a teraz…
Artur Modliński: Dokładnie tak, ale to wcale nie jest dziwne, ponieważ będąc na spotkaniu w jednej dużej polskiej firmie właśnie projektowej, AI-owej, zrobiliśmy sobie calla Teamsowego i nagle na tym callu pojawił się taki sztuczny agent i większość z nas, ale takie pytanie ogólne, ale kto to jest? Niektórzy zaczęli do niego mówić, niektórzy starali się wywnioskować o co chodzi z tym agentem, no a on po prostu fantastyczne, i to jest dobre, za chwilę do tego przejdę, on czy ona czy ono, fantastyczne po prostu transkrypcje, fantastyczne podsumowanie tych spotkań. Ale to też ciekawe z punktu widzenia, jak antropomorfizujemy tę technologię, czyli mówiąc on, ona, ono, nie wiemy do końca, prawda, w jaki sposób do tego podejść i kim on jest, ale automatycznie podrzucamy taką teorię, bardzo ją lubię, tworząc badania, bardzo często na niej bazuje, to jest CASA, teoria CASA. CASA, czyli Computer as Social Agent. Faktycznie ta teoria nam mówi, że te nasze wyuczone sposoby interakcji i relacji przekładamy na tych sztucznych agentów. Nadajemy im płeć, nadajemy im emocje niebywałe.
Karol: Ale zobacz, że to działa. W przypadku czata GPT, jeżeli definiujesz sobie tak naprawdę jego charakter, osobowość itd., otrzymujesz całkowicie inne odpowiedzi.
Artur: Zdecydowanie tak. Tutaj ta technologia już w ten sposób działa, że jest to niewyobrażalne. Ja zresztą bardzo się przypatruję i z takim wielkim podziwem oglądam wszelkiego rodzaju materiały, które udostępnia Ada Florentyna Pawlak, czyli o technointymności, w jaki sposób tworzymy więzi z tymi agentami. Bardzo często uzależniając się nawet od nich, a niektórzy nawet twierdzą, że się w nich zakochiwali. Także ta nasza intymność i te relacje, które wiążemy z technologią, to coś niesamowitego, jak głęboko może to faktycznie się rozwijać.
Karol: Temat na odrębny odcinek.
Artur: Zdecydowanie tak, zdecydowanie kompletnie tak. Natomiast coraz częściej mówimy właśnie o pewnego rodzaju fazie czy fazach, w których sztuczna inteligencja zyskuje pewnego rodzaju obszar decyzyjny, czyli może podejmować decyzje. Ja byłem pod dużym wrażeniem czytając książkę Raz Kino i zespołu o kastobotach, czyli kwestii tego, w jaki sposób botom coraz więcej dajemy właśnie takiej możliwości podejmowania decyzji na trzech etapach, że kiedyś mieliśmy po prostu takiego bota, który wykonywał decyzję, A kolejny etap to bot, który pokazuje nam różne opcje, ale to my wybieramy konkretną opcję, która jest dla nas jako dla właściciela takiego bota adekwatna, interesująca. No i ostatni etap, czyli tak zwane autonomous bots, czyli autonomiczne boty, to takie, które po prostu same podejmują decyzje w obszarach. które akurat zabrali nam czas. Też na przykład, zdecydowanie tak. Ale to też ciekawe, w jaki sposób, czy w których momentach jesteśmy w ogóle w stanie, chcemy taką autonomię przekazać maszynie. Jeżeli mówimy o zakupach, masz jakiś pomysł, co byś przekazał maszynie, jakie zakupy, żeby za ciebie robiła? Codzienne. Codzienne.
Karol: Wiesz, ja jestem człowiekiem, który działa trochę wedle pewnych schematów, to znaczy ja rzadko eksperymentuję, mam listę zakupów, która jest dla mnie niemal stała, tak samo jak mam 7 czy 8 identycznych podkoszulków, tak samo lista moich zakupów tydzień po tygodniu wygląda niemal tak samo. Gdybym mógł to zautomatyzować, ale gdybym mógł mieć pewność, że te zakupy będą określone jakości, czemu nie?
Artur: No to jeszcze, to można w ogóle powiedzieć, że jesteś takim idealnym właścicielem custom bota. Natomiast też ciekawe, że takie boty tej nowszej generacji, autonomiczne, mogą uczyć się twoich preferencji. Na przykład, jeżeli dla ciebie cena jest ważniejsza niż marka, to mogą dostosowywać na przykład swoje wybory z punktu widzenia ceny, proponując ci konkretne rozwiązania.
Karol: A ty z jakiego bota to byś z chęcią skorzystał?
Artur: Ja prawdopodobnie też z punktu widzenia na przykład zakupów spożywczych albo chemicznych, nigdy nie lubiłem tych zakupów. I to też ciekawe, jak mówimy nie lubimy, czyli oddajemy coś, co nie sprawia nam frajdy. Albo zabiera nam czas.
Albo zabiera nam czas. Natomiast było badanie, nie pamiętam już, kto je przeprowadził, ale na pewno nie w Polsce. W każdym razie, czego na pewno byś nie oddał? No i tutaj dominowały zakupy odzieżowe, perfumy, tego nie chciano oddać. Stwierdzono, że to sprawia frajdę.
Karol: Tutaj znowu nie jestem dobrym przykładem. Kupuję takie same podkoszulki, te same perfumy od lat nie pamiętam, ilu po prostu biorę i kupuję. Zgoda.
Artur: To zdecydowanie, jakby tutaj jesteś idealnym odbiorcą.
Karol: Ale za to z mikrofonami eksperymentowałem długo.
Artur: A, czyli jedna kwestia, może, czyli mikrofonów byś nie oddał, a czegoś jeszcze?
Karol: Relacji z ludźmi.
Artur: No właśnie, to też w moim badaniu było często powtarzane. Ja zapytałem pracowników, jakich zadań w pracy nie oddałbyś maszynie, technologii, aby podejmowała pewnego rodzaju decyzję. Jednym z tych obszarów właśnie była kwestia relacja z innymi ludźmi, tego by nie powierzyli, ale to też ciekawe z punktu widzenia zjawiska technofobii, że mówili, że nie powierzyliby zadań, które wymagają odpowiedzialności. Czyli mimo wszystko obawiają się tego, czy ta maszyna faktycznie, technologia nie będzie zawodna.
Karol: Albo czy nie udowodni tego, że wykonuje lepiej zadania od nas ludzi. Że jesteśmy niepotrzebni. Z drugiej strony nie wszedłbym w relację z Tamagotchi.
Artur: No w sumie tak, to byłoby dość ciężkie z taką podstawową technologią, ale… Zresztą pisałeś o Tamagotchi w swojej publikacji naukowej. Opowiesz o tym? Tak, zdecydowanie. Tamagotchi było takim pierwszym etapem może tworzenia takiego zaangażowania technologicznego. Myślę, że z punktu widzenia tego, kto nas słucha, warto parę słów powiedzieć, czym w ogóle Tamagotchi było, bo to wcale nie jest takie oczywiste. Ale w latach dziewięćdziesiątych generalnie rzecz biorąc dzieciaki latały z plastikowymi technologiami, maszynkami, które przypominały jajko i opiekowały się różnymi zwierzątkami, które miały swoje potrzeby, musieliśmy im w jakiś sposób pomagać, żeby przetrwały. No a w momencie, kiedy umierały, to była dla nas wielka porażka. Pamiętam, że każdy chciał mieć takie doświadczenie.
Takie tamagotchi. W każdym razie wtedy pojawiały się pierwsze symptomy tego, że ludzie uzależniają się od takich technologii. Właśnie nadają im pewien kontekst, pewne relacje. To nie było jeszcze aż tak popularne jak w przypadku np. humanoidalnych robotów albo naszych voicebotów, których mamy. Natomiast…
Karol: Ależ ci się oczy zaświeciły.
Artur: Oczywiście, no tak, bo to już jest tak zupełnie, patrząc z punktu widzenia historii, to jest coś niebywałego, w jaki sposób się to rozwija i w jaki sposób nadajemy temu charakter. Ale przecież nie jednemu zdarzyło się, że poleciała łza w momencie, kiedy nasz zwierzak Tamagotchi umierał.
Karol: Arturze, kim jesteś? Bo wybaczcie, drodzy słuchacze, ale nie przedstawiłem wam naszego dzisiejszego gościa.
Artur: Nazywam się Artur Modliński, na co dzień pracuję w Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją. Moją życiową misją jest stworzenie mostów pomiędzy nauką, społeczeństwem i biznesem, dlatego że na co dzień działam na styku biznesu, czyli reprezentuję nauki o zarządzaniu i jakości biznesu. Moje badania głównie eksperymentalne prowadzę właśnie w tym nurcie, natomiast jestem interdyscyplinarny. Staram się łączyć socjologię, psychologię, teorię ewolucyjną, biznes, ekonomię, żeby wyjaśniać zjawiska technologiczne, które pojawiają się w naszym otoczeniu.
Karol: W sumie nie mamy innego wyjścia, bo odnoszę takie wrażenie, że całe nasze życie staje się interdyscyplinarne.
Artur: Zdecydowanie ta kompleksowość powiązań pomiędzy różnymi obszarami naszego życia staje się kompletnie złożona. I w momencie, kiedy nie korzystamy z interdyscyplinarności, a skupiamy się tylko i wyłącznie na naszym polu zainteresowań, no to faktycznie nie mamy pełnego obrazu tego, co się dzieje dookoła. Zresztą bardzo fajne badanie odnośnie tego, kto jest w stanie przewidywać tak naprawdę przyszłość.
Może nie przewidywać z punktu widzenia wróżenia, ale zdawać sobie sprawę, co ewentualnie może nastąpić, to zdecydowanie ludzie, którzy inwestują w takie interdyscyplinarne podejście, radzą sobie lepiej aniżeli eksperci tematyczni. Przykłady jakieś? Jeżeli chodzi o przykłady konkretnych osób, to w chwili obecnej sobie nie przypominam, natomiast było badanie w Stanach Zjednoczonych na temat przewidywania tego, jak duża jest szansa, że upadnie Związek Radziecki i osoby, które stricte interesowały się polityką, geopolityką, miały zdecydowanie mniejszą trafność z punktu widzenia, przewidzenia tego rozpadu, aniżeli osoby, które szeroko, horyzontalnie patrzyły na różne problemy socjologiczne, ekonomiczne, polityczne, geograficzne. Czyli tutaj bardziej tak kontekstowo te osoby po prostu sobie poradziły lepiej. No a teraz mamy sztuczną inteligencję.
Karol: No właśnie, wracając zatem do sztucznej inteligencji. Arturze, na jakim etapie rozwoju sztucznej inteligencji jesteśmy obecnie? Bo jesteśmy… Mogłoby się wydawać, że ta sztuczna inteligencja jest już wszędzie, ale śmiem twierdzić, że jesteśmy na początku tej drogi.
Artur: Ja też mam takie wrażenie.
Bardzo trudno jest określić, na jakim etapie drogi jesteśmy, jak nie znamy całej drogi, prawda? A nie wiemy, gdzie ona się kończy. Widzimy tylko to, co jest za nami i trochę to, co jest przed nami. I teraz, tak jak przed chwilą patrzyliśmy na nasze tamagotchi, o których mówiliśmy, no to wydaje nam się tak z punktu widzenia teraz, że zrobiliśmy ogromny progres. Natomiast kompletnie nie wiemy, jak idziemy tą drogą, to co jest za tym zakrętem, który właśnie przed nami się pojawia. Czy to jest koniec drogi i nic już nie będzie, czy też wręcz przeciwnie, dopiero wchodzimy do lasu. Kompletnie nie mam pojęcia, studiując tak naprawdę case’y, studiując badania, co jeszcze jesteśmy w stanie z tego wyciągnąć.
Singularity? Może tak, ale to jest po raz kolejny może. Ja jestem raczej sceptyczny, ponieważ to jest pewnego rodzaju założenie, że tak może być, ale to jest założenie, które ma koncepcję filozoficzną, pewnego rodzaju rozważania, ale nie wiemy, czy tak naprawdę stworzenie sztucznej inteligencji na jeszcze bardziej zaawansowanym poziomie sprawi, że będzie ona świadoma na przykład. Ograniczenia, które mamy z punktu widzenia przetwarzania danych, z punktu widzenia nawet materiałów, które są wykorzystywane do przetwarzania tych danych, na tę chwilę sprawia, że jeszcze ta singularity nie za bardzo nam się wyłania z tego horyzontu zdarzeń. Natomiast koncepcje są różne, łącznie z tym, że środowisko, w którym już teraz funkcjonujemy, to jest projekcja stworzona przez sztuczną inteligencję, a my jesteśmy tylko i wyłącznie pewnego rodzaju postaciami, które przez taką sztuczną inteligencję w postaci singularity zostało wytworzone. Ale nie straszmy, nie jesteśmy w stanie ustalić jaka jest prawdopodobność tego zdarzenia, ale ja czuję się bez względu jak jest całkiem dobrze z samym sobą.
Karol: Okazuje się, że test Turinga to już za mało, żeby stwierdzić, czy sztuczna inteligencja istnieje.
Artur: No właśnie, może teraz kwestia bardziej nie testu Turinga, a testu jakiejś relacji z maszyną, jak bardzo jest samoświadoma, ale i tego nie jesteśmy w stanie powiedzieć, bo przecież nie wiemy czym jest świadomość. Do tej pory mamy problem ze znalezieniem definicji świadomości.
Karol: Jak to wygląda z perspektywy akademickiej świadomość? Jak ja patrzę na to, gdybyś mi zadał to pytanie, to ja bym powiedział świadomość, wiem gdzie jestem, kim jestem, co robię i do czego dążę.
Artur: Są faktycznie takie podejścia do świadomości. Bardzo ciekawie zostało to opisane w książce Tysiąc mózgów w mojej głowie, która niedawno pojawiła się na polskim rynku wydawniczym. ale tak naprawdę nie ma w stu procentach takiego konsensusu, czym ta świadomość jest. Faktycznie to, co mówisz, jest jedną z opcji, która jest powtarzana przez zwolenników takiego, można powiedzieć, bardziej mechanicznego podejścia do świadomości. Natomiast kłócimy się i bardzo często z moim dobrym przyjacielem, neurobiologiem, kłócę się na temat tego, czym jest ta świadomość.
Jesteś ekspertem od mózgu. No to jak to wytworzyć? Czyli stworzymy sztuczny mózg, zresztą to też ciekawa koncepcja ostatnio o inteligencji organoidalnej. Jesteśmy w stanie stworzyć mózg i co, jest świadomość? No nie wiemy do końca, czy faktycznie tak, czy nie. Łącznie z tym, że przecież mamy w filozofii takie podejście, że a być może świadomi jesteśmy tylko my, a to wszystko, co jest dookoła, to tylko wytwór naszego mózgu, czyli w ramach tego takiego trochę solipsyzmu moglibyśmy powiedzieć, że ty Karolu jesteś tylko moją projekcją, a faktycznie to tylko ja mam tę świadomość.
Karol: A ty jak czujesz świadomość?
Artur: Ja odczuwam świadomość jako pewnego rodzaju bycie. Jestem w stanie powiedzieć, że jestem przez moje doświadczenia i to doświadczenie też bardzo często jest powtarzane w opracowaniach naukowych, że świadomość jest powiązana z pewnego rodzaju przeżyciami, które są w naszej głowie. Na bardziej, można powiedzieć, takim hedonistycznym etapie, czy na bardziej hedonistycznym obszarze, można powiedzieć, że świadomość to pewnego rodzaju istnienie jakichś preferencji, które mamy, wiemy co lubimy, wiemy w jaki sposób się zachowujemy, wiemy co chcemy robić.
To jest bardzo dobre do rozwijania w dobie rewolucji 4.0 i 5.0, bo mam wrażenie, że nadal nie do końca robimy to, co lubimy, a to, co musimy. I tutaj sztuczna inteligencja jest dla nas pewnego rodzaju obietnicą, że możemy sobie zajrzeć do środka i zastanowić się, co lubimy. Ale świadomość dla mnie to właśnie taka kwestia pewnego rodzaju doświadczenia. No i widzisz, i tutaj trudno jest powiedzieć, chciałem powiedzieć coś takiego, świadomość bycia. Ale to jest trochę jak powiedzieć masło maślane, że świadomość to jest świadomość bycia. Wiem gdzie jestem, po co jestem? Coś w takim obszarze, chociaż szczerze powiedziawszy nadal nie wiem po co. I właśnie ten sens, kwestia sensu w dobie sztucznej inteligencji.
Karol: Ale gdybyś nie wiedział, to nie kierunkowałbyś swoich działań, energii i całej reszty?
Artur: Pewnie tak. Zastanawiam się tylko nad wielością dróg, które możemy obierać i faktycznie tego, gdzie jesteśmy w pewnym momencie. Ja mam tutaj duży problem. Duży problem dlatego, że jako naukowiec jestem przyzwyczajony, żeby patrzeć na liczby i na fakty, na konstrukty, które nas otaczają, czyli kwestie zdefiniowania szczęścia, próba zmierzenia tego szczęścia. Mam problem na przykład ze zmierzeniem świadomości. Wiem, że są podejmowane ku temu próby, ale nie mam kompletnie pojęcia, w jaki sposób do tego podejść.
Karol: Liczby, fakty, a ludzie? Czy projekcją ludzi są liczby i fakty?
Artur: To jest bardzo ciekawe podejście, co jest częścią czego. Na pewno liczby w pewien sposób pozwalają nam zrozumieć rzeczywistość.
Czy są naturalne? To jest fajne z punktu widzenia literatury. Bardzo lubię odwoływać się do różnych książek. Jednym z moich ulubionych pisarzy, zresztą noblistą przy okazji jest Coci, który już po Nagrodzie Nobla moim zdaniem napisał swoje Opus Magnum. Trzy książki na temat może się wydawać z tytułu powiązane religijnie, a mianowicie o Jezusie. Chociaż tego Jezusa jest tam stosunkowo mało, natomiast zdecydowanie jest perspektywa liczb, odczuwania liczb i tego, w jaki sposób liczba w pewien sposób, można powiedzieć, jest takim abstrakcyjnym podejściem, które pozwala na przykład, które możemy zatańczyć, ale którego nie możemy zrozumieć. Bardzo mnie to zafascynowało. A liczba idealna zero? No właśnie, czy istnieje, czy nie, czy mamy zero, czy nie, to zależy, tutaj może już trochę z pewnym żartem i przekąsem, zależy w jaki sposób zarządzimy sobą przez dany miesiąc, możemy to zero odczuć, ale faktycznie czy to zero jest, nie wiem.
Karol: No dobrze, przejdźmy zatem do autonomicznej sztucznej inteligencji. Pojęcie i znaczenie.
Artur: Autonomiczna sztuczna inteligencja to tego rodzaju technologia, której nadano możliwość podejmowania decyzji. A żeby nie rozmawiać o tym z punktu widzenia technicznego…
Karol: Tylko nie mówimy teraz o bocie, który w pewien sposób automatyzuje pracę, tylko o czymś więcej.
Artur: Tak, zdecydowanie mówimy o takiej technologii, która jest w stanie uczyć się na bieżąco i z wykorzystaniem aktualnych danych podejmować pewnego rodzaju decyzje. Takim, żeby nie być tylko przy definicji albo żeby nie przyczepić się do definicji.
Bardzo często taką technologią, która bazuje na autonomicznej sztucznej inteligencji są autonomiczne samochody. Bardzo często o nich mówimy, chociaż to oczywiście nie jedyny obszar wykorzystania. Rozjechać niepełnosprawnego czy babcię.
Między innymi, ale też zobacz, że tutaj mówimy o absorpcji, o wykorzystaniu danych w czasie bieżącym, czyli oczywiście uczymy system. System uczy się rozpoznawania przeszkód, rozpoznaje pogodę, rozpoznaje warunki na drodze, ale praktycznie sytuacja, z którą spotka się w środowisku rzeczywistym, ona jest jakiegoś rodzaju połączeniem tych sytuacji, z którymi ta maszyna miała do czynienia, natomiast to zawsze będzie nowa sytuacja. Teraz na podstawie tych danych, które kiedyś tej maszynie udostępniono na podstawie różnego rodzaju sensorów, ona w czasie rzeczywistym podejmuje decyzję. Prędkość, no tak jak powiedziałeś, sytuacje krytyczne, czyli przejechać babcie czy dziecko. Ale też na przykład kwestie tego, czy raportuje potrzeby wymienienia jakiejś części. To jest duże wyzwanie z punktu widzenia tego, w jaki sposób współpracujemy z takimi technologiami.
Karol: Czy wyprzedzić, czy przyspieszyć, czy ominąć przeszkodę?
Artur: Dokładnie tak. i żebyśmy nie byli gołosłowni. Taka autonomiczna, sztuczna inteligencja to nie tylko samochody. One są najczęściej debatowane. Zresztą testy obecne chyba wskazują, że całkiem nieźle sobie radzą, ale my cały czas się ich boimy. Jak starczy nam chwila czasu, to powiem kto bardziej, a kto mniej.
Natomiast to też inwestowanie. Mamy już firmy, które tworzą algorytmy, autonomiczne algorytmy, które biorą pod uwagę różne dane i I w czasie rzeczywistym inwestują nasze pieniądze, abyśmy osiągali te cele, które sobie założyliśmy. Czyli albo stracimy te pieniądze, albo zyskamy na podstawie na przykład progu akceptowanego ryzyka, czy tego w jaki sposób na przykład taki bot podejmuje strategię. Pamiętasz może jakieś narzędzie, kategorię, o której mówisz? Betterment inwestuje bardzo silnie w tego rodzaju aplikacje.
Karol: Pamiętam historię jednego gościa na LinkedIn, który opowiadał o tym, w jaki sposób wykorzystał czata GPT do określania swojej strategii inwestycyjnej. Okazuje się, że w ciągu roku uzyskał zysk na poziomie 30-40%.
Artur: Fantastyczny, aż by się chciało naprawdę przytulić bliżej serca takiego bota, prawda? A szczególnie, to jest ciekawe, szczególnie z punktu widzenia tego, że przecież już zapowiadamy sobie czata GPT piątkę, także może jeszcze większa skuteczność. A co będzie potrafiła dziesiątka? No właśnie, już w ogóle nie będziemy musieli nawet zastanawiać się nad tym, że chcemy inwestować. Żartuję oczywiście.
Karol: Zastanówmy się jeszcze nad tymi obszarami wykorzystania sztucznej inteligencji. Mamy samochody, mamy inwestycje. Gdzie jeszcze można ją wykorzystywać? By the way, w… Mnie zawsze interesuje jedna rzecz, dlaczego modele, które są wykorzystywane w przypadku autonomicznych samochodów nie są adaptowane do samolotów, bo wydaje mi się, że sam proces, jestem laikiem i opieram się na moich odczuciach, proces komunikacji samolotem jest dużo łatwiejszy do zarządzania niż komunikacja samochodem.
Artur: Jest zdecydowanie taka koncepcja autonomicznych samolotów, samolotów bez pilota. Tutaj spotykamy się z jeszcze większym problemem, tym, który ja adresuję w swoich badaniach, czyli oporem społecznym. Samochody budzą opór różnych grup, w zależności od różnych zmiennych, różnych czynników, natomiast samoloty stanowią już tak zwaną masę krytyczną.
Szczególnie po doniesieniach prasowych odnośnie Boeinga i tych wypadków, które miały miejsce, zdaje się w Chinach i w Etiopii, gdzie jeden z modeli, tak mówiono, miał wsparcie właśnie takich technologii bardziej autonomicznych i tutaj to wzbudziło takie obawy i taką burzę, że już w chwili obecnej sama firma Boeing ma problem po prostu, żeby przekonać ludzi, że jest bezpieczna. I teraz kwestia właśnie tego niskiego zaufania do maszyny, do tego, że te samoloty będą kierowane nie przez człowieka, budzi ogromny opór. My już się boimy latać, ja osobiście też, gdy samolotem kieruje pilot albo pilotka. A teraz w sytuacji, kiedy będzie to maszyna, to ten opór u ludzi zdecydowanie rośnie.
Karol: A medycyna?
Artur: Zdecydowanie nad tym też pracujemy. Na razie jest to kwestia wsparcia dla lekarzy, czyli ona jeszcze nie jest autonomiczna. Nie podejmuje sama decyzji w przypadku operacji. Nie mamy jeszcze robota operującego autonomicznie. Operacja ma miejsce oczywiście pod nadzorem lekarza, natomiast wszelkiego rodzaju technologie są wsparciem. Natomiast też pamiętam, że na jednej konferencji mówiono o takim wdrożeniu, które miałoby być takim autonomicznym lekarzem. Zresztą, jak jesteśmy przy futurystyce, to przecież jedna z serii obcy, zdaje się Prometeusz, pamiętamy tam bohaterkę, która nagle zachodzi w ciąży, okazuje się, że w jej brzuchu jest jakaś obca forma życia i przecież jest operowana przez autonomiczną kabinę. która diagnozuje problem, operuje i ostatecznie wypuszcza, miejmy nadzieję, zdrową bohaterkę na wolność.
Karol: Finanse, transport, medycyna, jakie obszary jeszcze będą dotknięte przez sztuczną inteligencję?
Artur: Ja myślę, że z punktu widzenia możliwości to jest praktycznie każdy aspekt naszego życia, to też twórczość. Ja w swoich badaniach z kolei dużo poświęcam twórczości, odbiorze tego, w jaki sposób ludzie patrzą na obrazy, na sztukę, która jest tworzona przez technologię. Nie mamy jeszcze tak w 100% autonomicznej sztucznej inteligencji coś tworzącej. Nadal mówimy o kwestii zlecenia pewnej pracy i wtedy, jeżeli mówimy np. narysuj coś, to faktycznie jest to malowane, rysowane. Natomiast jakby technologicznie mamy duży wysyp produktów, chyba tak mogę to nazwać, produktów związanych ze sztuką, które są stworzone przez sztuczną inteligencję nieucieleśnioną i ucieleśnioną, bo przecież mamy Aidę, która maluje. I teraz takie pytanie, no właśnie, jak my postrzegamy te obrazy, te obiekty kultury, które są stworzone przez sztuczną inteligencję?
Karol: Przypomnij, proszę, Aida maluje, ale fizycznie?
Artur: Tak, jest robotem, który maluje. Nadano jej ciało. Chociaż oczywiście za malowanie w pewien sposób odpowiada algorytm, natomiast ma łapkę i maluje.
Karol: Sztuka to rzeczywiście bardzo ciekawy obszar. W końcu odpowiada nie tylko za nasze życie wewnętrzne, ale jest taką przyjemnością.
Artur: Tak, zdecydowanie. To, co lubimy sami robić albo co lubimy oglądać. Dlatego tutaj kwestia dużego oporu przed sztuką tworzoną przez sztuczną inteligencję leży właśnie w tym lubieniu pewnych obrazów. Ja do tej pory pamiętam jedno badanie, to było jedno z pierwszych moich badań, które zrobiłem z moim serdecznym przyjacielem Pawłem Fortuną. z Lublina, z którym zresztą do tej pory pracuję nad podobnymi projektami, mianowicie kwestii tego, jak ludzie postrzegają wartość pewnego obrazu, jeżeli dowiadują się, że to sztuczna inteligencja. I my z Pawłem…
Karol: Miałem właśnie o tym powiedzieć, bo zobacz, jaki niezwykły jest klimat, kiedy jesteś w galerii na wernisażu, możesz poznać autora, usiąść mu w dłoń, porozmawiać, wypić lampkę wina.
Artur: Dokładnie tak. I bardzo często przecież podziwiając obrazy, czytamy historię tych autorów, zastanawiamy się dlaczego doszli do takich wniosków, co stoi za ich twórczością. Tak samo w wierszach, tak samo w książkach, do tego też warto się odnieść. Natomiast nasze wyniki z Pawłem jasno pokazują, że w momencie kiedy mówimy, że jakiś obraz został stworzony przez sztuczną inteligencję, ludzie wyceniają go niżej. Chociaż w naszym eksperymencie zrobiliśmy tak, że wykorzystaliśmy jeden obraz namalowany przez człowieka i po prostu stworzyliśmy dwie grupy uczestników takiego badania. W jednej grupie powiedzieliśmy, że to jest obraz stworzony przez sztuczną inteligencję, w drugiej grupie, że jest to obraz stworzony przez człowieka. I faktycznie tam, gdzie mówiliśmy, że jest to ten sam, ale to ten sam obraz stworzony przez sztuczną inteligencję, ta wartość była zdecydowanie mniejsza.
Karol: Kwestia bias’ów.
Artur: Zdecydowanie tak. Czyli po prostu mówimy, że to jest mniej warte, ale to też ciekawe z innego punktu widzenia, czyli cyborgów. No bo przecież mamy już tak zwane cyborgi. Mamy Nila Harbisona, który tworzy sztukę, sprzedaje swoją sztukę.
Karol: W kontekście tego, co pokazał Neuralink w ubiegłym tygodniu, zobacz, co może się zacząć dziać.
Artur: I tutaj mamy tak naprawdę problem jako odbiorcy, że nie wiemy, jak zaklasyfikować takiego cyborga.
Czy to jest bardziej twórczość człowieka, czy to jest bardziej twórczość maszyny? Tutaj nasi uczestnicy eksperymentów byli bardzo poważnie zaskoczeni. Nie wiedzieli, w jaki sposób do tego podejść. Był gdzieś po środku. A ty jak to kwalifikujesz? Dla mnie jest to nowa forma sztuki. Nowe narzędzia, które wykorzystujemy do tego, żeby uchwycić bodźce.
Karol: Czyli jesteśmy romantyczni wobec tego, jak było. Czas na to, żeby akceptować te nowe formy?
Artur: Myślę, że tak. Oczywiście tutaj z punktu widzenia ekspertów sztuki, koneserów sztuki, to jest duże wyzwanie w chwili obecnej, w jaki sposób podejść do wyceniania, do oceniania i klasyfikacji. Natomiast na pewno powinniśmy próbować, zastanawiać się, czy faktycznie nie jest to pewna nowa forma doświadczania. No bo jeżeli mówimy sobie… że staramy się rozwijać taką koncepcję egzosens, czyli tak zwanych nowych zmysłów, magnetorecepcji na przykład, czyli możliwości tego, że jak sobie w palce wszczepimy magnesy, to będziemy w stanie na przykład wyczuwać pole magnetyczne, czyli kwestia rozszerzania tego, w jaki sposób funkcjonujemy i na co dzień działamy. Bo przecież chociażby wiązka światła czy fale, jesteśmy w stanie rozpoznać drobny kawałek tego, jakby nasze zmysły.
A teraz technologia sprawia, że jeszcze bardziej łapiemy to, co jest u nas. Jednocześnie straszne, jednocześnie ciekawe, kuszące. No dobrze, kolejny obszar? Kolejny obszar z autonomicznej sztucznej inteligencji. Zawsze z listowaniem mam największe problemy, to jest duże wyzwanie. Co tak, a co nie?
Karol: Słuchaj, chyba, że nie przychodzi ci nic do głowy, teraz to przechodzimy dalej.
Artur: Nie przychodzi mi tak bardzo wyraźnie do głowy, dlatego, że mamy jakby te obszary, o których wspomnieliśmy, to są faktycznie te, w których wiemy, że coś się dzieje, że jest jakaś kwestia inwestowania. Teraz zastanawiam się oczywiście, czy kojarzę coś więcej Natomiast ja powiem tak, lista jest na pewno nie zamknięta i tutaj bardzo duże znaczenie odgrywa też to, co my jako konsumenci, użytkownicy, to co komunikujemy. Kiedy jest za dużo, czyli takie przysłowiowe, filmowe enough is enough, a kiedy jesteśmy w stanie w to wejść, w jakim obszarze.
Karol: A jakie są szanse i zagrożenia związane z rozwojem autonomicznej sztucznej inteligencji?
Artur: Szansa na pewno jest taka, jak już wcześniej dyskutowaliśmy, że możemy pozbyć się tych zadań, które nie sprawiają nam przyjemności. Możemy zyskać więcej… uniwersalne, dwudniowe tydzień pracy. I to jest właśnie pytanie bardzo, bardzo poważne, ponieważ ja tutaj mam innego rodzaju problem. Mam problem z poczuciem sensu i to bardzo często o tym również dyskutuję z obszarem biznesu, bo tutaj te wdrożenia ze sztucznej inteligencji to kwestia właśnie biznesu.
Karol: Firmy powstały po to, żeby maksymalizować zysk przy minimalizacji kosztów i rzeczą absolutnie naturalną będzie to, że procesy będą automatyzowane po to, żeby firmy zarabiały więcej.
Artur: To prawda. I teraz powstaje kwestia, że oczywiście potrzebujemy mniej ludzi i wszystko jest jasne z punktu widzenia tego, że jak chociaż wcześniej powiedziałeś, że będziemy mieć jakiś dochód podstawowy, czyli będziemy mogli egzystować. Natomiast ja rozmawiając z ludźmi, a też z menadżerami, z menadżerkami, pracownikami, pracownicami różnych szczebli, Ja mam czasami taki dylemat i taką wątpliwość. Bardzo często ludzie idą do pracy, bo praca staje się sensem samym w sobie. Uzależniają się od pracy. Pracują, nieważne czy to lubią, czy nie lubią, ale chodzą do pracy, bo jest to sens sam w sobie. Teraz ja mam duże wyzwanie, znaczy dużym pytaniem jest dla mnie w ogóle odnajdywanie tego sensu, kiedy praca się nie pojawi. Czyli kiedy ktoś nam powie, możesz zostać w domu, nie umrzesz z głodu, nie zabierzemy ci mieszkania, możesz robić ze sobą, co chcesz. I teraz wiem, że jest pewna grupa ludzi, która będzie wiedziała, co ze sobą zrobić.
Ale jest też cała masa ludzi, którzy nagle stoją przed tym właśnie problemem. Czyli kwestia, nie mam sensu, nie mam po co wstawać. Nie wiem, co mam ze sobą zrobić. Też z punktu widzenia takiego codziennego egzystowania, funkcjonowania w społeczeństwie, tego, na kogo głosujemy, tego, co popieramy, tego, w jaki sposób patrzymy na świat. No bo jeżeli popatrzymy sobie na te zagrożenia, które w chwili obecnej mamy, tak jak powiedziałem, ja staram się patrzeć interdyscyplinarnie, czyli też na przykład na politykę poprzez technologię, też tą autonomiczną. No przecież jak spojrzymy na Stany Zjednoczone, I obecną kampanię Donalda Trumpa. To przecież ogromna ilość tych wyborców to są mężczyźni wykonujący podstawowe prace techniczne, mechaniczne, na pewno niezwiązane z kreatywnością i empatią. I teraz powstaje właśnie takie pytanie, dlaczego? Dlatego, i tutaj też o tym już kiedyś wcześniej mówiłem, kobietom przez te ostatnie dziesięciolecia, przez ruchy emancypacyjne udało się w pewien sposób zrozumieć, że mogą odnaleźć się praktycznie w każdej roli. Tej, która jest postrzegana jako męska, jako niemęska, nie mają problemu, żeby kierować autobusem.
Żeby wykonywać prace, które kiedyś były postrzegane jako typowo męskie. Natomiast u mężczyzn to jest cały czas ogromny problem, żeby wykonywać prace, które są postrzegane jako niemęskie. Zobacz, bardzo często mówimy chociażby o tym, że staramy się znaleźć damskie, żeńskie odpowiedniki różnych zawodów. Kierownik, kierowniczka, profesor, profesorka. Ale o tym też często mówię, zobacz na przykład przedszkolanka, mamy ten drugi problem, przedszkolanek dla mężczyzn i tutaj faktycznie o tym też kiedyś rozmawiałem z pracownikami, Problemem jest, żeby pracować jako kosmetyk, czyli kosmetyczka, czy na przykład przedszkolanek, przedszkolanka, ponieważ to jest społecznie uważane jakby przez ich grupę docelową za coś, co mężczyzna nie powinien zrobić.
Oni to lubią, chcieliby to robić. Jest cała masa mężczyzn, którzy mogliby naprawdę pracować w takich zawodach. Ale boją się przekształcić właśnie ze strachu przed ostracyzmem, przed tym, że będą wyśmiewani przez to, że odbierze im się status. Zresztą z tych moich badań, które swego czasu zrobiłem nad percepcją autonomicznych samochodów, największy opór był wśród najbardziej religijnych mężczyzn. Dlatego, że w tych wspólnotach religijny mężczyzna to jest osoba, która dominuje w związku, w rodzinie i teraz kierowanie samochodem było postrzegane przez nich jako symbol statusu. Mężczyzna kieruje samochodem, mężczyzna kieruje, jest głową rodziny. I teraz zrezygnowanie z tego czegoś, co było częścią tego statusu, jest dla nich ogromnym problemem z punktu widzenia akceptacji, zaufania do tych technologii. Kobiety o podobnym poziomie religijności nie miały problemu, żeby taką autonomiczną maszynę zaakceptować, na podobnym poziomie jak mężczyźni, którzy byli niereligijni. Natomiast religijni mężczyźni mieli z tym ogromny problem.
Karol: A to kwestia właśnie ograniczeń w myśleniu, przyzwyczajeń, środowiska i kultury, w której się wychowujemy.
Artur: Dokładnie tak. I biorąc pod uwagę też to, że i to, jak bardzo jesteśmy różni na całym świecie, przecież poziom różnych cech kulturowych bardzo dynamicznie się zmienia. czyli kwestie poziomu sfeminizowania, otwarcia na prawa ludzi, na równość, ale też kwestia postrzegania czasu, postrzegania niepewności, czy ona jest czymś złym, czy czymś dobrym. My się tym bardzo różnimy. I teraz adopcja sztucznej inteligencji, też tej autonomicznej sztucznej inteligencji na całym świecie może być zdecydowanie różna w zależności od tego, w jakiej kulturze taka technologia działa. Ma być zaadoptowana. I trudne, prawda? Z punktu widzenia osób podejmujących decyzje jest to ogromne wyzwanie. Znalezienie jednego rozwiązania, które w jakiś sposób satysfakcjonowałoby ludzi, staje się w tym zmiennym świecie praktycznie niemożliwe.
Karol: A jeżeli ludzie nie będą mieli świadomości, nie będą mieli takiego pociągu do wiedzy, do edukacji, do poznawania nowych technologii, to nie skończy się to w ten sposób, że zaczną się jeździć w domach i konsumować treści, które będą nadprodukowane?
Artur: Tak, i to jest ogromne zagrożenie z punktu widzenia fake newsów, sztucznie wykreowanych treści, które się pojawiają, czasami treści tworzonych przez ludzi, czasami przez boty, przez technologię. Natomiast jeżeli ludzie nie wiedzą, czym jest bot albo czym jest sztuczna inteligencja, to w jaki sposób mogą wyobrazić sobie, że jakiś tekst został stworzony właśnie przez technologię, a nie przez człowieka. Tych plotek, które pojawiają się w chwili obecnej jest taka masa, że coraz częściej mamy naprawdę nawet osoby wykształcone w różnych obszarach. Mają problem, żeby rozpoznać, że to jest faktycznie fejk, że to nie jest prawda. Zresztą zobaczmy, ja ostatnimi czasy tak śledząc media społecznościowe, jestem pod takim ogromnym parasolem wielu pytań, chociażby tego, co dzieje się w Wielkiej Brytanii. No przecież kwestia newsów, wiadomości, które pojawiają się o królu Karolu, i księżnej Kate, no po prostu każdego dnia jest inna i po prostu uwierzenie, że robi to człowiek, czy w ogóle uwierzenie w to, co się tam dzieje z punktu widzenia treści jest niebywałe.
Karol: Teraz pytanie jedno zasadnicze, czy w takim razie rozwój technologii da nam wolność, czy też wprost przeciwnie?
Artur: Może dać nam wolność i może nas zamykać. Ja jako edukator stawiam sobie za cel, żeby tworzyć pewnego rodzaju synergię i współpracę. Czyli uczulam moich studentów, moje studentki na to, w jaki sposób ta technologia działa. Zresztą też mam, tak jak powiedziałem, taką misję tworzenia pewnego rodzaju mostów, pomiędzy nauką a społeczeństwem i biznesem. Bardzo często jeżdżę i edukuję, opowiadam, wskazuję, w jaki sposób to wszystko funkcjonuje i działa. Może aż tak bardzo bym się tutaj nie pokazywał z tej strony, ale na pewno mam takie przekonanie, że każdy jest w stanie zrozumieć, jak technologia działa.
Jeżeli poświęci temu chwilę w tym szalonym świecie. I bardzo często jest tak, że nawet rozmawiając z grupami, które potencjalnie są stereotypizowane jako te, które nie radzą sobie z technologią, czyli na przykład z seniorami, naprawdę w mig są w stanie złapać, wręcz powiedzieć, jak ta sztuczna inteligencja mogłaby im pomóc w codziennym życiu. To jest niebywałe, że wystarczy odejść z takiego podejścia piedestału i mówienia, zresztą mieliśmy też taką konwersację, mówienia trudnych słów i pokazywania takiego powiedzmy pewnego rodzaju lepszości na rzecz tego, żeby jakby zejść poprzeczkę niżej z punktu widzenia języka, z punktu widzenia zrozumienia, chociaż może niżej to nie jest poprawne słowo, bardziej kwestie dostosowania swojego języka do innych odbiorców, do dzieci.
Zresztą mieliśmy w ogóle, to mnie zawsze niebywale cieszy, ponieważ Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją w ramach różnych festiwali organizuje czasami spotkanie dla dzieciaków. I to są też dzieciaki szkół podstawowych. I ja mam tutaj takie dwie, można powiedzieć, dwie konkluzje. Pierwsza jest taka, że dzieciaki zdecydowanie wiedzą więcej, niż nam się wydaje, że wiedzą. To jest niebywałe. A po drugie, naprawdę są niezwykle otwarci na te zmiany.
Karol: Jedne, czego potrzebują, to środowisko, w którym tę ciekawość mogą rozwijać. Ja pamiętam, projektowałem kiedyś i budowałem jeszcze, jak nie było, Centrum Nauki Kopernik. W Polsce, na Litwie takie centra, które nazywały się multicentrum, to były takie centra edukacji interaktywnej, których program opracowała izraelska firma Degem Systems, które pozwalały dzieciakom na odnajdywanie swoich mocnych stron przez eksperymentowanie z programowaniem, komponowaniem muzyki, zabawą z klockami inteligentnymi itd.,
Artur: Super, to jest fantastyczna rzecz. Zresztą to jest też koncepcja, która jest cały czas u nas aktualna. W ostatniej książce Kai Fuli opisał w jednym chyba z dziesięciu scenariuszy odnośnie rozwoju sztucznej inteligencji, opisał taki scenariusz z personalizowanego nauczyciela. Takiego, który rozpoznaje umiejętności, rozpoznaje to, co jest dla ucznia ważne i dostosowuje ćwiczenia. Czyli nie mamy takiej tylko i wyłącznie masowej szkoły, ale mamy, nie powiedziałbym kogoś, kto zastępuje nauczyciela, ale takiego tutora, który pozwala jeszcze bardziej dzieciakom po prostu podkręcić te rzeczy, które są dla nich fascynujące.
Karol: Zatem jakie kompetencje warto rozwijać?
Artur: Czego mamy się uczyć? Dla mnie taką kluczową kompetencją z punktu widzenia i biznesu, i codziennego funkcjonowania to jest coś, co ja z Marcinem Bartosiakiem z Uniwersytetu w Pawlii nazwaliśmy nonkonformizmem algorytmicznym. Trudne słowo, ale proste do wyjaśnienia. Czyli pewnego rodzaju umiejętność niezgadzania się z systemem. Zdania sobie sprawę, że system może popełniać błąd, że nie jest nieomylny i czuwania nad tym, żeby nie klikać tak automatycznie, jak pojawia się na przykład rekomendacja albo sugestia, ale żeby chwilę poczekać, znaleźć refleksję i podjąć decyzję w oparciu o swoje doświadczenia, ale w taki sposób… że technologia jest czymś, co rekomenduje, ale nie coś, co kompletnie podejmuje, coś, co jakby sugeruje nam decyzje, które my automatycznie akceptujemy, klikamy i jesteśmy z tego zadowoleni.
Karol: Czyli tak naprawdę powinniśmy zacząć od nauki logiki i etyki?
Artur: Myślę, że zdecydowanie tak. Logiki nam bardzo brakuje. Rozmawiając z menadżerkami, menadżerami różnych firm, cały czas dostrzegamy, że osoby, które zaczynają swoją pracę i nie skończyły prawa albo filozofii, mają problem z logicznym myśleniem. Dlatego ja jestem zdecydowanie zwolennikiem tego, żeby logika pojawiała się już wcześniej w szkole, przed uniwersytetem, dlatego że logiczne myślenie jest dla nas po prostu w chwili obecnej kluczowe. Bez logiki nie jesteśmy w stanie sobie poradzić. Etyka jest ważna, pod warunkiem, że jest to taka prawdziwa etyka, etyka, która patrzy na problemy świata, na różne przestrzenie z wielu obszarów, przez różne okulary, no bo przecież też nie ma jednej etyki. Natomiast ja mam wrażenie, że u nas pojawił się taki stereotyp etyki jako jednej etyki, która tak naprawdę nie jest etyką, tylko pewnego rodzaju propagandą jednego światopoglądu i powinniśmy od tego odejść, znaczy powinniśmy wrócić do etyki, do korzeni etyki, etyki, która ma różne podstawy, która różnie patrzy na świat i uczulania właśnie na to, że na ten świat można patrzeć przez różne okulary.
Karol: A gdybyś miał zarekomendować źródła, jeżeli chodzi o naukę logiki, to od czego byś zaczął?
Artur: Ja myślę, że logikę powinniśmy już rozwijać, czy logikę generalnie powinniśmy rozwijać w momencie, kiedy dziecko jest na wczesnym etapie rozwoju. Ja nie powiem tutaj o konkretnych książkach.
Karol: Wiesz co, pytam o rekomendacje dla naszych słuchaczy. Gdybyśmy chcieli cofnąć się i nadrobić zaległości, jeżeli chodzi o naukę logiki, to od czego byś zaczął?
Artur: Ja chyba nie podam jakiegoś konkretnego źródła, źródła książki, która mogłaby być dla nas pomocna, bo ja mam wrażenie, że to jest trochę jak z książką do statystyki. Każdy z nas inaczej odbiera, znaczy ma różne formy inteligencji, różny sposób rozumowania tego. Przecież w ogóle mówimy o tym, że mamy różne inteligencje, inteligencję muzyczną, inteligencję słuchową. Mam tutaj pytanie. Tak.
Karol: A inteligencja emocjonalna w kontekście rozwoju sztucznej inteligencji?
Artur: To zdecydowanie bardzo ciekawe, świadomość naszych emocji, a tego w jaki sobie sposób z tymi emocjami radzić. Ja też nie wiem, czy to nie powinno być coś, czego powinniśmy uczyć się w szkole, a przecież tego nie robimy.
Inteligencja emocjonalna jest nam bardzo potrzebna. Też nie zapominajmy, że trwają próby tego, żeby technologia rozpoznawała emocje i wykazywała pewne emocje. Nawet w niektórych przypadkach to można powiedzieć jest już systemami działającymi. Natomiast ja zawsze miałem takie marzenie, żeby odejść od standardów takich i tutaj trochę się wyminę z moją wcześniejszą filozofią. Czegoś, co można na pewno zmierzyć, jak chociażby klucz do matury z języka polskiego, który mnie zawsze przerażał. Odejścia od klucza na rzecz tego, że w ogóle czytamy, czy coś czytamy i jesteśmy w stanie te czytanki skonfrontować z naszymi emocjami. No bo przecież czytając książkę czy oglądając film, ja mogę coś więcej powiedzieć o sobie. I teraz to jest właśnie to, czego dzieciaki, czego my bardzo często nie potrafimy. A sztuczna inteligencja jest w stanie napisać nam rozprawkę pod klucz maturalny.
Żaden problem. Ale teraz moje doświadczenia, jak ja widzę na przykład jakieś wątki z pana Tadeusza albo w ogóle z innych książek, które są dla mnie pasjonujące. Zawsze wyobrażałem sobie lekcję polskiego jako coś takiego, że przychodzę z książką, która jest dla mnie ważna i opowiadam o moim doświadczeniu.
Nie wstydzę się, żeby przeczytać swój wiersz, który napisałem. A zobacz, u nas cały czas mówienie o emocjach to jest ogromne tabu. Możemy nie napisać wiersza takiego jak Wisława Szymborska albo książki jak Olga Tokarczuk, ale przecież każdy z nas może napisać coś i o tym opowiedzieć.
To jest piękne. Albo porozmawiać o swoich emocjach z czatem GPT. No właśnie, to jest ten problem drugiej strony relacji. Oczywiście możemy porozmawiać z czatem GPT o naszych emocjach, natomiast faktycznie chyba odczuwamy jakiegoś rodzaju brak. No bo jeżeli kolejny raz wracając do tej technointymności, bo Adam mi dzisiaj siedzi mocno w głowie, I tego, w jaki sposób na przykład w Japonii część osób tworzy relacje chociażby z seksrobotami. To już nie jest tylko kwestia jakiegoś hedonistycznego wykorzystania tych robotów, ale w ogóle budowania więzi z takim robotem. Może też dlatego, że ten robot się nie sprzeciwia, jeżeli nie chcemy, akceptuje nas takimi, jaki jest, no bo co ma, jak tak został zaprojektowany, to tak już po prostu ma. My się boimy konfrontacji z drugim człowiekiem. Bo jakby boimy się chyba zobaczenia w tych czyichś oczach, kim jesteśmy. I to jest właśnie to, czym teraz powinniśmy się zajmować, czego powinniśmy się uczyć. Już nie tylko w szkołach, ale i w biznesie, czy w takim codziennym funkcjonowaniu w społeczeństwie.
Myślisz, że boimy się konfrontacji ze sztuczną inteligencją? Myślę, że ludzie bardzo się tego boją, przede wszystkim po filmach science fiction, bardzo często rozmawiając właśnie podczas badań jakościowych, czyli prowadząc wywiady albo jakieś grupy fokusowe, czyli wywiady z większą ilością osób. to cały czas słyszę Arnold Schwarzenegger, Terminator. Ja już nie mogę słuchać o Terminatorze, bo Terminator pojawia się zawsze. Czyli kwestia buntu maszyn Skyneta, który nas wyłączy i zniszczy. To jest wszechobecna narracja.
Karol: Improwizuję teraz, ale gdybyśmy mieli potraktować trochę naszą dzisiejszą rozmowę jak takie akademickie spotkanie, to jakie moglibyśmy dać zadanie do mowy naszym słuchaczom?
Artur: Ja chyba skupiłbym się na bańkach internetowych, czyli zaproponowałbym wejście do jakiegoś sklepu internetowego, w którym na przykład kupujemy książki. Mamy książki, które są rekomendowane dla nas. I ja bym zrobił odwrotnie. Starałbym się wejść na komputer kogoś innego, jakiejś innej osoby i wziąć książkę, która dla nas jest nierekomendowana, ale jest rekomendowana dla kogoś innego. Bo dzięki temu jesteśmy w stanie wyjść poza naszą bańkę. Czyli zamiast cały czas jeść tą przysłowiową pizzę, wreszcie jesteśmy w stanie spróbować, czym jest jedzenie nepalskie, czym jest jedzenie chińskie. czym jest jedzenie na przykład mongolskie. Świat wtedy zaczyna się robić kolorowy, a my mamy więcej sensu i więcej poczucia tego, że coś na świecie jest innego. To jest zdecydowanie moja rekomendacja.
Sprawdźcie. Zobaczcie, przeczytajcie coś, co jest dla Was nierekomendowane. Jeżeli czytacie jedną konkretną prasę albo pewien nurt prasy, spróbujcie, wiem, że możecie się zdenerwować albo możecie rzucić brzydkim słowem, Ale przeczytajcie jakiś jeden post na Facebooku z gazety, z którą się nie zgadzacie i wtedy zastanówcie się, dlaczego faktycznie się nie zgadzacie, jaki wątek, jaki tok myślenia jest tam zaprezentowany. Nie znaczy, że macie się zacząć zgadzać, ale pamiętajcie, ja mam takie też wrażenie, jeszcze jak byłem studentem, a moi koledzy wcześniejsi jeszcze bardziej to podkreślali, że był czas, kiedy… Czytali wszystkie materiały od prawa do lewa i na ten temat dyskutowali. To nie znaczy, że byli tylko i wyłącznie obojętni.
Nie. Oni starali się patrzeć, czy staraliśmy się patrzeć na świat z różnych kątów, z różnych perspektyw i się na to nie zgadzać, ale wiedzieć na co się nie zgadzamy. A w chwili obecnej jesteśmy tylko i wyłącznie w naszej bańce. Albo bańce prawej, albo bańce lewej, albo bańce centrowej. Zupełnie nie wiemy, kim jest ten drugi człowiek na ulicy, a przecież, i ja to zaświadczam, każdy z nas ma jakiegoś rodzaju polityczne, społeczne preferencje, po drugiej stronie też są naprawdę piękni i wartościowi ludzie.
Karol: Wydaje mi się, że stworzyliśmy dzisiaj mało technologiczny odcinek, ale bardzo ciekawy. Dziękuję Ci serdecznie za rozmowę, Arturze. Dziękuję Ci za Twoją działalność twórczość i trzymam kciuki za wszystkie projekty nadchodzące.
Artur: Dzięki Karolu. Mam nadzieję, że z punktu widzenia twojej inicjatywy autonomiczna sztuczna inteligencja nie przejmie twojego głosu i każdy kolejny podcast będzie zdecydowanie twoją faktyczną i rzeczywistą postacią.
Karol: Przynajmniej w pierwszym sezonie. Fantastycznie. Dzięki. Niech AI będzie z nami wszystkimi. I z nami zdecydowanie tak.