46/99 – Jak będzie się nam żyło między robotami? Konrad Maj, SWPS


W najnowszym odcinku Konrad Maj, psycholog społeczny i badacz technologii, zabiera nas w podróż przez najważniejsze wyzwania i możliwości, jakie niosą ze sobą sztuczna inteligencja i roboty humanoidalne. To rozmowa pełna prowokujących pytań i zaskakujących odpowiedzi o przyszłość technologii, która już dziś zmienia sposób, w jaki żyjemy, pracujemy i budujemy relacje.

Sztuczna inteligencja: W stronę bliższej relacji z technologią

Konrad w swoim laboratorium eksperymentuje z robotami humanoidalnymi, badając, jak zmieniają się nasze interakcje społeczne, gdy wkracza w nie technologia. Jeszcze niedawno temat wydawał się futurystyczny – dziś widzimy, że sztuczna inteligencja i smart speakery stopniowo stają się częścią codzienności. W Polsce wciąż czekamy na bardziej dopracowaną lokalną wersję takich technologii, jak Alexa, ale Maj przewiduje, że niedługo bariera językowa zniknie. Co to oznacza? Może pełną integrację tych urządzeń w naszym życiu – od prostych poleceń po towarzyszenie w codziennych czynnościach.

Między komfortem a etyką

Konrad porusza również kluczowe kwestie etyczne i moralne, które idą w parze z postępem technologicznym. Zastanawia się, co się stanie, gdy AI osiągnie poziom umożliwiający interakcje myślami lub kiedy roboty humanoidalne zaczną podejmować decyzje. „Czy jesteśmy gotowi na świat, w którym maszyny reagują na nasze emocje lub imitują empatię?” – głośno pyta Konrad. Dyskusja staje się jeszcze bardziej angażująca, gdy mówimy o możliwych prawnych konsekwencjach nieprzewidywalnych decyzji AI – to pole minowe, które wymaga przemyślanych regulacji i dialogu między ekspertami od technologii, prawa i psychologii.

Technologia, która wspiera czy zastępuje?

Rozmowa wprowadza również wątek potencjalnych zastosowań AI w obszarze opieki nad osobami starszymi oraz wsparcia dla osób, które z różnych powodów spędzają czas samotnie. Roboty humanoidalne, jak zauważa Konrad, mogą stać się wsparciem, które przynosi komfort i minimalizuje poczucie izolacji. Ale czy rzeczywiście chcemy, aby AI zastąpiła bliskie relacje? Warto się nad tym zastanowić, zwłaszcza że badania wskazują, iż ludzie nadal wolą spędzać czas z innymi ludźmi, nawet jeśli technologia wydaje się bardziej dostępna.

Edukacja i nowe kompetencje

Konrad zwraca uwagę na potrzebę edukacji, która obejmuje zarówno kompetencje techniczne, jak i społeczne. „Przyszłość wymaga od nas czegoś więcej niż tylko umiejętności obsługi narzędzi cyfrowych” – mówi, podkreślając znaczenie budowania wspólnot i umiejętności interpersonalnych. W dobie coraz bardziej zaawansowanej technologii sztuka komunikacji i tworzenia więzi może być kluczem do zdrowego, zrównoważonego rozwoju.

Konferencja HumanTech Summit

Na koniec Konrad zaprasza na HumanTech Summit, konferencję poświęconą interdyscyplinarnym badaniom nad technologią i jej wpływem na społeczeństwo. To wydarzenie dla tych, którzy chcą zrozumieć, jak technologia kształtuje przyszłość i jak możemy wspólnie budować świat, w którym AI będzie naszym wsparciem, a nie zagrożeniem. To także doskonała okazja do refleksji nad szerokimi zastosowaniami sztucznej inteligencji – zarówno jej blaskami, jak i cieniami.

To spotkanie pełne pytań, które pozostawiają słuchacza z głębszą refleksją. Zachęcam do wysłuchania tej fascynującej rozmowy, która pokazuje, jak w obliczu dynamicznego rozwoju technologii możemy świadomie budować lepszą przyszłość.

Tradycyjnie wielka prośba – jeżeli jeszcze nie wystawiłaś lub nie wystawiłeś oceny 99 Twarzom AI na Spotify lub Apple podcast – pomóż mi proszę z dotarciem do nowych słuchaczy. To zabierze Ci tylko 2 minuty.  Z góry serdeczne dzięki!

Dobrego dnia i niech #AI będzie z Wami wszystkimi!

Transkrypcja rozmowy

Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.



Karol: Konradzie, witam cię serdecznie. 99 twarzy i AI, kolejna twarz AI. Jest mi niezwykle miło, że znalazłeś czas i ochotę, żeby porozmawiać o tym, czym się zajmujesz.


Konrad Maj:  Witam cię serdecznie. Oczywiście moja twarz chętnie się spotyka zawsze z twoją twarzą.


Karol: Dla tych, którzy być może Cię nie znają, którzy nie słyszeli o tym, czym się zajmujesz, co robisz.


Konrad:  Ja jestem psychologiem i to jest główny element mojej tożsamości, ale psychologiem, który interesuje się technologią od wielu lat, dlatego że ja jestem psychologiem społecznym, więc interesują mnie relacje społeczne, a od kilku lat zauważyłem, że To są relacje społeczne coraz bardziej takie szerokie i my też na co dzień kontaktujemy się ze sprzętem elektronicznym, rozmawiamy już coraz częściej ze sztuczną inteligencją, więc dlatego jako psycholog tym się interesuję. co w nas to zmieni, a przede wszystkim roboty humanoidalne, które posiadamy w swoim laboratorium. Kilka lat temu je kupiłem, wtedy wydawało się to wszystkim dziwne, śmieszne, a teraz wiele osób mówi o robotach, więc to jest, można powiedzieć, jeden z takich moich wyróżników. A korzystałeś ze smartspeakera. Ze smartspeakera. Tak, oczywiście, tylko wszelkie tego typu voicebotowe rozwiązania, jak wiemy, nie są w Polsce szeroko dostępne.


Karol: Chociaż mają swoje korzenie w Polsce, Aleksa.


Konrad:  Tak, tak, tak, doskonale, ale ja wiem, że na przykład w połowie amerykańskich domów jest jakiś asystent AI-owy, W związku z tym do nas to dotrze, ale jak wiemy też tego typu rozwiązania jeszcze mają problem z językiem polskim. Na przykład chociażby ta Alexa to jeszcze nie ma tego polskiego interfejsu, więc jeszcze musimy na to trochę poczekać, ale jestem przekonany, że będziemy też w najbliższych latach mogli kupić sobie z polską wersją tego typu rozwiązania i każdy będzie miał takiego asystenta e-owego po polsku.


Karol: Pytanie, czy będzie miał w formie wolnostojącego urządzenia, czy też te funkcjonalności będą po prostu wbudowane w nasze telefony.


Konrad:  Ja ostatnio jak sobie testuję to rozwiązanie, ostatnie czata GPT, które też jest w Polsce niedostępne, gdzie możemy swoim głosem operować i ta konwersacja jest naprawdę… imponująca, to myślę sobie, że na pewno przyjdzie taki czas, kiedy OpenAI będzie to swoje rozwiązanie sprzedawał rozmaitym firmom i ta technologia będzie obecna, nie wiem, na przykład w bankomatach, czy również w każdym możliwym sprzęcie i po prostu będziemy mogli sobie swoim głosem operować, być może, nie wiem, logując się do banku będziemy sobie już mogli odłożyć ręce na bok i po prostu sobie gadać do komputera I przypuszczam, że to będzie szło w tym kierunku z tego powodu, że jak też pokazuje cała masa analiz i badań nad Human-Machine Interaction, my jesteśmy mocno zainteresowani takim komfortem, żeby nie klikać, nie dotykać, tylko używać, mówiąc tak nieładnie, swojej paszczy.


Karol: Dokładnie tak. Ja w takich momentach zawsze przypominam, ile lat ma wynalazek klawiatury. Sam byłem w szoku, jak uświadomiłem sobie, że zobacz, klawiatura ma ponad sto kilkadziesiąt lat.


Konrad:  I niewiele się zmieniło.


Karol: I niewiele się zmieniło. Oczywiście jej geneza jest zupełnie inna. Ona nie służyła do obsługi komputera, tylko do maszyny do pisania. Ale układ kowarty, ile lat.


Konrad:  Absolutnie, więc myślę, że to się zmieni, czyli my wchodzimy na bardziej zaawansowany poziom, chociaż może niekoniecznie tak to trzeba nazywać, to jest bardziej zaawansowany, to jest prostszy dla nas poziom, więc komfortowy, komunikowanie się za pomocą naszym głosem, ale są też przeciwnicy takiego rozwiązania, że to nie jest jednak dobry kierunek. Pewnie zapraszasz, dlaczego.


Karol: Nie, ja się zastanawiam, wiesz, to jest myślę, że nie Winkiona, a potem po głosie będzie Neuralink.


Konrad:  Tak, to jeszcze będzie kolejny level, gdzie będziemy mogli sterować maszynami za pomocą naszych myśli, które będą strzedywane przez rozmaite mikrochipy. Ale tu oczywiście można od razu zastanawiać się nad konsekwencjami tego stanu rzeczy. Ja ostatnio ze swoimi studentami to analizowałem.


Jakie wnioski. że to jest, powiedzmy sobie, niepokojące, mówiąc delikatnie. Dlaczego. Bo wyobraźmy sobie, że sterujemy, bo jeśli to się ograniczy do tego, że siedzimy sobie w domu i dla wygody sobie sterujemy własnymi myślami, na przykład telewizorem, jest okej. Jeśli to też jest w ogóle technologia przeznaczona tylko dla osób z określonymi niepełnosprawnościami, no to też myślimy sobie, no oczywiście, że to jest przydatne dla nich, jeśli na przykład mają w jakimś sensie kończyny niesprawne czy mają jakieś inne schorzenia, no to po prostu można tymi myślami operować jakimiś urządzeniami. ale przecież to jest kwestia czasu i zapewne ani Elon Musk, ani wielu innych tych, którzy w tych technologiach coś tam kombinują, jak na przykład taka inna badaczka amerykańska, może mniej znana Vivian Ming, która też w tym obszarze działa.


Więc jeśli jest tak, że to trafi do takiego przeciętnego Kowalskiego, który będzie mógł sobie po prostu skorzystać z tej technologii, sobie coś tam wszczepić do technologii, To nie jest wiadomo prosta sprawa, ale jeśli tak będzie, to jest pytanie jakimi urządzeniami kto będzie chciał sterować i jakie będą tego konsekwencje. Możemy sobie też wyobrazić, że jakaś maszyna sterowana w ten sposób myślami dokona jakiegoś uszkodzenia, już nie mówiąc nawet o jakimś zabójstwie. Teraz jak to będzie wyglądało prawnie. Ktoś na przykład zapuka do takiego człowieka, który jest za to odpowiedzialny, jakieś trzyliterowe służby czy inne tam, z takim zaproszeniem do radiowozu, a on gdzieś tam na tej, na posterunku powie, no ale o co wam chodzi. Przecież ja nie mogę myśleć sobie o czymś. Karacie mnie za myślenie, tak.


No jakim prawem. Albo może na przykład powiedzieć, przecież ja właściwie pomyślałem coś innego, to głupie urządzenie coś zczytało źle, więc w związku z tym to nie jest mój problem. Ja teraz być może wymyślam jakieś hipotetyczne scenariusze, ale myślę, że powinniśmy, jesteśmy na takim etapie, że powinniśmy sobie takie czasami eksperymenty myślowe przeprowadzać. żeby wiedzieć, jak to się może skończyć, bo właściwie większość technologii jest promowana w taki sposób, że to nam w ogóle przyspieszy, zmieni wszystko, będziemy mniej pracować, będziemy szczęśliwi i tak dalej. Ale ja też stoję tutaj na straży takiego rozsądku w tym zakresie, Ja nawet nie chcę używać słowa etyka, bo ja wiem, że to czasami nawet kojarzy się z jakąś filozofią na przykład, ale ja po prostu mówię o bardzo realnych scenariuszach, które mogą się wydarzyć, co wcale nie oznacza, że ja jestem jakimś wojownikiem z technologią, bo sam jej używam, więc tutaj tak dla wyjaśnienia jaka jest moja postawa.


Karol: A jak to się stało, że psycholog zainteresował się sztuczną inteligencją.


Konrad:  To właściwie wyszło z tego, że doszedłem do wniosku, iż trzeba trochę spojrzeć w przód, ponieważ świat mocno przyspiesza i klasyczna psychologia nie daje odpowiedzi na wiele pytań. Trzeba już teraz testować jakieś rozwiązania, które lada moment będą w naszym codziennym użyciu. Gdzieś mnie do tego też skłoniło myślenie o mediach społecznościowych, o smartfonach. Jak być może tutaj nasi słuchacze pamiętają, to historia zaczęła się w roku 2007. Na początku roku 2007 Steve Jobs ogłosił taką nową erę pokazując iPhona.


Karol: Ja pamiętam, jaką nowością był telefon, którego używałem, Blackberry.


Konrad:  No właśnie, tak, tak, tak, to w ogóle bajer był niesamowity, a jeszcze pamiętam takie banany, to w ogóle było coś niesamowitego, ale ja myślę, że to wtedy jeszcze takich konsekwencji nie widzieliśmy, ale to, co zrobił Steve Jobs, bo oczywiście on też rozpoczął erę aplikacji tak naprawdę, on zbudował w istocie pewną platformę do tego, że możemy tam upakować wszystko i wszyscy teraz widzimy, jakie mamy kolorowe, fajne ikonki w telefonach. No ale właśnie co mnie mocno ruszyło, ruszyły mnie wyniki badań, które były prowadzone, właściwie cały czas są prowadzone w Stanach Zjednoczonych, pokazujące jaki jest poziom osamotnienia, też pokazujące, to są czasami nawet bardzo proste badania. Jest jedno z takich badań, które co roku jest realizowane i polega na tym, że ludziom się zadaje pytanie, Mniej więcej jak procentowo to wygląda w twoim życiu, ile czasu spędzasz ze swoimi znajomymi, nieznajomymi i samotnie. Okazuje się, że ta linia mocno poszła do góry od roku 2013, a w roku 2013 jeszcze był taki czas, kiedy te linie ze sobą się zbiegały, a później nastąpił taki totalny rozjazd, czyli ludzie po prostu teraz w większości przypadków, przynajmniej w Stanach, młodzi ludzie spędzają czas samotnie, kontaktując się z technologią. Ale wracając do takich moich zainteresowań, to ja z kolei myślę sobie, co będzie, jaki nas czeka świat z robotami, jak będziemy wchodzić w relacje z nimi, ponieważ wierzę w przyspieszenie i to, co widzimy też, to, co nam oferuje i MASK, ale i inne firmy, wszystko to sprowadza się do tego, że ten czas interakcji intensywnych z robotami będzie szybszy niż dalszy.


Karol: No właśnie, miałem zapytać teraz, skoro czujemy się samotni i spędzamy czas nie z ludźmi, to znaczy będziemy spędzać więcej tego czasu z robotami humanoidalnymi.


Konrad:  No może aż tak to nie, bo jest trochę takich badań wskazujących, że jednak interakcja z człowiekiem jest dla ludzi najbardziej wartościowa, że na przykład hormony się intensywnie wydzielają wtedy, więc to nie reagujemy tak samo, ale w bardzo podobny sposób. I oczywiście też ludzie jednak, przecież to jest jasne, nawet jeśli nasza percepcja jest miejscami zbliżona robotów i ludzi, to jednak zdajemy sobie sprawę z tego, że człowiek to jest jakaś historia, to jest jakiś żywy organizm.


To jest jakaś tożsamość, wspólnota itd. Więc moim zdaniem będzie tak zawsze, że będziemy woleli spędzać czas, o ile to będzie możliwe z ludźmi, tylko niektórzy niestety takich możliwości mogą nie mieć. Bo człowiek staje się dobrym rzadkim. Właśnie, w dobrym, rzadkim, ale też pamiętajmy, że na przykład niektóre osoby mogą czuć się mocno samotne. Mówię tutaj też o osobach starszych, na przykład w 2050 roku powyżej 80 roku życia to będziemy mieli na świecie około pół miliarda, o ile dobrze pamiętam, ludzi. W tej chwili jest ich około 150 milionów powyżej 80 roku życia. Więc to będzie kilkakrotnie więcej takich osób i te osoby będą potrzebowały rozmawiania, wsparcia.


Karol: Moja koleżanka realizowała badania w Stanach Zjednoczonych, które pokazywały, jak bardzo pozytywnie wpływają smart speakery na komfort życia ludzi żyjących samotnie.


Konrad:  Tak, więc pewnie, że moglibyśmy powiedzieć, no ale chwila, chwila, lepiej ludzie, no ale jak ludzi nie ma, no to już lepiej niech będą te smart speakery. Ja jestem, jeśli chodzi o smart speakery, mam taki stosunek do tego, powiedzmy, wyczekujący czy analityczny, co będzie dalej z tym. Ani nie jestem bardzo za, ani jestem bardzo przeciw. Już niektóre badania wskazują pewne problemy. Na przykład okazuje się, że potrafią one uczyć takich niefajnych manier dzieci. bo no wiadomo, że dziecko szybko się orientuje, że taki speaker odpowiada na rozmaite pytania, można mu rozkazywać i część dzieci niestety, ale w taki sposób przenosi tą komunikację, czyli również rozkazuje swoim rodzicom czy swoim rówieśnikom. To też zwykle jest przedmiotem moich najbliższych badań, które sobie zaplanowałem na przyszły rok, jak to w ogóle z tym jest. No ale i to jest jakieś niebezpieczeństwo.


Karol: Dla mnie osobiście było niezwykłym zaskoczeniem, że przy całym moim entuzjazmie, jeżeli chodzi o rozwój smart speakerów i ich obecność w gospodarstwach domowych, było to, że zauważyłem, że smart speaker dla mnie to urządzenie do zapytania o godzinę, włączenia alarmu i puszczenia muzyki. Koniec.


Konrad:  No właśnie, ale ja też myślę, że to powinny być urządzenia, które w jakimś sensie nam zastępują klepanie przy komputerze i wyszukiwanie czegoś, ale nie byłoby najwłaściwsze, gdybyśmy wchodzili w jakieś złożone relacje społeczne. Oczywiście na przykład Amazon broni się tym, że on po usłyszeniu takich wyników badań, o których wspomniałem, szybko wprowadził jakieś zmiany i teraz wręcz uczy dobrych manier ta Alexa słynna, bo mówi na przykład proszę o bardziej miły ton albo w ogóle nie reaguje, jeśli dziecko tak się zachowuje niezbyt grzecznie. No ale mimo wszystko uważam i tutaj bym chyba przywołał Susan Tarkel, która też jest zdania, że to nam trochę miesza w głowach. Nie wiemy, co już jest człowiekiem, co już nie jest człowiekiem i że jeśli zaczniemy traktować maszyny jak ludzi, no to zaczniemy i ludzi jak maszyny traktować. Więc istnieje pewne takie niebezpieczeństwo, że nam się po prostu nieźle pomiesza w głowach i być może powinno być tak, jak ty mówisz, jednak jest jakiś wyraźny obszar pewnej komunikacji czy tematów, które są kierowane do sztucznej inteligencji szeroko rozumianej, do smart speakerów czy robotów, a niektóre pytania być może nawet powinny być po prostu kwitowane przez takie maszyny. To nie jest do mnie temat, pogadaj z kimś. Wystarczy przypomnieć sobie film Hera. No właśnie, to jest też taki klasyk, wszyscy o tym mówią. Jest to przedmiotem mojej analizy, jak wiązając do pytania, czym się zajmuję. Myślę, że psychologów powinno być wręcz więcej w tym obszarze, bo zauważ, iż W tej chwili z technologią właściwie jest coraz mniej problemów. Ludzie mają jakiś interesujący oryginalny pomysł, zaraz się ustawia kolejka inwestorów i to wszystko tak leci.


Karol: Zobaczmy ile szybciej buduje się aplikacje rozwiązania teraz.


Konrad:  Tak, tak, tak. Szczególnie jeżeli chodzi o software. absolutnie w tej chwili tak naprawdę pieniądze, jak ma się coś sensownego, nie są problemem, bo ktoś zarabia na jakichś tam startupach, szuka kolejnych i to się tak kręci. Ale problem jest taki, że to wszystko jest na zasadzie takiej, że ktoś z punktu widzenia biznesowego to ocenia, myśli sobie, ok, to się będzie sprzedawało, no to wchodzimy w to.


Natomiast jakiejś takiej głębszej analityki, konsekwencji nie ma. Jeszcze raz podkreślam, że wcale nie jestem przeciwko rozwojowi technologii, nie jestem, tak jak to mówi Eugenii Morozo, on w ogóle wszystkich nazywa entuzjastami, że są solucjonistami technologicznymi, ja wcale z nimi nie walczę. Ale raczej jestem zdania tego, że czasami trzeba obejrzeć dany produkt, który jest na etapie jakiegoś MVP, czy może jeszcze wcześniej i się zastanowić, czy możemy coś zrobić, żeby zbalansować te problemy, które to cudo może wywołać.


Tak samo chociażby te smart speaker, o których żeśmy rozmawiali. Już kilka razy wspomnieli, że dlaczego np. Aleksa od samego początku nie pomyślała o tym, że to może uczyć nas jakichś niefajnych manier, a dlaczego np. Zuckerberg i inni, którzy rozpoczęli erę mediów społecznościowych nie zrobili jakichś głębszych badań, analiz i nie zorientowali się, że to może tworzyć jakieś problemy typu hejt, dezinformacja. Więc to są tego typu kupy.


Bo to jest wielki biznes. Tak samo drony. To też jest bardzo ciekawa rzecz, że nikt sobie nie zdaje sprawy z tego, że już obecnie możemy kupić, nie będę mówił gdzie, ale wiem, że już można spokojnie kupić tak małe drony, które są w stanie ci wlecieć do mieszkania przez uchylone okno. I nikt się nie zastanawia nad tym, że to przecież szpiegostwo będzie kwitło wtedy, kiedy mamy tak możliwość produkowania na przykład dronów, a są też takie, które na przykład imitują owada. I nie wiesz, czy ci mucha wleciała do domu, czy ci wleciał dron, który ci wszystko eksploruje. Więc technologia powinna mieć jakieś… No właśnie trzeba się zastanawiać nad tym, jakie ona może przynieść skutki, w jakim kierunku się może rozwinąć.


Karol: Czy technologia powinna mieć swój dekalog.


Konrad:  Czy powinna mieć swój dekalog. Pewnie tak, ale ja myślę, że powiem tak ogólnie, że kluczowa jest współpraca z nauką. Kluczowe jest to, żeby wspólnie wypracowywać jakieś rozwiązania, czyli ci ludzie, którzy są od listowania, inwestowania, anioły biznesu, jakieś startupy, te środowiska powinny moim zdaniem usiąść do swojego wspólnego stołu braterstwa i po prostu pomyśleć o tym, jak pewne rzeczy wdrażać w sposób sensowny, nie hamując oczywiście innowacyjności. Czy to by doprowadziło do jakiegoś dekalogu. Pewnie tak. Być może jakieś kolejne, jak to Asimov stworzył, prawa by się pojawiły. Ale przede wszystkim ważny jest ten dialog. Ja tego dialogu nie bardzo widzę.


Karol: Wrócę jeszcze raz do humanoidów.


Konrad:  Dlaczego je budujemy. Myślę, że to jest bardzo interesujące i ja mam kilka odpowiedzi. Po pierwsze, na pewno ludzie… Może populacja w Chinach się zmniejsza, to wiemy. To tak, dość znacząco. Indie teraz ruszyły, ale pamiętajmy, że Indie też są bardzo mocne, jeśli chodzi o robotykę.


Natomiast w Chinach ponad 800 firm buduje roboty. W Indiach trochę mniej, ale gonią. Natomiast co do twojego pytania. Na pewno wydaje mi się, że humanoidy są w jakimś sensie fascynujące dla wszelkich inżynierów, specjalistów od robotyki i wydaje się, że dla nich być może człowiek jest jakimś takim wzorem, jest punktem odniesienia, to jest jakaś doskonała struktura i dla niektórych to jest wręcz marzenie, bo to w tym momencie czujemy się jakimś bogiem, tworząc jakiegoś robota, więc to jest takie powiedziałbym, wytłumaczenie nawiązujące takiego egocentryzmu ludzkiego. To jest jedno z takich wytłumaczeń, które również też się spotyka w literaturze, że niektórzy właśnie są zafascynowani człowiekiem. Hiroshi Ishiguro, można tutaj jego podać jako takiego człowieka, który buduje takie geminoidy, czyli kopie siebie. On też robi kopie innych osób i on na przykład uważa, że jakby szczytem jego rozwoju możliwości będzie to, jeśli on na przykład wyśle swoją kopię do sklepu i nikt nie połapie się, nikt nie zauważy, że to przyszedł robot, a nie on sam. Więc to jest jedna kwestia.


Prawdziwe alter ego. Takie prawdziwe alter ego, które stanie na przykład załatwiać jakieś sprawy, pójdzie do urzędu skarbowego i tam będzie dyskutować z naczelnikiem. No ale to jest takie wytłumaczenie, które wiąże się z tym, że My też dążymy do takiego rozwoju w robotyce, żeby na przykład usprawnić pewne niedoskonałości tych robotów i na przykład chodzenie. Wszyscy są w stanie na ten moment jeszcze rozpoznać, że to chodzi robot. Przepraszam za wyrażenie i za te porównanie, ale tak jak trochę Biden chodzi, troszeczkę dziwnie.


no to roboty w ten sposób chodzą. Ale to jest kwestia taka, że cały czas te siłowniki są poprawiane, te algorytmy chodzenia są poprawiane po to, żeby to było niezauważalne. Więc jakby zbliżam do tego, że te humanoidy są budowane w taki sposób, że dzięki temu się doskonali pewne mechanizmy. Druga istotna sprawa to jest taka, że musimy pamiętać, że nasze środowisko wokół nas jest przystosowane do nas. co oznacza, że są jakieś klamki, które musimy otwierać. To oznacza, że my się komunikujemy na też pewnym poziomie, na tej wysokości ludzie dorośli oczywiście.


Powiedzmy od tych 150 do dwóch metrów. Więc musimy budować takie humanoidy, które będą też na tej samej wysokości. Chcemy mieć pewną przewidywalność, bo jeśli widzimy taką… fizjonomię podobną do nas samych, no to mniej więcej wiemy, jakie mamy schematy użyć. Na przykład wielokrotnie ludzie, którzy przychodzą do naszego laboratorium na badania, no to zauważyłem, że wysuwają rękę do powitania, chcą się przywitać z robotem, więc jest jakaś pewna przewidywalność tej maszyny, tak. A jeśli wyobrazimy sobie, że ona ma, nie wiem, na przykład trzy głowy albo w ogóle nie ma głowy, albo co tam jeszcze, no ma jakieś dziwne kończyny, tak. Wystające z każdego z każdej części tego robotycznego ciała, to budziłoby to przerażenie, ludzie nie wiedzieliby jak się zachować, więc my upodabniamy te maszyny do nas samych z tego powodu.


Co jeszcze. Niektórzy też budując takie maszyny humanoidalne chcą sobie odpowiedzieć na fundamentalne pytania o człowieka. Bo jeśli zrobimy takie kopie, możemy na nich prowadzić badania, na przykład czasami się używa robotów po to, żeby zobaczyć jak wygląda na przykład agresja wśród dzieci. Bierzemy robota, ten robot zachowuje się w pewien sposób i patrzymy, czy to prowokuje dzieci do agresji, czy nie. Były takie na przykład eksperymenty, gdzie w centrum handlowym sprawdzano, jak rozwija się agresja u dzieci. Dzieci na początku otaczają tego robota, potem zaczyna jedno dziecko go szturchać, innego kopnie i to się zaczyna rozkręcać. Więc takie studia nad zachowaniami dzieci też są możliwe, a przecież nie możemy użyć tutaj prawdziwego człowieka, więc zamiast człowieka używamy robota. Więc to są też czasami takie badania, gdzie możemy ekstrapulować pewne zachowania, możemy obserwować pewne zjawiska i potem analitykę stosować, jeśli chodzi o zachowania ludzi. A zatem mówimy o pewnym narzędziu badawczym, bardzo interesującym.


Karol: Zobacz, że to ciekawe, bo w przestrzeni nazwijmy to przedsiębiorstw, firm, zakładów produkcyjnych robotyka to codzienność, ale w przestrzeni takiej społecznej, w codzienności to jeszcze nowość.


Konrad:  To jeszcze nowość, ale no wiesz, no dwa lata temu, no może trochę więcej niż dwa lata temu, no to ten temat w ogóle sztucznej inteligencji to był w ogóle jakiś mocno niszowy czat GPT tak naprawdę.


Karol: Listopad 2022.


Konrad:  Tak, listopad 2022, więc właściwie będziemy obchodzić dwulecie, tak. Chata GPT i on strasznie tutaj otworzył ten temat nam. Oczywiście też go sprowadzając chyba niestety do tego, że to jest jakaś sztuczna inteligencja, to jest jakiś bot, z którym sobie rozmawiamy i tak dalej. Więc niektórzy nie zdają sobie sprawy z tego, że to pojęcie jest dużo, dużo szersze i ta antena AI już funkcjonuje od lat w naszym życiu. Ale właśnie co do tych humanoidów. Widzimy, co robi Tesla, widzimy, co robi Unitree i inne firmy, które po prostu walczą o to miejsce na tym, powiedzmy sobie, prywatnym polu ludzkim. Mam na myśli to, że pozazawodowe zastosowanie robotów na pewno jest przed nami. czyli prywatnych naszych domach, naszych mieszkaniach, jako nasi pomocnicy i myślę, że to się będzie rozwijało. Ostatnio patrzyłem sobie, jak wyglądają inwestycje w humanoidalną robotykę. To są takie gigantyczne obecnie nakłady, ponieważ Zresztą to samo właśnie jak z czatem GPT. Zauważmy, że właściwie niemal od razu jak OpenAI odpalił swoje cudo, no to perplexity chwilę później się pojawiło.


Karol: Perplexity, które mi zastąpiło Google’a.


Konrad:  No właśnie, klot i inne cuda, co-pilot, w związku z tym te LLM-y się rozkręciły. No więc jeśli teraz ktoś wychodzi i pokazuje takiego robota humanoidalnego, jak to robił Elon Musk, robi z tego wielkie show, no to wszyscy się temu przyglądają i myślą sobie, no okej, to my teraz ruszamy do pracy nad tym tematem.


Karol: W kontekście robotów rozmawiamy przede wszystkim o tym, czy roboty mogą zastąpić nas ludzi, jeżeli chodzi o wykonywanie takich podstawowych funkcji, czynności. Sprzątam, organizuję, pracuję. A co jeżeli chodzi o twórczość, o rzeczy takie jak sztuka, malowanie, komponowanie muzyki. To może być dla nas konkurencja albo inspiracja z drugiej strony. Bo teraz jak połączysz sobie LLM-y i cały Gen.EI w połączeniu z robotyką, czyli warstwą taką funkcjonalną, i ucieleśnioną, nazwijmy to, w technologii, to powstaje nam byt bardzo ciekawy.


Konrad:  Tak, robimy już komplet, bo rzeczywiście to, czym nie zajmuje się przynajmniej obecnie OpenAI, no to ucieleśniona sztuczna inteligencja, ale dostarczają tutaj ten model cały, duży model językowy, można zaimplementować już spokojnie w robotach. Nawet ten nasz robot dosyć No w sumie prosty w istocie, czyli Pepper, jak myśmy go właśnie podłączyli do GPT, no to się okazało, że się nieźle rozgadał i to było naprawdę dla mnie zaskakujące, jak całkiem nieźle się naprawdę rozmawia, może nie… nie jeszcze super płynnie, jest trochę problemów do rozwiązania, ale już można sobie pogadać. W związku z tym robotyka społeczna rzeczywiście mocno została przyspieszona poprzez rozwój dużych modeli językowych, bo tam brakowało zawsze tego. Wciąż oczywiście jest pewien problem ze słyszeniem pewnych informacji i tak dalej, ale to jest jeszcze do poprawienia. Kluczem jest chyba właśnie ten interfejs, prawda.


Tak. Tak, kluczem jest ten interfejs i myślę, że też nie chcę strzelać jaka kwestia czasu, ale bardzo krótki okres czasu, kiedy zobaczymy już mocno dopracowane interfejsy, mocno również dopracowaną komunikację. bo tutaj jest dużo rzeczy do rozwiązania w tej interakcji, na przykład takich, które rzeczywiście już OpenAI i GPT już sobie nieźle z tym radzi, czyli jak rozmawiamy sobie, już teraz mówię oczywiście o tej konwersacji w wyniku tej nowej funkcji, powstania tej nowej funkcji, no to jeśli się rozmawia z czatem, to on przerywa czasami swoją wypowiedź. I w interakcji z maszynami jest to absolutnie kluczowa sprawa, no bo jeśli my gadamy z robotem i ten robot nie reaguje na nasze sygnały, na przykład takie, że my pokazujemy coś ręką. Jak my teraz sobie rozmawiamy, to też widzę, że ty czasami chcesz coś powiedzieć i właśnie to jest ten gest.


Karol: Zobacz, że w komunikacji gesty, emocje, mowa ciała to jest 70% przekazu.


Konrad:  Absolutnie, więc to jest po prostu dla… Robot też to powinien rozumieć, jeśli chcemy mieć taką płynną interakcję.


Karol: A nie wydaje ci się, że to będzie proste do zorganizowania, skoro robot jest wyposażony w kamery.


Konrad:  To jest kwestia interpretacji tych subtelnych sygnałów, ale to jest również kwestia kontekstu.


Karol: Byłem ostatnio zachwycony jednym z polskich rozwiązań, które jest w stanie na bazie dziesięciosekundowego twojego wypowiedzenia słowa, przepraszam, litery A, jest w stanie określić, czy jesteś zagrożony chorobą Alzheimera.


Konrad:  Bardzo to jest, wiadomo, obiecujące. Jest dużo też takich algorytmów tworzonych, które rzeczywiście są interesujące. Również na przykład diagnoza depresji.


Karol: Przepraszam, jeśli wejdę w słowo, ale pojawiło mi się jedno pytanie w głowie. Czy w takim razie roboty będą bardziej empatyczne niż ludzie.


Konrad:  Nie, bo w ogóle mówienie o empatii robotów jest nadużyciem skorość. Ale mnie zaskoczyłeś. Myślałem, że powiesz, że jak najbardziej tak.


Ale dlaczego. Bo chodzi tu o kwestie językowe. Jeśli ty mówisz o empatii, to nie istnieje czegoś takiego jak empatia robotów i uważam, że powinniśmy też pilnować pewnego wordingu. Jeśli nie mówisz, to możemy mówić o imitacji.


No dobra, ale poczekaj. Empatia to jest współodczuwanie. No tak, ale to on nie czuje. Przecież robot nie czuje i nie ma szans, żeby czuł. Więc o tym możemy zapomnieć.


Jeśli już, to możemy mówić o imitacji. On będzie nas wkręcał w to, że on coś czuje. Czuje czy rozumie. On interpretuje. On rozpoznaje, on interpretuje. Rozumiesz. A coś takiego jak empatia to są procesy, które są przynależne człowiekowi. Świadomość, empatia.


Karol: Ale potem jest kwestia tego, co z tą empatią zrobisz, do czego cię ona poprowadzi, jeżeli chodzi o komunikację, działanie itd.


Konrad:  Jeśli patrzymy z punktu widzenia naszego, to znaczy, że my będziemy mieli wrażenie, że on empatyzuje, że on rozumie, że on, nie wiem, czuje itd., no to z wielu… W wielu przypadkach może to być dla nas dobre, bo możemy pociąć jakąś ulgę, możemy się wygadać i już w Holandii prowadzono takie badania, gdzie rzeczywiście okazuje się, że ta interakcja z robotem jest fantastyczna i nawet okazuje się, że pacjenci takiemu robotowi, terapeucie przekazują więcej informacji niż człowiekowi. No bo człowiek to ocenia. Tak, dokładnie tak. Więc jest to z jednej strony trochę niebezpieczne, jak mówiliśmy w filmie Hair. Z drugiej strony w pewnych sytuacjach może być pomocne, bo przecież jest na tym świecie sporo ludzi, którzy w życiu nie pójdą do terapeuty. w życiu nie skorzystają, nawet nie porozmawiają ze swoimi znajomymi na temat swoich problemów, a mogą się otworzyć przed robotem, bo właśnie mając takie poczucie, że on nie będzie oceniał. Na przykład są też badania nad dziećmi, które Jak się okazuje, i to też jest zasmucające, że bardziej ufają robotom niż osobom dorosłym, jak porównywano w badaniach, jak dzieci są w stanie się komunikować, jakie informacje przekazują.


Karol: Dzieciaki w jakim wieku.


Konrad:  Od 3 do 5 lat badano. To jest jeszcze oczywiście faza takiego animizmu, przekonania, że ten robot ma w sobie jakąś duszę. Ale tak to jest, że dzieci po prostu… Być może to wynika z tego, że ten świat zabawek, lalek jest dla nich taki naturalny.


Dorości wydają się jakimiś wielkimi istotami, które tylko przeszkadzają. Więc jestem przekonany, że dzieci też już właściwie od wielu lat do swoich lalek czy właśnie samochodzików mówią… ważne rzeczy, których dorośli nie usłyszą. A co dopiero do takiego robota, który ma jakieś oczy, jest taki zabawny. No na przykład też o czym też chyba warto wspomnieć, no to dzieci ze spektrum autyzmu, tak. Doskonale się wchodzą w relacje z robotami i tutaj nie ma żadnej wątpliwości, że ta interakcja jest dla nich bardzo pomocna. Także to są te plusy, nie.


Karol: No dobrze, czyli mówisz, że empatia robota wobec człowieka jest teoretycznie niemożliwa. Znaczy to jest udawanie cały czas, nie. Udawanie, tak. A co z empatią w drugą stronę.


Konrad:  A, świetne pytanie.


Karol: Będziemy empatyczni wobec robotów.


Konrad:  No już jesteśmy, już jesteśmy mocno empatyczni i rzeczywiście trochę takich badań znam, które pokazały, że pewne atrybuty, jak się przypisze robotowi, to już jesteśmy w stanie bardziej empatyzować, czyli jeśli on ma jakieś swoje imię, ten robot, jeśli ma jakąś swoją osobowość, jeśli ma, w ogóle to ciało jest bardziej podobne do człowieka, no to szybciej reagujemy, jak on upadnie, coś mu się tam wydarzy. Im bardziej on jest taki human-like, tym lepiej. Oczywiście tutaj zaraz pewnie zapytasz o Dolinie Niesamowitości, bo to jest zjawisko znane, ale jeśli chodzi o empatię, to jeśli widzimy o cechy po prostu takie ludzkie, to jesteśmy w stanie bardziej empatyzować. I tu znowu to się kłania to, do czego nas to doprowadzi.


Karol: Jeśli będziemy tak empatyzować, jeśli będziemy domagać się praw dla robotów… Bo skoro empatyzujemy, a roboty mogą być za chwilę bardziej inteligentne od nas ludzi, to istnieje niebezpieczeństwo, że będziemy w jakiś sposób manipulowani.


Konrad:  Tak, i też istnieje niebezpieczeństwo jakiejś wojny, a może przesadzam, że wojny, ale jakichś konfliktów.


Karol: To się nam wydaje absurdalne, ale mogę sobie wyobrazić… Przepraszam, Konrad, ale zobacz w jaki sposób jesteśmy, no chyba mogę powiedzieć, manipulowani przez algorytmy, jeżeli chodzi o sam przekaz, który teraz widzimy na ekranach naszych komputerów, telefonów.


Konrad:  Nie wiem, czy to jest prawda, czy fałszem. Myślę, że istnieje jakieś niebezpieczeństwo. Zauważysz zresztą doskonale, że tutaj wspomniałeś o tym, że to rozpoznawanie pewnych rzeczy jest już tak przez te systemy sztuczne tak dobre, jakichś sygnałów, czy na podstawie jakichś subtelnych bodźców po prostu algorytmy AI są w stanie wychwycić jakieś nasze stany emocjonalne i tak dalej. Nawet ten wspomniany dość prosty robot Pepper przecież też ma mechanizmy które potrafią rozpoznawać nasze emocje. Czyli ta wizja komputerowa szybko się rozwija. I teraz na pewno może być tak, że teoretycznie oczywiście, że jeśli robot jest tak wyczulony na takie subtelności, potrafi się dostosować do nas. Potrafi komunikacyjnie tak rozmowy poprowadzić, że jest po nas.


Karol: Mało tego, to dostosowanie tego robota nic nie kosztuje, bo robot, tak przynajmniej zakładam ja, nie ma swojego ego, które może być urażone w jakiś sposób. Tak, tak, tak. Wyobrażenia o sobie.


Konrad:  Tak, tu jeszcze może powiem a propos tej manipulacji, bo to był ciekawy wątek, że na przykład czytałem o takich badaniach kilka temu prowadzonych, które pokazały, że nawet taka prosta czynność, wyobraźmy sobie, że jesteś przed komputerem i masz dwa kwadraty i twoim zadaniem jest wybrać No takie zgadywanie, pod którym kwadratem jest ukryta nagroda. No i masz na przykład 100 prób. No i za każdym razem dowiadujesz się, czy trafiłeś, czy nie. Oczywiście zaczynasz kombinować i szukać jakichś wzorów. Myślisz sobie raz tu powiem, raz tu powiem. No ale to są pewne dane, które wygenerowałeś i następnie później I przychodzi do kolejnej rundy, powiedzmy znowu jest takich 100 sytuacji, kiedy ty musisz podejmować decyzję, ale algorytm już nauczył się tego, jakie ty masz sposoby myślenia, chociaż nawet one mogą być nieuświadomione i zadaniem algorytmu jest wyprowadzić cię w pole. No i się okazuje, że w 70% algorytm jest w stanie spowodować, że będziesz wybierał źle i nawet nie będziesz wiedział dlaczego. I teraz dlaczego o tym mówię, bo to pokazuje, że algorytm machine learning jest w stanie naprawdę zauważyć coś, czego my nawet sami nie zauważamy. Wyszukiwanie patternów wzorców już jest naprawdę na takim poziomie. Więc to oczywiście można odnieść do, nie wiem, do social mediów, jak mogą nami sterować, kiedy my nie zdajemy sobie sprawy z tego, że możemy być sterowani, a co dopiero z roboty.


Karol: A będziemy pracować skuteczniej i szybciej pod nadzorem robotów.


Konrad:  Wiesz co, z naszych badań wyszło coś takiego, myśmy w ogóle, teraz jesteśmy już na drugim etapie i pewnie to pójdzie do publikacji, może jeszcze w tym roku, w takim czasopiśmie bardzo fajnym Cognition Technology and Work i tam myśmy opublikowali takie badanie, w którym prosiliśmy naszego aby nadzorował pracę człowieka, który przychodził sobie do laboratorium nieświadomy o co chodzi i dowiadywał się, że będzie wykonywał jakąś nudną pracę, miał zmieniać pliki w komputerze.


To jest jakaś totalna nuda, żeby zmieniać końcówki rozszerzenia plików. No więc taki człowiek siedział sobie i dostawał na początku 100 takich plików, zrobił to myśląc, że wszystko już załatwione, a robot wtedy mówił, ale teraz proszę kolejną rundę, proszę tutaj jest kolejne na przykład 1000 plików. No więc człowiek był lekko zaskoczony, ale w wielu przypadkach oczywiście godził się na to. No i się okazało, bo myśmy to porównywali takim wariantem człowieka, jak będzie wyglądała praca, czy po pierwsze robot będzie skuteczny w nakłanianiu ludzi do tej nudnej roboty, i po drugie, jak ta praca będzie wyglądała. Okazuje się, że robot jest mniej skuteczny i ludzie też oszukiwali, ludzie też wykonywali tę pracę wolniej, bardziej niedbale. W związku z tym to by pokazywało, że jednak te roboty wiedząc o tym, że one mogą pewnych rzeczy nie zauważyć, poza tym przed człowiekiem to mamy jeszcze jakiś obciak tak zwany, bo tu jest jakiś szef i ja z nim czasami pójdę na piwo po pracy czy coś, czy szefowa, A tutaj jest robot, w związku z tym nie czuję z nim aż takiej tożsamości. Więc to jest pewne wyzwanie, gdzie może się okazać, że jednak robot jako nadzorca naszej pracy nie specjalnie może być efektywny. Aczkolwiek on był i tak zaskakująco mocno efektywny, bo tutaj ta skuteczność jego była na poziomie 60%, a jeśli chodzi o człowieka 75% tak wyszło z naszych badań. Więc też nie chcę powiedzieć, że to nie było skuteczne.


Karol: To jak będzie projektowana technologia teraz. Czy w osi, w centrum tej technologii będzie człowiek, doświadczenie.


Konrad:  Ja bym chciał, żeby był człowiek. Wszyscy ci, którzy nas słuchają i interesują się kwestiami designu, technologii… Przepraszam, jeszcze mam taką wątpliwość.


Karol: Czy my zaczynamy projektować dwa równoległe światy, czy światy, które będą się przenikać i wzajemnie się wzmacniać.


Konrad:  Aha, no w… powiem ogólnie właśnie na to w ten sposób, że wszyscy słyszą, jeśli chodzi o projektowanie, o interfejsach, o user experience, o user interface design i tego typu hasła. Wszyscy tutaj pewnie, którzy nas słuchają, znają. Natomiast od pewnego czasu Donald Norman, który tą tematyką się zajmuje, zaczął mówić o human-centered design, a teraz ostatnimi od dwóch czy trzech lat napisał już tą fantastyczną książkę która tego dotyka Humanity Centered Design, czyli projektowanie skoncentrowane na takim szerokim spojrzeniu, czyli żeby nie było żadnych równoległych światów, że społeczeństwo sobie, specjaliści od technologii sobie i tutaj nie ma żadnego linku przenikania. Ja w to wierzę, że to jest bardzo fajna idea, chociaż pytanie o implementację. Czyli mówimy tutaj o sytuacji, kiedy uwzględniamy cały ekosystem, mówimy o takich konsekwencjach, takich long term, co będzie w przyszłości, jak ta technologia się potoczy, to zwinie to, co też powiedziałem wcześniej, a propos chociażby dronów na przykład, czy rozwoju robotyki. Więc ja myślę, że może się tak, znaczy chciałbym, żeby tak się wydarzyło, że trochę to się schumanizuje i rzeczywiście będziemy tworzyć takie zespoły interdisciplinarne i długo intensywnie dyskutować, żeby nam ta technologia krzywdy nie zrobiła.


Karol: To skoro tak, czy zatem nie powinniśmy coraz więcej koncentrować się na sztuce komunikacji, budowaniu relacji między nami ludźmi. O, widzisz. Trochę romantyczne pytanie takie.


Konrad:  Wiesz, ja byłem na konferencji, która dotykała kompetencji przyszłości i miałem mówić o kompetencjach przyszłości w kontekście sztucznej inteligencji. Ja to tak podzieliłem na takie dwa obszary, że z jednej strony oczywiście powinniśmy uczyć się rozmaitych kompetencji, nabywać rozmaite kompetencje, które są związane z operowaniem sztuczną inteligencją, narzędziami AI-owymi itd., ale też jednocześnie powinniśmy uzupełniać sobie kompetencje, które tracimy, bo problem polega na tym, że my kontaktując się coraz bardziej z technologią, nie mamy nawet czasu, żeby się kontaktować z ludźmi. Tworzy się społeczeństwo takie samowystarczalne, bezstykowe, które dużo więcej ze sobą czatuje niż rozmawia. Właśnie, tak. I to jest duży problem, więc ja o to apeluję jak tylko mogę, że powinno się jednocześnie wdrażać pewne programy które będą budowały więzi, zaczynając od edukacji, która powinna, no wiadomo, zawsze się narzeka na edukację, integrować ludzi, ale to jest taka prawda, tworzyć wspólnoty.


Karol: Boże, jak ja Ci dziękuję, że to powiedziałeś, ja mam w głowie bardzo mocno, u mnie funkcjonuje właśnie potrzeba budowania wspólnoty, dużo bardziej niż kiedykolwiek wcześniej.


Konrad:  Dokładnie, to są takie procesy, które trochę widujemy, że ludzie rzeczywiście chcą się integrować. Ja widzę to też po studentach, bo przecież nie ma już tych dziekanatów, które ja pamiętam i pewnie ty tak samo, gdzie myśmy tam się tłoczyli, ale przy okazji człowiek się umówił na jakieś fajne spotkanie wieczorne. A teraz jest tak, że studenci siadają przed budynkiem i klepią do swoich aplikacji. Tam gdzieś sprawdzają jakieś rzeczy, wysyłają jakieś podania itd. Więc siłą rzeczy ciężkiej trudno jest zbudować wspólnotę, kiedy w sposób indywidualistyczny działają ludzie bez możliwości skontaktowania się, bo przecież biblioteki uniwersyteckie są niemal puste, bo ludzie mają swoje czytniki.


Karol: Ja pamiętam, jak kiedyś projektowałem biblioteki multimedialne w Polsce i pamiętam, jak ważne dla mnie było właśnie to, żeby tworzyć miejsca, gdzie ludzie się spotykają, tworzą, komunikują, a książka tak naprawdę jest do tego tylko i wyłącznie okazją do spotkania.


Konrad:  No właśnie, dokładnie tak jest, przynajmniej właściwie było.


Także twórzmy więcej takich okazji do spotkań. Ja w ogóle też się cieszę, jak słyszę, że ty robisz te takie śniadania jajowe i to też jest bardzo fajna idea, że nie tylko się spotykamy na jakichś tam Zoomach, kiedy jest dużo takich tematów do omówienia. Ja też na przykład, jak robię konferencję, bo może warto, żebym o niej też wspomniał, to mówię oczywiście, dostęp może być online’owy, jeśli ktoś nie może przyjechać, zupełnie bezpłatny. Jako opcja. Jako opcja, ale na przykład było sporo osób, które powiedziały, zgłosiły się z wystąpieniami i mówią, no to ja w sposób online wygłoszę. Ja mówię, no nie.


A powiesz o Human Tech Summit. Tak, to jest konferencja, którą robimy co roku. To jest 7-8 grudnia w tym roku.


Robimy to już od kilku lat. No i co roku zapraszamy jakichś fantastycznych gości, którzy nam tą konferencję ubarwiają. Mówimy tutaj o kino-speakerach. To są osoby, które mają naprawdę bardzo, bo też to weryfikujemy, sprawdzamy pod kątem jej cytowań, pod kątem jej pewnej rzetelności naukowej, więc mamy w tym roku pięciu kino-speakerów, a właśnie nawet szósta osoba jeszcze pewnie dojdzie, więc będzie na przykład z takich osób Matt Motyl, nazwisko tak polsko brzmiące, ale to nieprzypadkowo, bo ma polskie korzenie Pracuje z Uniwersytetem Południowej Kalifornii, zajmuje się mediami społecznościowymi, ale nie tylko szeroko rozumianą technologią. Będzie jeszcze też osoba o takim polsko brzmiącym nazwisku jak Andrew Przybylski z Uniwersytetu Oksfordzkiego. On z kolei też zajmuje się mediami społecznościowymi, ale on też dostrzega w nich pozytywny aspekt.


Karol: A w osi samego wydarzenia, jakbyś miał powiedzieć, co będzie.


Konrad:  To będzie w ogóle, bo tutaj wspomniałem o tym, że będzie kilku takich specjalnych gości, ale my zawsze mamy taki schemat, że oni mają trochę więcej czasu, wiadomo, tak pół godziny mogą mieć ten swój wykład. Natomiast są też jeszcze sesje i te sesje jest mniej więcej, godzina jest poświęcona taką sesję.


Jest na przykład AI and Society, taka sesja AI in Medicine, AI in Industry, tak. Czyli pokazujemy sztuczną inteligencję, chociaż też nie tylko sztuczną inteligencję, ale w rozmaitych kontekstach. 99% No właśnie, pokazujemy 99 twarzy i właśnie chcę przez tą konferencję pokazać te wszystkie twarze możliwe, zarówno takie powiedzmy sobie pozytywne, jak i negatywne. Więc jest też mieszanka, z tego też się bardzo cieszę, bo są zawsze ludzie, którzy są związani z akademią, z uniwersytetami, ale też i z biznesu, ale też z organizacji społecznych, więc robimy taki miks, żeby wszyscy się zauważyli, żeby wszyscy się posłuchali, nawet jeśli wszyscy nie mówią tym samym językiem i nawet jeśli mają trochę czasami inne spojrzenie, to uważam, że to tak powinno wyglądać. To jest tak w pigułce to, co ja sobie myślę o współpracy międzyludzkiej, jeśli chodzi o technologię, że to tak właśnie powinno wyglądać. Mamy sobie też nie tylko sesję…


Interdyscyplinarna współpraca. Tak, gdzie nie tylko są te wystąpienia, ale to jest przecinane też panelami dyskusyjnymi, gdzie można troszeczkę poddać pewnej refleksji rzeczy, które się pojawiły na sesjach, ale też na przykład mamy warsztaty, czyli praktyczne umiejętności, które można nabyć. Tak, zapraszamy jak coś. Będziemy mieli w tym roku trzy warsztaty. Mogę tylko powiedzieć ogólnie, że jeden będzie na pewno o generatywnej sztucznej inteligencji, drugi będzie dotyczący wirtualnej rzeczywistości, czyli jak w sposób praktyczny się pewne rzeczy robi. A trzeci to będzie prawdopodobnie o wykorzystywaniu sztucznej inteligencji do tego, żeby odtwarzać jakieś filmy, czy generować jakieś filmy na podstawie jakichś materiałów, historycznych, które są jakieś uszkodzone, czy coś tam się z nimi wydarzyło. Nie powiem szczegółowo o tym, bo to oczywiście sami autorzy tych warsztatów coś tam planują, przygotowują się. A gdzie możemy poczytać o waszym spotkaniu.


To jest konferencja, która jest opisana na stronie humantechsummit.com, więc zachęcam. Tak jak powiedziałem, można połączyć się z nami online. zupełnie bezpłatnie, ale jeśli chodzi o koszty przybycia, ojej, teraz tam są jakieś rozmaite warianty, ale to jest koło taki ulgowy bilet, o ile dobrze pamiętam, to jest w okolicach chyba nieco mniej niż 300 zł, a… Tak, a tam gdzieś koło 500 złotych chyba z groszami jest koszt udziału takiego pełnego, bo ta tańsza wersja to jest ulgowy bilet. Także my staramy się, żeby to było maksymalnie dostępne. Mamy też bardzo fajnych partnerów, no między innymi 99 twarzy, za co bardzo dziękuję, ale też mamy patronat honorowy prezydenta miasta stołecznego Warszawy, będzie też minister cyfryzacji Krzysztof Gawkowski. No i jeszcze może warto wspomnieć, ponieważ pamiętam, że w zeszłym roku niektórzy zwracali mi uwagę, że a gdzie w tym wszystkim młodzi ludzie, startupowcy, w związku z tym robimy jeszcze dodatkową imprezę szóstego. W Hakaton.


Nie, w Hakaton 23. To będzie też jeszcze kolejna rzecz. Dobrze, że o tym wspomniałeś. Czyli właściwie się konferencja zacznie tego 23 listopada, gdzie będzie hackathon, takie wyzwanie programistyczne, które też ma swoją osobną stronę. Pozdrawiamy Dawida Sypniewskiego. Dawid Sypniewski będzie też właśnie tutaj głównym takim organizatorem tego wydarzenia. Natomiast 6 z kolei, 6 grudnia będziemy mieli taki event startupowy wieczorny, gdzie chcemy pokazać takie startupy, które uznajemy, że no właśnie będą miały taki pozytywny wpływ. No bo są też takie, które mi się wydają wręcz niebezpieczne i nie chciałbym, żeby otrzymały dofinansowanie, a są takie, które naprawdę mogą być bardzo pomocne. Więc wybieramy takie startupy, chcemy pokazać je na scenie, chcemy je nagrodzić, no i też chcemy też zintegrować troszeczkę ludzi, Właśnie idea jest taka, żeby się ludzie tak sieciowali, żeby te środowiska nie funkcjonowały w takich silosach.


Karol: Przenikały i budowanie relacji. A powiedz mi, jak patrzysz na zmiany, jeżeli chodzi o edukację, sposób pracy, nauki, na rozwój technologii, na roboty humanoidalne, to co byś radził teraz młodym ludziom stać się generalistą czy specjalistą w jakiejś określonej dziedzinie. skoro systemy sztucznej inteligencji będą za chwilę równie inteligentne, co doktoranci albo doktorzy habilitowani.


Konrad:  Ja raczej wierzę w to, że trzeba mieć solidne podstawy, ale na poziomie też takim ogólnym, czyli mieć pewną orientację w wielu obszarach, wtedy kiedy człowiek zwłaszcza zajmuje się technologią, to jednak powinien wiedzieć coś szerzej o kontekście społecznym, o pewnych zachowaniach społecznych. Więc projektując technologię to jest absolutnie kluczowe. Ale ja wiem, że to jest trudne, mieć wiedzę ogólną i szeroką, a jednocześnie wyspecjalizowaną. Ale taki model jest idealny, czyli mieć swoją taką niszę. Na przykład ja tak na to patrzę i mam poczucie, że wiem całkiem sporo o procesach społecznych, z psychologii, bo to są moje korzenie. Wiem też całkiem sporo, tak mi się wydaje, o technologii, ale jestem wyspecjalizowany w kierunku robotów humanoidalnych.


Karol: Widzisz siebie jako nie naukowca, tylko przedsiębiorca.


Konrad:  Ja też mam firmę od tylu już tam lat, ale jeśli chodzi o moją pasję, to jest rzeczywiście nauka. Te odkrycia naukowe mnie strasznie kręcą i fascynują, bo kiedyś mi się wydawało, że badania naukowe to coś tam, jesteś amerykańscy naukowcy, albo mi się wydawało, że to wszystko jest zaproszenie jakiś pis na wodę, ale teraz jak sam zacząłem prowadzić od już wielu lat tak naprawdę badania, Kiedy poczułem to, bo przecież to nie jest tak, że gdzieś ktoś inny to zrobił, tylko ja to przygotowałem i potem otrzymuję te wyniki i mnie to zaczyna szokować.


Karol: Szkoda, że nie widzicie teraz błysku w oku Konrada.


Konrad:  Tak, ja mam wtedy błysk w oczach i na przykład, jeśli mogę jeszcze pozwolić na zreferowanie kilku wyników badań, chętnie się tym pochwalę. Na przykład robiliśmy takie badania, które pokazały, że dotykanie robota humanoidalnego powoduje powudzenie fizjologiczne. Tak jak u ludzi mamy pewne części takie intymne, które jak dotkniemy, kogoś na przykład, nie wiem, w jakieś miejsca, powiedzmy sobie, mniej dostępne. Za przeproszeniem, pupa jest takim miejscem, to pewnie u wszystkich podnosi się takie pobudzenie. Ale u robotów dotykanie robota wywołuje podobne efekty, z tym, że wtedy, kiedy opiszemy robota językiem anatomii ludzkiej, wtedy, kiedy nie nazwiemy tej części, że to jest część robota oznaczona numerem 5 na przykład, tylko jest to właśnie ta pupa, czy oczy, czy inne elementy.


Więc to jest taki ciekawy wynik. Ale na przykład zreplikowaliśmy słynne badanie Stanleya Milgrama z lat 70., gdzie nasz robot, przepraszam, tylko w tamtym badaniu może warto powiedzieć, że nie było żadnego robota, tylko był człowiek, który pełnił rolę autorytetu i zachęcał ludzi do karania innych ludzi prądem, jak się pomylą. Myśmy to odtworzyli bardzo szczegółowo z Tomaszem Grzybem i Dariuszem Dolińskim, gdzie rolę tego autorytetu powierzyliśmy robotowi naszemu i się okazało, że skuteczność jego działania była 90%, czyli 90% ulegała. Więc to są tego typu eksperymenty, ale też prowadzimy badania nad dziećmi i też sprawdzamy, jak dzieci reagują na roboty. Okazuje się, że jak robot jest asertywny, nie chce czegoś wykonać, to dzieci zaczynają mu rozkazywać. Z kolei jeśli robot rozkazuje, to się okazuje, że dzieci zachowują się tak potulnie i proszą.


Więc to mnie też ciekawi, jak wygląda pewien proces poznawczy u dzieci. Także to są rzeczy, które mogą służyć, jak się je zbierze łącznie z innymi badaniami, do tego, żeby projektować w sposób sensowny roboty. Jak wiemy, jednym z takich efektów bardzo dobrze rozpoznanych jest dolina niesamowitości, czyli robot, który zbyt przypomina człowieka, jest odrzucany. Ale na przykład, jeśli mogę jeszcze wspomnieć o jakichś innych badaniach innych badaczy, są też badania, gdzie okazuje się, że my lubimy na przykład roboty, które nie są idealne, które na przykład, powiem jakiś błąd, Bo przypominają nas ludzi. Tak, przypominają nas, mają też nasze niedoskonałości.


Ale fascynuje mnie co jeszcze. Na przykład zastosowanie robotów w szpitalach w Japonii. Wprowadza się roboty, które mają za zadanie rozśmieszać, które mają na przykład jakieś tutaj… opowiadać kawały albo inne tutaj jakieś wątki komediowe wprowadzać. Więc chcę przez to powiedzieć, że możemy stosować nawet roboty w takich kontekstach i wykorzystywać je jako stand-uperów. Są też takie roboty, które na przykład dzięki nim możemy trenować wystąpienia publiczne albo szlifować swój język. Jeśli popatrzy się na możliwość stosowania robotów, naprawdę jest masę ich, bo tak jak już powiedziałem wcześniej, one mają tą właściwość, że nie oceniają nas. Więc tam, gdzie jest nam trudniej z tą oceną sobie poradzić, to można je stosować. Ale też nie powinniśmy przesadzać. Wydaje mi się, że… Zdrowy rozsądek.


Po prostu to są… Ja wiem, że marzą ludzie i nawet też w naszych badaniach też to wyszło, że ludzie na pierwszym miejscu stawiają, jeśli chodzi o zastosowania robotów, taki problem jak jakieś obowiązki domowe, że on powinien nam tam prasować i gotować i sprzątać. I kto wie, może tak po prostu będzie, że będziemy wtedy mogli bardziej się skoncentrować na rozmowie ze swoimi bliskimi. Jeśli mądrze to poprowadzimy, to możemy tak to zrobić. W tej chwili też nikt nie pierze na przykład ręcznie, tylko odpalamy sobie pralkę i idziemy na dół, na przykład gdzieś tam mieszkamy sobie w domu i po prostu gadamy sobie ze swoimi bliskimi.


Karol: A gdybyś miał polecić Konrad książkę, którą warto przeczytać.


Konrad:  No ostatnio książka Kurzweila, najnowsza, to zdecydowanie tak. Jeszcze nie przeczytałem, ale już widzę, że tam się sporo dzieje. Kurzweil pisze o osobliwości, która jest coraz bliżej, zresztą jest taki tytuł. Więc myślę, że ją bym tutaj polecił, zwłaszcza, że to jest nowa rzecz.


Karol: Chyba niedługo ma być wydana w języku polskim.


Konrad:  To znaczy ja już ją mam, ale dlatego, że dostałem ją wcześniej z wydawnictwa i dlatego, żebym ją zrecenzował, więc dlatego korzystam z tej okazji i naprawdę bym ją polecił. Tam jest sporo też najnowszych danych. On też podpiera się danymi pokazującymi, jak wygląda rozwój sztucznej inteligencji, generatywna sztuczna inteligencja, więc Myślę, że to jest ciekawa rzecz. Ostatnio też Ola Przegalińska wydała też książkę, którą jeszcze nie przeczytałem, ale z uwagi na to, że znam zarówno Olę, jak i Kamilę Tiantor, jej współautorkę, to jestem przekonany, że to będzie dzieło warte uwagi. Myślę, że nasi słuchacze też powinni tą książką się zainteresować.


Karol: Szczerze polecam, miałem przyjemność prowadzić spotkanie autorskie.


Konrad:  A, no właśnie, no więc to szczególnie myślę, że tutaj się ze mną zgadasz.


Także ja w ogóle też polecam po prostu takie spojrzenia wszystkim tym, którzy zajmują się taką powiedzmy twardą robotyką. czy sztuczną inteligencją, żeby czasami zajrzeli do tych wszystkich społecznych książek, do psychologicznych książek, bo to może trochę wzbogacić nasze myślenie. No właśnie też książki… Pełny obraz, nie wycinek. No właśnie, pełny obraz, nie wycinek, bo wtedy zaczynamy trochę inaczej na to patrzeć, bo jest taki duży hype na nowe technologie, a myślę, że To nam się wszystkim przyda i tak samo na pewno się też przyda tym, którzy zajmują się z kolei naukami społecznymi, żeby oni też zobaczyli w pełnej krasie sztuczną inteligencję, robotykę, bo na przykład też niektórzy mam wrażenie, że dziwnie reagują. Jak ja mówię, że jestem psychologiem i zajmuję się tym tematem, to niektórzy myślą, że ja zaraz będę promował roboty. Ale ja po prostu staram się zobaczyć, jak wyglądają te wszystkie procesy, o których mówiliśmy i też proces antropomorfizacji, jak my przypisujemy. Ty też kwestionujesz.


Inspirujesz. No właśnie, tak bym powiedział, że czasami kwestionuję pewne rzeczy. Na przykład, chyba już o tym była mowa, ale tak krótko jeszcze wspomnę, że osoby starsze całkiem nieźle wchodzą w interakcje z robotami i nieźle z nimi współpracują i sobie je w większości przypadków cenią.


Dlaczego. Dlatego, że osoba starsza często czuje się źle wtedy, kiedy ktoś wykonuje jakieś czynności wokół niej, jakaś osoba dorosła, to często jest na przykład jakaś córka czy syn, czy ktoś tam z bliskich. I wolą te czynności, że tak powiem, oddelegować robotom.


Też te roboty mogą monitorować stan zdrowia, mogą alarmować, jak coś się wydarzy. I paradoksalnie okazuje się, że poczucie kontroli nad życiem swoim jest większe wtedy, a nie mniejsze. Więc to jest taki mit, który często się powtarza, że to w ogóle jakaś dehumanizacja. A osoby starsze mają wtedy poczucie, że się rozwijają, że to jest jakiś fajny sprzęt. Ciekawe czasy przed nami.


No bardzo ciekawe. Ja myślę, że to się będzie rozwijało. Tutaj mówiliśmy o tym, że AI bardzo mocno o tą rebutykę napędza. Więc myślę, że tak to będzie wyglądało. Tylko wolałbym, żeby nie było w tym jakiejś patologii i wolałbym też, żebyśmy tylko nie patrzyli na roboty poprzez pryzmat jakiegoś tego, co tam Elon Musk wyczynia. Zakładam, że będziemy za chwilę kończyli, ale myślę, że dyskusyjne jest też to mocno, czy w ogóle roboty humanoidalne w ogóle powinny być robione, czy nie powinniśmy jakoś to… oddzielić ten świat robotów od nas poprzez wygląd, ustalić, że w końcu nie przeginamy, mówiąc tak nieładnie, nie robimy na przeludzkiej skóry robotom, że ten robot nie powinien mieć osobowości, że nie powinien mieć takich cech typowo ludzkich, żebyśmy zachowali, wiesz, ten taki zdrowy podział, granice. Bo jeśli my nie zachowamy tych granic i nie będziemy ich widzieli, to zaraz będą dyskusje wokół praw robotów i tego, żeby te roboty np. opodatkować, a jednocześnie, żeby one miały jakieś prawa wyborcze może nawet. Inne dziwne rzeczy się zaczną pojawić, jakieś postulaty. Widzę w tym temat jeszcze jeden odcinek. Bardzo chętnie. Może też o cyborgizacji, który też jest według mnie fantastyczny temat. Też nie mówiliśmy o łączeniu się z robotami, roboty ubieralne. To jest naprawdę bardzo fajny obszar do rozmowy i dużo w tym wszystkich dylematów i jakichś takich ciekawych badań.


Karol: Czekam na twój format.


Konrad:  Dobrze. Rozmawialiśmy o tym. Obiecuję, że będzie i dziękuję za motywację w tym zakresie.


Karol: Konrad, serdeczne dzięki za spotkanie. Dziękuję za Twoją wiedzę i widzimy się na Human Tech Summit.