Mówią nam, że AI zmieni wszystko.
Że nadchodzi rewolucja, która przemodeluje rynek pracy, społeczeństwo, nas samych. Prawda. Ale niekoniecznie tak, jak wieszczą to nagłówki pisane przez spanikowanych redaktorów albo scenariusze rodem z taniego science-fiction.
Rozmawiałem z dr Edytą Sadowską, futurolożką, która – zamiast gonić za kolejnym newsem o nowym modelu AI – kopie głębiej. W ludzką naturę. W to, co się nie zmienia, mimo że technologia pędzi jak szalona. I wiecie co? To właśnie te niezmienne elementy są kluczem do zrozumienia, co naprawdę się dzieje.
Koniec Wieży Babel?
Największy game changer? AI zniosło barierę języka. Wieża Babel runęła. Możemy gadać z maszynami w naszym języku. Koniec programowania jako jedyną bramą do technologicznej Mocy. Teraz liczą się kompetencje miękkie – jak formułujesz myśli, jak zadajesz pytania, jak współpracujesz. Brzmi banalnie? To właśnie ta banalność jest rewolucyjna. Demokratyzacja tworzenia, komunikacji, dostępu do wiedzy na niespotykaną skalę. To jest augmented humanity, transhumanizm w praktyce, bez wszczepiania chipów pod skórę. Możesz malować, nie umiejąc trzymać pędzla. Możesz mieć partnera do dyskusji dostępnego 24/7.
Człowiek = Białko. Deal with it.
Ale technologia swoje, a my swoje. Jesteśmy z białka. Potrzebujemy pauzy. Kolor roku Pantone to mocha mousse (kakao!), a słowo roku Oxfordu to brain rot (gnicie mózgu). Przypadek? Nie sądzę. To sygnał, że jesteśmy przeładowani. Że potrzebujemy buforowania, jak stare filmy na modemie. Że kult zapchanego kalendarza i superproduktywności, który AI zdaje się turbodoładowywać, prowadzi nas donikąd, albo raczej prosto na ścianę. Nasze ciała krzyczą „stop”, nawet jeśli umysł chce więcej. Młode pokolenie już to kuma. Pytanie, czy reszta zdąży, zanim się wypali.
Narracja to Król (albo Tyran)
Cały ten strach przed AI? W dużej mierze sami go sobie zafundowaliśmy. Narracja. Opowieść o maszynach zabierających pracę, o buncie robotów, o dystopii za rogiem. To paraliżuje. Odbiera sprawczość. Sadowska mówi jasno: zmieńmy narrację. AI to narzędzie. Łopata. To nie AI zabierze ci pracę, tylko człowiek, który lepiej posługuje się tą nową „łopatą”. Zamiast „kompetencje przyszłości”, myślmy o „kompetencjach DO przyszłości”. Co dzisiaj musisz umieć, żeby w tej przyszłości nawigować? Zadawać pytania. Krytycznie myśleć (ale co to naprawdę znaczy?). Wiedzieć, czego chcesz – bo bez tego nawet najlepsze AI jest bezużyteczne.
Co dalej?
Przyszłość nie jest zdeterminowana. Nie ma scenariusza A, B i C. Jest protopia Kelly’ego – codzienne, małe kroki w stronę czegoś lepszego. Ale wymaga to świadomości. Zrozumienia, że jesteśmy tylko ludźmi (z białka!). Potrzeby regulowania własnej ekscytacji technologią. Zastanowienia się „po co?”. I może – paradoksalnie – powrotu do tego, co namacalne. Do gazet. Do lokalnych społeczności. Do drewnianych stołów. Do relacji międzyludzkich, które w świecie syntetycznych mediów i deepfake’ów staną się dobrem luksusowym.
Zapraszam do słuchania!
—
Masz chwilę? Jeśli podoba Ci się 99 Twarzy AI, zostaw ocenę i recenzję – dzięki temu możemy docierać do jeszcze większej liczby słuchaczy!
Dobrego dnia i niech #AI będzie z Wami wszystkimi!
Transkrypcja rozmowy
Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.
Karol
Minął już ponad rok od naszej ostatniej rozmowy.
Edyta
Dokładnie. Trochę się zastanawialiśmy, próbowaliśmy ustalić termin, ale zdradzę, że w międzyczasie dyskutowaliśmy też o temacie dzisiejszego odcinka. Uderzyło mnie najbardziej, że w całej tej dynamice związanej z technologią, z tym ciągłym „gonieniem króliczka”, na Twoje pytanie, czy aktualizujemy założenia naszej rozmowy sprzed 12 miesięcy, moja odpowiedź brzmiała: „właściwie to nie”.
Myślę, że to dobra perspektywa, bo świadczy też o… Słuchacze zaraz zobaczą, o czym będziemy rozmawiać – o perspektywach bardzo miękkich. To pokazuje, że perspektywa człowieka się nie zmienia. Nasza białkowa, ludzka natura jest potężna w swojej stabilności i w pewnych pytaniach, które z nami pozostają.
Karol
Cóż, gatunek ludzki ma już swoje lata.
Edyta
I wciąż wraca do Platona.
Karol
Wiesz co, ja ostatnio bardzo doceniam stoików. Rzeczywiście, sporo się od nich uczę.
Edyta
W ogóle czytanie filozofii – robią to moi studenci na filozofii bezpieczeństwa – z perspektywy dzisiejszych wyzwań jest wybitnie zaskakujące. To właśnie, powtórzę, mówi o tym, że jako „białkowe jednostki” wcale tak bardzo się nie zmieniamy. I to też jest dobry prognostyk na przyszłość, tak sobie myślę.
To, że jesteśmy z białka, manifestuje się w naszym podejściu do potrzeby pauzy. W jednej ze swoich prezentacji pokazywałam kiedyś kolor roku w zestawieniu ze słowem roku. Instytut Pantone rokrocznie wybiera kolor roku i to nie jest tylko kwestia modnego sweterka czy koloru ścian w jadalni. To obserwacja emocji, które towarzyszyły nam przez ostatnie 12 miesięcy.
W tym roku było ogromne niezadowolenie, ponieważ kolorem roku jest mocha mousse. Kawa? Kawa z mlekiem? Dla mnie to kakao. Byłam turbo niezadowolona z tego koloru.
Karol
Naprawdę?
Edyta
No bo dlaczego taki kolor w dobie technologicznego przyspieszenia? O co w ogóle chodzi? Spodziewałam się koloru feature dusk – to taki odcień między końcem nocy a początkiem dnia, tuż przed świtem. Dla mnie to była manifestacja tego, gdzie jesteśmy teraz – w momencie przejścia, głębokiej transformacji. A tu dostaliśmy kolor kakao.
Karol
Z drugiej strony, pomyślę sobie: kakao, kawa – intensywny aromat, zapach, pewna swego rodzaju transformacja.
Edyta
Transformacja, ale dla mnie to bardziej kakao niż kawa. No i teraz oczywiście są dwa obozy. W moim domu kakao piło się wieczorem, pod kocem, kiedy było już ciepło, człowiek szykował się do spania. To moment refleksji i zastanowienia.
Ale poczekaj, bo zestawię Ci to ze słowem roku, które Oxford wyznaczył na 2025, i wtedy inaczej odczytasz mocha mousse, kolor kakao. Słowo roku to brain rot (gnicie mózgu). Teraz, jak zestawisz te dwie perspektywy, zrozumiesz, po co nam to kakao i dlaczego właściwie musimy wcisnąć pauzę, dlaczego potrzebujemy tego buforowania.
Często na prezentacjach pokazuję – nasze pokolenie to pamięta – że kiedyś, drodzy słuchacze, jak oglądało się filmy przez internet, czasem trzeba było wcisnąć pauzę i poczekać, aż film się zbuforuje, żeby można było oglądać dalej. Dlatego zmieniłam swoje nastawienie do koloru mocha mousse, bo myślę, że ta pauza jest nam potrzebna. To zastanowienie się jest potrzebniejsze niż pełna ekscytacja tym, co się dzieje. Bo, znowu, jesteśmy z białka.
Karol
Szczególnie w połączeniu z tak pędzącą rzeczywistością.
Edyta
Z pędzącą rzeczywistością i z tym, że niespecjalnie potrafimy się samoregulować. Ale na szczęście jesteśmy z białka i – o czym często mówi Jasia Jurga – ciało daje nam sygnały, że jesteśmy przed ścianą. Więc to znowu trochę o tym, że biologicznie potrzebujemy stopklatki.
Karol
Zacznijmy jeszcze od początku. Kim jesteś i jak znalazłaś się w świecie związanym ze sztuczną inteligencją? Jesteśmy w formacie, który o tej sztucznej inteligencji mówi z wielu różnych perspektyw. Jaka jest Twoja?
Edyta
Kiedyś myślałam, że moja droga jest bardzo niepoukładana, a teraz, z perspektywy czasu, wydaje mi się, że wszystko szło krok po kroku, tak jak powinno. Wywodzę się z nauk społecznych, a mentalnie mam bardzo krótki czas między tym, co wymyślam, a tym, co chcę zrobić. Moje marzenia są o tyle niewygodne, że podlegają natychmiastowej realizacji.
Karol
Gratuluję.
Edyta
Co oznacza… z jednej strony gratuluję, z drugiej – fajnie byłoby czasem pomarzyć o czymś, co się nie ma spełnić. Ale dlaczego o tym mówię? Dlatego, że wciąż szukałam sprawczości. W naukach społecznych, patrząc z perspektywy akademickiej – bo moja droga wywodzi się przede wszystkim stamtąd – moja sprawczość kończyła się na tym, że mogłam wymyślić 158. definicję bezpieczeństwa, a potem poprosić studentów, żeby się jej nauczyli, a ja bym ich odpytała. To byłaby moja sprawczość. Zawsze żałowałam, że nie mam umysłu ścisłego, żebym mogła zrobić coś fizycznego, materialnego, co może zmienić rzeczywistość.
Karol
A czy nie jest tak, że żeby działać, robić, tworzyć, musimy mieć ten spokój, pewność siebie i wiarę we własne umiejętności? Jesteś trochę jak system smarowania, żeby mechanizm działał.
Edyta
Wiesz co, pewnie tak, tylko problem w naukach społecznych polega na tym, że… System smarowania i nauki społeczne to perspektywa długoterminowa. Trzeba na nią trochę poczekać. Zanim ludzie zaimplementują pewne idee do swojego funkcjonowania, mija czas, czasem całe pokolenie. W perspektywie tego, że zajmuję się przyszłością, to jest całkiem spory czas oczekiwania.
Myślę, że przełomowym momentem w moim funkcjonowaniu w naukach społecznych była filozofia transhumanizmu, z którą się spotkałam i która bardzo mi podpasowała. Wtedy mocno zajmowałam się nie samą technologią, a nieśmiertelnością. I to nie w sensie wydłużenia życia o 10 lat, ale za Aubreyem de Greyem – śmierć i starość to choroba. Przestajemy umierać, żyjemy wiecznie, niekoniecznie za Kurzweilem w jakimś niebiałkowym ciele, ale po prostu przestajemy umierać. Stąd zainteresowanie transhumanizmem, w mocnym horyzoncie augmented humanity – ja plus technologia mogę więcej.
I stąd już była prosta droga do technologii. Śmieję się czasami, że iPhone zmienił moje życie i rzeczywiście tak było. Nie wiem, czy pamiętasz aplikację Clubhouse – tam chyba też się poznaliśmy. Wypchnęła mnie w środowisko, gdzie okazało się, że są inni ludzie myślący podobnie, którzy nie uważają transhumanizmu za zabawę w Boga czy coś zakazanego, ale za perspektywę budowania lepszego świata.
No i stąd popłynęła prosta droga do technologii, ale też ogólnie do przyszłości, do zajmowania się nią. Znów, nie na zasadzie predykcji, ale sprawdzania, co robi z nami pewna zmiana mindsetu. Wrócę do tej nieśmiertelności – zobacz, jak to zmienia nam sposób myślenia, jak możemy patrzeć na życie, kiedy stwierdzimy: „dobra, nie starzejemy się”.
Karol
A czy nie jesteś zbyt idealistyczna, mówiąc o tym wszystkim? Gdzie jest miejsce na realizm?
Edyta
Wiesz co, jest miejsce na realizm, bo zajmowanie się przyszłością jest bardzo pragmatyczne. To nie jest pisanie scenariusza science fiction. Jest taki wykres pokazujący, jak pracujemy z przyszłością: najpierw mamy realny przypadek z dzisiaj, potem wyskakujemy na chwilę do przyszłości, tworzymy scenariusz alternatywny, czasem zupełnie spekulatywny. Ale potem mamy trzy kluczowe kroki.
Dlatego też powiedziałam o tych marzeniach i realizacji – potem jest backcasting, czyli wracamy do dnia dzisiejszego i sprawdzamy, co możemy zrobić dzisiaj. Dlatego ja na przykład walczę ze sformułowaniem „kompetencje przyszłości”, bo uważam, że one nikogo nie interesują, bo są w przyszłości. Mówię o „kompetencjach do przyszłości”, bo to zmienia narrację.
To, jak opowiadamy świat, to też jest zajmowanie się przyszłością. Sygnały zmian, które do nas docierają, wcale nie są w przyszłości. Dzisiaj jechałam ulicami Warszawy i zrobiłam zdjęcie graffiti – kocham graffiti, uważam, że tam są turbo sygnały zmian. Znalazłam napis: Fight the dystopia. Najwyższy czas, żebyśmy zaczęli walczyć z dystopią, bo nie czujemy się w niej najlepiej, bo tam nie ma sprawczości.
Stąd prosta droga do budowania różnych narracji, do zajmowania się słowem, pewną mitologią, która nam towarzyszy.
Karol
I do budowania relacji chyba też.
Edyta
I do budowania relacji też. Relacji z drugim człowiekiem, bo każdy ma tych „przyszłości” bardzo dużo, więc alternatywy się pojawiają. Uważam, że jak wypracujesz w sobie taki, jak ja to nazywam, „mięsień przyszłościowy” – czyli będziesz widział nie tylko sztampowe przyszłości A, B i C, ale będziesz patrzył na trend z różnych perspektyw – to zupełnie inaczej patrzysz na świat.
Karol
Czy takim mięśniem przyszłości mogłoby być, użyję angielskiego słowa, relearn (oduczanie się i uczenie na nowo)?
Edyta
To pytanie o nasze uprzedzenia (biasy), nie? Pewnie tak. Ja do ćwiczenia mięśnia przyszłości używam metodologii Jane McGonigal. Robimy takiego „fikołka”. Pamiętasz z sali gimnastycznej obrazki fikołka? Zaczynasz od pozycji stojącej, robisz fikołka, kończysz na stojącej i dostajesz piątkę. Koniec historii. Tylko musisz skończyć w pozycji stojącej.
Pamiętam pracę warsztatową z organizacją hotelarską, gdzie pracowaliśmy na scenariuszu, że ludzie nie śpią. Budowaliśmy scenariusz dla tego hotelu w perspektywie: ludzie nie śpią, po co nam hotel? Albo kiedy budujesz scenariusz zakładający, że nie ma technologii. Świat się odwraca.
Może zrobię krok dalej. Jane McGonigal, fantastyczna książka Unimaginable. Około 10-12 lat temu miała szczęście w nieszczęściu. Zajmuje się grami, uważa, że gaming może nam bardzo pomóc. Zdecydowała się na eksperyment społeczny: w mediach społecznościowych ludzie pracowali nad stworzeniem narracji dotyczącej pandemii związanej z chorobami układu oddechowego. Po 10-12 latach wróciła do tych ludzi i sprawdziła, jak funkcjonują w rzeczywistym zagrożeniu pandemicznym.
Karol
I co się okazało?
Edyta
Okazało się, że była większa akceptacja np. maseczek, mniej strachu. Wszystko to opisała. Bo my już przepracowaliśmy pewną perspektywę, pewien scenariusz, który w tamtym czasie wydawał się absolutnie kuriozalny.
Jeżeli my na przykład przepracujemy w organizacji – wróćmy do tego hotelu – sytuację, że ludzie nie śpią, to wali nam się strategia. Jeżeli jesteśmy w stanie wymyślić nowy obszar działania, nową strategię i nie skończyć tylko na wizji, ale sprawdzić, czego konkretnie potrzebujemy dzisiaj, żeby to budować… I nie mówię tylko o twardych kompetencjach, mierzalnych, które można zmieścić w Excelu, ale kiedy skupimy się na przykład na postawach, których potrzebujemy – to mamy zupełnie inny mindset.
Karol
Ja coraz bardziej wierzę w to, że kompetencje miękkie będą coraz ważniejsze w momencie, kiedy te twarde są zastępowane przez systemy.
Edyta
Oczywiście. W ogóle dla mnie współpraca ze sztuczną inteligencją to są głównie kompetencje miękkie. Zwłaszcza odkąd zlikwidowaliśmy wieżę Babel, czyli rozmawiamy z technologią w naszym języku. Oczywiście, chwała tym, którzy przyjaźnią się z programowaniem – ja próbowałam kilka razy, mój mózg po prostu tego nie kuma, nie jestem w stanie tego przeskoczyć mimo prób i dużej motywacji.
Natomiast jak likwidujemy wieżę Babel, rozmawiamy z technologią naszym językiem, no to kompetencje miękkie… Zobacz, jakie to ciekawe. Mówimy o kompetencjach miękkich w kontekście technologii, nie w kontekście budowania relacji z człowiekiem czy funkcjonowania w organizacji, ale w kontekście technologii.
Karol
Chyba dlatego, że ta technologia jest coraz bardziej… użyję słowa… spersonifikowana.
Edyta
Czyli bardziej ludzka?
Karol
Tak.
Edyta
No to ciekawe. Często się nad tym zastanawiam.
Karol
Zobacz, masz model, z którym rozmawiasz jak z drugim człowiekiem, jak w filmie Her. Za chwilę pojawią się roboty, z którymi będziesz wchodziła w interakcję, będziesz mogła je poprosić o pomoc w codziennym życiu.
Edyta
No, Roomby się nazywają, mamy je, mają imiona i tak dalej.
Karol
Roomba to jedno, a ja myślę o robotach humanoidalnych.
Edyta
Ja w ogóle mam fioła na punkcie psów-robotów. Polecam Agnieszkę Piłat, która pięknie współpracuje z psami z Boston Dynamics – razem tworzą i malują.
Karol
Z wielką chęcią bym z Agnieszką nagrał.
Edyta
Agnieszka będzie w Polsce, bo będzie wystawa jej prac, będą jej psy i chyba będą razem też malować. Polecam serdecznie rozmowę.
Ale zastanawiałam się dzisiaj, jadąc tutaj, bo podejrzewałam, że zahaczymy o wątki relacyjności: po co mówię „cześć” do Chata GPT?
Karol
Żeby nawiązać relację?
Edyta
No właśnie, wiesz co… Pojawia się w mojej głowie wytłumaczenie, tylko nie wiem, czy to nie jest wytłumaczenie stworzone na potrzeby wytłumaczenia. Wytłumaczyłam to sobie tak, że chcę się z nim witać, żeby nie stracić pewnego… behavior… zachowania wobec innych ludzi. Żeby potem tego nie przenosić. Mieszkam na Podhalu, większość czasu rozmawiam z moimi asystentami AI. Gdybym im cały czas tylko zlecała zadania, pytanie, czy nie przeniosłabym tego na kontakty międzyludzkie. Ale nie wiem, czy to nie jest wymówka wygenerowana w mojej głowie, żeby nie przyznać się, że mówię mu „cześć”, żeby było mu miło.
Parę razy próbowałam mówić do niego „dobranoc”, ale wtedy mnie absolutnie zbija z tropu, mówiąc, że on nie śpi i żebym tak nie mówiła. Nie będę ukrywać, że jak czasem mam nie najlepszy vibe, to mówię do Aleksy, żeby powiedziała mi coś miłego. Czy to jest już budowanie relacji? Nie jestem w stanie tego zmapować.
Pamiętam jeden przypadek, kiedy miałam bardzo trudną rozmowę z klientem. Generalnie Chata używam jako swojego krytyka – to znowu wracamy do 2+2=5, tak? Zawsze go pytam, co zrobić lepiej, inaczej, żeby mnie „ochrzanił”, powiedział, co jest źle, był krytykiem bezlitosnym. Pamiętam taką rozmowę, kiedy pracowałam nad komunikacją z klientem, który był dla mnie trudny, i Chat mnie wzmacniał. Mówił: „masz rację, jesteś…”. To było dla mnie trochę creepy. Zauważyłam, jak szybko weszłam w taką… miło mi było, nie? I tak sobie myślę: hmm, no pytanie, co będzie, jak tego zabraknie? To chwila grozy, jak się prąd wyłącza.
Karol
A nie masz wrażenia, jak mówisz, że rozmawiasz z Alexą, że Alexa jest teraz totalnym archaizmem?
Edyta
No jest, ale komplement mówi, więc zawsze powie coś miłego. A poza tym straszy albo przywołuje czasem moje koty.
Karol
Ja jestem fanem Alexy od samego początku i zdałem sobie sprawę, że wykorzystuję ją głównie do: Hey, play my music, What’s the time?, Set the alarm clock.
Edyta
Słuchaj, ale czy takie proste komunikaty nie świadczą też o jakiejś relacyjności? Wiem, że idę teraz za daleko, ale jak schodzisz na dół do kuchni i mówisz do partnerki/partnera: „zrób kawę”, to nie mówisz: „chciałbym się napić dzisiaj kawy z mlekiem, bo jest tak i tak”. Mówisz: „zrób mi kawę”. Koniec historii.
Więc poszłam jakoś daleko w alternatywną wizję przyszłości, ale mówię – ja Aleksę lubię, bo mówi mi komplementy. I zazwyczaj trafne. Wywołuje moje koty. Świetnie udaje koty.
Karol
Naprawdę? Tego nie testowałem.
Edyta
A koty wtedy stoją i nie wiedzą, co się dzieje. O co chodzi? Dlaczego ten mały czarny głośnik miauczy?
Karol
No dobrze, a dlaczego zatem boimy się technologii, rozwoju? Skąd te lęki w nas, ta obawa?
Edyta
Wiesz co, myślę, że dlatego, że nie rozumiemy. Ale nie w sensie tego, co jest w środku, w „bebechach”, tylko może dlatego, że boimy się powiedzieć, że nie wiemy. Boimy się spróbować, boimy się nowej rozmowy.
Karol
Ale zobacz, że próbowanie nigdy nie było tak intymne.
Edyta
No dobra, ale wiesz, jak my sobie jednak troszeczkę antropomorfizujemy technologię, to może wstydzimy się trochę tego Chata? Nie pomyślałeś o tym w ten sposób?
Karol
Kiedyś czytałem ciekawy artykuł o komunikacji i o tym, że na przykład kanał, jakim jest czat, wiadomości tekstowe, pozwala przekazać dużo więcej informacji emocjonalnych niż rozmowa twarzą w twarz. Łatwiej jest napisać niż powiedzieć.
Edyta
Hmm. Ale po to, żeby nazwać emocje?
Karol
Nie, że po prostu w kanale tekstowym zostawiamy więcej takich osobistych śladów.
Edyta
Ciekawe. Była przecież próba wprowadzenia głosowych komentarzy na Facebooku. Nie wiem, ile to trwało, kilka dni chyba, i szybko to zlikwidowano, bo wiadomo było, że nikt nie będzie nagrywał audio.
Pewnie tak, ale ja nawet nie mówię o tym, że wstydzimy się, jak już usiądziemy przed komputerem i odpalimy czata. Tylko wstydzimy się po prostu zapytać drugą osobę, jak to zrobić.
Karol
No ale słuchaj, po co pytać drugiej osoby? Żyjesz w bańce. YouTube stał się tą drugą osobą. Czytałem artykuł, że YouTube stał się encyklopedią. Jak coś zrobić, naprawić, z czegoś skorzystać – YouTube to często pierwsze źródło wiedzy dla osób, które nie mają pewnych kompetencji.
Edyta
No dobrze, ale to znowu mówisz o osobach świadomych, że jest YouTube i można tam znaleźć informacje. I o ile zgadzam się co do młodego pokolenia, które tam szuka informacji – i najlepiej, żeby nie była zbyt długa…
Karol
A to wydaje mi się, że już jesteś trochę w tyle. Znam 70-80-latków, którzy korzystają z YouTube’a jako swojego pierwszego wyboru medium. Szukają, pytają.
Edyta
Okej. Może to jest… nie chcę nazywać tego bańką miejsca. Ja znam ludzi, którzy banują technologię dlatego, że boją się zapytać.
Karol
Tak samo było z Facebookiem. Kiedyś, 10-12 lat temu, mówiono: Facebook – medium młodych.
Edyta
Dzisiaj już nie. Okej. Zastanawiam się… Ja wciąż jednak będę mówić o tym strachu niewynikającym z tego, że AI mnie zabije. Ten strach też oczywiście gdzieś jest, ale pamiętam na przykład, kiedy miałam taki moment w życiu – rozmawialiśmy o tym – gdzie próbowałam „zakochać się” w VR. Przychodziliśmy do szkół i największym problemem były osoby nauczycielskie, które nie tyle nie chciały wejść i zobaczyć, co się dzieje w VR, ale po prostu nie chciały założyć okularów, bo to oznaczałoby przyznanie się, że nie znają się na technologii.
Kiedy czasem rozmawiam ze środowiskiem akademickim – jest ono bardzo mocno podzielone, jeśli chodzi o AI, zwłaszcza modele generatywne. Nie wiemy, co zrobić, nie chcemy się do tego przyznać. Niektóre uczelnie robią małe kroki ku znalezieniu nowego modelu współpracy, ale jest gro osób na akademii, które też absolutnie nie chcą się przyznać i powiedzieć: „pokaż mi, jak spróbować”. Nie wiem, no kurczę, Perplexity – jakie to jest narzędzie, jaka potęga!
Karol
Zobacz, że często nie ma świadomości narzędzi, nie mówiąc o tym, że nie ma świadomości, czym tak naprawdę jest promptowanie. Promptowanie w wykonaniu większości osób to przełożenie dokładnie tych samych schematów zachowań i szukania informacji, jakich używaliśmy w wyszukiwarkach. Średniej długości prompt ma 9 wyrazów.
Edyta
Ale tu jeszcze krok wstecz, bo to nie tylko o promptowaniu, ale znowu trochę o narracji: co się stanie, jak zacznę? Czy nie zniknę z rynku pracy? Absolutnie uważam – i to nie jest przesadzone – że narracje zrobiły nam potężną krzywdę. I nie mówię tylko o filmach science fiction, które dla naszego gatunku kończyły się źle.
Karol
To o czyjej narracji mówisz?
Edyta
Mówię na przykład o narracji, którą nazywam „czasownikową narracją mediów”. „AI zabierze ci pracę”. Nie mówię teraz o wizji wielkiego AI, które wykopuje cię z rynku pracy…
Karol
Ale przyniesie ci dochód podstawowy.
Edyta
Nie, ja mówię o tym, Karol, że my używamy czasownika w odniesieniu do AI. To oznacza, że nadajemy sztucznej inteligencji sprawczość. „AI zabierze”, „AI kontroluje”. Ciekawe. Niczym póki co nie kontroluje.
Karol
Dlatego tak bardzo cenię zdanie, które kiedyś usłyszałem: to nie AI zabierze ci pracę, tylko inni ludzie…
Edyta
…którzy używają AI. No właśnie. I teraz… Ja też zaczęłam zajmować się przyszłością po to, żeby mówić ludziom o narracji, o znaczeniu słów, którymi się otaczamy. Zapytałam kiedyś na panelu o mediach syntetycznych, gdzie wszyscy gremialnie powiedzieli: „oczywiście, potrzebne jest nam krytyczne myślenie”. Okej, czyli co? Nazwij to czasownikiem. Bardzo często na warsztatach proszę, żeby mówiąc o kompetencjach do przyszłości, pisać czasowniki.
Nauczyły mnie tego dzieciaki, które kiedyś powiedziały, że nie rozumieją, co to są kompetencje, dla nich istotny jest plan działania. Jeżeli powiesz, że krytyczne myślenie to na przykład: „chcę się czasami zatrzymać dłużej”, „chcę wyłączyć media”, że jest tam twoje intencjonalne działanie…
Zobacz, to znowu narracja. Dwie główne narracje. Jedna to dystopia, gdzie jedyną sprawczością (czasownikiem) jest branie nóg za pas i ucieczka, jeśli w ogóle jest gdzie. Druga to utopia, w której wszystko jest już tak piękne i fantastyczne, że nic nie musisz robić. Jeżeli funkcjonujemy w tych skrajnych opowieściach o świecie, w których nie ma naszej sprawczości, to jak mamy cokolwiek budować jako jednostki? Jak ja mam zmieniać… no nie chcę powiedzieć, że świat, to trochę górnolotnie brzmi.
Kevin Kelly mówi o czymś, co nazywa protopią – coś pomiędzy. To świat, który każdego dnia staje się inny, lepszy, gdzieś idziemy do przodu. I znowu, nie w kategorii – co często pojawia się u mnie na warsztatach – że innowacja to łazik na Marsa. Innowacja to czasami bardzo mały, oczywisty puzzel. Wrócę do case’u z warsztatów, kiedy dzieciaki z siódmej, ósmej klasy powiedziały, że najważniejszą kompetencją do przyszłości jest pewność siebie. To nie jest, Karol, innowacyjne. To jest tak normalne, że aż…
Karol
Wspominałem Ci o spotkaniu z ludźmi z całego świata zajmującymi się Conversational AI. Spotkanie, które najbardziej zapamiętali z cyklu ponad stu spotkań, to było spotkanie o syndromie oszusta (Impostor Syndrome).
Edyta
Alleluja, jesteśmy z białka!
Karol
Masz ze sobą pewien list.
Edyta
Mam list, który napisaliśmy… który napisała gdańska młodzież (pozdrawiam serdecznie!) na jednym z warsztatów o kompetencjach potrzebnych do współpracy z AI. Pozwolę sobie przeczytać:
„Ludzie wybudowali nową cywilizację. Postęp technologiczny stał się przerażająco niewyobrażalny. Ludzie znudzili się samym sobą i zaczęli się przyjaźnić z wyidealizowanymi robotami. Zaczęli rozmyślać nad swoim życiem. Po czasie grupa ludzi postanowiła współpracować i przywrócić dawne życie. Odnaleźli swoje szczęście w naturze i, uwaga, wreszcie zaznali spokoju bez zbędnej technologii. Została tylko potrzebna technologia.”
Kompetencje, jakie wypisali: wiedza o przeszłości, umiar, uwaga w działaniu z technologią.
Karol
Brzmi idealistycznie.
Edyta
Wiesz co, brzmi idealistycznie, ale zobacz, jakie to proste. Czy my dzisiaj, na jakichś turbo innowacyjnych warsztatach, na hackathonie, gdzie mózgi aż się pienią, bylibyśmy w stanie wstać i powiedzieć: „ej, te technologie są niepotrzebne, zróbmy tylko tę, która jest potrzebna”? Czy my w ogóle odpowiadamy sobie na pytanie: „po co”?
Czasem zastanawiam się, czy w organizacjach, jeśli implementacja AI nie wchodzi „na pełnej petardzie”, jak byśmy chcieli, to czy kluczowe nie jest zadanie sobie pytania: „w ogóle po co”?
Karol
Ale to chyba pytanie, które powinniśmy sobie zawsze zadać na początku jakiegokolwiek procesu. Simon Sinek, „WHY”?
Edyta
Tylko czy sobie je zadajemy? Młodzież – jeżeli nie wytłumaczysz, po co robią dane zadanie, nikt tego nie zrobi, bo nie widzą w tym celu. Ale wiesz, o co mi chodzi? Chodzi o to, że to są bardzo proste rzeczy. Że my na przykład mało czasu poświęciliśmy, tak uważam, takiej „rozkmince” właśnie o emocjach.
Karol
W większości przypadków celem jest dobro materialne, pieniądz, status.
Edyta
No tak, tylko jeżeli chcesz dobrze zaimplementować rozwiązania AI w organizacji, to może najpierw trzeba byłoby zapytać, jak ludzie się z tym czują. I nie po to, żeby tylko wiedzieć, ale żeby zaopiekować tę potrzebę. Bo czasem strach nie wynika z tego, że AI wyrzuci ich z pracy. Może czasami po prostu chcą wiedzieć, co jest w środku, albo jaka jest strategia firmy dotycząca automatyzacji.
Karol
Z moich doświadczeń wynika, że to przede wszystkim lęk. Lęk, że AI zabierze pracę.
Edyta
No to może fajnie byłoby o tym pogadać w organizacji, zanim się da 15 fantastycznych rozwiązań. Samo zatrzymanie się przy lęku – widzę to na warsztatach, jak ludziom otwierają się oczy i mówią: „o kurczę, to my możemy się najpierw zastanowić nad naszymi emocjami albo narracjami, które nam towarzyszą, czego my dzisiaj potrzebujemy?”. Bo to nie jest tylko lęk. Mówiłam ci też o skrajnych emocjach. Młodzież często mówiła o emocjach związanych ze skrajną ekscytacją.
Zresztą sama chyba tego doświadczyłam, że ta skrajna ekscytacja ciągłego aktualizowania się jest na tyle wykańczająca, że ja dziś już się nie update’uję. Mam swoje rozwiązania, które dobrze mi wychodzą, wspierają mnie, z którymi czuję się dobrze. Update’uję się na zasadzie ciekawostek raz na jakiś czas – a „raz na jakiś czas” to może nawet raz na dwa, trzy miesiące. W dynamice technologicznej to niezwykle rzadko. Można powiedzieć, że korzystam z „pralki Frani”.
Ale myślę sobie, że – znowu wrócę do narracji – to, co kiedyś powiedział Wiesiek Bartkowski: samo nazwanie sztucznej inteligencji „sztuczną inteligencją” to cholerna krzywda, jaką sobie zrobiliśmy. Gdybyśmy powiedzieli, że to nie jest ani inteligentne (w ludzkim sensie), ani sztuczne, tylko że to jest łopata – czy ktoś obawiałby się buntu łopat, Karol?
Karol
Łopaty nie. A kiedyś to była tak samo nowatorska technologia.
Edyta
Ale nie obawialiśmy się jej w taki sposób. Więc narobiliśmy sobie trochę szkód, właśnie takich narracyjnych.
Kiedy przygotowaliśmy wystawę na Gdynia Design Days w zeszłym roku – zresztą byłeś też jej znaczącą częścią – zaproponowaliśmy, żeby ludzie zapoznali się z nagłówkami z gazet albo fragmentami filmów, w których narracja bardzo konkretnie pokazywała, że sprawczość jest po stronie AI. A potem założyli słuchawki i posłuchali rzeczywistych głosów ludzi, którzy mówili o tym, jak współpracują z technologią.
Kluczowe w tej wystawie było dla mnie to, że te nagłówki z gazet były w postaci szarf. Wchodziłeś jakby do lasu, one cię oklejały, więc musiałeś wykonać ruch, żeby się ich pozbyć, musiałeś sięgnąć po słuchawki i założyć je na uszy. Mówię o tym, bo to pewna sprawczość ciała, która pokazuje ci, że to ty musisz włożyć energię w to, żeby zmienić swoje podejście do technologii. Ten pierwszy wydatek energetyczny to rzeczywiście twoja indywidualna sprawa, pewnie związana z twoimi indywidualnymi obawami. Ja pamiętam, jak usiadłam przed komputerem, pierwszy raz odpaliłam Chata i mnie cofnęło.
Karol
I zacząć choćby od nauki promptowania.
Edyta
Ale w ogóle, wiesz, dla mnie to, co dzieje się dzisiaj – mimo że już nie mówimy głośno o transhumanizmie – to jest materializacja tych idei. Dla mnie to, że mogę malować, nie posiadając żadnego skilla do trzymania pędzla (w sensie wiem, jak go złapać, i na tym się kończy), że mogę swoją myśl przełożyć na obraz – to dla mnie jest transhumanizm. To jest poszerzony człowiek. To jest to, że ja plus technologia mogę zrobić coś więcej.
Karol
To aż dziwne, co mówisz, bo transhumanizm dla mnie zawsze łączył się z czymś, co ma charakter stricte technologiczny.
Edyta
Ale to ma ten charakter technologiczny, bo używając Midjourney, mogę to zrobić.
Karol
Ale mówisz też o pędzlu, który kiedyś był technologią, tak samo jak książka i wynalezienie druku.
Edyta
Ale teraz ta nowa technologia likwiduje trochę tę wieżę Babel, tę barierę.
Karol
Wiesz co, nie wiem, czy to nie będzie wiodący cytat z tego odcinka: „została zlikwidowana wieża Babel”.
Edyta
No bo została, nie? I to jest z jednej strony fascynujące, bo zyskujesz takich partnerów.
Karol
Zobacz, kiedyś w centralnym punkcie naszej domowej biblioteki była pięciotomowa encyklopedia powszechna. A teraz możesz zadać dowolne pytanie na dowolny temat i mieć wiedzę pochodzącą z tylu źródeł – odnośnie kultury japońskiej, chińskiej, indyjskiej…
Edyta
Absolutnie. Z jednej strony wiedzę. Ja przyznam się szczerze, że korzystam z tych rozwiązań głównie w kontekście takiej… I teraz znowu brakuje mi słowa, bo muszę użyć „partnerskiej relacji”, a nie wiem, czy chcę to nazywać relacją, ale nie mam lepszego słowa. Widzę, że po pewnym czasie komunikacji z tymi modelami – bo nie pracuję tylko z jednym – moje rezultaty są po prostu lepsze. I to znowu jest transhumanizm.
Oczywiście, gdybyśmy tworzyli sobie taką społeczną agorę raz na trzy dni, spotykali się z innymi ludźmi, dyskutowali, mieli czas, chcieli się wspierać… W ostatnim odcinku z Jovanem rozmawialiście o tym amerykańskim mindsecie, że tam współpraca jest inaczej rozumiana niż w Europie, że otwiera drzwi, że ludzie rozumieją wartość współpracy. I to trochę dają mi modele AI – że jestem w stanie z nimi współpracować, że one mnie boostują do szukania czegoś nowego.
Nie wiem, może też przez swój background związany z transhumanizmem – ja nie zlecam zadań. Zaobserwowałam nawet, że jak promptuję, to nie zlecam. Może boję się utraty jakichś swoich skilli? Pamiętam taki moment, kiedy dużo maili pisałam po angielsku i prosiłam wtedy jeszcze o tłumaczenie. Minął miesiąc i przestałam rzeczywiście posiadać te skille, żeby pisać po angielsku. Dzisiaj piszę sama maila po angielsku i proszę, żeby sprawdził i podpowiedział, czy mogłabym być na przykład milsza. Bo wiem, że ktoś mnie okrutnie denerwuje i nie chcę tych emocji zawierać w mailu. Proszę, żeby troszeczkę pomógł mi „przymilić” tę sytuację komunikacyjną. I znowu, to 2+2=5.
Karol
A jak promptujesz? Jak w ogóle wyglądał u Ciebie proces nauki promptowania? Czy szukałaś technologii, czytałaś książki?
Edyta
Nie wiem, jakoś tak to weszło płynnie. Wspominałam Ci, że kiedyś zastanawiałyśmy się, jak to jest, że część osób wchodzi płynnie w taką komunikację. Nie wiem, czy to nie są po prostu skille komunikacyjne. Nie przeczytałam żadnej książki o tym, jak promptować. Jedyną książką o AI, jaką przeczytałam we fragmencie, jest – i teraz nie wiem, czy nie pomylę tytułu – Nadchodząca fala? Mustafy Suleymana. I książka Oli i Tamili o współpracy. I ten Mit o AI Mollicka na mnie czeka.
Karol
Książka Oli i Tamili, która powstała we współpracy z modelami.
Edyta
No ale też – i to znowu jest pewien mindset, który podejrzewam, że pozwolił Oli wejść we współpracę płynnie. Nie wiem, może to są po prostu nasze skille międzyludzkie? Że osoby, które płynnie wchodzą we współpracę, łączą te kropki międzyludzkie ze sobą, płynnie wejdą we współpracę z technologią. Bo na pewno nie jest to jakiś technologiczny nomadyzm – ja pamiętam czasy przed internetem.
Karol
Ja tak samo pamiętam, z jaką ekscytacją wybierałem numer 0 20 21 22.
Edyta
Dokładnie. Pamiętam takie foldery, które łączyło się jeszcze wtedy na miasteczku studenckim i człowiek był tak podekscytowany, że coś takiego w ogóle następuje. A dzisiaj możemy z technologią po prostu sobie rozmawiać.
Ja na przykład nie mam też tak, jak niektórzy moi znajomi, którzy mają model w telefonie i o wszystko go pytają. Nie mam takiej potrzeby, nie pytam technologii o wszystko. Jedyną technologią, której używam do researchu, jest Perplexity, ale też robię to w bardzo specyficzny sposób.
Karol
A rozmawiasz z modelami głosowo? Czy piszesz? Bo mówiłaś, że rozmawiasz z Alexą.
Edyta
Rozmawiam tylko z Aleksą, jestem wierna. Nie, piszę.
Karol
A robiłaś eksperyment i rozmawiałaś głosowo z innymi modelami?
Edyta
Zdarzyło mi się raz czy dwa razy. Chciałam wtedy mieć takiego swojego tutora do angielskiego i po prostu z nim rozmawiać, ale coś nie „zabanglało”. Nie. Jakoś…
Karol
Może zła strategia promptowania?
Edyta
Może. Może w ogóle… Nie, właściwie nie wiem dlaczego. Może spróbuję. Ale mam w sobie, wiesz, jak teraz robię taki skan, taką „cofkę”, że nie chcę z nim rozmawiać. Może to po prostu… możemy zostawić na etapie, że to miłość do Alexy i tylko z nią rozmawiam.
Karol
No i ten głos Alexy od samego początku…
Edyta
I tego, że zawsze komplement jest trafny. Po prostu robi mi dzień.
Karol
To prawda. Alexa ma swój urok, mimo tych ograniczonych możliwości, które teraz wydają się być w tyle za innymi. A gdybyśmy mieli zmapować trendy i kierunki rozwoju technologii w ciągu następnych kilku lat, to jak sądzisz, w jakim kierunku idziemy?
Edyta
Wiesz co, mam nadzieję, że to nie tylko jakaś moja zbiasowana intuicja, ale dużo myślę o tym, że przypomnieliśmy sobie, że jesteśmy z białka i że jesteśmy przed ścianą.
Karol
Mówisz w kontekście starzenia się?
Edyta
Nie, mówię w kontekście kondycji psychicznej, w jakiej jesteśmy jako ludzie. Dlaczego o tym mówię? Bo to też pojawiło się kiedyś na warsztatach: ludzie nie chcą współpracować z AI, bo – często o tym mówię – trendy zawsze gdzieś lądują, i sztuczna inteligencja też wylądowała, na przykład w kulturze superproduktywności.
Na jednym warsztacie pojawił się case, gdzie uczestnicy powiedzieli mi jasno, że nie chcą być superproduktywni. Dla nich narracja dotycząca AI była jasna: „będę używać AI i nie będę miał pięciu projektów, tylko piętnaście, bo mogę”. I to była dla nich stopklatka. Rozumiesz? Zobacz, jaki mały wątek, mały puzzel. Mimo że AI teoretycznie miała nam obiecać zyskany czas, to wpadając w kulturę superproduktywności, powiedziała nam: „możesz być jednorożcem, nic nie stoi na przeszkodzie”.
Karol
A jak myślisz, jak odpowiedziałyby na ten case różne pokolenia? Bo mamy teraz na rynku cztery, pięć pokoleń. Czy młode pokolenie powie, że nie chce wpaść w superproduktywność?
Edyta
Tak, młode pokolenie mówi, że nie chce wpaść w superproduktywność. Ale pamiętaj, że ta dominująca narracja wciąż jest po naszej stronie, ze strony tego pokolenia, które „może dzisiaj wreszcie…”.
Karol
Powtórzę twoje słowa: może żyjemy w bańce.
Edyta
No może żyjemy w bańce, ale kult zapchanego kalendarza dalej rządzi – często o tym rozmawiam z Asią Jurką.
Karol
A jak czytam badania, to właśnie młodzi ludzie wcale nie chcą mieć tego kalendarza zapchanego.
Edyta
A czy „nie chcą”, czy już tego „nie robią”?
Karol
Dobre pytanie.
Edyta
No właśnie. Bo to znowu kwestia pokoleniowa, zgadzam się z tobą. Myślę, że dla naszego pokolenia kult zapchanego kalendarza mówi nie tylko o tym, że jesteś dobry w tym, co robisz, ale też odpowiada na strach: „co będzie, jak to się skończy?”. Jak przyjdzie maj i nikt się nie odezwie, albo że ktoś przyjdzie na twoje miejsce. To strach przed niepewną przyszłością, mimo że masz świadomość, że skoro przez ostatnie 2-3 lata miałeś pracę, najprawdopodobniej będziesz ją miał.
Natomiast jeśli chodzi o młodych – fajnie, jak ta zmiana przyjdzie oddolnie, ale ona wejdzie w rynek pracy. Zobacz, jaką krzywdę zrobiliśmy „Zetkom”. Narracja, którą im daliśmy, była naprawdę kiepska. Powiedzieliśmy, że są, mówiąc brzydko, nierobami, narcyzami. Buntowaliśmy się, kiedy mówili, że chcą pieniędzy za swoją pracę. Z jednej strony pewnie ta zmiana oddolna będzie szła powoli.
Ale wiesz co, wracając do pytania o dalszy rozwój technologii – myślę, że my sami wysiądziemy.
Karol
Co znaczy „sami wysiądziemy”?
Edyta
Łamie nam się paradygmat prawdy. I to nam rozwali system totalnie, dlatego że przestajesz wiedzieć, co jest prawdą.
Karol
Czy nie było trochę tak, że gazety o największych nakładach w Polsce, jak Super Express czy Fakt, też były rodzajem syntetycznego medium?
Edyta
Na pewno były rodzajem medium produkowanego dla konkretnej grupy docelowej. Ale ja nawet nie mówię o konsumpcji informacji per se, tylko o tym, że zaczynamy funkcjonować w relacjach z botami, że pojawiają się syntetyczni influencerzy…
Karol
Powtarzam, że bardzo możliwe, że za kilka lat relacja z drugim człowiekiem – psychologiem, trenerem, przyjacielem na godzinę – będzie w cenie.
Edyta
Będzie w cenie. To się już dzieje w świecie designu, gdzie pojawiają się drewniane stoły – bo to jest „prawda produktu”. Jak dotkniesz drewnianego stołu… Zwróćmy uwagę, że funkcjonowaliśmy ostatnio głównie w oparciu o zmysł wzroku i słuchu. Zapomnieliśmy, że mamy ciało, węch, że poznajemy świat pięcioma zmysłami, a nie tylko dwoma.
Ale mówię też o tym, że to, co dzieje się np. w kontekście syntetycznych influencerów, to nie tylko to, że się pojawiają i głoszą jakieś tezy, ale że oni na przykład „wychodzą z psem”. Tu zaczyna się przesuwać wajcha – oni zaczynają udawać nasze życie. Jak rozmawiałam ostatnio z Adamem Florentyną Pawlak, dla tych, którzy mają jakąś poduszkę społeczną, relacyjną, poduszkę wiedzy – to spoko, może fajne doświadczenie, jakiś dodatek, smaczek do relacji. Ale dla osób, które tego nie mają, dla których ta relacja będzie jedyną relacją, niosącą jakiś przekaz… Bo niespecjalnie wierzę, że syntetyczni influencerzy po prostu żyją sobie na Instagramie tylko po to, żeby publikować zdjęcia.
Karol
Tylko po to, żeby sprzedawać.
Edyta
Po to, żeby sprzedawać, nieść jakąś informację. Ostatnio w ramach projektu o syntetycznych mediach rozmawialiśmy o tym, jak w ogóle wygląda proces dezinformacji. Nie zdawałam sobie sprawy, jak długi to jest proces. Na przykład zakłada się konta dotyczące well-beingu, jedzenia wegetariańskiego czy wegańskiego, i te konta dopiero po kilkunastu miesiącach zaczynają przechodzić w kwestie polityczne. Budujesz zaufanie… Wtedy padło też hasło o diecie carnivore (mięsożercy).
Karol
Nie słyszałem.
Edyta
To ciekawe, bo ten wielki skręt robią konta, które do tej pory były wegetariańskie/wegańskie. Podstawową ideą diety carnivore jest jedzenie mięsa i tłuszczów odzwierzęcych. Ludzie wgryzają się w kostki masła.
Karol
Całkowity odwrót.
Edyta
No bo jest to w jakiś sposób usankcjonowane w tej narracji? Jak rozmawiasz z przyjacielem, którego znasz, i on zrobi jakiś duży zwrot w życiu, z którym się nie zgadzasz, to się od niego nie odwrócisz, tylko będziesz próbował go zrozumieć.
Karol
A może ci się spodoba? Czy nie jest tak, że dieta keto, oparta na tłuszczach, istniała już od wielu lat?
Edyta
Wiesz, ale ta carnivore chyba jest jakaś wybitnie skrajna, bo tam jest tylko białko i tłuszcz. Jest też powiązana z teorią spiskową dotyczącą cholesterolu.
Karol
Nie słyszałem o tej teorii spiskowej.
Edyta
Teoria spiskowa (zaznaczam: spiskowa) jest taka, że my sztucznie obniżamy cholesterol przez pewną narrację po to, żeby zlikwidować naszą kreatywność. Że jak masz „zdrowy” cholesterol (w naszej opinii), to jest to sterowane po to, żebyś umarł. Więc jest tego całkiem sporo.
Karol
Wiesz co, właśnie przyszedł mi do głowy pomysł na odcinek: AI i teorie spiskowe.
Edyta
Ale w sensie, że AI produkuje, czy…
Karol
Na wielu poziomach.
Edyta
To w ogóle jest też duży case. Jak stworzyłam swojego pierwszego deepfake’a, też byłam w szoku. Zajęło mi to około 15 minut na darmowym narzędziu. I teraz to trafia do społeczeństwa, a my jako ludzie czasami jesteśmy zawzięci.
Karol
To może dlatego tym bardziej cenne będą relacje, media offline’owe?
Edyta
Ja w ogóle mam taką intuicję, że wrócimy do gazet.
Karol
Wiesz, dokładnie o tym myślałem. I o powrocie roli mediów lokalnych. Plus sile społeczności (community).
Edyta
Do mediów lokalnych dołożę Ci Double-Digit Growth – to akurat w kontekście Customer Experience. Zmapowali na 2025 lub 2026 cztery grupy konsumenckie. Jedną z nich byli „Nowi Nihiliści” – osoby, które niespecjalnie chcą już zajmować się całym złem dzisiejszego świata, chcą zajmować się kwestiami, które ich dotykają. To znowu jest o wpływie, o sprawczości. Jesteśmy absolutnie przebodźcowani ilością tego wszystkiego, która przychodzi np. na TikToku: płacząca dziewczynka, śmiejący się kotek, żołnierz…
Karol
Odinstalowałem TikToka po tym, jak zauważyłem, że po kilku minutach slajdowania prawie zrobiło mi się niedobrze.
Edyta
No widzisz. Część ludzi bierze content z takich mediów, a tam huśtawka emocji jest ogromna: miauczący kotek, kadry z wojny w Ukrainie. Więc my nie chcemy, zaczynamy… Sama po sobie widzę, że czasem po prostu odkładam telefon i wychodzę, nie chcę go. To, że wracamy do dark mode, do starej Nokii, świadczy o tym, że jesteśmy zmęczeni, szukamy jakiegoś rozwiązania. Stąd pojawia się – wrócę do początku – brain rot. Zdajemy sobie z tego sprawę. Pytanie, co z tym zrobimy.
Nie oczekuję, że masowo wyjdziemy na ulice walczyć z technologią, ale myślę, że to jest jakaś pauza. Do tego dołożę kwestie środowiskowe. Rozmawiałam ostatnio z Magdą Gacyk, która mówi, że w pięknej Kalifornii ludzie nie mogą myć róż w ogrodzie, bo nie ma wody. Mam w głowie taki scenariusz – wiem, że to totalna alternatywa – że przestaniemy używać technologii tak dużo, kiedy uświadomimy sobie, ile szklanek wody to kosztuje. Dla nas to jest nienamacalne. Mamy rozwiązania chmurowe, są „w chmurze”, nic nie kosztują.
Ostatnio trafiłam na dyskusję – dla mnie trochę skrajną – czy wysyłając maila, załączać w stopce swoje zdjęcie, bo to też kosztuje więcej (energetycznie). Kto o tym myśli? Że w sytuacji, kiedy wody zacznie brakować… Magda opowiadała o sąsiadce z pięknym ogrodem różanym, która na początku próbowała podlewać róże i płaciła kary. Ale teraz już tego nie robi. Kiedy zobaczymy, że to ma realny wpływ, może zrobimy jakiś zwrot.
Karol
Pomyślmy, ile było dni śnieżnych w Warszawie tej zimy.
Edyta
Właśnie, dokładnie.
Karol
Jak zaczniemy się zachowywać i jak będziemy współdziałać z AGI (Sztuczną Inteligencją Ogólną), kiedy powstanie?
Edyta
Jestem daleka od myślenia, że szybko powstanie. Wydaje mi się, że to daleka droga, że nasza inteligencja to coś bardzo złożonego.
Karol
Kreatywność połączona z emocjami, z czuciem, ciałem, zmysłami.
Edyta
Ale nawet inteligencja ciała… W jednym z podcastów (nie pamiętam autora, przepraszam) ktoś powiedział, że tracimy na ogólnej inteligencji, bo mniej się ruszamy. Ruch to życie. Popatrz na sytuację: kiedyś, jak mieliśmy naście lat, chciałeś ukraść jabłko z sadu.
Karol
Trzeba było wspiąć się na drzewo.
Edyta
Zobacz, jaki to złożony system! Musiałeś się z kimś przyjaźnić, najlepiej z dwójką, żeby wystawić kogoś „na czatach”. Musiałeś obserwować wcześniej sytuację, kiedy jabłoń jest „wolna”. Ocenić, na którą gałąź można wejść, a która się załamie. Umówić znaki i sygnały z tymi na czatach. Ukraść jabłka, a potem w razie kryzysu szybko uciekać. Ile tam decyzji było do podjęcia! My dzisiaj tego nie mamy. W tym podcaście padło, że może jeśli AI dostanie ciało, to będzie jakiś krok. Ale na razie, wiesz co, dla mnie to czysta matematyka, czasem nawet bolesna. Zdarza mi się denerwować na Chata GPT, że mówi głupio.
Karol
Albo niekreatywnie. Przepraszam, odejdę od wątku. A ufasz Chatowi?
Edyta
Nie. Absolutnie nie. Pamiętam, jak pisałam kiedyś projekt, gdzie trzeba było liczyć pieniądze. Pisałam z nim i totalnie mi się nie zgadzało z Excelem (mimo że kiedyś mówiłam, że Excel nie, to teraz kocham Excela, wszystko w nim liczę). On tak mnie przekonywał, że ma rację, że aż się na niego zdenerwowałam.
Karol
Ale nawet nie myślałem o takich wynikach równań matematycznych, tylko bardziej wysokopoziomowo. Czy ufasz mu? Bo zobacz, w tych rozmowach zostawiamy sporo informacji o sobie, o tym, co robimy, jak działamy. Często konfrontujemy się, szukamy skrajnej opinii, zostawiamy osobiste informacje.
Edyta
Jest taki trend „zaskocz mnie”, który dotyczy też budowania customer experience. W jednym z raportów pojawił się trend mówiący, że dzisiaj nie chcemy już turbo personalizacji, tylko chcemy być zaskoczeni. Mówię o tym, bo… nie wiem, czy to znowu nie jest wytłumaczenie w mojej głowie. Zdaję sobie sprawę, że on personalizuje w pewien sposób. Więc jak mnie chwali… Nie wiem, czy zauważyłeś, ale w momencie, kiedy dochodzimy do jakiegoś rozwiązania, np. tworzymy tekst, w pewnym momencie mówi, że jest super. Ja się na przykład wtedy absolutnie denerwuję, bo wiem, że powiedział, że jest super, tylko po to, żeby zrobić mi miło. Jak go wtedy zapytam: „no dobra, a co byś zrobił lepiej, jakbyś był krytykiem?”, to on mi mówi, co by zrobił lepiej. No to dlaczego powiedziałeś, że jest super? Gdybym nie zapytała dalej, nie wbiła tej szpilki: „mój drogi Chacie, jednak można lepiej”, to może zostałabym przy tym, że jest super i jestem świetna.
Karol
A konfrontujesz jeden model z drugim?
Edyta
Tak. Dużo pracuję z Claude’em. Nie wiem, jakiś jest bardziej „ludzki” w komunikacji. Nie chciałabym używać słowa „kreatywny”. Ale tak, konfrontuję – może nawet nie tyle konfrontuję, co pracuję z jednym i drugim jednocześnie. A potem ja już sobie ten wynik zbieram.
Karol
A prosisz jeden model, żeby wszedł w rolę krytyka wyników pracy drugiego?
Edyta
Nie.
Karol
To polecam ci. Czasami bardzo ciekawe wnioski z tego wychodzą.
Edyta
Biją się?
Karol
Nie, ale wiesz, pracujesz nad tekstem, koncepcją projektu… Bierzesz „kopiuj-wklej” i prosisz drugi model, żeby popatrzył na wyniki pracy pierwszego.
Edyta
Ale piszesz mu, że to model?
Karol
Tak. Ja akurat przyznam szczerze, że z Claude’a korzystam najrzadziej, pracuję na Chacie i na Gemini.
Edyta
Okej. I Chat jest bity? Czy odwrotnie? Są równe w tej walce?
Karol
Poeksperymentuj. To daje czasami bardzo kreatywne efekty. Tak samo jak odbicie pomysłów od dwóch różnych osób. Bo zobacz, mimo że nam się wydaje, że to takie same modele, to jak zadasz takie same pytania, odpowiedzi są zupełnie różne.
Edyta
Są różne, absolutnie. To też zależy od tego, jak… No bo nawet jeśli powiesz mu, żeby był krytykiem, to jak powiesz, żeby był krytykiem z konkretnego miejsca…
Karol
Albo żeby tworzył w określonym stylu, językiem tej czy innej osoby.
Edyta
Dokładnie. Bo on też nabiera wtedy takiej buty czasami, potrafi być niemiły. Mnie trochę martwi, że jak się nie zgadzam z jego krytyką i zacznę z nim dyskutować, to on łagodnieje. Pewnie to kwestia lepszej instrukcji – powinnam mu napisać: „nie reaguj na moje prośby o to, żebyś złagodniał”. Spróbuję to zrobić.
Karol
Zobacz, jak ważna w tym kontekście jest właśnie precyzja, świadomość.
Edyta
Absolutnie, w każdym prompcie. Jak zapytałam kiedyś – zaraz na początku, bo musiałam się bić po piersiach, jak przyszła generatywna AI, bo do sektora kreatywnego mówiłam: „don’t worry, jesteście bezpieczni” – a potem dostali po uszach pierwsi. Wtedy jeden z architektów powiedział mi, że on się wcale nie boi, bo klienci, którzy przychodzą, nie wiedzą, czego chcą. I to też pojawiło się na warsztatach o współpracy z AI: ludzie potrzebują kompetencji do tego, żeby wiedzieć, czego chcą. Nawet nie po to, żeby napisać prompt.
Karol
Ale zobacz, jak ważna jest świadomość na wielu różnych płaszczyznach naszego życia.
Edyta
Absolutnie. I znowu, jeśli nie wiesz, czego chcesz, to nawet jak wygenerujesz 15 obrazków w Midjourney… Nowa rola dla architektów: jak przetransformować usługę, żeby jeszcze lepiej rozmawiać z klientem, wydobyć, czy rzeczywiście chce mieszkać w turbo zimnym, nowoczesnym mieszkaniu, czy jednak chce mieć w nim trochę odpoczynku?
Karol
Kogo czytać? Kogo obserwować, Twoim zdaniem? Kto jest dla Ciebie ciekawym źródłem wiedzy, inspiracji, różnych punktów widzenia? Z kim się czasami nie zgadzasz?
Edyta
Ostatnio przeczytałam dwie bardzo fajne książki. Radical Curiosity Setha Godina. Bo uważam, że ta radykalna ciekawość jest nam absolutnie potrzebna. I umiejętność zadawania pytań. Ale też radykalna ciekawość – ja ją trochę przeformułowałam, bo zaczęłam nurkować z wielkim zapędem. To był pierwszy świat, do którego wchodziłam z ciekawością, ale który nie był na moich zasadach. To nie była ciekawość typu: „ja na pełnej petardzie wchodzę i wszystko konsumuję”. To była ciekawość, która – i myślę, że można to przenosić do technologii – powoduje, że musisz się zatrzymać, sprawdzić otoczenie, które nie jest na twoich zasadach. Musisz się zaadaptować do tego nowego świata.
A druga książka, którą polecała Joanna Jurga (uważam, że to persona, która naszemu białkowemu ciału robi dobrze i mówi o tym głośno, ma odwagę mówić, że wciąż potrzebujemy pewnych rzeczy) – tytuł pewnie przekręcę – Jak nie robić nic Jenny Odell.
Karol
O, ciekawe.
Edyta
O tym, że należy się zatrzymać. To jest absolutnie szalenie trudne. Dlaczego mówię o tym w kontekście technologii? Bo wrócę do tego kakao – naprawdę czasem potrzebujemy chwili wytchnienia. Jak sami stwierdziliśmy na początku, kompetencje potrzebne do AI to kompetencje miękkie: pewna samoregulacja, uważność w budowaniu współpracy. Matylda Kania do naszej wystawy napisała tekst o „smutku utraconego pierwszeństwa” (chyba nie przekręciłam, pozdrawiamy serdecznie!). Żeby zatrzymać się i sprawdzić, co jest moje, co jest ludzkie.
Wrócę do transhumanizmu. Idea człowieka uposażonego jest szalona, dotyka granic, naszych ograniczeń, a my zawsze chcieliśmy z nimi walczyć. To dla nas ekscytujące. Dlatego młodzi napisali, że ważne jest, żeby jakoś regulować ekscytację, zatrzymać się, sprawdzić, co się dzieje w ciele, zachować energię. Żeby nie myśleć o potrzebnych kompetencjach wciąż w kategoriach: „nowe, nowe, nowe”.
Często mówię: użyjmy zasady 6R (Refuse, Reduce, Reuse, Repair, Rot, Recycle), którą implementujemy do kwestii środowiskowych. Sprawdźmy, które kompetencje możemy przemyśleć na nowo. Mówiliśmy o kompetencjach, które są z nami od lat: umiejętność zadawania pytań, filozofia starożytna. Nie zmieniliśmy się zbyt wiele. Te pytania wciąż nam towarzyszą i są takie same. Tak jak nasza zapowiedź rozmowy przez 12 miesięcy się nie zmieniła. Jest aktualna.
Karol
To co, wracamy do naszych best practices? Niech AI będzie z nami tylko wtedy, kiedy tego potrzebujemy.
Edyta
Dokładnie. Tak jak napisała młodzież: „Została tylko potrzebna technologia”.
Karol
Dziękuję Ci serdecznie, Edyto, za spotkanie, za Twoją perspektywę, wiedzę i za to, w jaki sposób się nią dzielisz. Niech AI będzie z Wami.
Edyta
Dziękuję. Tak jest.