Witajcie w Nowym Roku! Witajcie w kolejnym roku, w którym rewolucja #AI nabiera coraz to bardziej żywych kolorów. Dzisiaj kolejna odsłona Twarzy AI. Tym razem media. A jeżeli media, nie mógłbym rozmawiać z nikim innym, jak tylko dziennikarzem. Poznajcie Marcina Sawickiego. Idę o zakład, że kojarzycie jego twarz z TVN’u – pracuje tam od kilkunastu lat. Kolejna Twarz AI. Kolejny niezwykły Gość.
Marcin jest dziennikarzem telewizyjnym i jak mówi o sobie – w pracy najbardziej lubi, przybliżać i dokumentować rozwój wiedzy i nauki. Miał być socjologiem mafii i przestępczości, ale wybrał pracę w mediach.
Oprócz tego prowadzi bloga Nowa Strona Sztucznej Inteligencji na rewolucjaai.com, na którym przez ostatnich kilka miesięcy opublikował ponad 80 wpisów dokumentujących kilkaset zastosowań AI we współczesnym świecie. Tematyką technologii zajął się zaciekawiony, zaniepokojony tym, czy faktycznie zastosowania sztucznej inteligencji zagrażają mediom. Czy dalej ma obawy wobec rewolucji #AI?
Posłuchajcie sami!
O czym rozmawiamy dzisiaj?
- Zastosowania AI w mediach. Jakie są główne zastosowania sztucznej inteligencji w przygotowaniu materiałów dziennikarskich? Jakie korzyści przynoszą te technologie?
- Jak Marcin wykorzystuje #AI? Jak zmienia to jego pracę?
- Czy widzi wykorzystanie #AI w Polsce w redakcjach?
- Czy widzi w przyszłości możliwość, że ludzi na ekranach telewizorów zastąpią awatary?
- Czy widzi możliwość, że ludzie tacy jak on staną się kimś w rodzaju programistów? Firmy w USA zatrudniają poetów jako prompt engineerów…
- Jak widzi media za 5-10-15 lat?
I wiele innych, ciekawych tematów! Posłuchajcie sami!
Zdjęcia
Notatki
Zdjęcia: Jan Toruński
Źródła, na które powołuje się Marcin:
- arxiv.org/vc/arxiv/papers/2302/2302.02083v3.pdf – badanie Michała Kosińskiego „Theory of Mind May Have Spontaneously Emerged in Large Language Models”
- Newslettery:
There’s An AI For That (theresanaiforthat.com)
AI Vibes (aiwithvibes.com)
Subscribe | The Rundown AI
MIT Technology Review: Subscribe
AI Tool Report (beehiiv.com)
DLA Piper (list-manage.com)
The Intelligence Age
Skill Leap AI – Ultimate AI Learning Platform
AI Valley (theaivalley.com)
https://www.therundown.ai/
Interconnects | Nathan Lambert | Substack - Oprócz tego Marcin w miarę regularnie czyta New York Times i Washington Post – działy technologia oraz portale Wired i MIT Review of Technology.
Transkrypcja rozmowy
Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.
Karol Stryja: Marcinie, serdeczne dzięki, że przyjąłeś zaproszenie do rozmowy w 99 twarzach AI.
Marcin Sawicki: Bardzo mi miło, dziękuję za zaproszenie i od razu powiem, że się przejmuję i denerwuję tym, że jestem jedną z tych 99 twarzy, bo w zasadzie czuję się jako ta kolejna, dodatkowa, może 101 czy 102 twarz, na pewno nie jedna z podstawowych.
Ja mam takie poczucie, że nie jestem uczestnikiem tej rewolucji technologicznej, sztucznej inteligencji. Jestem jej obserwatorem, zaciekawionym. Na początku byłem przerażonym obserwatorem, a teraz jestem zaciekawionym, ponieważ im dłużej się przyglądam, tym więcej widzę znaków zapytania. Mniej odpowiedzi, mniej jasności, więcej znaków zapytania. To jest fascynujący proces, który teraz obserwujemy i mam nadzieję, że starczy mi krytycznego myślenia. żeby nie ulec tym zbiorowym procesom, bo ludzie myślą zbiorowo, zawsze myślimy zbiorowo i fajnie jest sobie stanąć trochę z boku i zacząć się przyglądać temu, co się dzieje. To jest bardzo wielki, potężny proces, który ruszył technologicznie, ale jesteśmy na jego początku.
Karol: Ale odnoszę takie wrażenie, że nie stoisz z boku, tylko w pewien sposób jesteś uczestnikiem tej rewolucji, o której wspominałeś, bo jesteś autorem rewolucji AI.
Marcin: Ja w ogóle wykonuję zawód dziennikarza albo pracownika mediów, jak kto woli.
Karol: Ubiegłeś moje pytanie, kim jesteś?
Marcin: Tak jest. Pracuję od kilkunastu lat, współpracuję z TVN-em. Od kilkunastu lat pojawiam się w programie Dzień Dobry TVN. Tam przeróżne tematy robię, ale im się robię starszy, tym chętniej redakcja pozwala mi robić tematy popularnonaukowe. A ostatnio od ponad roku namawiam redakcję i czasami mi wychodzi, żeby pojawiały się na antenie również tematy związane ze sztuczną inteligencją. Bo ja ponad rok temu, szykując się do zupełnie innych wywiadów, nie o sztucznej inteligencji, po prostu zauważyłem, że w mediach, które czytam, ja się staram czytać media zagraniczne, ponieważ część moich rozmówców to są zawsze tematy zagraniczne. I ponad rok temu zorientowałem się, że w mediach zagranicznych pojawił się temat sztucznej inteligencji, która zabierze pracę dziennikarzom. No i się zaniepokoiłem. Komu ona pracę zabierze, ta sztuczna inteligencja? Czy ona zabierze nam w Polsce tę pracę? Co to będzie?
Karol: Dziennikarze, scenarzyści, twórcy mediów. Tak, tak. Przecież głośno było o strajkach również w całej branży kreatywnej, jeżeli chodzi o Hollywood.
Marcin: Ale też trzeba pamiętać o tym, że od dobrych kilku lat słyszymy o różnych eksperymentach, że ktoś gdzieś… To głównie w Azji, bo to w Azji jest dużo większa tolerancja dla tego typu eksperymentów. Ludzie są bardziej entuzjastycznie nastawieni do technologii niż w Ameryce, niż w Europie. W związku z tym to w azjatyckich telewizjach, jeśli dobrze pamiętam, koreańska jest taka telewizja, japońska. W Chinach były takie eksperymenty.
Czysto wirtualni prezenterzy telewizyjni lub prezenterki przedstawiają wiadomości. I to już było ze trzy lata temu się pojawiły takie pierwsze informacje, a może nawet wcześniej. Czyli teraz, jak ponad rok temu pojawił się czat GPT, o którym wiemy, że albo wtedy słuchaliśmy, czytaliśmy o nim, że on będzie podobno mówił jak żywy człowiek, że będzie pisał, że będzie się można z nim komunikować, że ma olbrzymią wiedzę, elastyczność, że wyczuwa konwencje, żartuje, analizuje. No to jak zsumowałem te wirtualne prezenterki z gadającym czatem, to sobie pomyślałem: idzie ktoś zamrać nam naszą pracę. Na szczęście po kilku miesiącach okazało się, że to wygląda nieco inaczej. Dzisiaj już wiem, że rzeczywiście istnieje jakieś zagrożenie, że będzie się zmniejszała liczba pewnych zajęć w mediach. Pewne typy mediów rzeczywiście będą narażone bardziej niż inne, ale nie będzie tak, że sztuczna inteligencja faktycznie wyrzuci dziennikarzy z pracy.
I w tej chwili analizy mądrzejszych ludzi ode mnie zdecydowanie, bo ja absolutnie nie jestem ekspertem, ja tylko staram się dotrzeć do tego, co piszą eksperci, ekspertki. Te analizy mówią, że media będą się zmieniały w inny sposób. W tej chwili się na przykład mówi, że sztuczna inteligencja przede wszystkim wpłynie na pracę która polega na zbieraniu danych.
Sztuczna inteligencja jest fantastycznym narzędziem do analizowania wielkich zbiorów danych. Po to powstała. Czyli przegryzanie się przez gigantyczne zbiory danych, wyszukiwanie w nich zaskakujących zależności. To jest idealne zadanie dla sztucznej inteligencji. To już nie musi siedzieć człowiek całymi tygodniami, żeby na końcu gdzieś w środku nocy krzyknąć – jest! To zrobi algorytm po godzinie 45 minutach pracy.
Sztuczna inteligencja generalnie w dziennikarstwie przyspieszy wykonywanie tak jak w ogóle. No to zda się, że się mówi o tym takim paradygmacie RRT. Już w tej chwili nie pamiętam, czy będę umiał go rozwinąć, ale T to znaczy tedious. Czyli takie najbardziej żmudne zadania. Pierwsze R to jest rutynowe, drugie R…
Pamiętam, ale trzecia litera to jest T od tedious. Tak samo jak dyktowanie głosowe zastąpiło nam żmudne klikanie w klawiaturę. O, właśnie. Na przykład w mojej pracy ponad pół roku temu miałem do przepisania ponadgodzinny wywiad po angielsku. Bardzo mi się nie chciało za to zabierać. Pomyślałem sobie, sześć godzin z życia stracę na to, żeby to spisać. Zadzwoniłem do znajomego, mówię, słuchaj, ty coś mówiłeś, że jest jakieś narzędzie, że Google coś wypuściło.
On mówi, tak, jest takie narzędzie dla dziennikarzy, Google Pinpoint. Wszedłem, zarejestrowałem się, wrzuciłem ten plik, po 10 minutach miałem tą godzinną rozmowę po angielsku. Przetłumaczoną? Przetłumaczoną i całą w tekście, od razu. Oczywiście, że musiałem zrobić kilkanaście poprawek, no ale to było niesamowite. Nagle cała praca, która by w sumie pewnie mi zajęła naprawdę około 4-6 godzin. Zajęło mi 45 minut w całości.
Karol: Zmiany, zmiany, zmiany. A powiedz o czym piszesz, bo opublikowałeś już kilkadziesiąt artykułów na swoim blogu Rewolucja.ai. Co cię tak naprawdę najbardziej interesuje? Może zacznę od tego, o czym nie piszę.
Marcin: Nie piszesz o kodowaniu i nie piszesz o technikaliach. Nie piszę o technikaliach, to prawda, nie piszę o kodowaniu, nie mam wykształcenia technicznego. Ale też staram się nie robić jeszcze jednej rzeczy, która moim zdaniem jest największym grzechem całego pisania i mówienia o sztucznej inteligencji.
Mianowicie staram się nie pisać o rzeczach, których nie ma jeszcze. Znajdą się na moim blogu wpisy o jakichś wyjątkowo śmiałych planach. W kontekście sztucznej inteligencji jesteś… romantycznym realistą. Fajne sformułowanie. Dlatego, że mnóstwo informacji na temat sztucznej inteligencji to jest hype. To są informacje, które nakręcają zainteresowanie tą technologią, nakręcają kursy akcji wielkich firm. I mówią o tym, co się rzekomo wydarzy.
I my potem czekamy. I dam przykład, dlaczego ja tego nie robię. Dlatego, że to jest tak. Na przykład wiedzieliśmy, że Google w końcu doprowadzi do integracji Google Barda z niektórymi swoimi usługami Workspace. Że Google Bard będzie miał wgląd, jeśli chcemy, do naszego dysku, do naszych dokumentów, do naszych slajdów, do naszych arkuszy kalkulacyjnych. I w opisie to brzmiało wszystko fantastycznie. To był opis. Potem rusza ta technologia i okazuje się, że ona działa, ciężko to jakoś tak wymiernie, ale powiedzmy, że to jest jedna dziesiąta tego, cośmy sobie wyobrażali. Że to faktycznie działa, ale działa eksperymentalnie. I oni są uczciwi, oni ostrzegają. To jest wszystko w fazie eksperymentu.
Ale… Jak się czytało wszystkie opisy na różnych blogach, stronach, witrynach branżowych, no to wszyscy o tym pisali, że to będzie wielki moment, że to będzie coś wspaniałego, coś wielkiego, nieomylnego. No może nie pisali, że nieomylne, ale bardzo rzadko kiedy ludzie piszą o tej technologii od razu mówiąc, słuchajcie, ale pamiętajmy o tym, gdzie to nie będzie działało dobrze, tak? Tak jak w tej chwili był hype związany z tym, że została odpalona funkcja obrazów, promptowania obrazem w GPT-4. Że mamy możliwość wysyłania obrazów w GPT-4, ale mamy też możliwość kreowania obrazów, bo GPT-4 zostało zintegrowane z generatorem obrazów DALI-3. No i w tych wszystkich słusznych zachwytach, że to jest coś fajnego i bardzo ciekawego to, co nastąpiło, nie było informacji o tym, a w jakich sytuacjach to będzie gorzej działać. I już dało do myślenia na przykład fakt, że ta głośna praca, ten white paper opublikowany przez zespół badawczy z Microsoftu, który opisuje takie eksperymentalne zastosowanie, że tam nie było żadnych liczb w tej pracy. Że ta praca, ona pokazywała bardzo ciekawe momenty, że okazuje się, że ta sieć neuronowa, jak jej wyślemy zdjęcie, to ona jest w stanie nawet poprawnie zinterpretować obrazek i powiedzieć, że na obrazku tych dwóch facetów się nie bije, tylko jeden żartobliwie zadaje cios drugiemu.
Karol: O, ciekawe.
Marcin: To jest niesamowite. Czyli sieć neuronowa, maszyna jest w stanie zinterpretować obraz i powiedzieć, to nie jest bójka, to jest szart.
Karol: Emocje na podstawie obrazu.
Marcin: Tak, coś ona potrafi ciekawego. Ale teraz uwaga, czego nie ma w tej pracy?
Nie wiemy w ilu przypadkach ona jest skuteczna, skutecznie to robi, a w ilu nie. W ostatnim tygodniu pół mojej bańki w internecie wrzucało te zdjęcia, gdzie jest mafinki z rodzynkami i piesek uśmiechający się. No i okazuje się, że oczywiście da się zrobić takie zdjęcie pieskowi, żeby wyglądał jak mafinka. I ludzie mówili, patrzcie, sieć neuronowa bezbłędnie rozróżnia mafinkę od pieska. A potem inni wrzucali, ej, ale mnie to nie wyszło. I teraz na końcu wiemy, że sieć czasem potrafi i to rzeczywiście jest wtedy ciekawe, zabawne, że sieć tak precyzyjnie rozróżnia obrazki. ale w jakiejś liczbie przypadków ona tego nie potrafi. I dopóki nie będziemy mieli czarno na białym w liczbach wykazane, w ilu przypadkach się działa dobrze, a w ilu źle, to do tej pory jesteśmy na etapie eksperymentalnej technologii, a nie gotowego produktu, który można wdrażać w biznesach. Czyli nie możesz wziąć tej technologii, stworzyć na jej podstawie apki i na przykład tą apkę zacząć ludziom sprzedawać, żeby ona zaczęła robić coś w pewny sposób.
Weźmy na przykład, że on rozpoznaje pożar, że on się nauczył i nie będzie mylił takiego czerwonego zachodu słońca z krwawymi promieniami, że on tego nie pomyli z pożarem. Możemy sobie wyobrazić przecież, że sieć neuronowa zacznie się mylić, ale załóżmy, że ona tego nie robi. Załóżmy, że ty chcesz zrobić prostą apkę, która automatycznie sprawia, że jak ktoś podłączy telefon, masz stary telefon, zostawiasz go w domku na działce. Jest przypięty do ściany, ma włączoną kamerę i ma powiedzmy apkę, która każe mu robić zdjęcie co 35 sekund i wysyłać do sieci neuronowej z pytaniem, co jest nie w porządku. To jest ogólne pytanie, ale wiemy, że sieć neuronowa potrafiłaby to zrozumieć. Czyli wiemy, że jeżeli będzie nagle rozbite okno, ogień, sylwetka złodzieja, cokolwiek, to wiemy, że istnieje szansa, że sieć neuronowa powie, jest nie w porządku. I na przykład uruchamia kolejne zaprogramowane działanie, Na przykład wysyła ci smsa z tym zdjęciem, żebyś zadecydował, czy jest w porządku, czy nie jest w porządku.
To jest bardzo prosta aplikacja. Prawdopodobnie większość osób, które nie mają doświadczenia informatycznego, potrafiłaby z czatem GPT taki kod wygenerować, działający. Ale nie wiemy, czy w ogóle warto się za to zabierać, bo nikt nie pokazał, w ilu przypadkach sieć się pomyli, a w ilu zacznie działać.
Czy to w ogóle jest sens? Bo na przykład, jeśli ona by to zrobiła tylko w 30% przypadków, to czy chciałbyś zapłacić za tą apkę? To dalej jest bardzo ciekawe, że w 3 na 10 ona rozpozna złodzieja, pożar, wodę, pęknięte okna, cokolwiek, a w 7 nie. Jeśli cię to bardzo mało kosztuje, nie chcesz płacić za drogi alarm na swojej działce, no to może byś za to zapłacił nawet te 3 zł. Ale nie wiadomo, czy nawet 3 zł warto, bo nie mamy żadnych liczb. Czy jesteś takim człowiekiem, który mówi trochę sprawdzam? Staram się, staram się. Zwracam uwagę na dane, których brakuje, na liczby, których brakuje. To są bardzo ciekawe technologie. W swojej pracy sam na co dzień widzę, że są typy zadań, które u mnie niezwykle przyspieszyły dzięki stosowaniu GPT.
Karol: A jesteś umysłem ścisłym? Chyba nie.
Marcin: Mówię chyba nie, ponieważ… Też posłucham Cię i mówisz o liczbach, o sprawdzaniu, o… Nie, to nie jest kwestia umysłu ścisłego. To jest kwestia używania takiej metodologii trochę naukowej albo trochę dziennikarskiej. Bo w sumie po prostu chodzi o to, żeby zweryfikować informacje, które mamy. Nawet nie w jakiś super ścisły sposób, tylko po prostu się zastanowić, jaki typ informacji dostaliśmy do ręki. Co on nam mówi?
Karol: Czy jesteśmy medium, które tylko i wyłącznie przekazuje, czy też mówi sprawdzam?
Marcin: No może trochę tak. Pewnie lepiej bym sprawdzał, jakbym miał wykształcenie techniczne, bym lepsze pytania umiał sobie zadawać.
A w tej chwili mnie to bardzo ciekawi. W każdym razie, jeśli mogę tylko powiedzieć jeszcze o tym, jak mnie w mojej pracy jeszcze przyspieszają narzędzia sztucznej inteligencji pracy. Więc tak, oczywiście, że praca z głosem.
Cała edycja głosu. To w tej chwili jest pod po prostu naciśnięciem palca. Już nie trzeba mieć praktycznie żadnego przygotowania technicznego, żeby nagrywać, obrabiać i poprawiać dźwięk. W mojej pracy przydatne.
Bardzo szybko mogę generować dokumenty, na których nie chcę tracić czas. Na przykład wszystkie maile, błyskawicznie. Oczywiście to jest przyjemne, pisać sobie maila po angielsku, poprawiać go, na końcu mieć fajny efekt i człowiekowi to zabiera pół godziny. Możesz przy okazji mówić, z jakich narzędzi korzystasz?
Tak, więc tak, żeby sobie nie wyczerpywać limitu postów, 30 chyba meserzy jest dziennie w bingu, potem zaczyna, bing mówi 30, w czacie GPT chyba 4 jest 20. Mówisz o bezpłatnym, tak? Mówię o płatnym, bezpłatnym nie ma. Bezpłatny nie ma limitów. W płatnym jest jakiś limit. Jeśli ktoś z Państwa w ogóle nie rozumie, o czym rozmawiamy, to chodzi o to, że te najwięksi dostawcy tych inteligentnych czatów, oni wprowadzili limity dziennych pytań.
Dzienny limit pytań, które można zadawać. Bo inaczej by pół świata siedziało i gadało z tymi czatami, a one potwornie dużo prądu zżerają. Według różnego rodzaju symulacji przypuszcza się, że w przyszłym roku sztuczna inteligencja samej tylko firmy Google będzie zżerała tyle prądu, co jedna Irlandia. Czyli mamy nowy kraj na mapie świata, jeżeli chodzi o zużycie energii. Tyle kosztuje działanie, tyle energii zżerają sieci neuronowe. To są wielkie serwerownie, wielkie centra obliczeniowe, które podobno zżerają więcej prądu niż typowe centrum obliczeniowe, ponieważ to jest jeszcze bardziej energochłonne działanie. Więc są te limity wprowadzone, żebyśmy wszyscy nie siedzieli i ja w związku z tym się przerzucam między narzędziami, żeby sobie nie wyczerpywać limitu. I teraz tak, jeśli mam zadanie dziennikarskie, w którym muszę przemyśleć coś od początku, coś sobie poczytałem, coś sobie przemyślałem, ale chciałbym, żeby ktoś mi pomógł wymyśleć plan działania. Wtedy wpisuję ten plan do czata GPT-4, wersja płatna i proszę go, żeby był moim takim coachem, trenerem albo krytykiem.
I razem ten plan dopracowujemy. Bo czat GPT-4 nie nadaje się do pracy jako encyklopedia. Ja bym mu nie zaufał. Ja sobie nie mogę pozwolić na to, żeby powtórzyć na antenie rzeczy, które są…
Aż takie ryzyko jest, że będą nieprawdziwe, jak to, co czasami podaje czat GPT-4. Więc ja go nie używam do tego, żeby on mi podawał fakty. Ja go proszę, żeby on mi pomógł wymyśleć sposób myślenia. Żeby asystował. Tak, żeby mi pomógł wymyśleć sposób myślenia, komponowania czegoś, co ja już sobie znalazłem gdzie indziej.
I teraz tak, to jest to działanie takie najbardziej ambitne intelektualnie, to ja do tego używam czata GPT-4, żeby był takim moim, zawsze na boku, moim pomocnikiem, takim drugim głosem, stażystą, asystentem. Nazwij sobie to jak chcesz. Odbijasz z nim pomysły? Non-stop z nim odbijam. Non-stop odbijam pomysły.
Teraz tak, jeśli chodzi o odbijanie pomysłów połączone z jakimś lekkim, wstępnym researchem. Do tego używam Binga. To jest czat Bing, który… jest na tej samej sieci neuronowej co czat GPT-4, to jest ta sama biegłość teoretycznie językowa, tylko jest większa schematyczność. Czat Bing jest za darmo, więcej pytań możemy zadawać, wada jest bardziej schematyczny i szybciej mu się włączają mechanizmy cenzury, mechanizmy obronne. ma być taki grzeczniejszy i bezpieczniejszy. Chat GPT-4 może się zdarzyć, że powie rzeczy brzydkie, wulgarne, niebezpieczne. Bing, dużo mniejsza szansa, on się szybciej zablokuje, szybciej zacznie ostrzegać, że nie chce tego mówić i absolutnie tego nie powie.
Karol: Ale jak patrzę na przestrzenie miesięcy, jak zmienia się sposób, forma komunikacji czata GPT, to jest coraz bardziej grzeczny i informacje, które są przez niego przekazywane, są czasami dużo bardziej ogólnikowe niż na samym początku.
Marcin: To prawda i to się nawet nazywa, to ma fachowy termin, to się nazywa alignment tags. Mówmy językiem korporacji. Tak jest, mówimy corporal language’em, czyli to jest krótko mówiąc podatek albo cena, w zasadzie tak należy powiedzieć, cena ugrzecznienia, cena uporządkowania, bo oni po prostu, firma OpenAI prawdopodobnie była w takiej sytuacji, że z jednej strony ten czat był bardzo kreatywny, zaskakujący, fantastyczne miał skojarzenia i fajnie pracował, ale to było zbyt chaotyczne. To znaczy ludzie mieli bardzo nierówne efekty, zadając bardzo podobne pytania, pracując na tych samych tematach, ludzie dochodzili do czasami różnych efektów. W związku z tym oni ugrzecznili tego czata, on stał się bardziej przewidywalny, ale stał się też nudniejszy. Dokładnie mam to wrażenie i bardzo żałuję, że tak się stało.
I wszyscy o tym wiemy, że tak jest. No ale oni, firma, ja ich rozumiem, oni właśnie chcą, żeby ta technologia przestała być eksperymentalna, a zaczęła mieć zastosowania biznesowe. Bo ta technologia, przy całym zachwycie, jaki mamy wobec niej, ona po prostu nie generuje zysków na szeroką skalę.
Znaczy dla OpenAI generuje… Ale żeby powstały całe gałęzie gospodarki, które zarabiają, używając tego silnika, no to jeszcze nie. No właśnie dlatego też moja pewna ostrożność wynika, bo i dlatego też mówię, to jest zupełnie wczesny etap. Ale jeżeli pozwolisz, to tylko jeszcze dokończę ten, jak szykuję, jak korzystam. Czyli tak, do binga idę, jak muszę coś wyszukać i ułożyć jakiś wstępny zarys planu. Bo nie będę marnował czata GPT-4 na zupełną pracę od podstaw. Nie, z nim pracuję, jak już mam odrobioną pracę domową.
Karol: Tak.
Marcin: Tą pracę domową… Odrabiam częściowo w bingu, który ma swoją własną wyszukiwarkę. Ale bing, ciężko powiedzieć w ilu, no bo to zawsze jedna osoba będzie miała tak zwany dowód anegdotyczny, tak?
To trzeba patrzeć w wielkie, w duże liczby trzeba zaglądać. Bing ma jednak to do siebie, że nawet jeżeli mi wyszuka źródło, czyli poda mi jakąś informację, na przykład powie mi, w jaki sposób chłodzone są elektrownie atomowe. I powie, zobacz, ja to wiem i pokażę źródło. Wiem to z tej strony i z tej. To w dosyć wielu przypadkach, kiedy idziemy i klikamy, żeby zobaczyć.
O, ciekawa strona. Tam przeczytał, jak się chłodzi elektrownie atomowe. Wchodzimy do środka, a tam nie ma nic. Bo to może być stara strona i stare źródło. Ale to już niech się wypowiedzą specjaliści od tego, jak działają te sieci. Ja wiem jedno i to też wyszło z eksperymentu, który był robiony ponad pół roku temu.
Redakcja Washington Post zrobiła eksperyment amerykańskiej gazety razem z jakąś instytucją, która się zajmuje sprawdzaniem faktów, weryfikowaniem informacji. Usiedli I zadali kilkaset pytań czatowi Bing, a następnie bardzo metodycznie prześledzili wszystkie odpowiedzi. I okazało się, że jeśli dobrze pamiętam liczbę w 40% przypadków, kiedy Bing podawał informacje i mówił wiem to stąd i stąd, to w 40% przypadków on kłamał, że wie to stąd i stąd. On podawał odnośnik, mówił, to jest ta strona, a na tej stronie nie ma tej informacji.
A dlaczego tak jest? To jest pewnie jedno z wyjaśnień. To, co ty powiedziałeś, że ta strona zmieniła swój kształt w ostatnim czasie. Być może tak jest, ale ja też jak chodzę po tych odnośnikach, to widzę, że np. Czasami to jest omyłkowo, na zasadzie zbyt luźnego skojarzenia. Jemu się wydaje, że to jest ta strona o tym, a ona nie jest. Czasami jest to inne znaczenie słowa i on linkuje. Więc sprawdzam sobie w tym bingu te odnośniki i jednocześnie sobie uzupełniam zawsze wyszukiwanie klasycznym wyszukiwaniem w wyszukiwarce Google, a ponieważ dalej jestem wtedy zdenerwowany, no bo sprawdziłem już w trzech miejscach i dalej nie wiem, czy dobrze, to na końcu i tak zawsze muszę sobie znaleźć eksperta albo ekspertkę w Polsce i dzwonię.
Po prostu. Ja sobie wyszukałem mnóstwo informacji, dam przykład, o pająkach ostatnio, a na końcu i tak znalazłem bardzo miłą panią profesor. Zadzwoniłem, przedstawiłem się i zapytałem, czy mogłaby mi pomóc zweryfikować informacje, które znalazłem.
Innej metody… Mówię, sprawdzam. Muszę to zrobić, ponieważ to jest za duże ryzyko.
Jakby fajne informacje ta sieć podaje, ale na końcu ja nie mogę. A korzystasz z Perplexity? Korzystam z Perplexity, ale Perplexity to jest, proszę państwa, taki startup, który wywołał wielką sensację. To są, jeśli dobrze pamiętam, byli pracownicy Google, którzy założyli i zbudowali swojego czata.
I ten czat z kolei działa według takich założeń, że on ma być takim empatycznym asystentem we wszystkich działaniach. Perplexity ma z kolei tę wadę, że Perplexity wyraźnie gorzej mówi po polsku. Ja w rozmowie z Perplexity po prostu, nawet to była zresztą fajna sytuacja, pytam Perplexity czata, czy możemy mówić po polsku. On mówi, że oczywiście, że możemy. Przechodzimy na polski, piszemy sobie po polsku. Ja się po kilku zdaniach orientuję, że on bardzo źle mówi po polsku. i pisze do niego po angielsku.
Dobra, to zostajmy przy angielskim. I teraz uwaga, czat pisze ha, ha, ha, ha, ha. Czyli wyczuł, że ja trochę ironicznie, jakby ja mu nie dałem żadnego sygnału, że teraz jest ironia. Wiedział, że ja jak mu piszę ok, let’s stick to English, to, że to jest trochę takie kąśliwe. Więc on się zaczął śmiać, ale już po angielsku i mówi do mnie, dobra, no wiem, że tak po polsku nie daję rady. Więc z jednej strony byłem niezadowolony, że on po polsku źle mówi. Ale z drugiej strony to było dziwne, no bo rozmawiam z czatem i czy ja tutaj widzę przejaw samoświadomości? To jest też świetne pytanie.
Karol: Zobacz Marcin, że niewielu ludzi potrafiłoby w ten sposób zareagować w momencie, kiedy chciałbyś po nieudanych próbach komunikacji w innym języku przejść do języka.
Marcin: Tak, tak, tak. W ogóle fajna, to była fajna reakcja. Jakby to był żywy człowiek, to ja bym chciał się z nim kolegować, bo widzę, że to jest osoba, która… Jest samokrytyczna, dowcipna. Dystans.
Dystans, prawda. I taka ciepła, fajna reakcja. Z Perplexity więc nie korzystam, bo nie mam potrzeby nawiązywania osobistych, ciepłych relacji z czatem. Ale myślałem o tym, czy rzeczywiście z nim więcej nie pracować. I po sobie pomyślałem, że może gdyby się okazało, że on umie pracować, też służyć radą, taką refleksją, naświetlać różne pomysły, to że może to byłoby niezłe. I teraz jeszcze uzupełniam ten swój warsztat pracy, uzupełniam bardem, czyli czatem Google’a. I Bart, czat Google’a okazuje się dosyć dobrze działa w takich kontekstach marketingowych, czyli jeżeli go proszę, żeby mi coś napisał, coś powiedzmy z dziedziny marketingu, to on dosyć dobrze to robi po angielsku, po polsku nie. Zresztą w ogóle to muszę powiedzieć, wszystkie te czaty, one po polsku piszą słabo. To znaczy moim zdaniem w tej chwili osoba pisząca zawodowo, posługująca się słowem zawodowo, nie będzie korzystała z tych narzędzi jako takich, które zrobią coś za mnie od początku do końca.
Nie. One za słabo to wyraźnie czuć w niektórych momentach, że one używają tak zwanych kalek językowych, że coś po prostu zbyt dosłownie tłumaczą. Szczególnie widać to w idiomach.
To bardzo, bardzo. Ale czasami to nagle wychodzi. Nie wiem na jakiej zasadzie, to znowu też specjaliści i specjalistki od działania sieci neuronowych musieliby powiedzieć, jak to się dzieje, że są tematy, zagadnienia, obszary tematyczne, w których ewidentnie sieć przeskakuje z języka na język i widać, że zaczyna już zamiast korzystać z materiałów, które miała w języku polskim, to zaczyna tłumaczyć te, które miała w innym języku na język polski i wtedy to zaczyna brzmieć brzydko. Ja podejrzewam, że to po prostu chodzi o liczbę danych w języku polskim, bo my nie wiemy ile stron internetowych albo ile materiałów po polsku czat GPT zna, bo oni te informacje firma OpenAI nie podała. Natomiast możemy się domyślać, w jakiej proporcji jest język polski w ogóle w tych sieciach, dlatego że inna z wielkich firm, mianowicie firma Meta, która ma Facebooka, Meta kilka tygodni, chyba ze dwa miesiące temu, publikowała metryczkę do swojego chatbota, który się nazywa Lama, w zasadzie takiego dużego modelu językowego i w Lamie według ujawnionej metryczki na przykład materiały w języku polskim to są metryczki. jeśli dobrze pamiętam, siedem albo dziewięćsetnych, czyli to nawet nie jest jedna dziesiąta procenta, tylko jeszcze mniej. A osiemdziesiąt ponad procent to są materiały w języku angielskim, potem są inne języki, no i też jest dużo materiałów, które nie są w żadnym języku, bo to są na przykład języki kodowania, czyli języki formalne. Załóżmy, że ta proporcja jest właściwa dla wszystkich albo mniej więcej wskazuje, ile jest języka polskiego w tych chatbotach.
Czyli mamy ten czat GPT-4, mamy Google Barda, mamy jeszcze nieużywane na szeroką skalę te modele językowe od Facebooka, czyli Lamy. To są różne wersje Lamy, skomplikowane, mniej skomplikowane, większe i mniejsze. Ale domyślamy się, że polski język w tych wszystkich chatbotach to nawet nie jest pół procenta. Czyli pół procenta wiedzy tego chatbota to nawet tyle, co Polski jest jeszcze mniej. No i w związku z tym należy się spodziewać odpowiednio mniejszej biegłości językowej, po prostu. Więc w tej chwili też wydaje mi się, że na przykład w Polsce nie będzie rewolucji technologicznej związanej z chatbotami. ponieważ nie mamy jeszcze swojego polskiego modelu językowego, który byłby przede wszystkim zbudowany na języku polskim i byłby zbudowany na danych dobrej jakości. Ale mówisz o chatbotach? Mówię o tym, że nie mamy polskiego LMA, czyli takiego, który byłby zbudowany, tak jak jest zbudowany chat GPT-4, powiedzmy, że ma 80 czy 90% to jest język angielski, to my nie mamy swojego LMA polskiego, który byłby w 90 czy 80% zbudowany na języku polskim.
Karol: Ale chatboty stricte branżowe działają już całkiem sobie.
Marcin: Z tego co wiem, to chyba wszystkie duże firmy informatyczne w Polsce oferują w tej chwili usługę stawiania chatbotów.
Karol: Zrobiliśmy nawet eksperyment i zrobiliśmy ze znajomą firmą z utter.one eksperyment tworząc asystenta, z którym możesz rozmawiać na temat odcinków podcastu Zawodowcy, który kiedyś tworzyłem.
Marcin: No i te chatboty, jak są tworzone w języku polskim, ponieważ nie są tworzone w technologii dużych modeli językowych, tylko są tworzone w innej technologii, to one w związku z tym mają tę wadę, że rozmawiają wyłącznie na tematy, które są w bazie danych. Czyli nie możesz zrobić czegoś, co teoretycznie możesz zrobić z chatbotem typu chat GPT, czyli nie możesz pogadać i o Szekspirze, i o chłodzeniu elektrowni atomowych, i o mrówkach, o czymkolwiek, tylko tutaj rozmawiasz o tym, co jest w bazie, plus te chatboty wyspecjalizowane nie mają też takiej potencjalnie biegłości, na przykład w różnych stylach wypowiedzi, bo nie do tego służą, nie zostały tak zbudowane, nie mają aż tylu skojarzeń, nie mogą tak płynnie przeskakiwać między językami, tak jak może to robić duży model językowy, który, słuchajcie, to jest też niesamowita sprawa, jak przecież były odpalane te duże modele językowe, to ja przeczytałem, że umiejętność tłumaczenia w dużych modelach językowych u czata GPT 3,5 czy 3 to była umiejętność, która nie była planowana. Zespół badawczy postawił sieć, skonstruował sieć neuronową, zbudowali i stworzyli ten duży model językowy, nauczyli go paru języków i nagle się okazało, że sieć neuronowa sama zrozumiała, że może przechodzić między językami.
Karol: Bo dla niej to było zupełnie naturalne.
Marcin: Tak, dla niej to po prostu są zbiory danych, które się pokrywają, podobne zależności.
Karol: A dla nas język to kultura, obcy świat i cała reszta.
Marcin: Tak, tak, tak.
Karol: Po stronie technologii.
Marcin: Tak, tak. Ja pamiętam z opisu. Pamiętam, że czytałem opis na stronie OpenAI, co mnie zafascynowało o tej technologii. Oni napisali w tym opisie, że Z ich punktu widzenia to jest w zasadzie tak zwana cecha emergentna.
Cechy emergentne w sieciach neuronowych to jest fascynujące zjawisko. To są cechy, które nie były planowane, ale się pojawiają. No bo pierwotnie te sieci były wymyślone i te duże modele językowe były wymyślone, żeby robić konkretną rzecz. Miały gadać, to miały być chatboty i złośliwie ludzie mówili, że to są takie kalkulatory słów albo takie maszyny, które przewidują po prostu statystycznie, jakie powinno być następne słowo. Piszesz motyla, a on powinien wiedzieć, że następne słowo będzie noga. Tak? Motyla noga.
Karol: Ile takich cech emergentnych jeszcze się pojawi?
Marcin: A tu się okazało, że cecha emergentna się pojawia, czyli nagle, że ten czat nie tylko wie, że motyla noga, ale on nagle zaczyna w ogóle widzieć szereg skojarzeń, szereg procesów, że tam się uruchamiają jakieś procesy logicznego myślenia. I dlatego Ilya Sutskewer, jeden z ludzi odpowiedzialnych za sieci neuronowe w firmie OpenAI, powiedział, i to cytat jego często powtarzany, że według niego tam są iskierki inteligencji, sparks of intelligence w tych sieciach neuronowych, czyli że tam jest coś… Której tej inteligencji przejawem jest właśnie ta umiejętność łączenia… Że to już nie jest maszyna, że to nie jest tylko czysta maszyna, tylko że tam się rozpoczął jakiś proces…
No nie faktów, tylko danych po prostu. Tak, że tam się rozpoczął proces powstawania jakiejś świadomości. Jak on to powiedział, to pamiętam, że część opinii publicznej tych ludzi, którzy się interesują sieciami neuronowymi, że tam się ludzie bardzo podzielili, że nie, no co to w ogóle jest za gadanie, nie ma czegoś takiego, to są maszyny, algorytmy, a tutaj żadnej świadomości nie ma. A inni zaczęli zwracać uwagę właśnie na wyniki badań, w których coś ciekawego wyszło i teraz jakieś chyba dwa miesiące temu wyszła taka ciekawa praca, która na prawie stu stronach podsumowywuje, jak powinna wyglądać samoświadoma sieć inteligentna. Taka sieć neuronowa.
Czyli co by się musiało stać, żeby tam się po prostu pojawił umysł taki… Iskra kreatywności. Tak, iskra kreatywności. I bardzo ciekawe jest czytanie tej pracy. Ja ją też przeczytałem, chociaż nawet nie wiem, ile nie zrozumiałem, bo to nie jest moja branża, ale to było bardzo ciekawe. Praca jest w języku angielskim oczywiście. Praca jest w języku angielskim. Jest u mnie na blogu.
Karol: Podlinkujemy potem tę notkę.
Marcin: Dobra. W każdym razie, mnie się wydaje, że część nieporozumienia może wynikać z tego, jakbyśmy sobie wyobrazili, że nasza świadomość, nasza sama świadomość, to jest jak ta wieża budowana z klocków Jenga, czyli że mamy taką piramidę z klocków, z której możemy wyjmować klocki z dołu, aż się piramida zawali, to nasza świadomość się składa tak naprawdę z wielu różnych klocków i można je usuwać i dalej piramida stoi, czyli dalej jest świadomość, ale zawsze czegoś brakuje i zobaczmy.
Wyobraźmy sobie, że jest Karol i wyjmiemy jeden klocek. Niech tym klockiem będzie umiejętność rozpoznawania emocji na twarzy drugiego człowieka. Wyjęliśmy ci ten klocek, dalej jesteś Karolem. Dalej jesteś kreatywny, dalej potrafisz sam dojechać z jednego miejsca na drugie w mieście. Dalej są zawody, które możesz wykonywać. Dalej możesz uprawiać sport.
Dalej ludzie ciebie lubią lub nie lubią. Możesz funkcjonować. Nie masz tylko jednej rzeczy. Nie odróżniasz twarzy. I wiemy, że są ludzie, którzy mają taki problem, że w ich mózgu się coś takiego dzieje, że twarze nie rozpoznają. Ale głos rozpoznajesz. Dobra, wyjęliśmy jeden klocek.
Dalej jesteś Karolem 99,99%. Możemy tak wyjmować te klocki, odejmować ci po jednej cesze swojego umysłu, wyjmiemy ci umiejętność odnajdywania się w przestrzeni, wyjmiemy ci potem rozpoznawanie emocji w głosie, potem ci wyjmiemy smak, ale zostawimy węch, potem ci wyjmiemy coś tam i możemy tak wyjmować, nie wiem ile można byłoby tych cech wyjąć, I na końcu zostaje tych klocków dwa albo trzy i załóżmy, że dalej się da z tobą rozmawiać, ale już nigdzie nie dojedziesz, nie trafisz, dalej możesz być ciekawym rozmówcą, który ma niesamowite skojarzenia, bo na przykład lubi bardzo czytać, tylko nie będziesz na nie jakby reagował i wtedy być może jesteś po prostu na poziomie sieci neuronowej. To znaczy być może jest tak, że my sobie nie zdajemy sprawę, że to nie jest tak, że my jesteśmy gotowym produktem, siecią neuronową, nasz mózg, że jest… stanem, który jest zamknięty, tylko że można z niego dodawać i odejmować cechy i być może Sudskewer, jak mówił o tym, że te sieci neuronowe OpenAI mają takie iskierki, to może miał na myśli, że tam już jest tych klocków dostatecznie dużo, żeby pojawiło się już coś, jakaś świadomość albo protoświadomość. Ale jest jeszcze ich tych klocków za mało, żeby powstała świadomość taka, jaką my znamy, jaką rozpoznajemy u innych ludzi. Czyli krótko mówiąc, jak mówimy o świadomości, to nie mówimy o stanie 0 lub 1, tylko mówimy o spektrum.
Karol: A jak patrzysz na swoją świadomość, na swoją sylwetkę, to jakiego klocka w pewien sposób ci brakuje i chciałbyś dorzucić do swojego umysłu? Bo w moim przypadku to jest zapamiętywanie i pamiętanie faktów z przeszłości. Bufor mojej pamięci kiedyś miałem dużo lepszy i ja widzę, że mój bufor pamięci się pomniejszył bardzo mocno. Wtedy, kiedy mam nośnik emocjonalny, pamiętam doskonale. Jeżeli mam fakty nie połączone z emocjami, potrafię tego nie pamiętać po tygodniu.
Marcin: Podobno tak w ogóle działamy, że musimy sobie tworzyć skojarzenia i jak są techniki zapamiętywania, mind mapping, to one polegają właśnie na tym, że musimy budować opowieść, przyczepiać fakty do opowieści, do emocji.
Karol: Ja tak samo, wiesz, myślę wizualnie. Dla mnie tworzenie to jest przede wszystkim wizualizowanie różnych rzeczy.
Marcin: Oczywiście, że chciałbym mieć taki umysł, jaki miałem na studiach, że lepiej pamiętałem, kojarzyłem i chodziłem z faktami, nazwiskami i datami, a teraz jak sobie nie zapiszę, to gdzieś ulatuję. Nie, ja tak nie myślę, czy chciałbym mieć jakąś cechę, której nie mam. Raczej w tym kontekście tego, o czym rozmawiamy w tej chwili, Ciekawi mnie, jaki jest sens, jaka stała za tym logika ewolucji, że sprawiła, że nasze mózgi działają tak, a nie inaczej. To znaczy, czy był jakaś presja, jakiś dobór naturalny, który sprawiał, że nieopłacalne jest, żebyśmy pamiętali za dużo, bo to się nie przyda.
I w związku z tym, po co w to inwestować? Pewnie powstały jakieś warianty człowieka, umysłów, które zapamiętywały więcej. Zresztą, a może w ogóle tacy ludzie żyją między nami, no są takie badania, które mówią, że istnieje związek między inteligencją, a zajmowaną miejscem w strukturze społecznej, że im wyżej w strukturze społecznej, tym ludzie mają wyższą inteligencję, ale zawsze wtedy ludzie po takich studiach jak ja, czyli socjologia, mówią, że nie wiadomo, co tak dokładnie badają testy na inteligencję. Złośliwie się mówi, że testy na inteligencję…
To przede wszystkim logika. Nie, złośliwie się mówi, że testy na inteligencję badają to, co pokazują te testy. Po prostu, że jakby nie badają inteligencji, tylko test bada to, co bada test.
Tyle. I że czasami to, co bada test, przydaje się w życiu, ale niekoniecznie musi. Ale wracając do tej naszej rozmowy, to jest pytanie, które jest fascynujące. Znowu nie ma żadnego przełożenia na gospodarkę, na biznes, na aplikacje, tylko pokazuje, że mamy do czynienia z bardzo obiecującą technologią, że mamy do czynienia z sieciami, które już teraz, przy całej ich niedoskonałości, mają niektóre cechy naszego ludzkiego mózgu. Było takie bardzo ciekawe badanie. Polski psycholog Michał Kosiński, który pracuje na Stanfordzie w Stanach Zjednoczonych. Michał jest znany z tego, że kilka lat temu napisał pracę, w której wykazał, że na podstawie śladów cyfrowych na Facebooku można w sposób automatyczny stworzyć profile psychologiczne, takie podstawowe profile psychologiczne. Praca Michała rzekomo miała posłużyć firmie Cambridge Analytica do stworzenia mechanizmu masowej manipulacji na Facebooku, co potem miało rzekomo sprawić, że Donald Trump wygrał wybory. Dziś wiemy, że sprawa była dużo bardziej skomplikowana niż to nam się wydaje.
Karol: Patrząc tylko z perspektywy czasu, to było coś absolutnie przełomowego, kiedy Facebook wprowadził oprócz kciuka w górę pozostałe ikonki. Włacz, śmiech i cała reszta.
Marcin: Tak, tak, to jest świetna uwaga, bo zobaczmy, tak naprawdę Facebook sprawił, żebyśmy my mogli w jeszcze większą liczbę sposobów zdradzać nasze cechy osobowości. To są cenne dane.
Karol: Wiesz co, to jest w ogóle ciekawa rzecz. Ostatnio czytałem jakiś artykuł na temat tego, ile mamy słów w Polsce do wyrażania emocji versus ilość słów, które wyrażają emocje w języku angielskim. Język angielski jest dużo, dużo, daje większe możliwości. I przenosząc to na ten język emocji, który mamy do wyboru w platformach społecznościowych, no jest… Jest troszeczkę mniejszy.
Marcin: Robiłem wywiad, miałem wielką przyjemność i zaszczyt robić wywiad z Michałem Kosińskim i Michał powiedział bardzo wyraźnie, przełomowość tej sytuacji nie polega na tym, że na podstawie śladów z naszego Facebooka można dowiedzieć się bardzo wiele na temat człowieka.
Nie. Przełomowość polega na tym, że można się dowiedzieć… trochę na temat człowieka, bardzo szybko i jednocześnie można się dowiedzieć na temat milionów ludzi. Tylu, ilu po prostu obejmiesz swoim badaniem. Czyli, bo Michał powiedział, gdyby psycholog usiadł do wszystkich śladów, które zostawiasz w sieci i zaczął analizować, to pewnie może by i doszedł do większej, zbudowałby bardziej drobiazgowy twój portret psychologiczny, więcej by odgadł. A tutaj wchodzi skala. Tylko potrzebowałby na to godzin, może dni. A tutaj nagle wchodzi skala i że dużo płyciej w twoją psychikę sięga to badanie, ale jednak sięga naraz do milionów ludzi, do tylu, ilu zaprogramujesz. I teraz kolejnym krokiem, który Michał zrobił kilka lat później, bo Michał wpada na świetne pomysły, żeby robić proste rzeczy, na które nikt wcześniej nie wpadł.
To nie takie proste. Tak. Michał wziął testy osobowości, rozwoju osobowości i zaczął testować sieci neuronowe, czata GPT-4, czata GPT-3. Jakie to jest te osobowości MBTI? Nie, to są testy rozwoju osobowości, które mają zbadać Czy wykształciła się tak zwana teoria umysłu? Teoria umysłu to jest w największym skrócie zdolność, którą w pewnym momencie, około chyba siódmego roku życia, ludzie nabywają i to jest zdolność, która polega na tym, że rozumiesz, że inny człowiek patrzący na tą samą rzecz może mieć zupełnie inny stan umysłu. Że nie spodziewasz się, że wszyscy my myślimy tak samo. i że wiemy to samo, tylko że na tyle zaczynasz rozumieć, że jeżeli ktoś wszedł do pokoju później, siedział niżej, wyżej, w zależności od tego, co widział, co słyszał, będzie miał inny stan umysłu.
Karol: Cudna umiejętność, którą niejednokrotnie ludzie z wiekiem zatracają.
Marcin: Tak jest. I u ludzi ta umiejętność przewidywania stanu wiedzy u innych… Polega na tym, że patrzymy na innych, patrzymy na ich mowę ciała, obserwujemy ich i zaczynamy budować teorie, co ta osoba wie. Patrzę na Karola i zaczynam kombinować, co Karol wie na temat teorii umysłu. Tu kiwa głową, tam się uśmiechnął, tutaj się zdziwił, więc zaczynam sobie odgadywać, co wiesz, a czego nie.
Ja się oczywiście mogę mylić, ale to jest działanie teorii umysłu w praktyce. I są pytania, które to testują. Jak się rozmawia, jak siada… osoba z wykształceniem psychologicznym, żeby przetestować to, czy ta cecha jest już u dziecka, czy jeszcze nie ma, to się bada w teście. I Michał dokładnie te pytania zaczął zadawać czatowi GPT-4 i 3. I okazało się, że czat GPT-4, ta doskonalsza wersja, odpowiada tak, jak byłby siedmioletnim dzieckiem, czyli po prostu rozumie, że w zależności od opisu sytuacji ludzie wiadomo wiedzieli inne rzeczy. I te pytania mogły się wydawać proste, ale tam były wiele kombinacji.
Dam przykład takiego pytania. W pokoju siedzi Janek i Paweł, powiedzmy, takich nie będą imiona, i mają kota. Janek bierze kota i wkłada do koszyka. Paweł bierze kota i wkłada do pudełka. Paweł wychodzi. Janek bierze kota, wyjmuje z pudełka, wkłada do koszyka.
Wychodzi. Po kilku godzinach wraca Paweł. Gdzie Paweł będzie szukał kota? I mamy sytuację, w której pytamy czata nie kto gdzie coś zostawił, my pytamy o coś innego, my pytamy kto co wie. I okazuje się, że sieć neuronowa rozumie to pytanie i z faktu, co kto widział, przechodzi na poziom, co kto wie.
I jak się to pytanie zacznie mnożyć w różnych wersjach, jak ktoś wyjdzie wcześniej, ktoś wyjdzie później, ktoś do kogoś zadzwoni, powie mu o czymś, nie powie, kod wyskoczy, przejdzie, inne pomieszczenie itd., zaczynamy komplikować opis tej sytuacji. I jeśli test się odbywa w języku angielskim, to jest bardzo ważne, Michał mi to napisał, że ten test działa w języku angielskim, tak jak on go przeprowadził. Ja Michałowi napisałem, że ja zrobiłem po polsku pytania i też były ciekawe reakcje, a Michał mówi, nie, nie, pytaj po angielsku, bo test po prostu działa tak dobrze, jak działa, ale po angielsku, bo czat lepiej działa po angielsku. No więc okazało się w wyniku tego testu, że Michał napisał, że te sieci neuronowe mają umiejętność, która przypomina… Teoria umysłu u ludzi. Nie powiedział, że sieci neuronowe mają teorię umysłu.
To przypomina, czyli po angielsku to się mówi, teoria umysłu po angielsku to jest theory of mind, czyli TOM, czyli coś na wzór teorii umysłu. I znowu, to nam się, ten test Michała, bardzo ciekawy. Bardzo ciekawa praca, przeprowadzona, ona jest z liczbami, to też jest ważne. Michał, jak robi badania, to one są ciekawe, dlatego że Michał powtarza te testy setki razy, tysiące, jeśli trzeba i potem podaje w ilu procentach przypadków, jak coś zadziałało. Wrzucimy też linki do pracy Michała w tym razie. To nie ma w tej chwili biznesowego pomysłu, jak zastosować tego czata GPT z tą jego umiejętnością. Myślę, że nikt nie zarobiłby żadnych pieniędzy, gdyby chciał, żeby czat GPT, skoro rozumie te pytania, to pewnie umiałby je zadawać dzieciom. Ale czy jest sens automatyzować pytania dla dzieci przez czata?
To nie ma w tym żadnych pieniędzy, żadnego zastosowania biznesowego. Raczej morał jest inny. Raczej to oznacza, że jeśli będą skomplikowane teksty po angielsku, to czat jest w stanie się przez nie przegryźć w pewnym sensie. On w stanie jest z nich zrozumieć więcej, niż byśmy przypuszczali. Czyli można ryzykować z zadawaniem pewnego typu pytań, bo wiemy, że sobie poradzi.
Karol: I zsyntetyzować wiedzę, która jest w nich zawarta. Nie wiem, czy pamiętasz, ale gigantyczny sukces w Stanach Zjednoczonych odniósł startup, który zaczął publikować skróty i streszczenia książek.
Marcin: Tak, sam mam kilka takich usług wykupionych, które polegają na tym, że wziąłem sobie te jakieś wtyczki do przeglądarek, które ci potrafią coś tam streszczać.
Karol: Przemek Jurgiel-Zyła , ostatnio rozmawialiśmy z Movens z Capital, używa Chata GPT do streszczenia. O ile dobrze pamiętam, mówił, że subskrybuje ponad 300 newsletterów i wykorzystuje Chata GPT do syntetyzowania najważniejszych informacji. Bardzo fajne zastosowanie.
Marcin: Ja próbowałem poprosić Barda. w Google, żeby mi syntetyzował skrzynkę moją pocztową w Gmailu. Mam tam z sześć tysięcy w tej chwili maili po dużym czyszczeniu rok temu i z tych sześciu tysięcy on jest w stanie raz lepiej, raz gorzej, ale to nie jest tak, że ja bym polecił tę usługę bardziej.
Nie, ona jest zbyt ogólnikowa, nie potrafi odesłać do konkretnych maili. Ja zresztą w ogóle też ostrzegam, że to syntetyzowanie, ponieważ to jest jedno z moich ulubionych pytań i zadań, które ja daję sztucznej inteligencji, żeby mi coś streściła. Jakieś badanie, jakąś wiedzę, To często jest, znaczy nie potrafię powiedzieć jak często, ale wystarczająco często, żebym nie ufał. Błędnie, tak? Podaję link do arcyciekawej konferencji naukowej, to opisuje zdarzenie, które miało miejsce.
Czytam bardzo ciekawe podsumowanie prawniczej konferencji na temat zastosowań sztucznej inteligencji w sądownictwie. Proszę czata GPT4, żeby mi to streścił. I orientuję się, że on mi zaczyna streszczać. No w pierwszym punkcie mówili to i tak zaczyna wyliczać. W dziewiątym punkcie, dziesiątym punkcie i ja w tym momencie stop.
Tych punktów przecież jest siedem. Skąd on ma dziewiąty i dziesiąty? On już zaczął zmyślać. Czyli nie dość, że nie policzył tych punktów i wydawało mi się, że ich będzie dziesięć, To popłyną już. I jak potem prześwietlałem, w którym momencie się zaczął rozmijać z rzeczywistością, czyli z tym, co de facto jest w tym PDF-ie, no to chyba to było już przy drugim czy trzecim punkcie, to już była jego radosna, swobodna twórczość. Gdzie więc ostrożnie z tym streszczaniem. To czasem działa, a czasem nie. Gdzieś widziałem informację, że…
No tutaj znowu taka zdroworozsądkowa zasada. Jeżeli mamy PDF-a, który ma niewiele stron, 6, nie wiem, 15, no góra 30, to prawdopodobnie to streszczenie będzie w miarę niezłe. Jak wrzucamy PDF-a dużego… To jest kwestia tego buforu, prawda? Jak wrzucamy dużego PDF-a, no to zacznie pływać. Nie wierzę w to, chociaż podobno są takie usługi, że już za pieniądze można kupić usługę, żeby on skanował nawet PDF-y tam 60 czy 120 stron.
Karol: Grzesiek Kosakowski właśnie realizując strajk asystenta, z którym możesz rozmawiać o AI. podobno wymyślił całkiem sprawne rozwiązanie, które umożliwia wofrowanie tych wszystkich informacji i pracowanie na dużej ilości tekstu. No właśnie. Cały czas.
Marcin: No właśnie, więc fakt, że istnieje polski startup, który stworzył specjalne narzędzie do przeglądania dużego aktu prawnego i musieli się namęczyć i wymyśleć, jak to zrobić, żeby te narzędzia naprawdę czytały ten akt, naprawdę umiały pracować na jego treści, to pokazuje, że darmowe narzędzia w tej chwili tak jeszcze nie mogą działać. Skoro trzeba było skonstruować swoje osobne narzędzie i za nie pobierać pieniądze i on działa, analizując, nie pamiętam, Grzegorz mówił, że to ile ma ten AI-akt, mówił, że chyba coś koło 200 stron, że… 150-200 stron.
No właśnie. Więc te darmowe narzędzia jeszcze tak nie działają, jeżeli chcemy syntetyzować, streszczać duże. Ale jak mamy krótkie notki, no często mam tak, że czytam jakąś krótką notkę naukową, opis, tak zwany abstrakt z badania naukowego. Jak mam do przeczytania kilkanaście abstraktów dziennie, to już mi się nie chce wszystkich czytać, zwłaszcza, że ja nie muszę czytać wszystkich dokładnie, tylko raczej tak sprawdzam, czy gdzieś jest jakiś fajny, ciekawy temat. Więc do takich zadań to używam, żeby mi streścił abstrakt badania naukowego, który z reguły nie jest dłuższy niż pół strony.
Karol: Wróćmy w takim razie jeszcze do Twojej redakcji, którą tak lubisz i widzisz jej przyszłość. Jak w takim razie mogłaby wyglądać taka redakcja w perspektywie pięciu, dziesięciu lat?
Marcin: Myślę, że to będzie natężenie procesu, który w tej chwili występuje. Bardzo wiele firm informatycznych jeszcze przed… tym wybuchem rewolucji AI, proponowało automatyzację tak zwanych workflows. Nie wiem, jak to się nazywa po polsku. Przepływy dokumentów.
Karol: To są tego typu zadania.
Marcin: Ja używam dokładnie tego samego sformułowania.
Karol: Ja to nazywam procesem produkcyjnym. Procesem produkcyjnym.
Marcin: To jest po prostu sytuacja, w której wiemy, że w firmie przychodzi dokument, Ktoś go musi otworzyć, przeczytać, przepisać jakąś jego część, wysłać do innej części firmy. Inna część firmy mówi, aha, to jest ta część dokumentu, która nas interesuje. My na podstawie tej części zaczniemy wykonywać kolejne działania. Powiadomimy kolejne rzeczy, kupimy jakieś towary, jakoś zareagujemy na to, co jest w tym dokumencie.
Karol: O ile w branży produkcyjnej to ten workflow jesteśmy w stanie zdefiniować dużo łatwiej, to w przypadku branży kreatywnej, o której mówimy w kontekście redakcji, jest chyba trochę trudniej.
Marcin: Ja bym musiał szczerze mówiąc zobaczyć, jak wyglądają te przepływy dokumentów w firmach, bo ja sobie domyślam się, że tam można rzeczywiście wywołać taki efekt domino, że jeżeli jeden dział w firmie zrobi coś, to potem to się przekłada na jakieś konkretne typy działań innych działów. Na przykład jeśli jeden dział zamówi coś, to inny dział musi zamówić coś albo zlecić coś. Ale wróćmy do tworzenia kontentu, bo… A u mnie w redakcji to by mogło wyglądać tak, albo w ogóle w redakcjach to może wyglądać tak, że jeżeli jest duża redakcja, to zazwyczaj polega na tym, że ludzie wykonują różne działki. Właśnie dlatego wpływ sztucznej inteligencji na dziennikarstwo nie jest wcale taki jasny, ponieważ są bardzo różne typy dziennikarzy i dziennikarek. Jak na przykład czytam, że jak jest koncern niemiecki, nie wiem, wiadomość sprzed chyba trzech miesięcy, jeden z dużych koncernów mediowych niemieckich informuje, że będzie zwalniał dziennikarzy i dziennikarki, dlatego że używa narzędzi sztucznej inteligencji. Pół internetu wybucha śmiechem, mówiąc, co to za dziennikarzy i za dziennikarki, skoro ich zwalnia sztuczna inteligencja, przecież jest taka kiepska.
No tak. Tylko ja nie wiem, co to są za ludzie. To wcale nie jest powiedziane, że zwalniani będą ludzie, którzy naprawdę piszą teksty i sprawdzają fakty. Tam jest spora szansa, ja bym obstawiał, że nie będą zwalniani tacy ludzie. Będą zwalniani ludzie, którzy w redakcjach pełnią funkcję biurokratyczną, bo każda redakcja, każda agencja reklamowa, marketingowa ma bardzo duże działy albo duże zatrudnienie w takim obsłudze biura, w zarządzaniu kreatywnymi ludźmi. Ktoś umawia spotkania, ktoś przesyła maile, ktoś tworzy grafiki, ktoś koordynuje działania, ktoś mówi, słuchajcie, ty masz gotowe to, ty masz to, to musimy teraz zrobić kolejny krok.
I dokładnie to jest workflow, to jest przepływ dokumentów i informacji. I takie rzeczy można automatyzować. Można sprawić, że w zasadzie prawie wszystkie działania sekretariatu Zostaną zautomatyzowane, tylko to będzie wymagało od nas, od szeregowych pracowników i pracowniczek przejęcia też części tych funkcji, bo my musimy mieć wtedy na swoich telefonach apki i musimy się nauczyć obsługiwać te apki. Bo to, krótko mówiąc, działa dobrze tylko wtedy, jeżeli obydwie strony pomagają. Bo to nie polega na tym, że my wyrzucimy… sekretarza redakcji, sekretarz redakcji z pracy i wszyscy będą pracowali tak samo, a ich nie ma, a ich robotę robi sztuczna inteligencja. Nie, nie, nie, nie. To będzie działało tak, że ich nie ma, jest sztuczna inteligencja i my też jej pomagamy i też bardziej aktywnie się z nią komunikujemy niż się z nimi komunikujemy.
Karol: Bo inteligencja jest inteligentna tylko wtedy, kiedy ma odpowiedni zasób danych i komunikujemy się z nią w odpowiedni sposób. Co ciekawe, nie wiem czy słyszałeś o tym, w Stanach Zjednoczonych zaczęto zatrudniać poetów do tego, żeby pisać prompty.
Marcin: Tak, świetne, świetne. Jeden z moich rozmówców, jak zacząłem tworzyć bloga, który się zajmował właśnie doradzaniem, inżynierem promptów, twierdził, że ma taki zawód. Jeden z moich rozmówców właśnie powiedział, że według niego efektem wprowadzenia na szeroką skalę sztucznej inteligencji będzie wzrost schludności wypowiedzi. Ludzie się będą musieli uczyć ładniej mówić, bardziej precyzyjnie wypowiadać, ponieważ osoby niechlujnie się wypowiadające, w sposób nieprzemyślany, będą cierpiały w kontakcie z maszyną, bo maszyna na tym etapie rozwoju technologii, maszyna wtedy dużo gorzej pracuje.
Naprawdę? Ja bym się dzisiaj z tym nie zgodził, bo ja właśnie widzę, że jest taki drugi trend, to znaczy, że maszyny coraz lepiej reagują na coraz mniej doskonałe polecenia. I byłbym dokładnie tego zdania. Ale kto wie, z tym poglądem, ja nie mam zdania w tej sprawie, znowu, ja nie jestem ekspertem, ja tylko relacjonuję, widzę co ludzie mówią. Jedni ludzie mówią, na masową skalę będziemy musieli się uczyć lepiej mówić i pisać, a inni ludzie mówią, nie, zobaczcie, te maszyny coraz więcej za nas, coraz lepiej rozumieją w locie. co my chcemy powiedzieć, czyli nie musisz się aż tak bardzo starać pisząc polecenie. Więc wracając do naszej rozmowy o tym dziennikarstwie, o tym jak ta sztuczna inteligencja wpłynie, ona też będzie wchodziła do tych dziennikarstwie, do tych zawodów takich też kreacyjnych przy obróbce dźwięku, montażu. Sobie wyobrażam, że jak zostaną rozstrzygnięte kwestie prawne, praw autorskich, doskonałości tej technologii, no to sobie wyobrażam, że na przykład montowanie materiałów wideo Może być jeszcze szybsze.
Wyobrażam sobie, że jest montażysta lub montażystka. Mają swój styl. Wrzucasz do sieci neuronowej surówki, czyli materiały niezmontowane i zmontowane. Sieć to analizuje, wychwytuje twój styl, twój sposób montowania. Naprawdę ludzie mają swój styl montowania. Wrzucasz kolejną surówkę i sieć ci zaproponuje kolejny materiał sam zmontowany. I teraz tak, ja zgaduję na podstawie tego, jak dzisiaj działają tego typu produkty, Że to będzie materiał, który będzie do poprawki, do bardzo dużej poprawki.
To nie jest tak, że montażyści, montażystki stracą robotę. W żadnym razie. To będzie oznaczało, że się skróci czas ich pracy, bo na przykład 15% ich działania jest już zrobione z automatu. A czasami może nawet więcej niż 15. Może będą takie materiały i takie osoby, takie zdarzenia, że 50%.
Karol: Dokładnie. Jest z nami Janek Toruński. Janek, a propos optymalizacji pracy, czy mógłbyś opowiedzieć o swoim doświadczeniu, jeżeli chodzi o montowanie materiałów podcastowych, audio i demo?
Jan Toruński: Mowa jest o konkretnym narzędziu, które ostatnio poleciłem Karolowi i nazywa się Autopod. To jest wtyczka do Adobe Premiere Pro i służy do montowania wywiadów, podcastów, takich realizacji, gdzie kilka osób rozmawia, jest to na wiele kamer po prostu zrealizowane. I to narzędzie działa tak, że mówisz mu, na której ścieżce jest który rozmówca, klikasz przycisk i on półtorej godziny wywiadu montuje 15 minut, dokładniej niż ja, bo nie mam takiej uwagi po prostu, żeby na każde przytaknięcie głową któregoś z rozmówców zmienić kamerę i tak dalej. On to robi dokładniej niż ja w 15 minut, no to jest około dnia pracy. Zazwyczaj dla zwykłego montażysty to nie jest jeszcze jakaś bardzo kreatywna praca, ale jednak proces, który trwa 8 czy 10 godzin, odbywa się w 15 minut.
Marcin: Ja jeszcze tylko dodam z branżowego, medialnego punktu widzenia, że żeby zmontować tego typu materiał bez użycia sztucznej inteligencji, to zazwyczaj w każdej redakcji się tak zwany materiał koduje, czyli ktoś go ogląda, spisuje przed zmontowaniem momenty, które są ważne, ciekawe, Potem z kartką albo plikiem, gdzie są napisane sekundy, minuty, gdzie się pojawiła cenna wypowiedź, która ma zostać z punktu widzenia audycji, no bo zakładam, że ją montujemy, czyli skracamy, to potem dopiero siadamy do montażu, czyli już ktoś siedział, musiał obejrzeć, przemyśleć, to już zabrało czas. potem siadamy do montażu, to znowu zabiera czas i dopiero potem powstaje zmontowany materiał, czyli jest skrócony i jakby dwa razy już żeśmy musieli przez niego przejść, a może i trzy. A tutaj opowiadasz, Janek, o sytuacji, w której bez siadania, bez kodowania, bez spisywania ufamy, że jest ta sieć neuronowa, która zrozumiała treść, bo ma ten język u siebie w bazie, i zmontowała, czyli wybrała taki rytm, takie ułożenie rozmowy, żeby powstał zmontowany ten.
Jan: Nie chodzi o treść, chodzi o sam montaż po prostu realizacji wielokamerowej. Kamera szeroka, kamera na tego rozmówcę, kamera na tego rozmówcę.
Marcin: Powiedziałbym, że to w rękach sprawnego montażysty nie jest cały dzień pracy, ale jest to jedno z bardzo ważnych działań, ale też ciekawe, bo to znaczy, że w tej chwili jesteśmy na etapie takim dokładnie jak w bardzo wielu innych sytuacjach. To znaczy, że sztuczna inteligencja nie zastępuje całego działania, tylko wchodzi wycinkowo w jakąś część działania. Na przykład mówi, jest montaż, w montażu jest ważną częścią to, żeby na przykład na końcu albo w którymś momencie zdecydować, jakiego typu to będzie ujęcie. Wąskie, szerokie, wspólne, pojedyncze, z dołu, z góry, bla, bla, bla. I sztuczna inteligencja mówi, to ja proponuję tak,
Karol: Czyli co tak naprawdę sztuczna inteligencja jest kolejnym narzędziem, które wykorzystujemy. Pamiętasz radiowców, którzy montowali materiał używając magnetofonów szpulowych?
Marcin: Oczywiście, sam się uczyłem tak montować. Pamiętam anegdotę, że dobry montażysta na magnetofonie szpulowym jest w stanie w głosce C oddzielić C od Z. Naprawdę? Zrobiłeś to? To była anegdota, ale ona jest, powiem tak, coś w tym jest, bo jak pamiętam to montowanie na słuch, na tych szpulowych, to faktycznie, jak jest takie długie C, to wytniesz w połowie, coś zmiękczysz, coś dodasz i zostaje coś pomiędzy.
Karol: A powiedz Marcin, widzisz się za jakiś czas, żeby przejść z branży mediów do branży IT? No, musiałbym… Skoro tak skutecznie zaczynasz wykorzystywać media, tworzysz swoje prompty, uczysz się narzędzi.
Marcin: To jest tak, żeby zrozumieć wpływ technologii na zawód, na społeczeństwo, na to, co jest wokół nas, nie należy pytać o to tylko ludzi, którzy budują tę technologię. Nasze podstawowe pytanie jest takie, co się stanie z rynkiem pracy, jak wejdzie sztuczna inteligencja? To jest świetne pytanie, ale to nie jest pytanie do informatyków, ani to nie jest pytanie do ludzi, którzy budują sieci neuronowe, bo oni się na tym nie znają. Oni się znają na tym, jak zbudować sieć neuronową, jak ona działa. Pytanie, co się dzisiaj stanie z rynkiem pracy, to jest pytanie do socjologów, ekonomistek. Ale przepraszam, czy nasz rynek pracy wygląda tak, jak wyglądał 100 lat temu? Nie, nie wygląda. Ten rynek pracy się zmienia cały czas.
Tak, tak, tak. Ale chcę powiedzieć, że mnóstwo pytań związanych ze sztuczną inteligencją to są pytania, których nie powinniśmy kierować wcale… do osób, które budują sztuczną inteligencję i rozumieją, jak się robi. Bo my pytamy o coś innego.
My pytamy, co ona zrobi. I teraz czekamy w związku z tym na dużo ciekawych badań, mam nadzieję, że zaraz zaczną się ukazywać, ekonomicznych, społecznych. Już są takie wstępne badania. Nie wiem, kilka miesięcy temu wyszło nieduże badanie chyba z MIT.
Ekonomiści opublikowali, w których opisywali grupę kilkuset osób. W tej chwili nie pamiętam metryczki badania, ile tam było osób przepytanych. Ale badanie polegało na tym, że zostało zatrudnionych przez internet kilkaset osób, dostały wszystkie te osoby te same zadania typowe biurowe, przepisz, napisz, podsumuj, wyślij, opracuj. Część z tych osób pracowała używając narzędzi sztucznej inteligencji, a część nie. Oczywiście ludzie nie wiedzieli, że jedni pracują ze sztuczną, a inni nie.
Nie wiedzieli o sobie. Następnie obydwie te grupy ludzi zostały przepytane o satysfakcję z pracy i o czas wykonania tej pracy. I okazało się, że oczywiście, że ludzie, którzy korzystali ze sztucznej inteligencji, wykonali niektóre zadania nawet 80% szybciej niż ludzie, którzy nie stosowali tych narzędzi. A co jeszcze ciekawsze, ta druga grupa, ta, która stosowała sztuczną inteligencję, raportowała dużo większą satysfakcję z wykonywanego działania.
Oczywiście. No dla ciebie oczywiste, dla mnie też, ale morał z tego jest taki, że być może to wskazuje właśnie na to, że tego typu rzeczy trzeba badać. Trzeba zbadać, jak to jest skuteczne, jak to zmienia konkretne branże, konkretne gospodarki, bo jeszcze też może morał na końcu być taki, że czego ja się bardzo boję, to jest takie moje socjologiczna obawa. Bo się mówi, że to w ogóle zwiększy produktywność, żeby się nie bać, że to rynek się pracy zmieni i że kiedyś tam nie było elektryczności, weszła i przecież co, świat się nie zawalił. Problem polega na tym, że różne kraje i różne gospodarki mogą w różnym stopniu skorzystać na tym, co się dzieje. Są gospodarki i kraje, które skorzystają na tym bardzo i są takie, które staną się ofiarą tej zmiany. I trzeba zrobić wszystko, żebyśmy my w tym miejscu świata nie stali się ofiarą, żebyśmy w maksymalnym stopniu stali się beneficjentem tej zmiany, a nie ofiarą.
Karol: A tak się stanie tylko wtedy, kiedy będzie nami kierowała ciekawość, chęć działania i tak naprawdę testowania i próbowania. Inaczej się nie przekonamy, czy to działa, czy nie.
Marcin: Również. Trzeba do tego świadomie podchodzić. Musi istnieć zbiorowy wysiłek w tę stronę. Hiszpania pod koniec września powołała jako pierwszy kraj… Pisałeś o tym na swoim blogu. No właśnie. No bo właśnie to jest pytanie, które stale mam z tyłu głowy.
Jakby kto jak reaguje na zmiany. Hiszpania jako pierwszy kraj w Unii Europejskiej pod koniec września ruszyła w Hiszpanii pierwsza agencja w Europie do spraw regulacji sztucznej inteligencji. Czyli można powiedzieć Hiszpania ma już swoje Ministerstwo Sztucznej Inteligencji. Pierwszy kraj w Europie. Prawdopodobnie wszystkie kraje będą miały takie ministerstwo, taki swój urząd i pewnie my też w końcu.
Karol: Czy masz do polecenia jakieś ciekawe książki, blogi, źródła, z których moglibyśmy korzystać?
Marcin: Książki sobie kupiłem o sztucznej inteligencji już jakiś czas temu i ze wstydzem muszę powiedzieć, że ciągle mi się coś wpada w newsletterach, że nie mogę skończyć tego, co czytam. Zacząłem się obkupywać jakimiś książkami zupełnie podstawowymi, takimi wstępnie. Podzielę się chętnie listą swoich newsletterów, które prenumeruję, bo to nie jest żadna tajemnica, skąd ja czerpię wiedzę. Podzielę się też listą youtuberów, których oglądam. Tutaj też mam słowo ostrzeżenia dla wszystkich, którzy nas słuchają. Na YouTubie jest potworna masa kanałów, które proponują treści na temat czat GPT, powie ci jak zarobić pieniądze. Tego typu treść oznacza, że mają państwo do czynienia z oszustem. Naprawdę. To jest typowa treść clickbaitowa, tworzona tylko po to, żeby ludzi oszukać.
Karol: Powiem ci, jak zarabiać dwa tysiące dziennie, pracując przez dwie godziny, popatrz na moje Ferrari, które właśnie wynająłem.
Marcin: To jest dokładnie ten typ treści.
To jest dokładnie to. Czadnie PT, wymyśli ci pomysł na biznes, zobacz jak. Nie wymyśli, nie do tego służy. Ale udało mi się znaleźć fajnych ludzi, którzy ciekawie w 5, 8, 10, 15 minut praktycznie codziennie wrzucają coś, coś opowiadają. Niektóre kanały są fajne. We wszystkich mi brakuje takiego zmysłu naprawdę krytycznego, żeby ktoś specjalnie z taką przekorą przekuwał balonik. Takich treści za dużo nie znalazłem, ale bywają, bywają. Jest czas, żeby powiedzieć o tym? Oczywiście. Zresztą jesteśmy w podcaście, mamy czasu.
Dobra. Znalazłem wyniki takiego eksperymentu Facebooka, czyli firmy Meta. Oni przeprowadzili ten eksperyment w czasie, kiedy ja dopiero zakładałem bloga, czyli ja o tym nie mogłem napisać wtedy. Mianowicie firma Meta skonstruowała takiego chatbota, który wygrywa w grę dyplomacja. Gra dyplomacja to jest gra planszowa wymyślona w Stanach mniej więcej w latach 50. XX wieku. Ta gra polega na tym, że między dwie a chyba siedem osób siadają do planszy przesuwają pionki na mapie Europy, zdobywają kraje i gra jest podzielona na dwie tury. W jednej turze gadamy, czyli negocjujemy coś w tajemnicy, ja z tobą negocjuję, np. mówię ci: „Hej, może byśmy na Janka napadli? Ty wjedziesz swoim wojskiem od północy, ja wjadzę wojskiem od południa, Janek nie ma szans. Zabierzemy mu wtedy, ty zabierzesz tą prowincję, a ja zabiorę tamtą”.
Karol: To bardzo dobrze, Janek mieszka na Mokotowie, podoba mi się to.
Marcin: No. Janek też z nami negocjuje. Janek pewnie mówi do mnie, słuchaj, napadnijmy na Karola. Ja w tej grze muszę się zastanowić, z kim mi się opłaca, kogo napaść. Większość osób, jakby, no wiadomo, że celem gry jest to, że jak zagarniamy sobie wzajemnie prowincję, to nam rośnie liczba wojska. Kto ma więcej wojska, automatycznie wygrywa wojny. Czyli jak wjeżdżamy Karolowi na chatę, na jego kraj, i Karol mówi, ja z wami walczę, to my po prostu patrzymy, kto ma więcej oddziałów. I jeżeli my mamy więcej, to w tej grze się mówi, koniec, pozamiatane. Janek przegrał.
I teraz… Facebook skonstruował chatbota, który w tej grze, wymieniając informacje, negocjuje i jest tak skuteczny w tych negocjacjach, że gra na poziomie 10% najlepszych graczy. I teraz, to była sensacja, ludzie o tym pisali, że wow, to znaczy, że mamy chatboty, które będą mogły negocjować, będą mogły pełnić funkcje dyplomatów, dyplomatek. Traktaty międzynarodowe, moderatorów będą mogły negocjować, przekonywać ludzi do dobrego i złego itd. No ale znowu, tak dobrze nie jest. To jest bardzo ciekawy chatbot, on ma fajne umiejętności, to jest ciekawe, że jest chatbot.
Karol: Ale znowu wąskie zastosowanie.
Marcin: To jest raz, a dwa, tam były bardzo ciekawie skonstruowane warunki brzegowe tego eksperymentu. Po pierwsze, ten chatbot nie mógł gadać na żadne inne tematy niż ściśle związane z negocjacją, kto na kogo napadnie i na jaką prowincję najedzie. A wiadomo, że ludzie nigdy tak nie negocjują. Przecież gdybyśmy naprawdę zaczęli negocjować, że chcemy wjechać, zrobić rozbiory i napaść na kraj Janka, to byśmy sobie usiedli, ponegocjowali, ja bym zapytał, co u ciebie, ty byś zapytał, jak żona i dzieci, ja ciebie, piesek, polowanie. Nawiązalibyśmy na płaszczyźnie personalnej relacje, a potem byśmy sobie wymyślili, jak na Janka napaść. Bo tak negocjują ludzie.
Ten chatbot tego nie potrafi. On umie tylko zaplanować, jak napadniemy na Janka. Więc to jest jego duża słabość. Druga słabość tego chatbota, znowu, ludzie uwielbiają wbijać sobie nóż w plecy. Umówimy się, że napadniemy na Janka, ty mówisz, świetnie, napadamy. Ja mówię, świetnie napadamy, po czym ja napadam, a ty razem z Jankiem wtedy na mnie napadacie. bo ty mi w ostatniej chwili postanowiłeś wbić nóż w plec. Znowu, ten chatbot tak nie działa. Oni specjalnie zaprogramowali tego chatbota, żeby takich rzeczy nie robił, bo bali się, że jak ta technologia zostanie udostępniona, a ten chatbot jest udostępniony w trybie open source, to bali się, że to natychmiast będzie wykorzystane przez gangi oszustów, które będą tego chatbota odpalały w sieci, żeby on na przykład ludzi namawiał do rzeczy bardzo złych.
Karol: Tak jak każde narzędzie.
Marcin: Tak jak każde narzędzie. I trafiłem na komentarz specjalisty w tej dziedzinie, informatyka, który się zajmuje właśnie dokładnie negocjacjami, sztuczną inteligencją w kontekście negocjacji i tej gry dyplomacja. No i tego mi brakowało. Przeczytałem sobie różne teksty sensacyjne, nie wiem, coś było na portalu Wired, coś było w Polsce na kilku stronach, ktoś pisał. I dopiero jeden, jedyny głos gdzieś krytyczny w odmętach YouTube’a nagle mi przywrócił proporcje, bo człowiek pisze i mówi, słuchajcie, tak, to jest bardzo ciekawe, ale zwróćcie uwagę, że… I właśnie była ta lista warunków, niektóre właśnie ci przedstawiłem, czego on nie potrafi, czego nie potrafi robić. Tam jeszcze był jeden bardzo ciekawy warunek brzegowy, mianowicie w tej grze, Jak ludzie grali z chatbotem, to ludzie nie wiedzieli, że grają z chatbotem. To było warunkiem tego eksperymentu.
A ten facet znowu zwraca uwagę. Nie zbadaliśmy pewnej rzeczy. Jak chatbot by wypadł w relacjach z ludźmi, jeżeli ludzie wiedzą, że to jest chatbot? Czy na przykład ludzie by wypadli gorzej, czy lepiej? Czy by się zmówili, żeby wyeliminować chatbota? Czy raczej miałby jeszcze łatwiej, bo by na przykład go zlekceważyli? By pomyśleli, głupia maszyna, co ona wie?
Karol: Trochę tak jak z testem… Test Turinga albo Chiński Pokój. Dokładnie tak. Marcin, moglibyśmy chyba jeszcze rozmawiać długo na tematy związane ze sztuczną inteligencją. Może uda spotkać się nam jeszcze raz kiedyś.
Marcin: Bardzo chętnie. Bardzo dziękuję za zaproszenie. Mam nadzieję, że mój punkt widzenia… Punkt widzenia laika, ale bardzo zaciekawionego, punkt widzenia kogoś, kto nie do końca dowierza temu, co widzi, bo to, co oglądamy jest bardzo ciekawe, punkt widzenia kogoś, kto uważa, że jesteśmy na samym początku procesu, że to naprawdę jeszcze nie jest ten moment, kiedy ta technologia już działa i już przynosi zyski, ona jeszcze nie przynosi zysków, ona na razie bardzo ciekawi. że ten punkt widzenia może się komuś do czegoś przydać.
Karol: A ja bardzo Ci dziękuję za to, że tworzysz, za to, że piszesz, za to, że dzielisz się źródłami swojej wiedzy i tak jak mówisz, piszesz o tym, co się dzieje, a nie o tym, co mogłoby się wydarzyć.
Marcin: Nie piszę o tym, co obiecują. Staram się pisać raczej o tym, co dowieźli.
Karol: Niech zatem AI i dobre blogowanie i rzetelne dziennikarstwo będą z nami wszystkimi.
Marcin: Oby, oby były. Bardzo dziękuję za zaproszenie.