Jak #AI wpłynie na nasze życie? Rozmowa, którą zaraz usłyszycie, jest doskonałym przykładem na to, jak bardzo sztuczna inteligencja może wpływać na nasze codzienne doświadczenia.
Poznajcie profesora Aleksandra Mądrego, szefa działu Preparedness w OpenAI, który opowiada o przygotowaniach na potencjalne ryzyka związane z rozwojem AI. Tym razem rozmowę prowadzę nie solo, ale wspólnie z Michałem Stanisławkiem.
O czym rozmawiamy?
- Aleksander wyjaśnia, jak jego zespół w OpenAI zajmuje się przygotowaniem na potencjalne katastroficzne ryzyka, które mogą wyniknąć z rozwoju technologii AI. Omawia sposoby, w jakie AI może zostać wykorzystane zarówno do celów pozytywnych, jak i negatywnych, oraz jak OpenAI stara się przewidywać i zapobiegać tym zagrożeniom.
- Rozmawiamy o zagrożeniach związanych z cyberbezpieczeństwem, takich jak wykorzystanie AI przez hakerów do włamań, a także o potencjalnym użyciu AI do stworzenia nowej broni biologicznej lub chemicznej. Aleksander porusza również temat autonomii modeli AI i momentu, w którym powinniśmy zacząć myśleć o nich jako niezależnych organizmach.
- Dyskutujemy o wpływie AI na rynek pracy i społeczeństwo. Aleksander dzieli się swoimi przemyśleniami na temat przyszłości zawodów i tego, jak AI może zmienić sposób, w jaki pracujemy i postrzegamy pracę. Zastanawiamy się, jakie nowe zawody mogą powstać dzięki AI i jak możemy nauczyć się współpracować z AI w produktywny sposób.
- Aleksander odpowiada na pytanie, czy istnieje „wielki czerwony guzik” na wypadek katastroficznego użycia AI i jakie środki zaradcze są planowane. Omawia także rolę edukacji w kontekście AI literacy, czyli jak ważne jest zrozumienie AI, aby móc wyrażać swoje opinie i podejmować świadome decyzje.
Rozważamy również, jak AI może wpłynąć na relacje międzyludzkie i czy technologie te mogą prowadzić do dystopijnych scenariuszy. Aleksander podkreśla, że technologia nie jest ani pozytywna, ani negatywna, ani neutralna – wszystko zależy od tego, jak ją użyjemy.
Poza tym życzę Wam dobrego wakacyjnego odpoczynku, gdziekolwiek jesteście. I wielkie dzięki za Wasz czas spędzany z 99 Twarzami AI…
Na koniec – wielkie dzięki za pomoc w realizacji nagrania dla całego Zespołu NCBR Ideas. I mam nadzieję, do kolejnej ciekawej rozmowy….
Jeżeli chcielibyście posłuchać więcej – polecam Wam również rozmowę z prof. Mądrym, którą tego samego dnia nagrał Artur Kurasiński -> TUTAJ
Galeria
Podrzucam również całą debatę zorganizowaną przez NCBR Ideas, w której udział wzięli prof. Mądry, prof. Dragan i dr. Sankowski.
Dobrego dnia! Posłuchaj podcastu i podziel się nim z innymi!
Tradycyjnie wielka prośba – jeżeli jeszcze nie wystawiłaś lub nie wystawiłeś oceny 99 Twarzom AI na Spotify lub Apple podcast – pomóż mi proszę z dotarciem do nowych słuchaczy. To zabierze Ci tylko 2 minuty. Z góry serdeczne dzięki!
Dobrego dnia i niech #AI będzie z Wami wszystkimi!
Zdjęcia: Jakub Budyta
Transkrypcja rozmowy
Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.
Karol: Aleksandrze, jest nam niezwykle miło gościć Cię w Polsce. To ogromny również zaszczyt, że zgodziłeś się być jedną z 99 twarzy AI. Jesteś jedną z najlepszych osób, z którymi można na ten temat porozmawiać. Jesteś szefem działu Preparedness w OpenAI. Na co tak naprawdę mamy się przygotować?
Aleksander: Mamy się przygotować na dwie rzeczy. Po pierwsze, czym zajmuje się mój zespół. Zajmujemy się przygotowaniem na potencjalne tzw. katastroficzne ryzyka, które AI jako technologia może powodować. Chodzi o zrozumienie, w jaki sposób ktoś mógłby użyć technologii AI, aby wyrządzić szkodę. Naszym zadaniem jest przewidywanie, co złego może się wydarzyć, i pomaganie zarówno OpenAI, jak i reszcie świata przygotować się na te zagrożenia. Jednak misja Preparedness jest szersza. Chodzi także o pomoc światu w zrozumieniu, co rozwój AI przyniesie, zarówno negatywne, jak i pozytywne aspekty. Chcemy pomóc światu przygotować się na życie z AI.
Karol: No właśnie, ale będę drążył to pytanie. Co takiego złego może się wydarzyć, jeżeli chodzi o rozwój tej technologii?
Aleksander: To jest dobre pytanie. Sądzę, że jest wiele potencjalnych zagrożeń. Często mówię, że największe zagrożenie to to, o którym jeszcze nie myślimy i którego nie jesteśmy w stanie teraz sobie wyobrazić. Na przykład, użycie AI w kwestii cyberbezpieczeństwa. Modele AI będą coraz lepiej programować, co oznacza, że będą mogły znajdywać luki i błędy w oprogramowaniu. To może być wykorzystane przez hakerów do włamań. Ale AI może również uczynić nasze oprogramowanie bezpieczniejszym. Inne ryzyko to użycie AI do stworzenia nowej broni biologicznej czy chemicznej. Ludzie również zastanawiają się nad autonomią modeli – kiedy powinniśmy zacząć myśleć o nich jako niezależnych organizmach, a nie tylko narzędziach? To zmienia sposób, w jaki myślimy o ryzyku. Zajmujemy się także wpływem AI na rynek pracy i społeczeństwo.
Karol: A zmieni się na pewno.
Aleksander: Zmieni się na pewno, dokładnie tak. To jest coś, czego ludzie naprawdę nie uświadamiają sobie, że zmiana na pewno będzie. Pytanie jest takie, jaka zmiana? I my chcemy, żeby to była pozytywna zmiana, ale zmiana nadchodzi. Tak bardzo jak my nie lubimy zmian, tutaj nie mamy za bardzo wyboru.
Michał: Powiedz na wypadek, gdyby rzeczywiście doszło do jakiegoś takiego katastroficznego użycia AI, co wtedy? Czy istnieje jakiś taki wielki czerwony guzik?
Aleksander: W tej chwili nie istnieje, na pewno oczywiście jesteśmy w stanie, jeśli by nasz model był w jakiś sposób związany z tym, no to byśmy odpowiednie środki zaradcze użyli. To jest dokładnie to, jak rozumiemy ryzyko, zaczynamy mówić „ok, więc jak ryzyko zaczyna rosnąć, to jaki jest nasz plan, kiedy coś pójdzie nie tak?”. Mamy takie preparedness framework, w którym o tym piszemy. Z punktu widzenia naszej firmy musimy się upewnić, że nasze bezpieczeństwo jest wysokie, żeby nikt nie wykradł tych modeli i że mamy tzw. mitigations, czyli sposoby nasze, żeby upewnić się, że nikt, kto ma dostęp do naszych modeli przez nasze API albo przez ChatGPT, nie mógł użyć ich do niepożądanych rzeczy. To wymaga planowania i struktury. Lepiej jest zapobiegać niż leczyć. Ale prawda jest taka, że my też o tym myślimy. Jeśli ktoś inny użyje AI, żeby zrobić coś złego, czy są jakieś środki zaradcze, żeby temu pomóc? Na przykład w cyberbezpieczeństwie można użyć AI do audytowania software’u, który zabezpiecza infrastrukturę elektryczną. Więc są rzeczy, które można robić, ale najważniejsze jest zapobieganie niż leczenie.
Michał: Czyli myślicie też o tym, jak użyć AI przeciwko AI w dobrym sensie?
Aleksander: Tak, myślimy o tym. To wciąż początkowe myślenie, bo na razie te ryzyka jeszcze nie są takie, żeby myśleć, że to jest już absolutnie konieczne, ale oczywiście zajmie czas, żeby wymyślić, jak to zrobić. Zaczynamy o tym myśleć.
Karol: Dużo mówi się o kolejnych modelach, które mają być zaprezentowane, i ostatnio padło takie hasło, że GPT-5 będzie na poziomie intelektualnym i poziomie logicznego myślenia odpowiadało doktorowi. A co będzie następne?
Aleksander: To jest dobre pytanie. Pytanie, co tak naprawdę bycie doktorem znaczy? Spróbujmy to rozłożyć. Doktorant to jest najczęściej bardzo wyspecjalizowana dziedzina, to nie jest doktorat we wszystkim. To brzmi dość imponująco.
Karol: Szczególnie w kontekście baz wektorowych, które rzeczywiście mają taką wąską specjalizację. Pytanie, czy GPT będzie takim składnikiem baz wektorowych i będzie posiadało wiedzę we wszystkich różnych dziedzinach?
Aleksander: Zobaczymy. A co będzie później? To jest też świetne pytanie. Zaczynamy właśnie myśleć o tym modelu autonomii. W pewnym sensie chcemy zbudować modele, które są lepsze niż ludzie, przynajmniej w kwestii niektórych ważnych zadań. Oczywiście są lepsze w wielu zadaniach już teraz, ale takich, które byśmy powiedzieli, że ekonomicznie są ważne. To jest dobre pytanie, jak będzie ta sztuczna inteligencja wyglądała? W jaki sposób upewnimy się, że ona robi coś pozytywnego, a nie negatywnego? Nie jestem pewien, jak szybko to nastąpi, ale możemy być w sytuacji, kiedy ona jest lepsza niż jakikolwiek człowiek. Jak dozorować technologię, która ma jakąś autonomię i jest inteligentniejsza niż my? Czy powinniśmy taką inteligencję nawet wynajdywać? To są pytania, o których myślimy dużo w OpenAI. Na razie to wciąż teoretyczne, ale to jest zdecydowanie coś, o czym trzeba będzie myśleć.
Michał: A ty jako człowiek, jako profesor, człowiek z akademii, jak myślisz o tych modelach, które powstaną w przyszłości i mogą rzeczywiście oferować tę wiedzę na wyższych poziomach? Co wtedy akademia będzie miała do zaoferowania studentom, jeśli te modele się pojawią i będą w stanie w dosyć personalny sposób przygotować ścieżkę edukacji?
Aleksander: To jest świetne pytanie i też o tym dość dużo myślę. Na początku to będzie wciąż wsparcie edukacji, a nie jej zastąpienie. Wydaje mi się, że wciąż ważną rolą uniwersytetów jest nie tylko wtłaczanie wiedzy w umysły, ale także socjalizacja, wyrobienie sobie ścieżki w życiu, czym tak naprawdę jesteśmy podekscytowani. Networking i tak dalej. Uczelnie wciąż przynajmniej w tej roli przetrwają. Czy może być coś więcej? Jak już mówiłem dzisiaj w czasie debaty, wszyscy będziemy współpracować z AI, ale nauczenie się, jak współpracować z AI w sposób produktywny, nie jest takie proste. To będzie po części socjalizacja, znalezienie swojej ścieżki w życiu i odkrycie, co tak naprawdę sprawia nam radość, co sprawia, że chce nam się żyć. AI może nam w tym pomóc. Może teraz, żeby być pisarzem, nie trzeba będzie mieć daru porywającej prozy. Pamiętam, że kiedy zaczynałem karierę w akademii, przysiągłem sobie, że nigdy nie napiszę książki, bo nie cierpię pisać. Teraz, dzięki AI, może to się zmienić. Rozmawiałem z Reidem Hoffmanem, który napisał książkę z GPT-4 w tydzień. To otwiera nowe możliwości.
Karol: Dążymy do tego, że ludzie będą mieli swoich agentów dzięki chatowi GPT. Będziesz miał swojego ghostwritera, z którym stworzysz książkę szybciej niż sam byś pisał. Co będzie z nami? Czym będziemy się zajmować, kiedy będziemy mieli tych agentów od wszystkiego?
Aleksander: To ciekawe pytanie, bo teraz mogę napisać książkę, ale kto będzie ją czytał? Może oni użyją swojego agenta, żeby tylko streścił, co jest w tej książce. To pokazuje, że dużo naszego poczucia wartości jest związane z pracą. Ludzie, kiedy idą na emeryturę, często tracą zdrowie i szczęście. Czy możemy być szczęśliwi, nie definiując się przez pracę? Posiadając dochód pasywny. AI może tworzyć dużo bogactwa, więc to jest bardzo możliwe. Każda praca ma aspekty, których nie chcemy robić.
Karol: Mam pytanie. Zrobiłem kiedyś eksperyment. Wyszedłem na ulicę Warszawy z mikrofonem i pytałem ludzi, co sądzą o AI w kontekście szans i zagrożeń. Większość mówiła, że AI zabierze im pracę. Jak sądzisz, jakie zawody stworzy AI, które staną się nowymi, jak kiedyś drukarz, informatyk, mechanik?
Aleksander: Nie jestem pewien, jakie nowe zawody się stworzą, ale wiem, że nasze zawody się zmienią. Możemy mieć mniejsze zapotrzebowanie na poszczególne zawody, ale to oznacza, że będziemy musieli spędzać mniej czasu na pracy. Może AI stanie się superinteligencją i będziemy skupiać się na interesujących aspektach pracy. Nasza satysfakcja z pracy może wzrosnąć. Możliwe, że nie będziemy mieli zawodów w tradycyjnym sensie. Będziemy robić to, co chcemy. AI może zmienić naszą pracę w coś bardziej interesującego.
Michał: Tu zahaczamy o aspekt intelligence amplification. Kiedy będziemy mogli dobierać to, czym chcemy się zajmować, a AI będzie nam pomagało. Czy widzisz w tym jakieś zagrożenia?
Aleksander: Na przykład, pamiętanie dokładnie, co z kim rozmawiałem, może być przerażające. Nasze instynkty mogą nie być dostosowane do możliwości AI. AI może być używane do umacniania autorytarnych rządów. Technologia nie jest ani pozytywna, ani negatywna, ani neutralna – wszystko zależy od tego, jak ją użyjemy.
Michał: Jaką rolę odgrywa edukacja w kontekście AI literacy?
Aleksander: Musimy zrozumieć AI, aby móc wyrażać swoje opinie. Ważne, aby edukacja obejmowała zrozumienie AI i jej wpływu. AI literacy powinna być częścią dyskursu społecznego.
Karol: Ostatnie pytanie, bo czas nas goni. Czy relacje międzyludzkie będą dobrem rzadkim?
Aleksander: To świetne pytanie. Możemy mieć AI, która rozumie nas doskonale, ale to może prowadzić do dystopii. Musimy znaleźć równowagę. Na przykład, AI może sugerować, abyśmy rozmawiali z kolegami, zamiast przywiązywać się do AI. Może potrzebujemy regulacji, aby zapobiec zbyt dużej zależności od AI.
Karol: Aleksandrze, serdeczne dzięki za Twój czas. Dziękujemy za spotkanie. Niech AI będzie z nami wszystkimi.
Aleksander: Dziękuję bardzo za wywiad. Jestem optymistą.
Karol: Dziękujemy.