50/99 – Cała prawda o deep fakes. Joanna Gajewska, Adrian Kordas, Michał Ołowski – NASK


Witajcie! Dzisiaj temat, który bardzo czesto pojawia się w kotekście rozwoju technologii i całego GEN #AI. Deep Fakes. Miałem przyjemność spotkać się ze specjalistami w tej dziedzinie pracującymi dla NASK.

Poznajcie proszę Joannę Gajewską, Adriana Kordasa i Michała Ołowskiego, z którymi wedziemy właśnie w ten świat. Świat rzeczywistości, która tylko wydaje się być prawdziwa. Dobrego dnia i wielkie dzięki, że jesteście z 99 Twarzami AI!

Deep Fakes i NASK?

Zespół naukowo-techniczny składający się z pracowników Pionu Sztucznej Inteligencji NASK to aktywni popularyzatorzy wiedzy związanej z deepfake, prywatnie również bliscy znajomi. Zespół pieszczotliwie nazywany jest Zespołem Analizy Deepfake (czyli w skrócie ZAD), w skład którego wchodzą Joanna Gajewska, Adrian Kordas, Michał Oławski, Ewelina Bartuzi-Trokielewicz, Michał Koźbiał, Alicja Martinek, Adam Baran, Elżbieta Gomulska i Jarosław Wójtowicz.

Głównym celem ZAD-a (😃) jest prowadzenie badań nad tematyką deepfake i ogólnie pojętą GenAI, ze szczególnym uwzględnieniem wykrywania manipulacji materiałów zarówno audio, jak i wizualnych.

Obecnie, wszystkie siły skierowane zostały na monitorowanie wirtualnej przestrzeni publicznej pod kątem obserwowania nowych trendów w dziedzinie zmanipulowanych, niebezpiecznych treści. Pozyskane dane służą również jako materiały weryfikacyjne do rozwoju i ewaluacji systemu wykrywania deepfake opartego na sztucznej inteligencji.

O czym rozmawiamy?

  • Czym jest deep fake?
  • Jakie ma zastosowanie?
  • Jak rozpoznać treści prawdziwe od tych fałszywych?
  • Rozmawiamy również o ciekawych case’ach.
  • A także o tym, jak się bronić przed deep fakes.

Tradycyjnie wielka prośba – jeżeli jeszcze nie wystawiłaś lub nie wystawiłeś oceny 99 Twarzom AI na Spotify lub Apple podcast – pomóż mi proszę z dotarciem do nowych słuchaczy. To zabierze Ci tylko 2 minuty.  Z góry serdeczne dzięki!

Dobrego dnia i niech #AI będzie z Wami wszystkimi!

Transkrypcja

Disclaimer. Droga Czytelniczko, Drogi Czytelniku – mała uwaga dotycząca transkrypcji rozmowy. Jak się pewnie domyślasz – transkrypcja została przygotowana z wykorzystaniem magii LLM. Proszę o wyrozumiałość, gdyby pojawiły się w niej niewielkie błędy, literówki, etc. Żeby mieć pewność co do wszystkich wypowiedzi – polecam posłuchać, zamiast czytać. Ukłony.

Karol:  Joanno, Adrianie, Michale. Witam was serdecznie. Kolejna twarz, a raczej twarze sztucznej inteligencji. Kolejny odcinek 99 twarzy AI. A dzisiaj na tapetę bierzemy temat, myślę, wyjątkowo interesujący w kontekście wyborów deepfakes. Kim jesteście, czym się zajmujecie, Joanno?


Joanna:  Cześć, ja jestem Asia Gajewska i pracuję wraz z moimi kolegami, którzy są tutaj dzisiaj w zespole analizy deepfake, w skrócie wieszczotliwie ZAD. I oczywiście mamy więcej osób w zespole i w tym zespole naszym głównym celem jest analiza i wykrywanie materiałów deepfake. Ja akurat szczególną uwagę poświęcam materiałom audio deepfake i wykrywaniu takich materiałów.


Adrian:  Adrian. Tak, tak jak Asia powiedziała, jestem w tym samym zespole, tylko w troszeczkę innym odłamie. Dlatego, bo ja się zajmuję głównie wideo. Razem z Michałem Koźbiałem, który jest niestety nieobecny dzisiaj, i Adamem Baranem, pracujemy nad właśnie wykrywaniem manipulacji wizualnych. A Ty, Michale.


Michał:  Ja podobnie tak jak Asia działam w obszarze audio, analizujemy mowę i metody na detekcję takiej manipulacji.


Karol:  No dobrze, to zacznijmy od podstaw, od fundamentów. Hasło bardzo popularne, dużo się słyszy tego w mediach, w serwisach internetowych, na byłym Twitterze, nie mogę się odzwyczaić od tej nazwy. Czym tak naprawdę jest deepfake. Jak moglibyśmy go zdefiniować.


Michał:  Powiedziałbym, że to jest, nawiązując do twojego podcastu, to jest taka ewidentnie zła, czarna twarz AI. Ponieważ ona w swoim założeniu ma za zadanie zabrać czyjąś tożsamość i wykorzystać ją. No i teraz w zależności od intencji osoby, która tworzy takie materiały do celów pozytywnych lub też nie.


Karol:  Czyli to jest zabranie tożsamości, czy też deepfake może być stworzeniem tożsamości, która nie istnieje.


Michał:  Tak naprawdę jedno i drugie, w zależności od tego, o jakiej mówimy metodzie, czy tak naprawdę do czego ograniczamy to pojęcie, bo ono zaczęło z biegiem różnych rozwiązań i rozwoju tej technologii troszkę oznaczać nieco inne rzeczy, Natomiast co do zasady i takich jego absolutnych podstaw, to deepfake było takim narzędziem do podmiany czyjejś twarzy i wstawieniem jej w miejsce innej osoby.


Karol:  A pójdźmy teraz maksymalnie szeroko. Gdybyśmy mogli zdefiniować obszary, w których deepfake funkcjonują i w których stanowią zagrożenie dla nas ludzi, użytkowników. sieci internetu, serwisów społecznościowych.


Adrian:  Głównie deepfake sam w sobie. Też nie chciałbym tego spłycać do tylko tych negatywnych i niebezpiecznych zastosowań, ale faktycznie teraz taki największy rozkwit właśnie jest powiązany z tymi ciemnymi stronami ich zastosowania. Na przykład mamy wykorzystanie jakichś manipulacji audiowizualnych z wykorzystaniem osoby, które mają taki duży pogłos, taki mają, są autorytetem gdzieś na świecie do namawiania do jakichś fałszywych albo po prostu ryzykownych inwestycji, czy też jakoś rozsiewanie jakiejś nieprawdy, żeby zdestabilizować społeczeństwo, wprowadzić jakiś zamęt. Ale właśnie tutaj trzeba też pamiętać, że mamy też te pozytywne zastosowania na przykład w kinematografii, gdzie możemy wykorzystywać cudzy wizerunek i na przykład może w przyszłości też będzie jakiś bank wizerunków, który będzie nam służył właśnie albo osobom, które nie mają takiego budżetu do tworzenia produkcji, żeby wykorzystać cudzy wizerunek.


Joanna:  To ja jeszcze wspomnę, dopowiem do tego, co Adrian tutaj nam przed chwilą powiedział, odnośnie tej ciemnej strony deepfake’ów. To tak jak pytałeś o szerokie zastosowanie, to pracując w audio nie mogłabym nie wspomnieć o oszustwach z wykorzystaniem audio deepfake’ów, czyli takich oszustwach celowanych w… Obywateli, każdego z nas, kiedy dochodzi do oszustwa typu na wnuczka, kiedy ktoś do nas dzwoni z tego samego numeru, jakaś osoba, którą znamy i w słuchawce finalnie słyszymy głos naszej bliskiej osoby, gdzie tak naprawdę mówi to oszust, którego głos jest konwertowany w czasie rzeczywistym na oszust. na takiego audio deepfake’a, w którym jesteśmy oszukiwani. To jest na przykład jedno zastosowanie. Dodatkowo mamy jeszcze samo wykorzystanie deepfake’ów w pornografii, co jest tak naprawdę, w czym mają początki deepfake’i. One zaczęły funkcjonować od materiałów pornograficznych. Więc tutaj w tym kontekście są bardzo szeroko wykorzystywane.


Karol:  Ale w jaki sposób były wykorzystywane. Chodziło o to, żeby działać w negatywny sposób, wpływać na czyjś wizerunek, czy….


Joanna:  Ciekawiej się ogląda materiał pornograficzny przez Karet Johansson niż z nieznaną aktorką.


Adrian:  Tak, to raczej nie miało na celu, żeby kogoś zdyskredytować, tylko raczej to były jakieś fantazje osób, które te deepfake’i tworzyły. To był 2017 rok. na platformie Reddit i to właśnie wtedy też słowo deepfake powstało. Właśnie ten subreddit taką nazwę nosił. A propos tego, bo Asia powiedziała, że nie można o czymś nie wspomnieć, no to jeszcze na chwilę wracając do tych pozytywnych zastosowań, no to mam nadzieję, myślę, że większość słuchaczy oglądali jakąś część Harry’ego Pottera, I tutaj warto wspomnieć o tym, co właśnie z czym mi się kojarzy deepfake, to jest te gazety takie albo jakieś obrazki, na których poruszają się te osoby bliskie, czy skazańcy, czy coś takiego. I właśnie do tego też możemy wykorzystać deepfake’a, żeby robić ze statycznego obrazka jakiś ruchomy obiekt, ruchomą głowę, żeby troszeczkę tak nadać jeszcze takich takiej magii do tego obrazka właśnie.


Karol:  To w ostatnich dniach mieliśmy sporo przykładów technologii, która została zaprezentowana, która właśnie umożliwia ożywianie obrazów w sposób absolutnie fenomenalny przez rozszerzenie rzeczywistości i pokazywanie tak naprawdę całego szerszego kontekstu tego kadru, który widać na pojedynczym zdjęciu.


Adrian:  Chodzi o taką generację 3D na podstawie samego dwuwymiarowego obrazka. Tak, ale a propos jeszcze ożywiania i tworzenia wideo, to właśnie ostatnio też jest taki wysyp tych różnych generatorów wideo. Mamy na przykład najpopularniejszą Sorę. To raz to zobaczyłem i nie mogę odzobaczyć, jak ta kobieta, która sobie chodzi po tych ulicach Tokio po zmroku i ludzie wszyscy z tyłu, oni wszyscy mają zsynchronizowany ten ruch nóg. poza tym jest jakiś nowy jeszcze metoda, nie pamiętam teraz nazwy, ale jest nowa metoda generowania, no to w tym przypadku jak widzimy, jak człowiek sobie idzie, to ten człowiek tak naprawdę mam wrażenie, że on idzie, a to droga pod nim się przesuwa. Jest taka troszeczkę nienaturalna, tak widać na pierwszy rzut oka, że coś tutaj jeszcze nie gra, no ale na pewno to idzie w dobrym kierunku, jeśli chodzi o taką generatywną AI.


Michał:  Technologia generalnie nas zaskakuje na każdym kroku w kontekście tego, co wspomnieliście. Tutaj widzimy olbrzymi rozwój, głównie też zapoczątkowany przez metę, ponieważ ona postawiła sobie ten flagowy cel, jakim jest to metaversum. przeniesienie nas właśnie do tej wirtualnej rzeczywistości. No i żeby to zrobić, potrzebowalibyśmy naszych odwzorowanych, wiernych kopii w tym świecie cyfrowym. I rzeczywiście w tym kierunku prowadzą bardzo daleko zakrojone badania nad właśnie odtworzeniem takiego trójwymiarowego modelu naszej twarzy. I działa to naprawdę zaskakująco dobrze. Co ciekawe, wystarczy do tego zwykły taki skan z telefonu, sobie nagrywamy po prostu naszą głowę ze wszystkich kątów i później algorytm potrafi to przekuć właśnie na taki trójwymiarowy awatar naszej postaci w takim świecie wirtualnym. Oczywiście do zastosowania docelowego jest to wspaniałe rozwiązanie, natomiast możemy sobie wyobrazić co się stanie, jeżeli ta technologia trafi w niepowołane ręce i możemy tylko się spodziewać, że takich rozwiązań będzie z czasem coraz więcej.


Karol:  No właśnie, porozmawiajmy o tych case studies. Czy możecie opowiedzieć o przykładach deepfake’ów, które zrobiły wiele złego na świecie. Bez względu na to, czy to będzie wideo, zdjęcia, czy wirtualna rzeczywistość. Opowiedzmy o przykładach.


Michał:  Ostatnio widzimy bardzo dużo takich nagrań, materiałów wizualnych, które pojawiają się w przestrzeni na różnego rodzaju portalach społecznościowych. Tego jest dużo i spodziewamy się, że będzie coraz więcej. Natomiast jeżeli chodzi o takie najbardziej spektakularne ataki, nazwijmy je tak, z wykorzystaniem sztucznej inteligencji typu deepfake, Możemy sobie przytoczyć taki epizod z Hongkongu w jednej firmie, której nie powiemy nazwy. Był taki incydent, gdzie pewien pracownik dostał polecenie służbowe od dyrektora na przelanie olbrzymiej ilości pieniędzy. Nawet spotkał się z całym zarządem na spotkaniu takim zdalnym. To było ściśle ukartowane oszustwo, gdzie każda z tych osób była zdipfejkowana, czyli jej twarz po prostu została podmieniona. I tak naprawdę ten pracownik miał idealny scenariusz właśnie pod tego typu oszustwo. Nie był absolutnie świadomy, że jest oszukiwany i pozbawił tak naprawdę firmę olbrzymich milionów dolarów, ponieważ mówimy tu o kwocie rzędu 25 milionów dolarów.


Karol:  No wow. Jakieś inne przykłady ciekawe, jeżeli chodzi o Stany Zjednoczone. Może możemy coś powiedzieć ciekawego a propos wyborów.


Joanna:  Chociażby ten przypadek, gdzie w jednym ze Stanów wygenerowano głos prezydenta Bidena i w którym to namawiał obywateli, by nie brali udziału w prawyborach. Jeden z głośniejszych ostatnich przypadków w wyborach wyborów. które się szykują w USA.


Michał:  Mieliśmy też taki epizod na Twitterze dawnym, tym razem i teraz jest to Platforma X, na której zaczęły się rozprzestrzeniać materiały pornograficzne z wykorzystaniem wizerunku Taylor Swift. I proceder był na tyle duży, że właśnie X zablokował wyszukiwanie frazy Taylor Swift w swoim serwisie, ponieważ to tak daleko zagolubowało.


Adrian:  Warto jeszcze wspomnieć o troszeczkę innym podejściu do tych deepfake’ów, no bo faktycznie mamy takie popularne, duże ataki, nazwijmy to po prostu atakiem, jak ktoś po prostu personalizowany atak na pracownika na przykład w Hongkongu. Ale z drugiej strony najwięcej deepfake’ów, jakie możemy obserwować, to właśnie jakieś platformy społecznościowe i to jest troszeczkę inne podejście, bo to jest po prostu taka masówka. Stworzenie jakiegoś deepfake’a, nawet niezbyt dobrego, bo tam już są straszne takie rozbieżności na takiej podstawie, że liczebniki są źle wypowiadane. troszeczkę jest desynchronizacja ust z mową, z głosem, tylko to trafia do dużo większej publiki. Tam z tego co jak można sobie obejrzeć na tych takich portalach społecznościowych, można sobie zobaczyć do kogo jest ta reklama celowana. No i tam mamy od 45 do 60 lat, to jest target tych deepfake’ów. I na to też warto zwrócić uwagę, bo tak naprawdę tutaj wszyscy są tacy atakowani zewsząd tymi deepfake’ami, a idąc na ilość, no to też statystycznie może jest jakaś szansa na to, że ktoś się nabierze właśnie na te inwestycje czy jakieś niewiarygodne wygrane.


Karol:  Poza tym mam takie wrażenie, przepraszam Jan, że starsze pokolenie, ludzie powiedzmy w 55+, wierzą we wszystko to, co usłyszą albo zobaczą na ekranie.


Joanna:  To niekoniecznie, bo wczoraj właśnie czytałam raport o dezinformacji, o statystyki, raport, w którym są ujęte statystyki na temat rozprzestrzenia się dezinformacji w Polsce i właśnie grupa społeczna, która została z tego raportu wyodrębniona, która względnie najmniej przenosi informacji związanych z dezinformacją, a często deepfake’i są przecież częścią dezinformacji, to są osoby właśnie z tej grupy wiekowej starszych osób. To wbrew naszym podejrzeniom i intuicji, jednak te osoby są dosyć mocno sceptyczne względem pozostałej części społeczeństwa. Tutaj jeszcze bym chciała troszkę dodać do tego, co Adrian powiedział, bo Faktycznie w NASKu, w naszym zespole coraz częściej na bieżąco analizujemy różnego rodzaju materiały deepfake, które się pojawiają w sieci i istnieje jeszcze jakby część deepfake’ów, pewien odłam, który jest skierowany stricte do młodych osób i takich deepfake’ów też jest coraz więcej. To są oczywiście oszustwa w większości finansowe, które wykorzystują po prostu deepfake’i do rozprzestrzeniania tej informacji, do wiarygodności, no ale nie są to tylko materiały, które są skierowane np. do starszej grupy, do grupy społecznej w wieku starszym, ale też do młodszych. do osób w wieku 18-20 kilku lat.


Karol:  Jak wygląda wtedy ten mechanizm tego oszustwa finansowego. To jest przekonywanie do wykonania przelewu.


Joanna:  Nie, w takich oszustwach wtedy jest nieco inny schemat, bo dla oszustwa kierowane do starszych obywateli to są przeważnie jakieś inwestycje finansowe, A jeżeli chodzi o młodszych, o młode osoby, to są przeważnie różnego rodzaju gry imitujące kasyno, gdzie za pomocą kilku kliknięć jesteśmy w stanie wygrać kilka tysięcy, jest bardzo łatwa wygrana. i często właśnie osoby publiczne znane temu społeczeństwu, często są np. influencerzy czy youtuberzy, są wykorzystywani do generacji takich syntetycznych postaci właśnie tych influencerów czy youtuberów, aby zachęcić do inwestycji. Nie inwestycji, tylko oszustw finansowych.


Karol:  Jak mawia się o kasynie, wygrać możesz, przegrać musisz.


Michał:  Wbrew pozorom tego typu ataki nie są niczym nowym u swoich takich podstaw, ponieważ one starają się wytworzyć pewną jakąś historię, narrację, pewną opowieść, w którą my możemy uwierzyć. Deepfake jest o tyle niebezpieczny, że on daje bardzo dużą margines wiarygodności, ponieważ wykorzystujemy jakąś znaną nam postać, widzimy, że ona mówi i słyszymy też jej głos. I na tym możemy bazować, że rzeczywiście coś w tym może faktycznie być. Natomiast to, co też cechuje te ataki, które my tutaj obserwujemy, to jest to, że one bazują na wielu takich bardzo prostych socjotechnikach, że pokazują jak niesamowite jest to rozwiązanie, z którym ktoś się w pewnym momencie zderzył. Poza tym wskazują, że to rozwiązanie będzie na przykład ograniczone. Więc musimy podjąć decyzję tu i teraz. Nie możemy się zastanowić, ponieważ będziemy mieli poczucie, że coś straciliśmy. To są właśnie te metody, które nakłaniają te osoby do pójścia właśnie dalej w te sidła cyberprzestępców. I później co się dzieje. Najczęściej oni potrzebują od nas na przykład jakichś danych albo zainstalowania jakichś aplikacji.


Karol:  Czyli socjotechnika połączona z technologią?


Joanna:  Dokładnie tak. Tutaj jeszcze rozwijając ten wątek, dopowiem o ostatnim typie oszustw takich wywierzonych każdego z nas, na które możemy natrafić właśnie na mediach społecznościowych. To są oszustwa typu Farmaceutyczne, medyczne. Czyli ostatnio widzimy trendy, gdzie często oszuści wykorzystują wizerunek albo to ekspertów medycznych, jakichś uznanych lekarzy, czy to nawet osób publicznych, aktorów. Również ostatnio trafiliśmy na wizerunek klerów. którzy to zachęcają do kupna różnego rodzaju lekarstw czy produktów medycznych, które mają ich w jakiś cudowny, twórczy sposób uzdrowić. No i tutaj też jedną z socjotechnik jest to, że jest ta presja czasu, grożą, że zaraz koncerny farmaceutyczne zablokują dostęp do możliwości kupna tego leku, więc to jest jedna kwestia. Tutaj często jeszcze wchodzi taki trochę wątek konspiracji, gdzie jest użytkownik wtajemniczany w taką trochę wiedzę tajemną, że to jest ledwo odkryta nowa procedura, najnowsze badania medyczne wskazują na to, że dany produkt leczy całą Cała dotychczasowa wiedza, która była nam wpajana jest po prostu nieprawdziwa i wystarczy jeden cudowny lek, który nas wyleczy z bólów stawów itd.


Karol:  A jaka jest rola NASK-u w kontekście właśnie walki z deepfake’ami.


Adrian:  Naszą rolą jako, w sumie też nie mówię tak za cały NASK, ale właśnie bardziej jako nasz zespół, żeby też nie wypowiadać się za osoby, których tu nie ma. Ale to jest właśnie przede wszystkim tworzenie narzędzi, które będą pomagały w wykrywaniu tych deepfake’ów i tutaj chodzi o takie narzędzie, które będzie uniwersalne.


Karol:  Narzędzi dla statystycznego Kowalskiego.


Adrian:  Zgadza się, żeby każdy w Polsce mógł sobie zweryfikować, na przykład scrollując Facebooka, czy to jest materiał właśnie jakiś zmanipulowany, czy to jest materiał prawdziwy. Tylko problem jest taki, że obecnie mamy taki troszeczkę, nazwijmy to, wyścig zbrojeń. Z jednej strony tworzone są nowe narzędzia, coraz to lepsze narzędzia i bardziej dopracowane do tworzenia tych manipulacji, Z drugiej strony jako odpowiedź dopiero tworzone jest narzędzie, które wykryje tę manipulację, ten sposób manipulowania materiałem. No i tutaj się pojawia problem, że teoretycznie zawsze ci, nazwijmy to po jasnej stronie mocy, są do tyłu, zawsze są krok do tyłu, bo muszą odpowiadać. My się staramy właśnie prowadzić jakieś narzędzie, które będzie uniwersalne w miarę, chociaż na krótkim takim horyzoncie czasowym wystarczające.


Karol:  I wtedy to jest na przykład rozszerzenie do przeglądarki. Jak wygląda takie narzędzie. Jak wygląda korzystanie z tych narzędzi, które oferujecie.


Adrian:  Znaczy w tym momencie jeszcze nic nie oferujemy, dlatego bo dopiero pracujemy nad tym. Docelowo być może będzie to Być może będzie to jakaś wtyczka, może jakaś dodatkowa aplikacja. My raczej w zespole zajmujemy się tą częścią badawczą, nie marketingowo, taką wdrożeniową, w związku z czym tworzymy model, który po prostu będzie działał. A jak ten model będzie opakowany, żeby był już powiedzmy dostępny, przystępny dla każdego. To już raczej po jakichś rozmowach z osobami, które po prostu się na tym lepiej znają niż my. I myślę, że tak moglibyśmy zamknąć to nasze zadanie. Po pierwsze monitorowanie internetu i współpraca z innymi podmiotami, żeby monitorować właśnie tą przestrzeń publiczną w sieci. I z drugiej strony tworzenie takiego rozwiązania, które swoją drogą póki co zapowiada się nieźle.


Michał:  No i oczywiście też wpływanie na właścicieli danych portali, gdzie takie materiały się pojawiły, o interwencję, żeby w zależności od tego, z czym mamy do czynienia, jeżeli to jest jakaś ewidentna manipulacja na usunięcie takiego.


Karol:  Czyli dobrze rozumiem, że pełnić rolę trochę takiego policjanta w sieci, jeżeli chodzi o autentyczność treści.


Adrian:  Ja bym powiedział donosiciela.


Karol:  Ponieważ sama egzekucja potem leży w rękach już policji służb mundurowych, nazwijmy to tak.


Adrian:  Myślę, że można tak to powiedzieć. Po prostu my wykrywamy te deepfakes, zgłaszamy dalej, a to co dalej się dzieje, to nasza robota jest zrobiona. Wykryliśmy, zgłosiliśmy. Nie jesteśmy właśnie egzekutorami.


Michał:  Tak naprawdę to może się zmieniać z czasem, ponieważ cała gałąź sztucznej inteligencji, do której należy Deep Wake, jest czymś bardzo, bardzo nowym. I tak naprawdę tutaj nas ogranicza, jeżeli mówisz o takiej działalności policjanta, prawo. I to prawo też będzie się zmieniać, ona zmienia się na naszych oczach, ponieważ dostosowujemy się do tego świata, gdzie ta sztuczna inteligencja istnieje. I być może będziemy mieli takie narzędzia, które, nie wiem czy to będzie NASK, czy jakaś podgrupa policji, która będzie rzeczywiście miała jakąś sprawczość w automatycznym blokowaniu takiego typu treści.


Joanna:  To jeszcze dodam do rozwiązań, jakie NASK planuje wdrożyć. To nie jest jeszcze planowane, ale marzy nam się też taka wtyczka na przykład do telefonów komórkowych, gdzie byśmy byli w stanie w czasie rzeczywistym weryfikować materiał. Jeżeli ktoś by chciał, że już mamy jakiś podejrzany telefon, słyszymy nasze dziecko, ale… Sytuacja jest dosyć podejrzana, wciskamy przycisk zweryfikuj głos i jesteśmy w stanie w czasie rzeczywistym weryfikować, czy jest podejrzenie syntetycznego głosu wygenerowanego, czy jest to prawdziwy głos.


Karol:  Słuchając ostatniego podcastu Perplexity, który został stworzony z wykorzystaniem technologii pochodzącej z Eleven Labs, aż trudno mi sobie wyobrazić, że będziemy w stanie rozróżnić ten głos, który nie jest głosem prawdziwym, tylko jest głosem syntetycznym. Czy możecie zdradzić, w jaki sposób to w ogóle się dzieje, skoro ucho ludzkie nie jest w stanie rozróżnić głosu syntetycznego od prawdziwego. A jak to się dzieje na poziomie programu komputerowego.


Michał:  Można powiedzieć, że tutaj działa zasada zwalczaj ogień ogniem, ponieważ przeciwko sztucznej inteligencji, która próbuje nas oszukać, bierzemy na warsztat inną sztuczną inteligencję, która potrafi nas przed takim oszustwem ochronić. I wbrew pozorom to zadanie może być skuteczne, ponieważ Jest wiele wszelakich dziedzin, gdzie już teraz sztuczna inteligencja po prostu jest lepsza w rozpoznawaniu różnych rzeczy niż ludzkie oko i to jest za sprawą tego, że ona może działać przy różnych że tak powiem, danego materiału, rozumieć i patrzeć na nie z perspektywy przeróżnych stron, dzięki czemu ona może po prostu nauczyć się pewnych takich cech, które nam umykają Natomiast sztuczna inteligencja jest w stanie się takim artefaktem, jak my je nazywamy, czyli właśnie takim drobnym cechą, które świadczą o tym, że dany materiał może być nieprawdziwy, przyjrzeć im się i je zidentyfikować i powiedzieć, że tak, to jest właśnie to.


Karol:  A te prace, które prowadzicie, prowadzicie na własną rękę tutaj lokalnie, czy też współpracujecie na przykład z międzynarodowymi organizacjami, prowadzicie wymianę wiedzy, doświadczeń. Jak to wygląda.


Adrian:  Nie wiem na ile możemy się wypowiadać co do tej współpracy, na ile część z nich jest jawna, część nie, ale myślę, że mogę powiedzieć, że głównie skupiamy się raczej w naszym państwie z organizacjami w naszym kraju i tam na tej płaszczyźnie właśnie wymieniamy się jakimiś informacjami, jakimś know-how, staramy się właśnie współdziałać, żeby razem iść do przodu, a nie każda jednostka sama sobie do przodu.


Joanna:  Jeszcze odnośnie tego wrócę. Jak takie metody sztucznej inteligencji, czyli detektory materiałów deepfake działają, to tutaj bym chciała przytoczyć taki przykład dosyć, mam nadzieję, prosty dla słuchaczy. Takie materiały, czy to wizualne, czy audio, to są materiały generowane przez sieci generatywne, czyli przez modele sztucznej inteligencji. Czyli wyobraźmy sobie taki obrazek. Jest to po prostu zbiór pikseli, który się nauczył jak ma wyglądać np. pies na trawie. Póki co ten zbiór pikseli, który jest generowany przez takie modele nie jest idealnym odtworzeniem takiego rzeczywistego zdjęcia, czyli ten rozkład tych pikseli jeszcze nie jest na tyle idealny, dla nas jest to niedostrzegalne, ale modele są w stanie wykryć to, że to jest trochę innego rozkładu, Trochę innego typu są te piksele rozłożone w innym rozkładzie, niż to wyglądało na prawdziwym zdjęciu. Tutaj w ten sposób możemy sobie zrozumieć, w jaki sposób takie detektory sztucznej inteligencji analizują takie materiały i po czym to weryfikują. Po prostu w błędach generacji, po czymś, co nie odwzorowuje świata rzeczywistego.


Adrian:  Właśnie tutaj przypomniałaś mi jedną rzecz, bo dzisiaj mieliśmy spotkanie i właśnie nasza koleżanka Alicja Martinek, którą pozdrawiamy, wspomniała, że właśnie przeglądała sobie te zdjęcia wygenerowane, to co wcześniej było powiedziane, tych osób, które nie istnieją i okazało się, że ja wcześniej tego nie zauważyłem, że te twarze są idealnie symetryczne. I to jest na przykład przesłanka ku temu, że kurczę coś jednak jest nie tak. No i to właśnie może być jedna z przesłanek dla… Trochę łatwo tym zarządzić też. No z jednej strony można, tylko trzeba zadbać o tą spójność jednak, żeby ta oś symetrii w takim razie była całkiem sensowna, żeby ta twarz nie była potem zdemorfowana z drugą stronę, zdeformowana. Więc to jest jednak przesłanek. Czy tam na przykład też istnieją przykłady, kiedy kolczyk chciał się wygenerować bardzo, ale nie mógł i widać tylko taki mały zarys wokół ucha jakiegoś tam diamenciku czy coś. To są właśnie takie też artefakty.


Karol:  A co myślicie na temat rynku wirtualnych influencerów. Jak wirtualni influencerzy mogą wpłynąć na to, co robimy, co kupujemy, jak się zachowujemy albo jakie podejmujemy decyzje w ogóle w naszym życiu.


Adrian:  Jak powiedziałeś wirtualni influencerzy, to mi się zapaliła lampka, bo właśnie wczoraj jak przygotowywaliśmy się na rozmowę z tobą, wspominaliśmy o takim przypadku, gdzie też nie pamiętam jak się nazywa ta gwiazda, nie jest na pewno z naszego polskiego rynku, ale oferuje sprzedawanie swojej kopii. To znaczy jacyś tam data sciencyści tworzą model sztucznej inteligencji, który to na podstawie tekstu, znaczy to jest model językowy, który ma odpowiadać, ma oddawać charakter tej gwiazdy, tego influencera, w zasadzie influencerki. i potem kupując taki dostęp do tej aplikacji, kupujący ma mieć wrażenie, że po pierwsze rozmawia z tą gwiazdą, z tą influencerką, po drugie może ją poprosić o zdjęcie, nie wnikajmy już jakie i po trzecie ma mieć poczucie takiego kontaktu i to chyba kosztuje ze 120 dolarów miesięcznie, więc to jest Nie wiem na ile to jest rentowne, czy to się zwraca, czy nie, ale już takie coś istnieje i ma się chyba dobrze.


Karol:  Coś jeszcze chcecie uzupełnić.


Adrian:  Mamy jeszcze chociażby influencerów AI takich na Instagramie, co nie pamiętam ile tam ma obecnie followersów, ale to jest chyba Lil Miquela się nazywa ten profil na Instagramie i identyfikuje się jako robot z Los Angeles bodajże. No i to jest właśnie jakiś wygenerowany byt, ktoś sobie to prowadzi, wykorzystuje cały czas jeden wizerunek, tutaj zmienia fryzurę, tutaj zmienia ubranie, no i faktycznie to zarabia na siebie.


Karol:  Sam nie widzę problemu, kiedy mówi się w sposób otwarty o tym, że influencer jest wirtualny, ale wyobrażacie sobie taką sytuację, w której będziemy fanami różnych postaci, bez względu na to, czy to będzie kobieta, mężczyzna, pies, kot wirtualny. i będą mieli wpływ na to, co robimy, jak się zachowujemy. Jesteście w stanie sobie wyobrazić taką sytuację, że będzie zastęp wirtualnych influencerów, którzy będą wpływali na nasze decyzje.


Michał:  Szczerze powiedziawszy, wydaje mi się, że już coś takiego jest. Spójrzmy sobie na postaci z różnej fikcji czy fantazji.


Karol:  Czy to filmy, czy seriale, one w jakiś sposób kreują naszą rzeczywistość i wpływają na to, jak my z nią… Ale to jest, wydaje mi się, element kultury, a tutaj mówię o takim świadomym ukierunkowaniu zachowania i przekazu, który potem jest na, nazwijmy to, tapecie tych influencerów, który ma prowadzić do określonych zachowań.


Michał:  Z pewnością będzie to jakaś forma reakcji może tak powiem na to, co męczy dzisiejsze społeczeństwo, ponieważ szczególnie wśród młodzieży, młodych ludzi jest wielka epidemia samotności i tego typu narzędzia znajdują zdecydowanie w tej przestrzeni niszę, no bo to jest bardzo….


Karol:  I kontakt z drugim człowiekiem, prawdziwym człowiekiem może okazać się dobrym lub luksusowym.


Michał:  Nawet nie wiem czy dobrym lub luksusowym, ponieważ ono jest trudne, ponieważ tutaj musimy sprowadzać się do jakichś kompromisów, musimy uczyć się w jakiś sposób tej relacji, a możemy zamiast tego kupić sobie wirtualnego człowieka skrojonego na nasze potrzeby, który będzie zawsze dla nas Dobry zawsze dla nas wygodny pod tym względem.


Adrian:  Za jedyne 60 dolarów miesięcznie.


Michał:  Natomiast ja słyszałem o takich firmach, które już coś takiego wprowadzają i inkasują olbrzymie pieniądze.


Adrian:  A to właśnie jest ta kwestia, bo po pierwsze, nawiązując do początku twojej wypowiedzi, ja jestem akurat olbrzymim sceptykiem co do tego, że będziemy jakoś inaczej traktować, znaczy w zasadzie będziemy inaczej traktować jakieś prace wykonane przez AI, czy to właśnie… jakiś byt, czy to jakiś obraz i stworzona fikcja, która została stworzona przez człowieka, myślę, że zawsze będzie zupełnie inaczej traktowana niż fikcja stworzona przez sztuczną inteligencję, co prowadzi nas z kolei do tego, że myślę, że rękodzieło będzie dużo bardziej w cenie i każda praca wykonana przez człowieka będzie po prostu bardziej ekskluzywnym towarem.


Jestem absolutnie tego samego zdania. A co do samych tych, nie wiem jak to nazwać, przyjaciół AI, no to faktycznie są teraz takie, tylko po pierwsze, czy chcemy nasze zdrowie psychiczne powierzać jakiemuś komputerowi, tak jak kiedyś była ta wirtualna terapeutka Eliza z tych początków tych chatbotów, To teraz mamy efekt Elizy, który właśnie nawiązuje do tego, że ktoś może odczuwać jakieś emocje do tego bytu. No i powiedziałem, wtrąciłem się wcześniej, że za jedyne 60 dolarów miesięcznie możemy sobie rozmawiać z taką osobą wirtualną. To faktycznie jest, to faktycznie działa, nawet sobie testowałem.


Możesz sobie z taką osobą rozmawiać, ta osobą, z takim wirtualnym asystentem. sobie porozmawiać, odpyta jak tam ci minął dzień, wszystko fajnie i nagle nie wiadomo skąd zapyta się, hej, czy chcesz moje zdjęcia w bieliźnie. No i mówi, że nie, no to okej, wszystko w porządku. Mówi, że tak, no to płać 60, żeby odblokować flirtowanie. I to tak działa. No i faktycznie myślę, że to ma duże grono odbiorców. No i wtedy tak sobie zarabiają, ale to jest właśnie problem osób, które są bardzo samotne i mają problem, żeby wyjść do innych ludzi. Chociaż myślę, że teraz na grząski teren strasznie stanąłem i chyba się chce z niego już wycofać.


Joanna:  Jeszcze odnośnie samych sztucznie generowanych influencerów. Mam tutaj takie pewne obawy związane na przykład z dezinformacją, czy z kreowaniem społeczeństwa, czy nastrojów społecznych za pomocą takich postaci. Osobiście boję się, że w pewnym momencie się zatrze ta granica między między realnym światem, a tym wygenerowanym i wyobrażam sobie sytuację, gdzie mamy jakichś influencerów, czy postaci w mediach społecznościowych, które są wygenerowane, jednak które nam na tyle przypadły do gustu, że są w stanie w jakiś sposób sterować naszymi decyzjami. To jest właśnie trochę też nawiązanie do tego, co Michał powiedział, że już od dawna mamy fikcyjnych bohaterów i załóżmy, jeżeli dany aktor gra główną postać w naszym ulubionym w ulubionym materiale, filmie itd., to często później jego obserwujemy i jakoś jest w stanie wpływać na nasze nastroje czy poglądy.


Adrian:  I myślisz, że taki wygenerowany byt faktycznie by mógł też tak na człowieka wpłynąć. Ja jestem totalnie przeciwnikiem tego podejścia, totalnie antyfanem.


Joanna:  Ja wyobrażam sobie, że… że jest taki scenariusz realny.


Adrian:  Może bym to uzupełnił, że istnieje grupa docelowa, która by się tym zainteresowała.


Joanna:  No bo przecież nawet taki aktor, czy celebryta, którego obserwujemy, to jest człowiek, jego decyzje mogą być kreowane przez marketingowców itd. i będzie wpływał jakoś na nasz odbiór świata. Więc czym się różni aktor, który gra w ulubionym naszym serialu, którego tak naprawdę nie znamy, ale wygłasza jakieś opinie i wpływa na nas, od influencera wygenerowanego przez sztuczną inteligencję, który również trafił do naszych serc, bardzo nam się podoba jego żart, jego merytoryka i jest w stanie wpływać na jakiś nasz światopogląd.


Adrian:  Dlatego, że to jest model wytrenowany na jakichś danych, który nie jest bytem organicznym, tylko bytem cyfrowym. Ja osobiście to strasznie właśnie rozdzielam sobie, że obecnie modele językowe jak są wytrenowane, one są po prostu wytrenowane na wielkim zbiorze danych i bardzo spłaszczając to, co teraz mówię, to losowane jest kolejne słowo na podstawie poprzednich. Jeżeli ja jestem powiedzmy tym influencerem i sobie chcę komuś nagrać rolkę na Instagramie i moi fani potem mają to oglądać i na przykład też pójść zdobyć ten sam szczyt góry co ja, No to po pierwsze to była moja decyzja, po drugie ona raczej nie była losowa, chyba że jestem totalnym świrem, ale też świrem żyjącym. I marketerzy, ludzie od marketingu i PR-u, bądź komputery, bo akurat tutaj nie mam z tym problemu, mogą mi tylko powiedzieć, że to jest głupi pomysł, ale faktycznie jako organizm żyjący, Pójdę i to zrobię, a w takim razie jak jestem takim komputerem, takim programem komputerowym, no to to jest tylko jakiś schemat działania, który ma optymalnie dojść od początku do końca. Takim celem takiego influencera AI będzie w jak najbardziej optymalny sposób zdobyć jak największą rzeszę fanów. Faktycznie to jest zbieżne z celami człowieka, tylko gdzie tu jest właśnie te człowieczeństwo. Ja bym nie chciał naśladować komputera, ani traktować jako autorytet żadnego bytu cyfrowego. Nie wyobrażam sobie tego.


Joanna:  Adrian, ja się z tobą w stu procentach zgadzam i oczywiście my mamy tą wiedzę, że są to po prostu modele statystyczne, matematyczne, które… odzwierciedlają zachowanie ludzkie, jednak osoby, które nie pracują w IT i nie są związane z tematem albo nie interesują się tym, nie mają tej wiedzy, dlatego tutaj edukacja jest kluczowa, żeby społeczeństwo edukować w tym zakresie, żeby byli w stanie odróżniać i mieć świadomość, czym się różni ten prawdziwy świat od tego wygenerowanego. My mamy tą świadomość, że taki influencer to jest tylko model matematyczny, ale obawiam się, że dużo osób, które nie siedzą w tej dziedzinie, nie mają takiej świadomości i u nich ten realizm z… generatywną AI może być zatarta w jakiś sposób.


Adrian:  Tu faktycznie muszę Ci przyznać rację, że ten antropomorfizm skryptów, co bardzo często wykorzystuję, to stwierdzenie, swoją drogą Michał siedząc obok mnie to pierwszy raz mi powiedział, mi się spodobało, to jest fakt, który jest na potęgę, że faktycznie ludzie jakoś dziwnie mają tendencję do przypisywania cech ludzkich do tego AI. No i właśnie jak tworzymy, już nawiązując do naszego tematu rozmowy, tworząc właśnie te zdeepfake’owane, te wygenerowane byty, mimo tego, że wiemy gdzieś z tyłu głowy, że to jest tworzone przez sztuczną inteligencję, która obecnie nie jest jakoś super bardzo rozwinięta. Po prostu jest fajna, jak możemy sobie spisać z takim czatem, no to bardzo nadaje nam immersji, że mamy z tym kontakt. No ale właśnie Osoby, które się tym bardzo nie interesują, no to potrafią niestety nadawać te cechy ludzkie temu skryptowi.


Karol:  W kontekście naszej rozmowy tematu deepfake’ów, kiedy przygotowywałem się do naszego spotkania, pojawiły się jeszcze dwa hasła. Relacja 5.0 i efekt Eliza.


Adrian:  No to faktycznie już efekt Elizy to wcześniej poruszyłem, a co do tej relacji 5.0, to jest też kolejna definicja, która powstała, czyli właśnie w zasadzie to do tego nawiązujące, co przed chwilą mówiłem, czyli odczuwania jakichś emocji do tego komputera. Na przykład teraz byliśmy świadkami całkiem niedawno, tej premiery czatu GPT 4.0. No i w tym przypadku mamy do czynienia z modelem, który bardzo szybko nam odpowiada na podstawie syntezy głosu, co prowadzi mnie do…


A, jeszcze jedno. Jest ta synteza głosu i… Ta synteza jakoś jest dziwnie moim zdaniem aż za bardzo taka nacechowana emocjami.


Przerysowana trochę. Przerysowana właśnie i tam na tej prezentacji tam mówili, że jesteś super i w ogóle do tego bota. On odpowiadał, że o dzięki. No i myślę, że dajcie im dwa lata, trzy pierwsze próby ślubu z chatem GPT już będą prawdziwe. I to myślę, że to jest właśnie ta relacja 5.0, czyli odczuwanie emocji do komputera. Swoją drogą jeszcze, wracając do tych deepfake’ów i odczuwania też jakichś emocji, jest taka platforma internetowa, gdzie też trochę influencerska, powiedzmy tylko z branży, nie wiem, bardziej pornograficznej nazwijmy to, gdzie osoby za pieniądze nadają dostęp do swojego walla na tej platformie i wysyłają tam jakieś zdjęcia różnego typu i fani mogą właśnie je sobie oglądać. No i był taki przypadek, gdzie chłopak na chyba reddicie żalił się, że okazało się, że jego ulubiona gwiazda, której płacił jest sztuczna i tak naprawdę nie istnieje i to jest tylko wygenerowany byt. Na początku właśnie nikt się do tego nie przyznawał, ostatecznie jakoś to wyszło. No i chłopak był bardzo zawiedziony, że zakochał się i bardzo komplementował po prostu obrazki, które zostały wygenerowane przez obcą mu osobę.


Michał:  Tak, to mi się wydaje, że to jest pewne takie ryzyko w kontekście szerzenia informacji na temat tej technologii. I tutaj chyba my popełniliśmy błąd w samym jej nazwaniu jako sztuczna inteligencja, ponieważ ona automatycznie zdaje się być jakąś, No właśnie kreocją, która żyje, która myśli, która czuje, tak sobie trochę interpretujemy to istotę, która jest inteligentna, prawda. Natomiast no właśnie to jest to, o czym my tutaj rozmawialiśmy, że to nie do końca tak jest, to tylko udaje to, a w gruncie rzeczy to jest tylko i wyłącznie program komputerowy. Natomiast ja spodziewam się i tutaj nawet jak rozmawialiście, zgadzam się z tym, że jest bardzo dużo ludzi, którzy nie zdają sobie po prostu z tego sprawy, ponieważ są przyzwyczajeni do tego, że rozmawiają tekstem ze swoimi znajomymi, oni im odpowiadają i to wszystko ma sens, po czym logują się do właśnie takiego czata i on robi dokładnie to samo. I to tworzy takie złudzenie, faktycznie tworzy takie złudzenie tego, że po drugiej stronie rzeczywiście jest coś, co myśli i czuje. I właśnie tutaj leży ta antropomorfizacja takiej sztucznej inteligencji.


Joanna:  Mówisz tekstem, ale przecież jeszcze lada moment i będzie to płynny dźwięk, już nawet czadwiktino. była demonstracja, dźwięk najprawdopodobniej z wizą. Wyobrażam sobie, że już takie modele językowe będą w pełni imitowały osoby, z którą rozmawiamy na przykład na Zoomie czy na Skype’ie.


Karol:  Słuchajcie, zatem kogo czytać, kogo śledzić. Czy możecie polecić jakieś interesujące źródła. nask.pl Może przychodzi wam do głowy jakaś książka, opracowanie, artykuł naukowy, praca naukowa.


Adrian:  Ciężko stwierdzić.


Joanna:  A w jakiej tematyce. Generatywna AI jest bardzo, bardzo szeroka.


Karol:  Rozmawiamy o deepfake’ach, więc pytam o deepfake’i właśnie.


Adrian:  Ja myślę, że jeżeli chodzi o… Pytanie, czy tu chodzi o właśnie jak się bronić, na to zwracać uwagę, czy bardziej techniczne podejście.


Karol:  Pytam bardziej o źródła, z których Wy korzystacie i które Wy śledzicie po to, żeby być na bieżąco. To….


Adrian:  Tak naprawdę to jak już wchodzisz w ten świat deepfake’ów i gdzieś jakieś artykuły zaczynasz przeglądać, to powstaje wokół ciebie bańka, jak w każdej społeczności. I my po prostu już jesteśmy w takiej bańce, że my otwieramy Linkedina czy otwieramy jakikolwiek przeglądarkę, to nam zaraz po prostu wyskakuje mnóstwo nowych opcji, które nawet my nie musimy się starać, żeby na to trafiać, nam to po prostu wychodzi już z lodówki. te nowe techniki, ale jeżeli żeby być tak na bieżąco, to nie ma takiego sposobu, żeby być tak naprawdę cały czas up to date. Trzeba po prostu co jakiś czas zobaczyć sobie, czy jakiś artykuł wyszedł, czy coś, a tak naprawdę taka wiedza skumulowana, to właśnie jest dobrze nazwane, skumulowana, to jest mnóstwo artykułów na różny temat, które zostały po prostu zagregowane i jakoś tam sobie to wszystko łączymy, dodatkowo uzupełniając to swoimi własnymi badaniami. Nie ma chyba takiej.


Michał:  Tak, wydaje mi się, że ta wiedza jest mocno rozproszona po całym świecie i różnych instytucjach i czasami pojawiają się takie zbiorcze prace na temat tego problemu. Czasami firmy zajmujące się cyberbezpieczeństwem w ogóle, na przykład McAfee, publikują takie materiały podsumowujące jakiś tam wycinek czasu. I można takie strony śledzić. Natomiast jeżeli chodzi o pojedyncze osoby, polecam Piotra Kawa.


Joanna:  U nas, tak jak koledzy powiedzieli, najczęściej my jakby zagłębiamy się w ten świat i analizujemy ten świat za pomocą czytania artykułów naukowych, co jest średnio przystępne dla przeciętnego obywatela. No i ze względu też na to, że brakuje właśnie takich materiałów, tę małą reklamę zrobię. My zamierzamy nagrać webinar na na YouTubie, który będzie takim kompetentem wiedzy na temat deepfake’ów. Będziemy omawiać typy deepfake’ów, metody do generowania, będziemy poruszać case study w Polsce i na świecie, będziemy mówić, informować jak nie dać się oszukać, będziemy opowiadać o różnego typu błędach generacji, które jesteśmy w stanie sami wykryć lub na przykład socjotechniki, które są wykorzystywane w takich materiałach i jak nie dać się oszukać. Więc lada moment będziemy mogli polecić materiał, który faktycznie będzie przystępny dla każdego i będzie pewnym kompeteniem wiedzy na temat materiałów BitWake i zagrożenie z jakimi jest to związane.


Adrian:  Ale jeszcze dla szanownych słuchaczy, którzy są zniecierpliwieni taką powierzchowną wiedzą, to zapraszam do właśnie webinaru, w którym występował Michał Ołowski, który siedzi po mojej lewej stronie. Jest to cyber tematycznie właśnie na temat deepfake, można znaleźć to na YouTubie. Mamy też artykuł na Akademii NASK, który też mówi o deepfake’ach.


Karol:  Pytanie bardzo praktyczne. W jaki sposób statystyczne Kowalski bądź pani Kowalska mogą zorientować się, że coś co widzą, coś co konsumują, czy bez względu na to, że to będzie obraz, czy to będzie wideo jest deepfake’iem.


Joanna:  Ja sobie wyobrażam, że taki chyba najczęstszy przypadek, gdzie możemy się natknąć na takie materiały, to są materiały audiowizualne na mediach współczesnych, które nas zachęcają do jakiejś aktywności, czy to kliknięcia w link, czy rejestracji na formularz, przez formularz, aby potem konsultant się do nas odezwał na kwestie jakiejś inwestycji finansowej i często do tych materiałów są wykorzystywane sławne osoby, które jesteśmy w stanie rozpoznać z twarzy i głosu.


Są one deepfake’owane. Deepfake’owane są najczęściej za pomocą metody lip-sync, czyli Jest dany materiał wideo, który jest prawdziwy, jest generowany głos, czyli jest generowany audio deepfake, treść, którą oszust chce przekazać, a następnie dochodzi do synchronizacji tego audio deepfake’a, czyli nagranego sztucznie wygenerowanego głosu z prawdziwym wideo. No i wtedy mamy po prostu synchronizację ust z wygenerowaną treścią. No i tam pojawia się masa artefaktów w takich materiałach. Najczęściej są różnego rodzaju rozmycia wokół ust lub na przykład nienaturalnie ostre zęby. To ostatnio się pojawił taki model, który właśnie zbyt wyostrza zęby na takim nagraniu. Jeżeli na przykład jest jakiś mikrofon albo jakiś inny atrybut postawiony przy twarzy, to często na przykład ta twarz może nachodzić na ten atrybut, na przykład mikrofon, który się rusza razem ze szczęką. Rozmazanie geometrii twarzy, zmiany geometrii twarzy Co do samych, tak, to są na przykład tego typu artefakty.


Michał:  Michał. Zauważyliśmy też ostatnio, że cyberprzestępcy starają się chyba walczyć nie tyle co z uważnością bezpośrednich ofiar, co właśnie z nami i próbują nam przeszkodzić w rozpoznawaniu takich materiałów przez dodawanie różnego rodzaju specyficznych specyficznego tła albo jakiegoś takiego znaku wodnego. Obraz może być specyficzny w dziwny sposób zniekształcony. To wszystko oczywiście ma na celu, żeby jakieś narzędzie, które analizuje taki materiał się po prostu pomyliło. Natomiast nas może to bardzo bezpośrednio zalarmować, że coś tu jest nie tak.


Joanna:  Dodatkowo też warto zwrócić uwagę na kwestię taką, że często na takich materiałach na przykład gestykulacja czy ruchy ciała nie pasują do wypowiadanej treści. Jest to bardzo trudno po prostu dopasować, wybrać odpowiednie wideo, które będzie adekwatne do tego, co oszust chce wygenerować, więc warto też na to zwracać uwagę. Oczywiście tutaj bardzo ciężko zachować kompromis między paranoją a zdrowym rozsądkiem. Jeszcze co do samego audio, kiedy jest wygenerowana taka sztuczna mowa, warto zwracać uwagę na bardzo częste błędy generacji związane chociażby z liczebnikami. Często po prostu liczebniki są źle wypowiadane, wygenerowane tak naprawdę za pomocą tych metod sztucznej inteligencji. Często pojawiają się jakieś akcenty w trakcie wypowiedzi. Często jest akcent rosyjski lub w ogóle jest zmiana języka mowy w trakcie wypowiedzi na różnego rodzaju egzotyczne języki.


Michał:  Też myślę, że tutaj ważny jest kontekst. Na przykład jeżeli widzimy materiał, który jest ewidentną rozmową w radiu, po czym prezenter zachęca do kliencia w link, to nie spodziewam się, żeby coś takiego znalazło się w radiu. I możemy mieć wiele takich drobnych poszlak, że coś z tym materiałem jest nie tak. I w tym momencie zachęcałbym, żeby po prostu poszukać. Poszukać tych informacji, poszukać tego nagrania, może inną kamerą. My tak szukając informacji na temat różnych materiałów, które do nas docierają, żeby je zweryfikować, właśnie w ten sposób postępujemy. I wiele takich zdawałoby się podejrzanych materiałów, Dementowaliśmy, ponieważ one były zrobione słabej jakości kamerą, z dziwnego kąta. Jeszcze dodatkowo sam dźwięk był przesunięty w czasie do wizji, przez co to niedopasowanie ust było widoczne, ale okazało się, że to było po prostu zwykłe nagranie, ponieważ znaleźliśmy inne źródła, które przedstawiły właśnie to zdarzenie. Więc weryfikacja w takich momentach jest myślę wydaje kluczowa, bo jeżeli coś jest publiczne to z pewnością znajdziemy je w wielu innych miejscach.


Karol:  Czyli kontekst i sprawdzamy.


Joanna:  Jeszcze w kontekście takich oszustw finansowych czy różnego rodzaju phishingu. gdzie są wykorzystywane materiały deepfake, na przykład audiowizualne, no to najczęściej w poście takim jesteśmy zachęcani finalnie do albo kliknięcia w link, albo wypełnienia jakiegoś formularza rejestracyjnego, co też powinno nas nakłaniać, aby ta czerwona lampka się zapaliła i sprawdzić to, zweryfikować. Też takie linki możemy wysyłać i nawet takie materiały na stronę CERT-u, oni dokonują takiej weryfikacji.


Karol:  Świetnie, dołączmy to do notatek.


Joanna:  Czy jest to prawdziwy link, czy próba oszustwa, więc należy zgłaszać takie podejrzane posty, wiadomości, ponieważ oni to też są w stanie szybko zweryfikować. My dostajemy od razu odpowiedź, a dodatkowo takie strony są blokowane, więc już chronimy… drugą część społeczeństwa, która jeszcze nie trafiła na ten materiał.


Michał:  Zgadzam się. To jest świetne rozwiązanie dla osób, które nie mają styczności z światem cyberbezpieczeństwa, żeby po prostu zostawić to fachowcom.


Joanna:  Miejmy też uwagę, że często właśnie takie zaawansowane oszustwa finansowe, tam cała otoczka jest dosyć profesjonalna, czyli nie tylko mamy wygenerowany deepfake, czyli na przykład jakiegoś znanego polityka, do którego mamy zaufanie, który zachęca nas do wzięcia udziału w jakiejś inwestycji finansowej, ale też przekierowanie na przykład na stronę docelową. Strona docelowa też wygląda bardzo profesjonalnie, później konsultant do nas dzwoni po wysłaniu formularza rejestracyjnego, również brzmi bardzo profesjonalnie. Często też jesteśmy w stanie znaleźć na jakichś fejkowych stronach, które mogą imitować np. onet.pl, gdzie są pozytywne informacje na temat tej inwestycji. Więc tutaj też ta cała otoczka może dosyć wyglądać realistycznie i prawdopodobnie jednak i tak zachęcam, jeżeli trafimy na taki materiał, gdzie zachęca nas się do wykonania jakiejś czynności, kliknięcia w link czy tak dalej, weryfikujmy to.


Adrian:  Więc podsumowując, deepfake dotyczy nas wszystkich. My możemy być oszukani, tak samo nasze cechy mogą zostać wykorzystane, żeby oszukać kogoś innego. Dlatego starajmy się tą wiedzę rozszerzać, propagować ją i edukować osoby, które mogą być z tym tematem niezaznajomione.


Karol:  Joanno, Adrianie, Michale, dziękuję wam serdecznie za to spotkanie, dziękuję za rozmowę, dziękuję za waszą pracę, ciekawość i działanie ku temu, by żyło nam się działało w sieci bezpieczniej. Dziękujemy również.


Joanna:  Ja też również bardzo dziękuję.


Karol:  Dziękuję. I niech AI będzie z nami wszystkimi.