Rozwiązanie problemu z deepfake już istnieje - TEDx (film, 14m)
TEDx Talks w swoim najnowszym wystąpieniu porusza kontrowersyjny temat deepfake’ów i ich wpływu na społeczeństwo. Prelegentka, będąca ekspertem w dziedzinie sztucznej inteligencji, zaczyna od wyobrażenia sobie idealnej sytuacji wyborczej, gdyż to w tym kontekście mocno podkreśla konsekwencje dezinformacji. Jej słowa tworzą obraz świata, w którym jednym nagraniem można zniszczyć reputację człowieka lub także ukryć swoje własne błędy. Proszę Państwa, to, o czym mowa, jest rzeczywistością, w której żyjemy, a technologia w łatwy sposób może być wykorzystana do manipulacji.
W dalszej części swojego wystąpienia, prelegentka przedstawia, jak deepfake może być wykorzystywany do tworzenia dezinformacji, a także jakie kroki można podjąć w celu zabezpieczenia się przed jego negatywnymi skutkami. Zachęca do sceptycyzmu i weryfikacji informacji, podkreślając jednak, że emocje mogą często wpłynąć na naszą zdolność do krytycznego myślenia. Wyjaśnia, że obecność emocji może utrudniać jawne analizowanie materiałów i może prowadzić do podejmowania rash decisions.
Prelegentka dzieli się również szokującymi przykładami ofiar deepfake’ów, wskazując, jak łatwo można zrujnować życie niewinnych ludzi. Opowiada historię Wiktorii, która padła ofiarą deepfake pornography, co pokazuje, że niektóre skutki tej technologii są tragiczne. Wspomina, że takie sytuacje dotykają nie tylko celebrytów, ale także zwykłych ludzi, którzy mogą stać się ofiarami bez ich zgody.
Rozwiązaniem, które prelegentka podaje, jest potrzeba edukacji technologicznej, która powinna być skierowana do różnych grup wiekowych – od dzieci, przez młodzież, aż po seniorów. Uczy, jak korzystać z technologii odpowiedzialnie i co robić w przypadku spotkania się z dezinformacją. Zwraca uwagę na to, że sama technologia, która może być wykorzystana w krzywdzący sposób, również ma swoje pozytywne zastosowania w różnych dziedzinach, takich jak opieka medyczna.
Podsumowując swoje przemówienie, TEDx Talks podkreśla, że odpowiedzialne korzystanie z technologii i przeszkolenie społeczeństwa jest kluczowe w walce z dezinformacją. W tej chwili film ma 1152 wyświetlenia oraz 30 polubień, co świadczy o rosnącym zainteresowaniu tematem sztucznej inteligencji i jej skutków w codziennym życiu. Prelegentka wystąpiła do widowni z apelem o naukę i świadome korzystanie z owej technologii, aby zminimalizować szkodliwe działania w tej dziedzinie.
Toggle timeline summary
-
Wprowadzenie i prośba o wyobrażenie sobie przyjemnego scenariusza.
-
Opis przytulnego otoczenia w domu w piękną niedzielę rano.
-
Szczególne wydarzenie, podczas którego wybiorą silnego lidera.
-
Podkreślenie znaczenia reputacji i szacunku kandydata.
-
Ujawnienie wycieku nagrania dotyczącego jednego z kandydatów.
-
Nagranie zaczyna stawać się viralowe, budząc obawy co do jego autentyczności.
-
Po wycieku następuje niezadowolenie wyborców prowadzące do protestów.
-
Kandidat zaprzecza, że wypowiadał takie słowa.
-
Kandidat wygrywa wybory w atmosferze chaosu.
-
Dyskusja na temat rzeczywistego scenariusza dezinformacji.
-
Łatwość w szkodzeniu czyjejś reputacji przy pomocy technologii.
-
Mówca pracuje z algorytmami AI od dekady.
-
Technologia deepfake jest wprowadzana i wyjaśniana.
-
Mówca omawia, jak chronić się przed dezinformacją deepfake.
-
Deepfake często prowadzi do silnych reakcji emocjonalnych.
-
Zachęcanie do sceptycyzmu i weryfikacji w obliczu deepfake.
-
Osobista historia ofiary pornografii deepfake.
-
Dyskusja na temat szerszych implikacji nadużywania deepfake.
-
Apel o edukację technologiczną jako rozwiązanie w walce z deepfake.
-
Potrzeba wszechstronnej edukacji skierowanej do wszystkich grup wiekowych.
-
Uznanie trwałego wpływu szkód związanych z technologią.
-
Wzmianka o korzystnych zastosowaniach AI w opiece zdrowotnej.
-
Końcowa prośba o edukację i świadomość.
Transcription
Ja zacznę od takiej malutkiej prośby do Państwa. Ja bym chciała, żebyśmy wyobrazili sobie taką przemiłą sytuację. Siedzimy sobie na kanapie albo jakimś naszym ulubionym fotelu w domu. Pijemy sobie herbatkę albo kawę. Jest piękny niedzielny poranek. I ta niedziela jest wyjątkowa, dlatego że w ten dzień wybierzemy kogoś, kto żelazną ręką będzie bronił wszystkich naszych interesów. Będziemy wybierać kogoś, kto będzie budził postrach u polityków w Polsce i za granicą i kogoś, na kogo samo nazwisko będzie wywoływało respekt i szacunek, czyli prezydenta. Cieszę się, że się Państwo zaśmiali. Nie byłam pewna, więc w razie co przygotowałam się też na inne opcje polityczne. I nagle wszystkie stacje podają do wiadomości, że do sieci wyciekło nagranie jednego z kandydatów, który o swoich wyborcach powiedział coś takiego. Weź sprzedaj te pieniądze. Nie no, nikt się nie zorientuje z tymi sztucznymi kretynami. Jeszcze nie potrafią postawić krzyżyka w krawce obok nazwiska, to tym bardziej się nie doliczą. No nieprzyjemnie, ale nagranie powoli wirusowo jest odsłuchiwane w kolejnych domach, jest podawane dalej. Ktoś tam wspomina, że to nagranie mogło być fałszywe, że mogło być zrobione przy pomocy sztucznej inteligencji, bo to on takimi pierdołami ogólnie przejmował. No i słysząc o takim ataku na demokrację, wyborcy tego kandydata wychodzą na ulicę. Dochodzi do zamieszek, ignorują całkowicie ciszę wyborczą. Kandydat wychodzi na konferencję prasową, mówi, że absolutnie nigdy niczego takiego nie powiedział, że to jest spreparowane. W tym momencie jego wyborcy wszczynają jeszcze większe zamieszki. A kandydat na fali takiej reakcji wygrywa te wybory. A wszystko to wydarzyło się przez jedno nagranie, które było prawdziwe, bo ten kandydat naprawdę powiedział te słowa, tylko w dobie deepfake'ów i sztucznej inteligencji nigdy nie musiał się do tego przyznawać. I ten świat, który ja teraz państwu opisuję, to nie jest hipotetyczny świat. To jest świat, w którym żyjemy już teraz. Świat, w którym w minuty możemy zniszczyć reputację jakiegoś człowieka. Albo świat, w którym osoby takie jak ten kandydat nigdy nie otrzymają za swoje słowa kary. W którym z jednej strony boimy się, że ta sztuczna inteligencja nami zawładnie, ale zapominamy o tym, że jej algorytmy rządzą już nami od jakiegoś czasu. Ja personalnie mam niezwykłe szczęście i przyjemność pracować właśnie z tymi algorytmami. Pracuję z nimi od prawie dekady. I w trakcie tej dekady jeden z tematów był przytaczany wyjątkowo często. Tym tematem był właśnie mój tytułowy deepfake. I to jest takie mityczne stworzenie, które bardzo lubią moi studenci, dlatego że ona ma bardzo przyjazną nazwę, bo z tej nazwy w trakcie deepfake minusnego da się coś tam wyszyć i zdekodować, co mniej więcej oznacza ten termin. Mianowicie ten kawałek deep odnosi się do głębokich sieci neuronowych. Nie będę państwa zaznudzać, ale to jest język najbardziej popularnych algorytmów w sztucznej inteligencji. Natomiast fake oznacza coś fałszywego. Właśnie np. człowieka z nagrania, który nigdy nie powiedział jakichś słów albo człowieka, który w ogóle nigdy nie istniał. I w rozmowach o deepfake ramię w ramię idzie jeszcze takie pytanie, to znaczy jak się przed tym deepfake chronić. I odpowiedź na to pytanie, która też jest sednem mojej prezentacji, ona jest trywialnie prosta, ale też jest trudna do przełknięcia. No ale na tą odpowiedź jeszcze sobie chwileczkę poczekamy, bo najpierw musimy trochę głębiej zrozumieć problem. To znaczy co to w ogóle znaczy to ochronić. Tak jak ten deepfake jest przeciwko nam wykorzystywany. I na to pytanie najbardziej oczywistą odpowiedzią jest dezinformacja. My używamy technologii do tego, żeby wykreować nową rzeczywistość, żeby wprowadzić ludzi w błąd po to, żeby najczęściej uzyskać od nich po prostu jakieś silne emocje i silne reakcje. I w przypadku takiego użycia deepfake'a, czyli tej dezinformacji, często podazwanym rozwiązaniem jest sceptycyzm. To znaczy bardzo powinniśmy weryfikować absolutnie wszystko, co wpada w nasze ręce. I internetowi guru AI mówią często, że możemy to weryfikować w taki sposób, że w nagraniach audio czy wideo będziemy szukać jakiegoś lekko sztucznego głosu, jakichś problemów z okularami, z palcami. Jeszcze inni mówią na przykład, że to się w ogóle nie sprawdzi, bo technologia już dawno rozwiązała te problemy. Ale warto pamiętać i to musimy sobie zakodować, że w takich sytuacjach kluczem nie jest aż tak bardzo jakość technologii. Jest nim nasze serce. Bo silne emocje działają na naszą niekorzyść. One często przejmują nasze stery. I wie to każdy z nas, kto chodził zafrasowany, bo na przykład jakiś Andrzej z Pod Trójki kupił sobie samochód i my nie do końca z tym zgadzamy i to lubimy, ale wie to też niestety na przykład każda mama, która otworzyła sobie rano Instagrama i zobaczyła jak jakaś celebrytka na Instagramie obudziła się o 5 rano, zrobiła płatki śniadaniowe ręcznie dla swoich dzieci, zrobiła to w czystej pięknej kuchni, wstawiła to potem jeszcze na Instagrama, nagrała to. No a to, że ten zegarek u influencerki to wskazywał 13, a nie 5 rano, to kogo by tam interesowało w sumie. Silne emocje działają w walce z deepfakami na naszą niekorzyść, też w szczególności, kiedy ktoś chce nas po prostu personalnie zaatakować, na przykład podszywając się pod naszych bliskich, pod naszych pracowników. Dlatego niektórzy przychodzą do nas ze wsparciem w postaci narzędzi, takich detektorów, które mogą wykryć, czy coś zostało wygenerowane przez sztuczną inteligencję, czy nie. Problem w tym, że tak jak na przykład moi studenci się przygotowują do egzaminów z jakiejś bazy pytań, tak osoby, które będą tworzyć rozwiązania deepfake'owe, będą używać tej sztucznej inteligencji, oni właśnie będą testować, jak dobre są ich rozwiązania na tych wszystkich detektorach. Więc jeśli widzicie jakiś detektor w sieci, to prawdopodobnie jest on już nieaktualny. Ale choćbyśmy mieli absolutnie najlepsze narzędzia, choćby każda osoba na świecie wyłączyła swoje emocje, kiedy dotyka ją dezinformacja. Choćby miała sceptycyzm na drugie imię. To jest też jedno małe oblicze deepfake'ów, na które według mnie absolutnie żadne z tych rozwiązań nie pomoże. Bo sceptycyzm, bo weryfikacja, bo te narzędzia, też te, o których nawet nie wspomniałam, one bledną przy historiach takich jak ta, która dotknęła Wiktorię. Pewnego dnia Wiktoria dostała na swój telefon wiadomość. W wiadomości ktoś informował ją o tym, że jej zdjęcia wyciekły do internetu. I ona na początku w ogóle nie zrozumiała, co to znaczy wyciekły, o co chodzi. Ale otworzyła tę wiadomość i w tej wiadomości czekało na nią zdjęcie sprzed kilku lat. Ot, zupełnie niegroźne zdjęcie, normalna dziewczyna. Kolejne zdjęcie było prawie takie samo. Różnił je jeden drobny detal. To znaczy Wiktoria nie miała już na nim swojego wierzchniego ubrania. Dostała kolejne zdjęcie. Na kolejnym nie miała już spódniczki. Jeszcze kolejne powiadomienie, kolejny dźwięk. Wiktoria nie wie już co w tym momencie, co ma zrobić. Kolejne zdjęcie, nie ma już na nim bluzki. Kolejne zdjęcie było jeszcze gorsze, dlatego że pokazywało Wiktorię, która uprawia seks z nieznanym mężczyzną. I w tamtym momencie świat Wiktorii się zawalił. Ale nie zawalił się dlatego, że to ona zrobiła coś nie tak. On się zawalił dlatego, że ona nigdy żadnego z tych zdjęć nie zrobiła. Bo Wiktoria padła ofiarą deepfake pornography. Czyli takiego zjawiska, w którym technologia, która stoi za deepfakami, jest wykorzystywana do stworzenia realistycznych materiałów pornograficznych z udziałem osób, które nigdy nie wyraziły na to zgody. Wiktoria niestety nie była w tym też sama, dlatego że podobnej krzywdy doświadczyły studentki i uczennice szkół w Korei Południowej. Ofiarami są streamerzy i streamerki. Ofiarami są celebrytki, takie jak na przykład Taylor Swift. Ofiarami są dziennikarki, takie jak Rana Ayub, które nagłaśniają kulisy opresyjnych środowisk, w których żyją. I ja jako ciocia absolutnie buntuję się przeciwko temu, żeby moja siostrzenica musiała żyć w świecie, w którym wszyscy mamy dostęp do takich narzędzi, w których może ją to spotkać tylko dlatego, że zirytowała swojego kolegę w trakcie przerwy. Jako kobieta czuję się absolutnie bezsilna. Ja nie znajduję słów, które naprawdę mogłabym powiedzieć tym, którzy doświadczają tego rodzaju przemocy. Ale jako osoba, która całe swoje dorosłe życie poświęciła na pracę nad sztuczną inteligencją, stojąc na takich scenach jak ta, mogę się temu na swój sposób przeciwstawić. Mogę się temu przeciwstawić poprzez jedną rzecz, która wierzę, silnie wierzę, że długofalowo jest najskuteczniejszą metodą walki z deepfake'ami, która spowoduje, że ofiary tej krzywdy nie zginą w tłumie innych nazwisk. Rozwiązanie, które w zasadzie jest na wyciągnięcie ręki, czyli edukacja. My potrzebujemy edukacji technologicznej, która będzie rzetelna i dedykowana do różnych grup wiekowych, od małych dzieci do seniorów. Edukacji, która pokaże zarówno korzyści płynące ze sztucznej inteligencji, ale też tragiczne konsekwencje. Edukacji kompleksowej, której celem jest prawdziwa demokratyzacja dostępu do wiedzy, a nie puste slogany powtarzane w internecie dla rozgłosu i pieniędzy, gdzie nadrzędnym celem tej edukacji jest jakość. My potrzebujemy, aby nasze państwo z pomocą dydaktyków i ekspertów dotarło np. do pani Kasi, która jest mamą dwójki dzieci, z materiałami, które powiedzą jej, jak tym dzieciom tłumaczyć naszą aktualną technologiczną rzeczywistość. Potrzebujemy edukacji, w której pan Tomek, który jest nauczycielem w wiejskiej szkole, będzie mógł dokształcić się w zakresie sztucznej inteligencji, a potem ze swoimi uczniami wypracować mądre zasady korzystania z AI. Potrzebujemy, aby państwo wraz z ekspertami dotarło do starszych osób, aby w sposób im przystępny pokazać im, jak mogą chronić się w internecie i poza nim, w sposób, w który hakerzy nie będą mogli wykorzystać ich życzliwości. No i przede wszystkim my wszyscy, tak jak tu teraz siedzimy, możemy dać to, co mamy najcenniejsze, czyli swój czas na to, żeby samodzielnie pozyskiwać wiedzę, nie ignorować tego, co się dzieje, żeby uczyć naszych najbliższych i świadomie reagować, kiedy dzieje się zło. Bo niestety, ale krzywdy, która już raz zostanie wyrządzona, nie sposób zapomnieć. I nie jesteśmy w stanie zatrzymać tej fali technologicznej, która nadeszła, ale też nie powinniśmy, bo ta sama technologia, która jest wykorzystywana do tego, żeby krzywdzić ludzi, ona też pomaga na przykład osobom z dysforią płciową, aby choć na chwilę, na przykład przez telefon, przemówić tym głosem, o którym one zawsze marzyły. Pomaga w generowaniu syntetycznych danych pacjentów, które mogą zostać wykorzystywane do poprawiania modeli sztucznej inteligencji w ochronie zdrowia, dzięki którym lekarze wspierani przez tę technologię mogliby szybciej i skuteczniej wykrywać zmiany nowotworowe. I pomaga też osobom, które ze względu na różne choroby, takie jak na przykład stwardnienie rozciane, zupełnie straciły swój głos. Pomaga tym osobom przemówić do swoich bliskich tym głosem jeszcze raz. Tej edukacji my potrzebujemy już teraz. I tej edukacji życzę nam wszystkim i mam ogromną nadzieję, że od dziś razem ze mną będziecie o tę edukację walczyli. Bardzo dziękuję za uwagę. Dziękuję.