Menu
About me Kontakt

In the latest TEDx Talks presentation, the controversial topic of deepfakes and their impact on society is presented. The speaker, an expert in artificial intelligence, begins with a scenario of an ideal election situation, illustrating the consequences of misinformation. Her words create a vivid picture of a world where one recording can destroy a person’s reputation or allow one to hide their own mistakes. This is the reality we live in; technology can easily be used for manipulation.

As she progresses, the speaker elaborates on how deepfakes can be used to generate misinformation and what steps can be taken to protect oneself from its negative effects. She encourages skepticism and verification of information, highlighting that emotions often cloud our ability to think critically. It is emphasized that emotional responses can lead to hasty decision-making.

The speaker further shares shocking examples of individuals victimized by deepfakes, pointing out how easily innocent lives can be ruined. She recounts the story of Victoria, who became a victim of deepfake pornography, illustrating the tragic consequences of this technology. This phenomenon not only affects celebrities, but ordinary individuals can also become victims without their consent.

The solution she proposes is the need for technological education targeted at various age groups—from children to the elderly. She teaches how to use technology responsibly and what actions to take when encountering misinformation. Highlighting that, while technology can be used harmfully, it can also provide several benefits in areas such as healthcare.

In conclusion, TEDx Talks emphasizes that responsible technology use and educating society is crucial in combating misinformation. At the time of writing, the video has 1152 views and 30 likes, indicating a growing interest in the impacts of artificial intelligence in our daily lives. The speaker’s call to action for learning and conscious usage of technology aims to minimize harmful actions in this field.

Toggle timeline summary

  • 00:00 Introduction and request to imagine a pleasant scenario.
  • 00:13 Describes a cozy setting at home on a beautiful Sunday morning.
  • 00:28 A special event where they will choose a strong leader.
  • 00:42 Emphasis on the importance of the candidate's reputation and respect.
  • 01:04 Revelation of a leaked recording regarding one of the candidates.
  • 01:33 The recording starts going viral, raising concerns about its authenticity.
  • 01:58 Voter unrest follows the leak, leading to protests.
  • 02:13 The candidate denies making any such statements.
  • 02:22 The candidate wins the election amid the chaos.
  • 02:37 Discussion of a real-world scenario of misinformation.
  • 02:44 The ease of damaging someone's reputation with technology.
  • 03:08 The speaker has been working with AI algorithms for a decade.
  • 03:26 Deepfake technology is introduced and explained.
  • 04:05 The speaker addresses how to protect against deepfake misinformation.
  • 04:23 Deepfakes often lead to strong emotional reactions.
  • 04:51 Encouragement of skepticism and verification in the face of deepfakes.
  • 07:46 A personal story of a victim of deepfake pornography.
  • 09:06 Discussion of the broader implications of deepfake misuse.
  • 10:34 Call for technological education as a solution to combat deepfakes.
  • 11:20 The need for comprehensive education targeted at all age groups.
  • 12:31 Recognition of the enduring impact of technology-related harm.
  • 13:12 Mention of AI's beneficial uses in healthcare.
  • 13:31 A closing plea for education and awareness.

Transcription

Ja zacznę od takiej malutkiej prośby do Państwa. Ja bym chciała, żebyśmy wyobrazili sobie taką przemiłą sytuację. Siedzimy sobie na kanapie albo jakimś naszym ulubionym fotelu w domu. Pijemy sobie herbatkę albo kawę. Jest piękny niedzielny poranek. I ta niedziela jest wyjątkowa, dlatego że w ten dzień wybierzemy kogoś, kto żelazną ręką będzie bronił wszystkich naszych interesów. Będziemy wybierać kogoś, kto będzie budził postrach u polityków w Polsce i za granicą i kogoś, na kogo samo nazwisko będzie wywoływało respekt i szacunek, czyli prezydenta. Cieszę się, że się Państwo zaśmiali. Nie byłam pewna, więc w razie co przygotowałam się też na inne opcje polityczne. I nagle wszystkie stacje podają do wiadomości, że do sieci wyciekło nagranie jednego z kandydatów, który o swoich wyborcach powiedział coś takiego. Weź sprzedaj te pieniądze. Nie no, nikt się nie zorientuje z tymi sztucznymi kretynami. Jeszcze nie potrafią postawić krzyżyka w krawce obok nazwiska, to tym bardziej się nie doliczą. No nieprzyjemnie, ale nagranie powoli wirusowo jest odsłuchiwane w kolejnych domach, jest podawane dalej. Ktoś tam wspomina, że to nagranie mogło być fałszywe, że mogło być zrobione przy pomocy sztucznej inteligencji, bo to on takimi pierdołami ogólnie przejmował. No i słysząc o takim ataku na demokrację, wyborcy tego kandydata wychodzą na ulicę. Dochodzi do zamieszek, ignorują całkowicie ciszę wyborczą. Kandydat wychodzi na konferencję prasową, mówi, że absolutnie nigdy niczego takiego nie powiedział, że to jest spreparowane. W tym momencie jego wyborcy wszczynają jeszcze większe zamieszki. A kandydat na fali takiej reakcji wygrywa te wybory. A wszystko to wydarzyło się przez jedno nagranie, które było prawdziwe, bo ten kandydat naprawdę powiedział te słowa, tylko w dobie deepfake'ów i sztucznej inteligencji nigdy nie musiał się do tego przyznawać. I ten świat, który ja teraz państwu opisuję, to nie jest hipotetyczny świat. To jest świat, w którym żyjemy już teraz. Świat, w którym w minuty możemy zniszczyć reputację jakiegoś człowieka. Albo świat, w którym osoby takie jak ten kandydat nigdy nie otrzymają za swoje słowa kary. W którym z jednej strony boimy się, że ta sztuczna inteligencja nami zawładnie, ale zapominamy o tym, że jej algorytmy rządzą już nami od jakiegoś czasu. Ja personalnie mam niezwykłe szczęście i przyjemność pracować właśnie z tymi algorytmami. Pracuję z nimi od prawie dekady. I w trakcie tej dekady jeden z tematów był przytaczany wyjątkowo często. Tym tematem był właśnie mój tytułowy deepfake. I to jest takie mityczne stworzenie, które bardzo lubią moi studenci, dlatego że ona ma bardzo przyjazną nazwę, bo z tej nazwy w trakcie deepfake minusnego da się coś tam wyszyć i zdekodować, co mniej więcej oznacza ten termin. Mianowicie ten kawałek deep odnosi się do głębokich sieci neuronowych. Nie będę państwa zaznudzać, ale to jest język najbardziej popularnych algorytmów w sztucznej inteligencji. Natomiast fake oznacza coś fałszywego. Właśnie np. człowieka z nagrania, który nigdy nie powiedział jakichś słów albo człowieka, który w ogóle nigdy nie istniał. I w rozmowach o deepfake ramię w ramię idzie jeszcze takie pytanie, to znaczy jak się przed tym deepfake chronić. I odpowiedź na to pytanie, która też jest sednem mojej prezentacji, ona jest trywialnie prosta, ale też jest trudna do przełknięcia. No ale na tą odpowiedź jeszcze sobie chwileczkę poczekamy, bo najpierw musimy trochę głębiej zrozumieć problem. To znaczy co to w ogóle znaczy to ochronić. Tak jak ten deepfake jest przeciwko nam wykorzystywany. I na to pytanie najbardziej oczywistą odpowiedzią jest dezinformacja. My używamy technologii do tego, żeby wykreować nową rzeczywistość, żeby wprowadzić ludzi w błąd po to, żeby najczęściej uzyskać od nich po prostu jakieś silne emocje i silne reakcje. I w przypadku takiego użycia deepfake'a, czyli tej dezinformacji, często podazwanym rozwiązaniem jest sceptycyzm. To znaczy bardzo powinniśmy weryfikować absolutnie wszystko, co wpada w nasze ręce. I internetowi guru AI mówią często, że możemy to weryfikować w taki sposób, że w nagraniach audio czy wideo będziemy szukać jakiegoś lekko sztucznego głosu, jakichś problemów z okularami, z palcami. Jeszcze inni mówią na przykład, że to się w ogóle nie sprawdzi, bo technologia już dawno rozwiązała te problemy. Ale warto pamiętać i to musimy sobie zakodować, że w takich sytuacjach kluczem nie jest aż tak bardzo jakość technologii. Jest nim nasze serce. Bo silne emocje działają na naszą niekorzyść. One często przejmują nasze stery. I wie to każdy z nas, kto chodził zafrasowany, bo na przykład jakiś Andrzej z Pod Trójki kupił sobie samochód i my nie do końca z tym zgadzamy i to lubimy, ale wie to też niestety na przykład każda mama, która otworzyła sobie rano Instagrama i zobaczyła jak jakaś celebrytka na Instagramie obudziła się o 5 rano, zrobiła płatki śniadaniowe ręcznie dla swoich dzieci, zrobiła to w czystej pięknej kuchni, wstawiła to potem jeszcze na Instagrama, nagrała to. No a to, że ten zegarek u influencerki to wskazywał 13, a nie 5 rano, to kogo by tam interesowało w sumie. Silne emocje działają w walce z deepfakami na naszą niekorzyść, też w szczególności, kiedy ktoś chce nas po prostu personalnie zaatakować, na przykład podszywając się pod naszych bliskich, pod naszych pracowników. Dlatego niektórzy przychodzą do nas ze wsparciem w postaci narzędzi, takich detektorów, które mogą wykryć, czy coś zostało wygenerowane przez sztuczną inteligencję, czy nie. Problem w tym, że tak jak na przykład moi studenci się przygotowują do egzaminów z jakiejś bazy pytań, tak osoby, które będą tworzyć rozwiązania deepfake'owe, będą używać tej sztucznej inteligencji, oni właśnie będą testować, jak dobre są ich rozwiązania na tych wszystkich detektorach. Więc jeśli widzicie jakiś detektor w sieci, to prawdopodobnie jest on już nieaktualny. Ale choćbyśmy mieli absolutnie najlepsze narzędzia, choćby każda osoba na świecie wyłączyła swoje emocje, kiedy dotyka ją dezinformacja. Choćby miała sceptycyzm na drugie imię. To jest też jedno małe oblicze deepfake'ów, na które według mnie absolutnie żadne z tych rozwiązań nie pomoże. Bo sceptycyzm, bo weryfikacja, bo te narzędzia, też te, o których nawet nie wspomniałam, one bledną przy historiach takich jak ta, która dotknęła Wiktorię. Pewnego dnia Wiktoria dostała na swój telefon wiadomość. W wiadomości ktoś informował ją o tym, że jej zdjęcia wyciekły do internetu. I ona na początku w ogóle nie zrozumiała, co to znaczy wyciekły, o co chodzi. Ale otworzyła tę wiadomość i w tej wiadomości czekało na nią zdjęcie sprzed kilku lat. Ot, zupełnie niegroźne zdjęcie, normalna dziewczyna. Kolejne zdjęcie było prawie takie samo. Różnił je jeden drobny detal. To znaczy Wiktoria nie miała już na nim swojego wierzchniego ubrania. Dostała kolejne zdjęcie. Na kolejnym nie miała już spódniczki. Jeszcze kolejne powiadomienie, kolejny dźwięk. Wiktoria nie wie już co w tym momencie, co ma zrobić. Kolejne zdjęcie, nie ma już na nim bluzki. Kolejne zdjęcie było jeszcze gorsze, dlatego że pokazywało Wiktorię, która uprawia seks z nieznanym mężczyzną. I w tamtym momencie świat Wiktorii się zawalił. Ale nie zawalił się dlatego, że to ona zrobiła coś nie tak. On się zawalił dlatego, że ona nigdy żadnego z tych zdjęć nie zrobiła. Bo Wiktoria padła ofiarą deepfake pornography. Czyli takiego zjawiska, w którym technologia, która stoi za deepfakami, jest wykorzystywana do stworzenia realistycznych materiałów pornograficznych z udziałem osób, które nigdy nie wyraziły na to zgody. Wiktoria niestety nie była w tym też sama, dlatego że podobnej krzywdy doświadczyły studentki i uczennice szkół w Korei Południowej. Ofiarami są streamerzy i streamerki. Ofiarami są celebrytki, takie jak na przykład Taylor Swift. Ofiarami są dziennikarki, takie jak Rana Ayub, które nagłaśniają kulisy opresyjnych środowisk, w których żyją. I ja jako ciocia absolutnie buntuję się przeciwko temu, żeby moja siostrzenica musiała żyć w świecie, w którym wszyscy mamy dostęp do takich narzędzi, w których może ją to spotkać tylko dlatego, że zirytowała swojego kolegę w trakcie przerwy. Jako kobieta czuję się absolutnie bezsilna. Ja nie znajduję słów, które naprawdę mogłabym powiedzieć tym, którzy doświadczają tego rodzaju przemocy. Ale jako osoba, która całe swoje dorosłe życie poświęciła na pracę nad sztuczną inteligencją, stojąc na takich scenach jak ta, mogę się temu na swój sposób przeciwstawić. Mogę się temu przeciwstawić poprzez jedną rzecz, która wierzę, silnie wierzę, że długofalowo jest najskuteczniejszą metodą walki z deepfake'ami, która spowoduje, że ofiary tej krzywdy nie zginą w tłumie innych nazwisk. Rozwiązanie, które w zasadzie jest na wyciągnięcie ręki, czyli edukacja. My potrzebujemy edukacji technologicznej, która będzie rzetelna i dedykowana do różnych grup wiekowych, od małych dzieci do seniorów. Edukacji, która pokaże zarówno korzyści płynące ze sztucznej inteligencji, ale też tragiczne konsekwencje. Edukacji kompleksowej, której celem jest prawdziwa demokratyzacja dostępu do wiedzy, a nie puste slogany powtarzane w internecie dla rozgłosu i pieniędzy, gdzie nadrzędnym celem tej edukacji jest jakość. My potrzebujemy, aby nasze państwo z pomocą dydaktyków i ekspertów dotarło np. do pani Kasi, która jest mamą dwójki dzieci, z materiałami, które powiedzą jej, jak tym dzieciom tłumaczyć naszą aktualną technologiczną rzeczywistość. Potrzebujemy edukacji, w której pan Tomek, który jest nauczycielem w wiejskiej szkole, będzie mógł dokształcić się w zakresie sztucznej inteligencji, a potem ze swoimi uczniami wypracować mądre zasady korzystania z AI. Potrzebujemy, aby państwo wraz z ekspertami dotarło do starszych osób, aby w sposób im przystępny pokazać im, jak mogą chronić się w internecie i poza nim, w sposób, w który hakerzy nie będą mogli wykorzystać ich życzliwości. No i przede wszystkim my wszyscy, tak jak tu teraz siedzimy, możemy dać to, co mamy najcenniejsze, czyli swój czas na to, żeby samodzielnie pozyskiwać wiedzę, nie ignorować tego, co się dzieje, żeby uczyć naszych najbliższych i świadomie reagować, kiedy dzieje się zło. Bo niestety, ale krzywdy, która już raz zostanie wyrządzona, nie sposób zapomnieć. I nie jesteśmy w stanie zatrzymać tej fali technologicznej, która nadeszła, ale też nie powinniśmy, bo ta sama technologia, która jest wykorzystywana do tego, żeby krzywdzić ludzi, ona też pomaga na przykład osobom z dysforią płciową, aby choć na chwilę, na przykład przez telefon, przemówić tym głosem, o którym one zawsze marzyły. Pomaga w generowaniu syntetycznych danych pacjentów, które mogą zostać wykorzystywane do poprawiania modeli sztucznej inteligencji w ochronie zdrowia, dzięki którym lekarze wspierani przez tę technologię mogliby szybciej i skuteczniej wykrywać zmiany nowotworowe. I pomaga też osobom, które ze względu na różne choroby, takie jak na przykład stwardnienie rozciane, zupełnie straciły swój głos. Pomaga tym osobom przemówić do swoich bliskich tym głosem jeszcze raz. Tej edukacji my potrzebujemy już teraz. I tej edukacji życzę nam wszystkim i mam ogromną nadzieję, że od dziś razem ze mną będziecie o tę edukację walczyli. Bardzo dziękuję za uwagę. Dziękuję.