Frauds using AI - deepfake, manipulation, etc. (film, 9 minutes)
Poszukiwacze Okazji presented their audience with a fascinating video about artificial intelligence and its impact on our lives. The video begins with a call to watch it until the end and share it with friends, emphasizing the importance of truth in the face of upcoming changes. As technology develops in the AI field, both positive and negative aspects emerge. Automation, disease diagnosis, artistic creativity support, and environmental protection are just a few of the areas where AI can have an extraordinary impact on the world around us. At the same time, these changes can carry risks that are essential to understand.
The video also discussed potential threats associated with modern technologies, such as generating realistic images of fictional people using the 'This Person Does Not Exist' website. This type of technology provides scammers with new opportunities to create fake identities, posing significant security risks. Examples of scams utilizing AI demonstrate how easily it can be used to mislead and deceive people. The use of AI-generated voices to commit financial fraud illustrates how far technology has advanced in fulfilling dishonest intentions.
Attention should be drawn to the story of a scam artist in China who used deepfake technology to extract 2.5 million zlotys from a victim, who mistakenly believed she was lending money to a friend. In recent years, these types of fraud have become increasingly common, and their effects can be devastating for those who experience them. In Arizona, a resident got caught in a trap set by a scammer posing as her daughter, confirming how real and frightening these techniques can be.
The video also addresses the use of deepfake voice technology for financial fraud. A well-known case from a few years ago, where scammers posed as the voice of a CEO of a German energy company, illustrates the consequences of such scams. This fraud, amounting to 220,000 euros, involved funds being transferred to accounts in Hungary and subsequently to Mexico. It shows how AI technology can influence financial decisions and security practices within companies. Poszukiwacze Okazji suggested a hands-on experiment with deepfake, demonstrating how easily one can fall victim to such scams.
Finally, it is noteworthy that the video has garnered 91,568 views and received 2,912 likes, highlighting the importance of the topic they are covering. These statistics are current as of the writing of this article. Poszukiwacze Okazji remind us that although artificial intelligence opens many doors to new possibilities, we must also be vigilant and cautious regarding the dangers that may arise from its misuse. Ultimately, this film serves as an important reminder that technology can work both for and against us in the wrong hands.
Toggle timeline summary
-
Introduction and request to watch and share the film.
-
Discussion on the revolutionary changes AI will bring to the world.
-
Examples of positive changes AI can contribute to.
-
AI's capabilities in generating realistic images of non-existent people.
-
Introduction to the website 'This Person Does Not Exist' as an example of AI-generated images.
-
Concerns about deepfake technology and its implications.
-
Case study of a scam using deepfake technology for financial fraud.
-
A personal story of a woman who received a call from a deepfake impersonating her daughter.
-
Notorious cases of financial scams involving cloned voices.
-
Summary of the deepfake experiment highlighting awareness of scams.
-
Importance of caution regarding AI and fraud.
-
Fun facts about the film's production involving AI.
-
Clarification on the identity of a character to dispel misconceptions.
-
Final remarks and closing.
Transcription
Witam wszystkich oglądających. Chciałbym, byście obejrzeli ten film do końca i udostępnili go swoim znajomym, gdzie się tylko da. Dzięki. Pamiętajcie, że tylko prawda nas wyzwoli. W niedalekiej przyszłości nasz świat stanie się polem rewolucyjnych zmian dzięki sztucznej inteligencji, która wniknie w każdy aspekt naszego życia. Automatyzacja, diagnozowanie chorób, wspomaganie twórczości artystycznej, edukacja, ochrona środowiska, nowe możliwości komunikacji oraz rozwój interakcji między ludźmi a maszynami. To tylko niektóre z obszarów, w których AI wydaje się przynosić pozytywne zmiany. Choć te zmiany obiecują ogromne korzyści, towarzyszy im także cień zagrożeń. Na przykład zaawansowane algorytmy potrafią generować realistyczne obrazy osób, które w rzeczywistości nie istnieją. Oszuści mogą wykorzystać te obrazy do stworzenia fałszywych zdjęć tożsamości, które trudno będzie odróżnić od oryginałów. Strona This Person Does Not Exist, tu fascynujący przykład tego, jak zaawansowana technologia, w tym konkretnie sztuczna inteligencja, może wygenerować niewiarygodnie realistyczne twarze osób. Strona ta losowo generuje portrety osób, które w rzeczywistości nie istnieją, poprzez trenowanie sztucznej inteligencji na ogromnym zestawie danych z rzeczywistymi twarzami, generując cechy, wyrażenia i inne detale, które wydają się autentyczne, ale są całkowicie fikcyjne. Obrazy nieistniejących osób mogą posłużyć do tworzenia fałszywych dokumentów. Oszuści mogą wykorzystywać je do podrabiania zdjęć na dokumentach tożsamości, takich jak paszporty czy dowody osobiste. To może umożliwić im łatwiejsze przekroczenie granic, uniknięcie weryfikacji lub nawet dokonanie przestępstw w cudzej tożsamości. Jednak jednym z najbardziej zaawansowanych i zagrażających trendów jest zjawisko oszust z wykorzystaniem sztucznej inteligencji, szczególnie techniki znanej jako deepfake. Deepfake to technika używająca sztucznej inteligencji do tworzenia realistycznie wyglądających fałszywych treści multimedialnych, takich jak wideo, dźwięk czy obrazy. Oszustwa deepfake stwarzają potencjalne zagrożenie, ponieważ mogą być wykorzystane do rozpowszechniania dezinformacji, kradzieży czy szantażu. W jednym z naszych filmów przedstawiliśmy historię widza, który jak twierdzi został ofiarą wyłudzenia pieniędzy. Prawdopodobnie oszuści wykorzystali technikę deepfake do stworzenia fałszywego materiału licząc na to, że ofiara wystraszy się i spełni żądania. W północnych Chinach oszust wykorzystał technologię deepfake, aby wyłudzić od swojej ofiary równowartość 2,5 miliona złotych. Mężczyzna był przekonany, że pożycza pieniądze swojemu przyjacielowi. Przestępcy wykorzystują również technologię generowania głosów i mogą zadzwonić do ofiary twierdząc, że mają porwaną osobę lub bliskiego członka rodziny w celu przekonania jej do natychmiastowego zapłacenia okupu. Taka historia przydarzyła się jednej z mieszkanek Arizony, która przeżyła prawdziwy koszmar. Kiedy odebrała telefon, a po drugiej stronie słuchawki usłyszała głos córki, która powiedziała jej, że została porwana. Okazało się, że piętnastolatka udawała sztuczna inteligencja. Nawet przez chwilę nie wątpiłam, że to głos mojej córki. To była jej intonacja i barwa. To był dokładnie jej płacz. To był w stu procentach głos mojej córki. Przeszyło mnie to do szpiku kości. Kilka lat wcześniej, a dokładnie 2019 roku, oszuści podszyli się pod głos prezesa niemieckiej firmy energetycznej. Za pomocą wygenerowanego głosu oszuści zlecili przelew finansowy na kwotę około 220 tysięcy euro. Sprawa ta stała się szeroko nagłośniona jako jeden z pierwszych znanych przypadków oszustw z wykorzystaniem deepfake voice, które wpłynęło na decyzje finansowe w firmach. Informacja wydała się wiarygodna, ponieważ brytyjski dyrektor generalny rozpoznał niewielki niemiecki akcent swojego szefa i melodię jego głosu w telefonie. Sprytnie wyłudzone pieniądze zostały przelane na konto przechwycone przez przestępców na Węgrzech, a następnie na kolejne w Meksyku. Amerykański ekspert od cyberbezpieczeństwa pokazał jak łatwo jest stworzyć takie oszustwo klonując głos reporterki stacji NBC News. Następnie zadzwonili do jej koleżanki, która dała się nabrać. Jeżeli rzeczywiście to takie proste, to teraz podszyję się pod Stacha wykorzystując technikę deepfake voice i zadzwonię do jego brata z prośbą o przelanie mi kilkuset złotych. Zobaczymy czy uda mi się go nabrać i wyłudzić pieniądze. Pobawimy się w oszusta. Dzwonię z drugiego numeru, bo mam do wykorzystania minuty. Dzwonię z drugiego numeru, bo mam do wykorzystania minuty. Dzwonię z drugiego numeru, bo mam do wykorzystania minuty. Słuchaj, mam pilną sprawę, bo nie mam nic na koncie, a trafiła mi się okazja na OLX i muszę szybko kupić i zapłacić. Miałbyś 300 zł na koncie? Halo? No, co to za akcja? Jaka akcja? Ale co się stało? Automat z 48 zadzwonił na mnie. No co Ty gadasz? No. Ale o co chodziło? Chciał 300 zł na konta. No co Ty gadasz? No. A przelałeś? Tak, jasne. A Ty w domu jesteś? Tak, jestem w domu. Kurde, no to może byś mi przelał jednak te 300 zł. Jak potrzebujesz to powiem Ci przelać. Kurde. No, no. Na razie. Tak, słucham? Tak, słucham? Nie. Nie mam kasy. Samochodem nie mogę gadać. Nara. Podsumowując, eksperyment z DeepFake przyniósł nam niezwykle cenne wnioski. Pierwsza osoba, która była świadoma możliwości oszustw związanych z DeepFake i sztuczną inteligencją, okazała się dobrze przygotowana. Jej zdolność do wykrycia nieprawidłowości pokazuje, jak istotne jest bycie świadomym zagrożeń w dzisiejszym cyfrowym świecie. Natomiast druga osoba, niezależnie od wykrycia fałszywego głosu, nie stała się ofiarą oszustwa z powodu braku środków finansowych. To z kolei podkreśla, że kontrolowanie dostępu do swoich danych i środków finansowych również ma ogromne znaczenie w zapobieganiu oszustwom. Chcielibyśmy podkreślić, że choć sztuczna inteligencja otwiera przed nami wiele drzwi do nowych możliwości, musimy być również czujni i ostrożni. Oszustwa związane z wykorzystaniem sztucznej inteligencji stają się coraz bardziej wyrafinowane, a oszuści potrafią doskonale wykorzystywać zaawansowane technologie do swoich celów. A na zakończenie kilka ciekawostek na temat tego filmu. Pierwsza ciekawostka to tekst, scenariusz do tego filmu został napisany w 90% przez sztuczną inteligencję. Ja tam dodałem kilka swoich rzeczy, ale głównie napisała mi to sztuczna inteligencja, a dokładnie chat GPT. W 5 sekund pisałem wymyśl mi tekst do filmu i posprawię. Drugą ciekawostką jest lektor, który czytał w tym filmie. Tak naprawdę to nie był Stachu, tylko sztuczna inteligencja, która sklonowała mi jego głos. Trzecia ciekawostka, na początku filmu nie był to prawdziwy Stanowski. Być może kilka osób dało się nabrać, więc chciałbym to sprostować, że w rzeczywistości byłem to ja. Wiele osób pisało, że jestem podobny bardzo do Stanowskiego, więc chciałem sprawdzić, czy dacie się nabrać. To by było na tyle. Cześć! Napisy stworzone przez społeczność Amara.org