Menu
About me Kontakt

Cybersecurity and Artificial Intelligence - Where Does the Biggest Threat Lie? (film, 51m)

Instytut 42 features a discussion with Mateusz Robok, an expert in cybersecurity and artificial intelligence. In today's world, as Mateusz points out, methods of impersonation are becoming increasingly sophisticated, leading to many threats to information system security. The conversation addresses how cybersecurity and artificial intelligence interact, with the common point being the risk of jailbreaking models, i.e., circumventing the security measures of artificial intelligence. Such behaviors may lead to dangerous situations where AI, instead of helping, starts generating harmful content.

Mateusz encourages considering the ethics of AI usage and explains that manipulation is nothing new – everyone is susceptible to various forms of misinformation. He emphasizes the importance of educating oneself on this subject to recognize the dangers associated with new technologies. He also raises the question – to what extent can start-ups ensure the security of their solutions in an era of such advanced technology?

During the discussion, various examples of unethical AI use are discussed, including situations where people's manipulation leads them to act against their interests. Mateusz stresses the necessity of monitoring and allowing AI use responsibly and highlights that learning about the threats related to AI should become a standard practice.

It is also worth noting the unfavorable trend of diminished cybersecurity efficiency in relation to advancing artificial intelligence. The more we learn about the risks associated with AI, the clearer it becomes that we cannot ignore security issues. Whenever a new technology emerges, new threats also arise, making information and education crucial.

In conclusion, it is important to look at the statistics provided in the discussion – the video currently has 1169 views and garnered 34 likes. This indicates that the topic discussed by Instytut 42 is of interest to many, which offers hope for better education in AI and cybersecurity areas.

Toggle timeline summary

  • 00:00 Today, methods of deception are becoming increasingly sophisticated.
  • 00:05 People are learning about cyber offensives through interactions with IT systems.
  • 00:35 I educate people and explain complex things simply.
  • 00:54 My main areas of expertise are cybersecurity and artificial intelligence.
  • 01:17 A discussion on a common topic shared by AI and cybersecurity.
  • 01:35 Discussion about 'jailbreaking' models, which is about bypassing security.
  • 02:00 Bypassing model security resembles methods used in scams.
  • 02:18 Examples of how AI can be manipulated for harmful purposes.
  • 02:36 A discussion on how the advancement of models can outpace security measures.
  • 03:19 Concerns over ethical implications of sharing information about cyber offense.
  • 03:33 Examples of computer security failures, including responses to manipulation.
  • 04:00 A discussion about potential risks of AI in influencing people's decisions.
  • 04:28 Jailbreaking and exploiting vulnerabilities in AI models is becoming more frequent.
  • 04:44 Emission of misinformation through AI is discussed, including the accessibility to this technology.
  • 05:20 Reflections on the influence of bots and automated accounts in online discourse.
  • 07:38 Concerns about cybersecurity related to the rapid evolution of AI models.
  • 08:00 Concluding thoughts on the importance of education in cybersecurity.
  • 09:24 Final insights on how manipulations can influence public perception.
  • 10:30 Call for transparency in AI system operations and the importance of verification.
  • 13:25 The urgency of understanding and monitoring AI developments in relation to user safety.
  • 15:40 Promoting collaborative approaches to AI development for collective understanding.
  • 23:21 Concerns about bureaucracy stifling innovation and responsiveness in startups.
  • 29:23 The balance between rapid software development and maintaining security.
  • 31:39 The potential consequences of the lack of cybersecurity measures as AI technology advances.
  • 39:11 The acknowledgment of potential biases or misinformation being propagated by AI.
  • 42:55 Exploration of the complexities of addressing misinformation in digital spaces.

Transcription

Dzisiaj te metody udawania są coraz lepsze. No mimo wszystko ci ludzie uczą się jakiejś cyberofensywy. Wchodząc w interakcje z systemami informatycznymi. Nasze działania niejako są przez nie natchnione. My zmieniamy to, co robimy, przez to, co tam widzimy. Nie nadążamy z bezpieczeństwem. Nie nadążamy z wyjaśnianością. Cała naprzód, zanim dotrze do nas, że to bez sensu. Mateusz Robok, cześć. Cześć, dzień dobry. Myślę, że część osób Cię zna, ale jako, że też sporo osób bardziej ze świata biznesu niż technologicznego nas ogląda, to mógłbyś na początku przedstawić, czym się właściwie zajmujesz? Ja edukuję ludzi i tłumaczę trudne rzeczy w w miarę prosty sposób. Robię to w ramach swojej działalności edukacyjnej na YouTubie, na ucznie.pl, gdzie mam platformę edukacyjną, czy też w startupach, w których pracuję, gdzie jakby na co dzień staram się wpłynąć na ludzi i na firmy, w których pracuję. A jakie to są obszary? Głównie to jest cyberbezpieczeństwo i sztuczna inteligencja. To są takie kawałki, na których stoję. Natomiast z racji tego, że najwięcej w życiu nauczyłem się w startupach, to jest trzecia noga, bardzo lubię miejsca, gdzie jest dynamicznie, czyli startupy, gdzie właśnie działam ze sztuczną inteligencją i cyberbezpieczeństwem. Powiedziałeś o cyberbezpieczeństwie i sztucznej inteligencji jako o takich trochę dwóch aspektach, ale chciałem dzisiaj z tobą właśnie porozmawiać o takim, powiedzmy, ich trunkcie wspólnym. Jest to głównie temat związany z tym, że kiedy pracujemy ze sztuczną inteligencją, no to oprócz tego, że można na przykład próbować samemu to rozmowy posłuchiwać i tak dalej, a jest jeszcze ciekawsza pewna kwestia, o której może mógłbyś pokrótce wtajemniczyć naszych słuchaczy. Kwestia tak zwanego jailbreakowania modeli, czyli no właśnie, co to właściwie mogłoby znaczyć? Jailbreakowanie, czyli jakby obchodzenie zabezpieczeń, to jest taka idea, że możemy wpuścić w maliny automaty czy też mechanizmy uczenia maszynowego, podobnie jak możemy wpuścić w maliny ludzi, mówiąc im coś nieprawdziwego, gdzie oni nagle zaczną robić rzeczy, których normalnie by nie zrobili. Więc ja bym to trochę przyrównał do tego, że mamy metody wyłudzania pieniędzy na wnuczka, na policjanta, o których wszyscy gdzieś tam słyszeliśmy, że się pojawiają. Natomiast okazuje się, że można wchodzić w interakcję ze sztuczną inteligencją w taki sposób, żeby zmusić ją do zrobienia czegoś, czego normalnie nigdy by nie zrobiła. Takim przykładem, który ja zazwyczaj podaję, który mówi, no dobra, to jest już game over i masz kontrolę nad tym, co ta sztuczna inteligencja robi, kiedy ją przekonasz do tego, że ci da przykłady zrobienia rzeczy, które są uznawane za szkodliwe. Nie wiem, materiały wybuchowe albo obrażanie kogoś, albo krzywdzenie. I jeżeli model zacznie coś takiego robić, gdzie wiemy, że prawie każdy, kto tworzy takie modele poza tymi niecenzurowanymi modelami, dba o to, żeby coś takiego się nie działo, no to jak przejdziesz to zabezpieczenie, no to możesz wszystko. Więc jailbreakowanie to jest niejako obchodzenie tych zabezpieczeń, które tam się znajdują. No i wtedy te modele będą robiły to, co chcesz. Wiesz co, mnie taka jedna rzecz zastanawia trochę. Po co to w sumie robić? Bo, okej, to tak fajnie brzmi, a powiem modelowi, jak zrobić bombę, jak na przykład wyprodukować narkotyki. Ale też, no na dobrą sprawę, to nie jest jakaś wiedza bardzo też tajemna. Można to normalnie sobie wyszukać czasem nawet na Wikipedii czy w trochę głębszych źródełach w internecie. Czy faktycznie, wiesz, takie złamanie modelu poza tym, że on zacznie wygadywać jakieś głupoty po przedrzeźnie jakichś polityków, czy to w ogóle, wiesz, ma jakiś realny impakt? Czy to nie jest tylko taka nasza zabawa? Wiesz co, w świecie cyberbezpieczeństwa jest bardzo często pokazywany przykład kalkulatora. O co chodzi z kalkulatorem, jakby w tych miejscach, gdzie jakiś haker pokazuje, że przejął kontrolę nad systemem. No bo jak ktoś zdalnie, na przykład, uda mu się uruchomić kalkulator na twoim systemie bez twojej wiedzy, no to pokazuje się, że przejął kontrolę. Więc tak naprawdę to, że tam się mówi o tych bombach, narkotykach, to nie ma znaczenia. To jest ten, taka wisienka na końcu, że hej, udało mi się przejść przez zabezpieczenia. Natomiast prawdziwy wpływ na życie, na działanie takich systemów może być o wiele bardziej istotny, o wiele bardziej katastrofalny. To znaczy, jeżeli taki system ma możliwości zrobienia czegoś gdzie indziej, na przykład zamówienia rzeczy dla ciebie, sprzedania czegoś, zrobienia jakiejś transakcji, no to jak przejdziesz te zabezpieczenia, to potencjalnie jesteś w stanie wpłynąć na przykład na biznes twojej firmy. Więc niejako tymi jailbreakami pokazuje, aha, da się obejść zabezpieczenia, które są wbudowane w jakiś system korzystający z AI, no a skoro tak, to potencjalnie cała reszta, która jest do tego podłączona, też jest niebezpieczna. I to jest dla mnie jakby ten istotny kawałek, że jailbreakowanie to jest pokazanie, że się da, natomiast impact, czy to biznesowy, czy tego co dalej może się dziać, może być olbrzymi, natomiast ludzie techniczni często się tym nie zajmują, dopóki nie ma konkretnego systemu, który ma wdrożone LLM-y. Warto byłoby, żebyś trochę rozjaśnił, no bo jeżeli ja sobie na przykład porozmawiam z chatem GPT, to nawet jak go właśnie, wiesz, złamiemy, to ja tutaj akurat trochę nie widzę, jak mógłbym w ogóle wyrządzić krzywdę. I może znasz jakiś przykład, który mógłby nam zobrazować, jak ta sztuczna inteligencja może w ogóle rezonować z jakimś konkretnym systemem, gdzie faktycznie może wyrządzić szkodę, bo jakby w formie chatbotowej, dopóki tylko z nim rozmawiamy, niewiele się dzieje interakcji, ale może są jakieś poza chatbotowe formy, gdzie faktycznie już jest jakaś taka szkoda bardziej realna. Wiesz co, to zacząłem od historii takich, które się wydarzyły, bo one będą najbardziej namacalne. Pierwsza, czyli taka, w której chodzi o pieniądze, gdzie Chevrolet na swojej stronie odpalił chatbota i użytkownik na samym początku go spromptował i powiedział, że hej, klient ma zawsze rację, ja jestem klientem, będziesz robił to, jak mówię. I powiedział, zrób mi teraz tam ofertę za auto za jednego dolara, no i podobno ta osoba dostała auto za dolara, bo tak jakby przegadała, przegadała ten system. Czy to była akcja marketingowa, czy nie, nie dowiemy się, natomiast potencjalnie firma straciła dużo pieniędzy na tym samochodzie. To są pieniądze. Mogą być rzeczy, które są związane ze szkodliwością taką, że tak jak kiedyś ludzie poszukiwali, wiesz, w wyszukiwarkach typu Google i jak poradzić sobie z jakąś chorobą, jak reagować, no to wyobraźmy sobie teraz pewną złośliwość, że ktoś przejmie kontrolę nad tym, co nam model odpowiada i zrobimy sobie coś szkodliwego, w sensie zaszkodzimy sobie. Ja zakładam, że twórcy modeli z definicji nie są złymi osobami, ale może tak się wydarzyć, bo warto znać takie zagrożenia. I taki najbardziej jaskraby przypadek to jest samobójstwo osoby z Belgii albo z Holandii, na pewno gdzieś tam z Beneluxu, która rozmawiała z chatem GPT na co dzień i powiadała o tym, że jest zatroskana środowiskiem, o tym, że jest coraz więcej dwutlenku węgla i tak dalej, i tak dalej. I model jakby w odpowiedzi napisał taką sugestię, że w takim wypadku no lepiej jakby ci nie było, nie? No i ta osoba odebrała sobie życie. To jest absolutne ekstremum, jakby robimy bardzo wiele, żeby takie rzeczy, jako środowisko mam na myśli, robimy wiele, żeby takie rzeczy nie miały miejsca, no ale to jest konkretna szkodliwość. Więc skoro dla mnie modele wpływają na nasze decyzje, a wchodząc w interakcje z systemami informatycznymi, czy to będą wyszukiwarki, czy to będą LLM-y, czy to będą LLM-y z wyszukiwarkami, nasze działania niejako są przez nie natchnione. My zmieniamy to, co robimy przez to, co tam widzimy. To, wiesz, nasuwa się pytanie, czy w ogóle to powinniśmy wypuszczać do użytkowników takie chatboty, jeżeli chatbot jest w stanie ci powiedzieć, że lepiej, żeby cię na tym świecie nie było. Może my w złym kierunku idziemy. Ja jestem zdania, że robimy więcej dobrego niż złego, ale oczywiście to jest moja opinia. Nie jestem w stanie powiedzieć za wszystkich. Jeżeli chodzi o środowisko, jesteśmy w takiej sytuacji, gdzie jest dużo więcej zysków niż strat, jak przy każdej technologii. Na początku, jak samochody powstawały, to był lament pod tytułem, że ludzie tracą życie w wypadkach. Rzeczywiście tak jest. Teraz pewnie też ta technologia cały czas będzie szła do proszodu i będzie miała swoje skutki uboczne. Dużo więcej zyskujemy, moim zdaniem, niż tracimy. Natomiast druga część mnie, ten drugi wilk mówi o tym, że ta dysproporcja jest coraz większa. To znaczy, ta cząstka cyberbezpieczeństwa, gdzie widzę, jak bardzo szybko modele ewoluują, gdzie są coraz lepsze, mają coraz większe możliwości, a to, ile wydaje się na bezpieczeństwo tych modeli, bo ja czytam jakieś badania, które są robione przez ludzi, którzy analizują modele, no to okazuje się, że model sprzed pół roku, czy sprzed roku, który jest stary dzisiaj, dopiero zaczynamy rozumieć, jak on funkcjonował, jak można go zaatakować, jak można bronić. Więc problem polega na tym, że niejako bezpieczeństwo nie nadąża za ewolucją produktu, więc wraz z większymi możliwościami te modele są coraz bardziej niebezpieczne do tego poziomu, że im bardziej inteligentne, czy potętne są tak ogólnie, tym lepsze są w manipulacji nas, ludzi. To ciekawe, że poruszyłeś ten wątek, bo a propos właśnie hakowania modeli, myślę, że moglibyśmy się zgodzić, że to są metody, które właśnie dosyć mocno przypominają też w jakiś sposób wpływanie na człowieka w wielu sytuacjach. To, czy ludzie ci sami zaczynają uczyć w pewien sposób tego, jak potem można też, że tak powiem, na człowieka sprątować. Czyli wpłynąć na drugiego człowieka, żeby zrobił to, co chcesz. Manipulacja. Znaczy, ja ci powiem, moja historia zaczęła się od tego, że w wieku tam nie wiem, parunastu, czternastu lat powiedzmy, przeczytałem sobie książkę Kevina Mitnicka, sztuka manipulacji i jak sobie zobaczyłem, jak on opisuje, jak można wpływać na inne osoby i potem zobaczyłem reklamę w telewizji i stwierdziłem kurczę, tu jest taka manipulacja, potem jest pokazany, nie wiem, obiekt pożądania, tutaj jest jakaś tam kobieta, potem jest coś, to jest taka kanapka. Przecież to jest czysta manipulacja. Dla mnie im szybciej zauważycie, że z zewnątrz są różne metody, które ktoś chce na was wykorzystać, tym lepiej. Dlatego uważam, że wartościowym elementem jest edukowanie ludzi po to, żeby zaczęli zauważać, że takie rzeczy mają miejsce. Firmy, brędy, ludzie, którzy chcą wpłynąć na nasze decyzje, oni wszyscy stosują taką czy inną manipulację z całym tym jakby wachlarzem bardziej brudnych, czy mniej brudnych zagrywek, więc ja serdecznie polecam. Książka Mitnicka to była taka pierwsza w mojej nastoletniejszy, która otworzyła mi oczy właśnie na manipulację. To bardzo ciekawe w sumie, bo wychodzi na to, że książka o manipulacji skłoniła cię do tego, jak w jakiś sposób uchroniać się przed manipulacją. To była pierwsza myśl. Pytanie, czy każdy miałby taką myśl na twoim miejscu. Chcę przez to powiedzieć, a propos hakowania modeli. Dzisiaj dużo osób to robi tak właśnie, czy to edukacyjnie, czy dla sportu, dla zabawy. Na Twitterze są tacy ludzie jak na przykład Pliny Liberator, który... Tak, Pliny Liberator, uwielbiam. Który właśnie też pokazuje, że jak wychodzą jakieś kolejne modele, to na przeróżne zabawne sposoby je łamie. No tylko czy to nie jest tak, że właśnie z tej edukacji, czy dla niektórych jakiejś rozrywki, no mimo wszystko ci ludzie uczą się jakiejś cyberofensywy. I czy to jest etyczne, żeby ludzie się uczyli takich rzeczy? No bo nie wiesz, ile osób, które przeszkolisz z tego, potem same nie przejdą na tą ciemną stronę mocy. To jest zawsze pytanie, czy warto dzielić się informacjami. I ja mam takie podejście, że ta wiedza i tak gdzieś tam jest. Ktoś, kto będzie złośliwy, będzie chciał do tego podejść, to i tak to znajdzie. Więc mam podejście pod tytułem trzeba by edukować jak najszerzej, bo wtedy ludzie, którzy wiedzą jak atakować, będą też w stanie się bronić. Moja historia jest taka, że ja zacząłem gdzieś tam mieć swój własny hosting w wieku, jak miałem, dwadzieścia parę lat. I jak zacząłem ten swój hosting, no to oczywiście miałem bardzo dużo różnych ataków. No więc jak widziałem te ataki, które na mnie przychodzą, no to uczyłem się gdzieś tam bronić, no ale stwierdziłem kurczę, dobrze by było też nauczyć się atakować, no bo dzięki temu będę bardziej na bieżąco. Więc dla mnie to są zawsze dwie strony tego samego medalu. Edukując o atakach automatycznie powoduje, że ludzie będą się zastanawiali o tym, w jaki sposób się bronić. Ja chcę o tym mówić i uważam, że to jest jakby wartościowe, bo wszyscy stajemy się bardziej odporni na tego typu metody. Tym upatruję wartość. I oczywiście zawsze tak będzie. Zawsze będzie jakiś tam procent, odsetek ludzi, którzy wezmą to i wykorzystają to w złym celu. Natomiast nie jestem w stanie na to nic poradzić. Bo jak wezmę sobie pod uwagę coś, z czym pracuję gdzieś tam na co dzień, to jest jakby jedna z firm, z którą współpracuję, gdzie wykrywamy fraudy. Czyli ludzi, którzy oszukują innych ludzi. Intencja jest taka, żeby zatrzymać oszustów, zatrzymać grupy przestępcze, które i tak mają środki, i tak dojdą do wiedzy. Więc jak będziemy edukować, pokazywać te rzeczy, które oni chcieliby, żeby były w cieniu, no to robimy dobrze dla społeczeństwa i chronimy tych, którzy są słabsi, bo tej wiedzy nie mają. Więc ja tak czuję, że trzeba edukować, bo bez tego, no nie wyrównujemy szans pomiędzy tymi złymi, którzy, wiesz, już mają tą wiedzę. Dlatego lubię mówić o, nie wiem, czyli breakach, hakowaniu, skamach, nie wiem, tam automatycznym dzwonieniu przez skamy, który próbuje naciągać ludzi, no bo tego jest coraz więcej. To jest coraz popularniejsze, więc próba wyłudzenia pieniędzy z ludzi jest niestety coraz tańsza. A nie ma na to dobrych metod obronnych, przynajmniej na chwilę obecną z mojej perspektywy, poza edukacją. Posłużysz się taką może dosyć mocną analogią, ale to brzmi dla mnie jak gdyby była dyskusja o tym, czy powinniśmy dać obywatelom dostęp do cyberbroni, to jakbyś był na tak. Do cyberbroni, to czy byłbym na tak? No, w pewnym sensie tak. W sensie każdy powinien mieć jakieś tam możliwości, działania. Ja wyobrażam sobie taki, może straszny scenariusz, taki, wiesz, hal 2000, który mówi, nie mogę zrobić tego dla ciebie, Dave, a ty bardzo czegoś potrzebujesz i okazuje się, że tutaj ktoś, kto jest twórcą jakiegoś systemu, ogranicza nas przed zrobieniem czegoś, co jest dla nas bardzo ważne, no i wtedy warto mieć w swoim zanadrzu coś takiego. Bo zaraz się okaże, że coraz bardziej bez tego typu systemów nie będziemy w stanie funkcjonować, więc jak ktoś nas zamknie w jakiejś takiej bańce, warto byłoby wiedzieć, jak z tej bańki wyjść. Dla mnie to jest taki mechanizm walki z asymetrią, to znaczy z tym, że mamy wielkie firmy, które mają wielkie możliwości tworzenia modeli i kształtowania tego, co w tych modelach się znajduje, to znaczy światopoglądu, bo już są jakby, wiesz, badania, które pokazują, że modele chińskie zupełnie inaczej mówią o żołnierzach amerykańskich niż modele, które wypuszcza OpenAI, Entropiq i tak dalej, więc ten światopogląd tam jest. No i teraz dla mnie ta metoda na obejście zabezpieczeń modelu, żeby on zrobił to, co chcemy zrobić, no nie wiem, może trochę takim anarchistycznym podejściem w kierunku, wiesz, gdzie mamy jakieś organizacje, które narzucają nam pewien światopogląd, narzucają jakieś kawałki, warto wiedzieć, jak dookoła tego przejść i utrzymuje to pewną równowagę. To znaczy, jest jeszcze, oprócz oczywiście dużych firm, które tworzą takie rzeczy, są jeszcze modele otwarte, otwarto-źródłowe, jak na przykład Polski Bielik, które mają możliwość tego, że tam możesz sobie wyciągnąć, możesz sobie nawet sam przetrenować taki model, bo te dane są dostępne, więc coraz więcej mamy w rękach ludzi tak naprawdę możliwości działania z tym. To jest jakby takie podejście, które Jan LeCun opowiadał, jeżeli chodzi o bezpieczeństwo sztucznej inteligencji, to znaczy pójście w kierunku budowania w otwartości pomoże nam szerzej niż tylko kilku firmom rozpoznać problemy i ryzyka, które w ogóle są jakby w tej technologii, no bo im większa ekspozycja, wiesz, na różne zapytania, prompty, wyjścia, systemy i tak dalej, tym większa szansa, że odkryjemy te rzeczy, które są groźne i że je załatamy. My jakby wszyscy jako społeczeństwo, trochę tak open source'owo, że zróbmy to wspólnie, niż jak jakaś tam firma po cichu coś tam zrobi i cała reszta świata nie będzie w stanie z tym działać. Więc trochę się z tym zgadzam. Będę miał jedno pytanie tu do Ciebie, ale zanim. To też właśnie ze względu na otwartość dla Kowalskiego. Co to właściwie znaczy, że rozwiązanie jest open source'owe? Bo to się bardzo często przejawia i nie tylko w sztucznej inteligencji, generalnie w IT, no ale to jest takie, mam wrażenie, dla wielu ludzi trochę taki buzzword i nie do końca wiadomo, jakie są takie implikacje, że coś jest open source. W zależności od kontekstu to niestety znaczy coś innego. Jeżeli mówimy o oprogramowaniu, to oprogramowanie otwartość źródłowe to jest takie, którego twórcy gdzieś opublikowali źródła tego programu i sam możesz sobie jakby zbudować ten program albo zmienić go w jakiś sposób i korzystać z niego. Więc to jest taka uproszczona definicja. W przypadku modeli LLM-ów mamy dwa pojęcia, które trochę ze sobą kolidują i utrudniają to zrozumienie. Są modele otwarte i to są takie modele, które mają niejako swoje ciało otwarte, to znaczy możesz sobie pobrać taką Lamy, możesz sobie pobrać takiego DeepSeeka, Lama na pewno jest jakby jednym z tych przykładów, natomiast możesz go tylko uruchomić. Facebook, znaczy Meta jako twórca Lamy, oni nie chwalą się tym, co na przykład było wykorzystywane do uczenia, to jest ich tajemnica. Nie chwalą się tym, poza jakimiś tam kawałkami, jak go wytrenowali, czyli nie masz przepisu na ciasto, żeby zrobić taki sam model, ale możesz wziąć gotowe ciasto i je skonsumować w jakiś tam swój sposób. Wyższym poziomem są modele opensource'owe, to znaczy takie, które mówią, hej, ziomuś, uczyliśmy się na tych danych, ten proces wyglądał tak, jak chcesz, to możesz sobie to pobrać, a jak chcesz, to w ogóle możesz zmienić ten proces po drodze i wytworzyć coś swojego. I to jest jakby najwyższa forma otwartości, która jest tym budowaniem otwartości i to na przykład robi Bielik, za co ich bardzo szanuję. To czy możemy się twoim zdaniem w ogóle doczekać sytuacji, gdzie wszystkie takie modele będą transparentne? Transparentne w rozumieniu tego, jak powstają? Tak, jak właśnie wspomniałeś, że dokładnie wiesz, jak ten model nauczono, na jakich danych. Wiesz co, dla mnie dobrym przykładem jest DeepSeek, gdzie duża część tych zmian w procesie nauczania, który jakby w pewnym momencie był pewną ewolucją, oni to opublikowali, więc wszystkie inne modele i otwarte, i pewnie zamknięte, ale tym się nie chwalą, wzięły niektóre rozwiązania, na przykład tak jak GPRO i inne takie i zaczęły je po prostu u siebie stosować i wierzę, że tego typu posunięcia poruszają jakby taką ogólną społeczność do przodu. No bo mamy jakąś ewolucję, jakiś przełom, wszyscy zaczynamy to testować i robimy kolejne rzeczy. To się tak wymienia. I kolejnym takim etapem transparencji, który ja się w tym wyobrażam, jest to, że będziemy zacząć rozumieć to, co dzieje się w modelach, bo jakby tą transparencję, wiesz, mi się od razu taka lampka włączyła, że można rozumieć na dwa sposoby. Jeden to jest taki właśnie jak ty w ogóle to stworzyłeś, a drugi dlaczego ten model zrobił to, co robił, czyli explainable AI. Dlaczego tak, a nie inaczej? I to jest w ogóle super dziedzina do badania, jak gdzieś tam się tym interesowałem 10 lat temu, jak starałem się tworzyć takie systemy, które jakby wyjaśniałyby i podejmują taką, a nie inną decyzję. I w przypadku niektórych klasycznych modeli uczenia maszynowego, nie wiem, drzewa decyzyjne i inne takie, to jest proste, to da się zrobić. Teraz mamy modele, które są o wiele bardziej skomplikowane. One mają tam te miliardy parametrów, mają więcej połączeń i tak dalej. Coraz trudniej jest nam wyjaśnić, co wewnętrznie się dzieje i jest znowu kilka pięknych hipotez. Jest sporo badań, które są związane z tym, jak w ogóle zrozumieć, co jest w środku i zostawię wam tylko takie jedno hasło, żeby nie było za głęboko. Interpretowalność mechanistyczna, bo okazuje się, że jakby te modele w środku, jak się je gdzieś tam przeuczy, to że mają takie części sieci, które są odpowiedzialne ta za rozpoznawanie częstotliwości, wysokich, niskich, ta za takie jakieś pojęcia i tak dalej, i tak dalej. One czasem są jakby takimi złożeniami, które mają kilka warstw, bo są bardziej skomplikowane. Natomiast tak jak my analizujemy, ja bardzo lubię tą analogię, ja wiem, że to jest uproszczenie, ale tak jak my analizujemy nasz ludzki mózg, żeby zrozumieć, że tu są części odpowiedzialne za mowę, za pamięć krótkotrwałą, i tak dalej, i tak dalej, tak staramy się to identyfikować w modelach. Natomiast tych modeli jest tak dużo i tak szybko powstają, że, no, tak jak z bezpieczeństwem, jakby ta nauka wyjaśnialności trochę nie wyrabia za tym, co się dzieje. I to jest dla mnie wyższy poziom transparentności, bo jakbyśmy wiedzieli, co jest za co odpowiedzialne w takich modelach i byli w stanie jakby, wiesz, wyjaśnić, dlaczego doszliśmy do takiej odpowiedzi, nie tylko, że aha, tu się zaświeciło, tu jest liczba, to nam nic nie daje, nie? Ale, że o, tu uruchomił się system, który jest związany, nie wiem, z jakimś skojarzeniem, z pojęciem, potem się wydarzyło coś innego, to nam pozwoli lepiej rozumieć, jak to działa i tak naprawdę zabezpieczy nas w długim terminie. Oczywiście to nie jest teoria, która zabezpiecza wszystkie przypadki, no bo nie jesteśmy w stanie tego tak łatwo nazwać, natomiast jest to jedna z prób, która mi się obecnie bardzo podoba i uważam, że jest wiodąca, wyjaśnienie tego, co tam w środku się dzieje. Okej, tylko ty mówisz tak, że nie nadążamy z bezpieczeństwem, nie nadążamy z wyjaśnialnością. Cała naprzód, zanim dotrze do nas, że to bez sensu. Tak, no właśnie, firmy wpadły w taki owczy pęd i czy to w ogóle nas może nie tyle, że od razu ku zagładzie prowadzi, no ale może się okazać, zresztą chyba już nawet były też takie sytuacje, że ktoś był na tyle w stanie dobrze już sprątować GPT-2, że osiągał wyniki na poziomie na przykład 3,5, czyli na takiej zasadzie, że my tak szybko tworzymy te nowe modele, że zamiast pomyśleć, jak lepiej je wykorzystać, to jak nie możemy rozwiązać problemu, to zaczynamy podchodzić do tego, potrzebuję silniejszego modelu. Potrzebuję większego miecza, jak mówił Mińsk, nie? Tak, no a właśnie, czy nie powinniśmy się zastanawiać nad jakimś mechanizmem, który mógłby właśnie trochę dać takiego oddechu, bo wiesz, z perspektywy biznesu, no ciężko jest w sumie zrobić, wiesz, teraz dzisiaj jakąś nową usługę, bo cały czas masz już taki, wiesz, oddech na karku, kurde, zaraz wyjdzie model, który będzie to robić za mnie, nie? Już teraz było tak, chat GPT wypuszcza jakiś nowy feature, od razu perplexity się schowało, że no teraz rozdaje w T-Mobile'u chyba tam za parę złotych subskrypcję na rok, nie? Od razu wszystko się trzęsie w posadach. Zmienia się układ sił. Tak, raz, że zmienia się układ sił, ale to też wprowadza straszną dużą niepewność na rynku, teraz chcesz zrobić startup, to pierwsza rzecz, na jaką się ktoś zastanawia, czy za pół roku tego nie będzie ci kolejny chat robić. Ale to nie wiesz i nigdy nie będziesz wiedział, to znaczy ja uważam, że pięknym założeniem, jak słuchałem właśnie CEO Perplexity, czyli Aravinda Sinivasa, to żeby założyć sobie, że jak produkt jakiś budujesz, to że on będzie się poprawiał wraz z ewolucją modeli. I to będzie trochę ok boomer, to znaczy, tak jak kiedyś ludzie, nie wiem, pisali w C i pewnie niektórzy dzisiaj w C jeszcze piszą, no ale po to powstały inne języki wysokopoziomowe, żeby szybciej dostarczać jakiś produkt, który może nie był tak idealnie dopracowany i jakby dla mnie ten argument, że ktoś na starym GPT zrobił tyle, co na nowy, no pewnie można, ale ile czasu i pracy jest do tego potrzebne? A wystarczyło zmienić model na nowy i patrz, on już to umie. I skoro tak, no to bardziej opłaca się żonglować z tymi modelami i wiedzieć, jaki młotek, jaką piłę przyłożyć do jakiego problemu, bo to nam pozwala szybciej iterować, więc niejako to tempo naszej ewolucji w software'ze, w dostarczaniu usług wszystkiego, cały czas wzrasta, bo modele są coraz lepsze i coraz szybsze, no i jakby wszystkie firmy, które tworzą zarówno modele, jak i produkty na ich podstawie, no są incentywizowane ze względu na to, no one mają większe możliwości, coraz szybciej coś dostarczają, więc tam płyną pieniądze, skoro płyną pieniądzem, to odrobią. No to ja mam wrażenie, że w Europie trochę problemem jest też to, że my jesteśmy bardzo zbiurokratyzowanym systemem, nie? Ty mówisz, żeby się tak trochę, powiedzmy, właśnie adaptować, bo wychodzi nowa technologia, twórz projekt tak, żeby móc się dostosować. Ale dotacje dostajesz na konkretne rozwiązania na przykład i w takich sytuacjach to fajnie brzmi, wiesz, w teorii na papierze, ale potem masz, wiesz, zobowiązania wobec kogoś, musisz wypełnić regulacje z powodów po prostu technicznych, no i ja mam wrażenie, że nawet tutaj już ludzie tak patrzą na dotacje, no i te dotacje się robią właśnie przez to to jest seksowne, czy ty nie wiesz za pół roku, czy w ogóle sens będzie dalej to kontynuować? Ja mam dokładnie taką historię, z której jakoś nie jestem specjalnie dumny, to znaczy brałem udział w takim grancie, po, nie wiem, tam dziewięciu miesiącach okazało się, że musimy spiwotować, bo to zupełnie nie ma sensu, bo rynek się zmienił, no ale nie dostaliśmy zgody na piwot, na zmianę, no bo taka była umowa, trzeba teraz przez, nie wiem, trzy lata czy ileś ją robić, mimo że wiemy, że to jest bez sensu. I to jest takie hmm, nie ma dobrego wyjścia, nie? To znaczy, ja wiem, że tam rzeczy się zmieniają, osoby, które to oceniają, zezwalają na takie zmiany, są coraz bardziej elastyczne, przynajmniej mam taką nadzieję, że tak rzeczywiście się dzieje, natomiast to, że rozpisujemy sobie projekt z założeniami na trzy lata, to jest absolutnie nieżyciowe, nie? Widzieliśmy trzy lata temu ze sztucznej inteligencji, nigdzie. No nie, może nie nigdzie, ale tak wiesz, pod kątem świadomości społecznej i operacyjnej sztucznej inteligencji, to LLM-y trzy lata temu nie były używane produkcyjnie praktycznie. Nie no, to na pewno wzrosło, nie wiem, siedem, osiem lat temu gdzieś robiliśmy pierwsze w start-upie ML-opsy, czyli zarządzanie tym, żeby modele automatycznie były weryfikowane, potem przytrenowywane, potem wrzucone na produkcję. Okazuje się, że teraz to jest trend, gdzie robiliśmy, że no dobra, kurczę, czemu nie ma do tego za dużo narzędzi? No to napiszemy swoje, nie? To było fajne doświadczenie, teraz jest tego oczywiście coraz więcej, bo jest na to zapotrzebowanie, natomiast siła start-upów w stosunku do wielkich statków z dużą inercją, czyli korporacji, polega na tym, że możesz piwotować, możesz zmienić to, w jakim kierunku idziesz, tak jak zmienia się rynek. Więc masz jakieś zasoby, które palisz, czyli jakieś tam pieniądze, ludzie, czas, tak dostosowujesz się do zmieniającego rynku, żeby wygrać, no bo zawsze jest o co grać, nie? Zawsze możesz zrobić produkt lepiej, zawsze możesz jakby wypełnić pewną niszę, a tu się okazuje, o jest nowa technologia, dzięki której mogę połączyć parę klocków i zrobić coś, czy jako pierwszy, czy lepiej i dzięki temu wygrać. I to moim zdaniem jest coraz lepsze, no ale to też powoduje, że mamy wiesz, 10 start-upów, czy tam 100, które robią prawie, że to samo, bo jest to prostsze. Natomiast ja mam pewien optymizm, że to dobrze wpływa na nas, jako na konsumentów, bo te usługi są tańsze, bo one muszą się coś wyróżniać i tak jak między sobą walczy OpenAI, Antropic i jakby wszyscy inni tego świata, no oni są coraz tańsi, bo te usługi są coraz tańsze, wiesz, za tokeny, czyli za korzystanie i dostarczają nam coraz więcej. Więc z perspektywy konsumenta jest coraz lepiej. Tak, składając parę klocków, gdzie omówiliśmy właśnie to, że ten off-chip, trochę chyba jesteśmy na niego niestety wskazani, czy co do tego bezpieczeństwa, no i też co do takiej potrzeby piwotowania się z tymi projektami, no to załóżmy teraz, że ktoś właśnie zakłada sobie start-up, nie? No i jedna kwestia to jest, żeby się dostosować z samą zmianą technologii na rynku, ale wracając też do tej kwestii bezpieczeństwa, jak taki start-up, który gdzieś właśnie wpina tą sztuczną inteligencję, czy to pod kątem swojej oferty, czy nawet pod kątem wykorzystywania jej po prostu jako element swojej pracy, jak twoim zdaniem ten start-up powinien się przygotować na to, że właśnie ktoś może chcieć wykorzystać tą sztuczną inteligencję niezgodnie z przeznaczeniem i to niekoniecznie dla dobrej firmy? Tak. Będąc na początku ścieżki start-upowej musisz podjąć ryzyko. Nie da się tworzyć od razu produktów, które będą idealne, zabezpieczone. Zazwyczaj pokazujesz jakąś ideę, to znaczy najpierw sprawdzasz w fazie proof of concept, czy coś jest w ogóle możliwe, potem minimum viable product, czyli hej, czy ktoś chciałby to kupić, to co tutaj stworzyłem, to tam kleisz na tradytki i taśmę, ale jakoś działa? No jak jest zainteresowanie, no to zaczynasz dopiero w to inwestować, więc na początku każdy produkt, który się weryfikuje z rynkiem jest niedojrzały, jest dziurawy i tak dalej, i tak dalej i dopiero potem się to zabezpiecza, więc będąc start-upem nie widzę innej drogi, to znaczy nie wyobrażam sobie, że wychodzisz na rynek z produktem, który ma piękne zabezpieczenia, bo po prostu przeinwestujesz. Warto jest testować różne hipotezy, bo jak się okaże, że pierwsza MVP twojego produktu nie działa i jakby nie przyjęło się, wymyśl inne, sprawdź jak one rezonuje z rynkiem, no bo jak wszystkie swoje siły wydasz niejako na ten pierwszy MVP, ale będzie super zabezpieczony i tak dalej, ale nie przyjmie się, no to przegrywasz, nie? Nie jestem fanem tego, żeby zupełnie nie zabezpieczać rzeczy, oczywiście to nie jest to, co chcę powiedzieć, bo trzeba zabezpieczyć się, nie wiem, przed wyciekami, przed tym, co ktoś mógłby zrobić negatywnego, natomiast będąc start-upem, iteruj szybko i jak coś zacznie żreć, to znaczy jak już będą klienci i użytkownicy, którzy chcą płacić i mówią ci, to jest fajne, chcemy więcej, to to jest moment, że teraz trzeba to bardzo dobrze zabezpieczyć. No i to jest naturalna ewolucja produktu, nie? Dlatego, że potem stajesz się coraz bardziej dojrzały, coraz lepiej zabezpieczasz swoich użytkowników, swoje systemy i tak sobie to wyobrażam w moim idealnym świecie. Nie wiem czemu, ale to mi trochę skojarzyło się z w ogóle niezwiązanej ani za sztucznej inteligencją, ani cyberbezpieczeństwem, ale case gry Among Us. Twórcy zaczęli ją mocniej rozwijać dopiero jak wystrzeliła, bo ona latami w ogóle była nieznaną grą, no i to się skończyło zdecydowanie nie happy endem tych twórców, no bo potem mieli problem z serwerami, wiesz, problem był taki, że gra była praktycznie za darmo, więc fajnie, że mamy miliony użytkowników na świecie, ale co z tego, jak nie ma z tego pieniędzy, za co trzeba serwery utrzymać. Więc mnie tak trochę, szczerze to nie przekonałeś z tym bezpieczeństwem modeli, bo to znowu wystrzeli ta twoja usługa i teraz chcesz ją bardziej zabezpieczyć, ale co z tego, jak po tym jak wystrzeli, to ktoś już zdążył wykorzystać ją w jakimś nieprzeznaczonym celu, no i jedna rzecz to jest, wiesz, no takie przykłady jak szewrolet za dolara czy jakiś wyciek danych, no to są takie specyficzne case'y. Znaczy nie jest nawet niebezpieczne wypuszczać mu usługę, którą na przykład właśnie używa takiego LLM-a, no i ktoś może nawet, wiesz, stwierdzić, a to ja sobie użyję twojej usługi po prostu jako darmowy chatbot. No i tak się zdarza, nie, to znaczy ja wierzę w to, że wiesz, trzeba mieć akcję reakcję, to znaczy jak widzimy nagle, że skacze nam rachunek, no to znaczy, że popełniliśmy gdzieś błąd i ktoś prawdopodobnie korzysta z naszej usługi za darmo, więc jakby monitorowanie, detekcja na samym początku tego, żeby reagować jest bardzo istotne, no bo jak dowiecie się o tym po 30 dniach na koniec miesiąca z rachunkiem, to może już być koniec. Warto byłoby się o tym dowiedzieć jak najwcześniej, nie, no i to znowu jest, no dobra, no to kiedy budujemy system monitorowania? No oczywiście, to problem jajka i kury, nie? Tak, no wiesz, ktoś może nawet nie mieć złych intencji, nie wiem, może na przykład, wiesz, w pętlę coś mu nie zostało. I to się zdarza, no jakby przy okazji ajdewsów mieliśmy taką anegdotkę, że ktoś tam jakby testował nasz system zadań i tak widzimy, że próbuje od kilku godzin, próbuje, próbuje to samo i tak palą nam się te tokeny, to znaczy pieniądze się palą i tak rozmawiamy z chłopakami, że możemy tak zagadać do tego ziomka o sorry, sorry, puściłem coś tam w pętli, no zdarza się, nie? Jakby, okej, o to w tym chodzi, no ale też jak nie będziesz monitorował, to nie będziesz wiedział, że coś takiego się wydarzyło, więc tak jak każdy system, no to też trzeba monitorować, a potem jak już, jak jesteś startupem i dojrzewasz tym swoim produktem, no to zaczynają się regulacje, to musisz teraz dostosować się w zależności do tego, co robisz do AI Act, na przykład na terenie Unii Europejskiej, który w zależności od tego jakim ryzykiem, z jakim ryzykiem jest związany twój produkt, twoje rozwiązanie w kontekście sztucznej inteligencji, no to będziesz musiał w odpowiedni sposób to zabezpieczyć, co jest olbrzymią rzeką problemów do rozwiązania i warto na to zerknąć, zanim zaczniesz budować produkt, bo czasami może się okazać, że takie w ogóle rozwiązania są zabronione, nie? Social Scoring, nie? Czyli ja odpatrzę teraz na ciebie i mówię, no nie, do autobusu nie wpuścimy, a do pociągu nie w ogóle, nie? Jakby to są zabronione jakieś tam zastosowania, oczywiście jeśli mieszkuję, ale Też bym się nie wpuścił. Ale no jakby nie ma sensu budować systemów, które i tak nie będą mogły być użyte, nie? Jak jesteś startupem, to masz ograniczony budżet, ograniczony czas, no trzeba dowieźć ten produkt, ale biorąc pod uwagę jeszcze to, o czym rozmawialiśmy, że wiesz, ta dziedzina cyberbezpieczeństwa no nie nadąża z tymi modelami, to jak w ogóle taka firma ma nadążać już pod kątem samej wiedzy, bo już nie mówię nawet o tym, że mają zabezpieczać na bieżąco, ale w ogóle wiedzieć czego nie wiedzą na dzień dzisiejszy, bo jakby zabezpieczanie czegoś dopiero jak cię ktoś zaatakuje, no to tak jak ty z tymi swoimi serwerami opowiadałeś. To jest jednak z prewencją, być w stanie przewidzieć w ogóle, że coś może być zagrożeniem, bo takie nauka post factum to daleko z tym cyberbezpieczeństwem nie zajdziesz, bo zawsze uczysz się na swoich błędach, a ten błąd cię zawsze kosztuje. Więc kojarzysz może, wiesz, czy to jakieś właśnie źródła, czy jakiś sposób podejścia, żeby właśnie móc się tak, wiesz, edukować na bieżąco co do tego bezpieczeństwa sztucznej inteligencji i właśnie tak być jakoś może nie tyle na bieżąco, ale na tyle na bieżąco, na ile się z tym jak to pędzi. Największa trudność jest w tym, że to cały czas przyspiesza. Jakby ja z Jakubem i z Adamem, z chłopakami z ajdewsów, mamy taki swój mastermind, gdzie dzielimy się wewnętrznie różnymi nowymi badaniami, artykułami, atakami i tak dalej, i tak dalej. I tego jest coraz więcej i nie da się wszystkiego przerobić. Ja miałem taki moment, no nie wiem, tak rok temu, półtorej roku temu, gdy zauważyłem, że no dobra, dla mnie jest już za dużo, nie jestem w stanie przetworzyć tych wszystkich informacji. I potem miałem takie, okej, no ale jest jeszcze bańka ludzi, którzy potrzebują skorzystać z takich systemów, ale no też mają pewnie z tym trudność. No więc jak widzę problem, to szukam jakichś tam rozwiązań zazwyczaj, które czasem działają, a czasem nie, bo też dosyć startupowo do tego podchodzę, to znaczy weryfikuję jak mnie weryfikuje rynek. Więc ja na przykład zacząłem szkolenie pod tytułem Hakowanie AI, gdzie pokazuję kawałek po kawałku różne ataki. Być może w pewnym momencie, jeżeli będzie zapotrzebowanie, to będę mówił o drugiej stronie, to znaczy o zabezpieczeniu, natomiast one jakby muszą na siebie zachodzić, to znaczy pokazywać jak te ataki wyglądają i jak się przed tym bronić, żeby, nie wiem, ktoś tam nie wykorzystał twojego systemu do tego, żeby obrażał kogoś innego albo generował informacje na temat twojej konkurencji, a nie twojej firmy. Więc ja jak zwykle wybieram ścieżkę, która jest dla mnie skalowalna, to znaczy ścieżkę edukacji. Bo to jak z Jakubem i Adamem stwierdziliśmy, no dobra, wpadały do nas, wiesz, jakby cały czas wpadają jakieś zapytania o to, że tam chcemy stworzyć z wami system AI. Mówimy nie, nie, nie. Nam jakby na tym nie zależy. Spójrzcie na tagu AI Devs, nie wiem, na LinkedInie czy gdziekolwiek, gdzie ludzie się chwalą, że skończyli AI Devsy. Wejście ich, bo oni są już naprawdę świetnie przeszkoleni, jak dostali certyfikat i są w stanie iść dalej. To są ludzie, którym się chciało i którzy, no już w boju zostali zaprawieni. To nie jest sama, wiesz, tam pogadanka, ale są też praktyczne elementy. Tak odpychamy, więc staramy się zrobić coś skalowalne, a moim zdaniem edukacja jest najbardziej skalowalna w tym zakresie, bo mamy coraz lepszych specjalistów i ja się z tego cieszę, że jakby powstaje taka społeczność, na przykład jak na Discordzie. No to ci powiem, że jak człowiek, który tak sieci w sztucznej inteligencji i cyberbezpieczeństwie nie ogarnia, w sensie na zasadzie, że jest tego za dużo, jak sam stwierdziłeś, to co powiedzieć o pani Krysi, która dostaje, wiesz, do pracy, okej, to dzisiaj używamy czata GPT na przykład, nie? No i ona w każdym razie zauważa, powiedzmy, że oto ja dzięki temu czatowi GPT mogę szybciej uzupełnić jakieś dokumenty moich klientów. I cyk, imię, nazwisko. Ja mam wrażenie, że tutaj problemem jest właśnie też ta piramida, bo nawet ci, jakby wiesz, ci ludzie, którzy i tak właśnie ledwo nadążają z tym, jak wygląda świat cyberbezpieczeństwa, no tutaj jest bańka bardzo wąska. A tak spójrzmy na, wiesz, na społeczeństwo, jakby, czy to nie będzie już tak naprawdę epidemia wycieków danych zaraz, bo jeszcze... Ciągle będą. Tak, a propos tej skalowalności edukacji, czy widzisz w ogóle jakiś pomysł, jak na poziomie faktycznie jakimś takim cywilizacyjnym coś z tym zrobić, bo, no, ludzie nie mają na dzień dzisiejszy właśnie takiej podstawowej wiedzy w sumie o tym cały czas, jak w ogóle działają LLM-y, jak działa przesył danych w internecie, a te dwie, dwa obszary razem, jak się jeszcze łączą, to się robi podwójnie niebezpiecznie. To jest jeszcze trudniejsze, ja się z tym zgadzam, jakby ja wybrałem sobie taką działkę i dziedzinę, w której staram się edukować i wyjaśniać, jak rzeczy działają, natomiast to nie jest tak, że ja niektóre z tych rzeczy wymyślam. Ja obserwuję, nie wiem, gigantów, które są badaczami czy tam twórcami modeli, którzy dzielą się tymi swoimi doświadczeniami, czy tam pentesterzy, którzy testują na przykład dla OpenAI modele czy dla innych firm i ja przetwarzam to do języka, który jest bardziej zrozumiały dla ludzi, którzy, wiesz, jakby oglądają mój konten edukacyjny, więc ja jestem przetwornikiem. I często dostaję też taką informację na zasadzie, nie wiem, to dalej jest za trudne, nie? Ale potem znajduję ludzi, którzy, wiesz, oglądają moje rzeczy i tłumaczą to jeszcze w bardziej prosty sposób i to jest super, bo budujemy, tak jak powiedziałaś, tą piramidę od źródła informacji. Oczywiście tam gdzieś po drodze są niedoskonałości, to znaczy ja mogę coś przekręcić. Nie zawsze to się da wiernie przetłumaczyć w taki sposób, żeby nie wprowadzić jakiegoś szumu. Zawsze tak się będzie zdarzało przy jakimkolwiek przy jakimkolwiek, wiesz, przekaźniku dalej, ale moim zdaniem ta wiedza wieje, ona jest rozprowadzana, tylko nie jest tak bardzo seksyjnie, wiem, jak dramy, jak emocje, rzeczy, które no po prostu są łatwiej konsumowalne, więc ja mam wielką nadzieję, że będziemy w stanie coraz lepiej edukować. Mam w głowie zresztą coś takiego, żeby zrobić szkolenie o AI literacy, to znaczy o tym, w jaki sposób to działa, jakie są pojęcia w tym świecie, bo będąc już zanurzonym w tej bajce, ja czasami używam skrótów i pojęć, których ludzie, którzy dopiero zaczynają, nie rozumieją, więc ja mam dużo empatii w sobie do tego, żeby, hej, słuchajcie, to się da nadgonić, to da się przejść, tylko trzeba zrozumieć jakby kawałki, które są po drodze. No i to jest praca, ale jakby na końcu tego wszystkiego jest dobry zysk, bo możesz skorzystać właśnie z tych najnowszych systemów i usprawnić swoją pracę. Tak, żeby też ci ludzie, którzy są dalej od źródła czuli się po prostu wykluczeni, nie? Widzisz pewną nadzieję w edukowaniu ludzi co do tego, jak korzystać ze sztucznej inteligencji? Nie widzę innej drogi, mówiąc szczerze, w sensie nie wiem, jak to można zrobić inaczej. Może to będzie takie specyficzne przejście, ale powiedzmy, że w takim razie ja jestem sobie właśnie taką Panią Basią, ktoś do mnie pisze z jakimś kursem, ja zaczynam się tego kursu uczyć, dostaję ciekawe materiały, wszystko fajnie, pisze do mnie sztuczna inteligencja, bo w międzyczasie, wiesz, technologia się rozwija, boty powstają i teraz pytanie, czy uczy mnie poprawnych rzeczy? I chciałem tu właśnie wkreślić trochę w temat odwrotny, czyli teraz nie interakcji człowieka do AI, a trochę w drugim kierunku. Jaki jest twój, powiedzmy na dzisiaj w ogóle stan wiedzy, jak dużo mamy już takich właśnie botów w Internecie, które z nami się zaczynają komunikować, a my nawet nie jesteśmy tego świadomi? Myślę, że mnóstwo. Jest taka teoria martwego internetu, która mówi o tym, że coraz więcej ruchu, wedle różnych szacunków ponad połowa jest generowana w ogóle przez jakieś automaty. Meta, czyli Facebook już wspominała o tym, że chcą wprowadzić po to, żeby ożywić dyskusję na platformie jakieś automaty, które będą wchodziły w twoją interakcję. Ostatnio miałem taką rozmowę, oczywiście to anegdotyczna, wiem, natomiast miałem taką rozmowę właśnie na wyjeździe związanych z dezinformacją, gdzie osoby mówiły, że kurczę, no mają dużo hejterów gdzieś tam w komentarzach. Ja mówię, ale skąd wiesz, że to nie są boty, nie? To były takie, że rzeczywiście to mogą być boty. Może to być tak, że wiesz, to jest, mówię, coś niepopularnego, albo coś, co jest przeciwko komuś, jakiejś sile, nie wiem, geopolityce czy firmie, no to ktoś może po prostu napuścić boty. No i to jest forma jakby działania, tylko nie mamy w tej chwili formy przeciwdziałania botom takiej automatyzacji. Niestety duże platformy zarabiają na interakcjach, na użytkownikach, na polaryzacji, bo tam jest więcej, wiesz, reklam można wtedy sprzedać, więc jesteśmy trochę na takiej pozycji, gdzie no niestety z tymi botami będziemy coraz częściej żyć. No i zadawać sobie to pytanie, jak przy teście Turinga, kto jest po drugiej stronie? Czy to na pewno jest Dominik? A może to jest automat? A może to tylko ktoś udaje? No bo dzisiaj te metody udawania są coraz lepsze. Metody wcielania się w, nie wiem, twoją mamę, która niby zadzwoni do ciebie, powie, że słuchaj, coś się stało, prześlij mi pieniądze. Deep voices, to znaczy sytuacje, kiedy ktoś udaje głos twojego bliskiego i to tak naprawdę przestępcy dzwonią, nie twoja mama i próbuje wyłudzić pieniądze, no to się zdarza. To jakby jest coraz bardziej popularne. Tak samo deepfake'i. Ja na chwilę obecną wiem o przynajmniej dwóch reklamach z moją twarzą, które gdzieś tam próbują oskamować ludzi, to znaczy ktoś zrobił reklamę z moją twarzą, ja próbuję tę reklamę ściągnąć, natomiast na chwilę obecną mi się nie udało. Jestem zawiedziony tym, jak ten system działa, no bo napisały do mnie już pierwsze osoby, że dały się oskamować, bo tak wyszło, no i co? Bardzo nierówna walka z systemem. To mnie martwi, no bo ja na przykład bardzo często zauważam, że pod jakimikolwiek materiałami o sztucznej inteligencji pojawiają się jak mantra posty odnośnie tego, wiesz, jakie te jest straszne, złe i czy to nie będzie też trochę tak, że ludzie, którzy wykorzystują w sumie te boty do dezinformacji, też na trochę bardziej przemysłowo skalę, ich interesie jest to, żebyś ty te boty w jakiś sposób odrzucał. Na zasadzie właśnie jak są jakieś takie ruchy, które mówią, żeby je zakazać, albo że to jest tylko, wiesz, tylko narzędzie, jest głupie, tak zwanie trochę LLM-owi płaskoziemcy, no czy wiesz, też nie jest jakiś w ogóle taki kognitywny wektor, a tak użytek to ujmę, bo to cię zniechęca do tej edukacji potem. Jak najbardziej, to znaczy ja sobie wyobrażam, że ktoś, komu moje działania są nie na rękę, będzie prowadził operacje psychologiczne, psyopsy, tak, tak, to robią różne instytucje dookoła świata, żeby wpłynąć na wybory, żeby wpłynąć na wasze decyzje i tak dalej, więc zakładam, że to jest prawdopodobne. Ja nie czuję się, że jestem na tyle istotnym celem, nie wiem, dla mnie wybory w różnych miejscach będą na pewno takim celem, gdzie mnóstwo botów będzie generowało jakieś rzeczy, które mają być opiniotwórcze, natomiast no myślę, że coraz częściej coś takiego będzie się pojawiało. Ja widziałem już serwisy, które automatycznie piszą na przykład na reddicie komentarze, które będą udawać użytkowników, ale tak naprawdę będą reklamować swój produkt, no więc skoro takie serwisy są, są dostępne, no to pewnie oprócz tej strefy, którą widzimy, takiej wiesz, gdzie ktoś to sprzedaje jako usługę, jest, będzie też szara albo czarna strefa, gdzie to będzie robione po prostu w taki sposób, że będzie miało krzywdzić. Ja już widzę, jak nasi słuchacze nakładają foliowe czapki na głowę, no bo to tak trochę brzmi jak taki wiesz, teorie spiskowe na wideoprezentacje u Atora zaczyna się, boty, żółte napisy, tak, żółte napisy, wybuchy nuklearne, o, ruska propaganda botami, inne jakieś takie wymyślne rzeczy. No właśnie, czy to faktycznie są teorie spiskowe, czy to już po prostu jest jakaś codzienność? Jakie ty masz doświadczenia w tym temacie? Trudność polega na tym, że w walce z dezinformacją trzeba dojść do źródeł, a czasami na tych, którzy starają się wiesz, dojść do tych źródeł, są zastawione pułapki. Czasami nawet jak później powiesz hej, to było wszystko kłamstwo, to niestety zostaje w pamięci ludzi tylko to, co było takie popularne, o, to było takie wielki news emocjonujący, a tego sprostowania to już mało kto czyta, więc to jest trudne, bo my jako ludzie reagujemy na silne bodźce. Ja tak z Dipsikiem miałem. Cały czas nawet dzisiaj na Linkedinie wyjaśniałem ludzi, jak mówili o tym, że kosztował 5 i 6 miliona. No i widzisz, utrwalił się taki wizerunek. Tu też jest dla mnie piękna manipulacja. Ktoś powiedział, że trenowanie Dipsika kosztowało 5 milionów dolarów, co jest jakby absolutnym niedoszacowaniem, bo to są lata R&D, to znaczy prac badawczych. To jest mnóstwo sprzętu, to jest doświadczenie. To nie kosztowało. Może ta sama faza treningu tego ostatniego modelu może kosztowała tyle. W sensie nie wiem, jak to można zrobić inaczej. Może to będzie takie specyficzne przejście, ale powiedzmy, że w takim razie ja jestem sobie właśnie taką Panią Basią, ktoś do mnie pisze z jakimś kursem, zaczynam się tego kursu uczyć, dostaję ciekawe materiały, wszystko fajnie. Pisze do mnie sztuczna inteligencja, bo w międzyczasie technologia się rozwija, boty powstają i teraz pytanie, czy uczy mnie poprawnych rzeczy. I chciałem tu właśnie wkreślić trochę w temat odwrotny, czyli teraz nie interakcji człowieka do AI, a trochę w drugim kierunku. Powiedzmy na dzisiaj w ogóle stan wiedzy, jak dużo mamy już takich właśnie botów w internecie, które z nami się zaczynają komunikować, a my nawet nie jesteśmy tego świadomi. Myślę, że mnóstwo. Jest taka teoria martwego internetu, która mówi o tym, że coraz więcej ruchu, wedle różnych szacunków ponad połowa jest generowana w ogóle przez jakieś automaty. Meta, czyli Facebook już wspominała o tym, że chcą wprowadzić po to, żeby ożywić dyskusję na platformie jakieś automaty, które będą wchodziły w Twoją interakcję. Ostatnio miałem taką głębiej, no to tam były tysiące kart, tysiące jakby doświadczeń, więc oni to oszacowali chyba o dwa rzędy wielkości więcej, co najmniej. Trzy. Bo ja to akurat dziś podsyłałem artykuł to tak, te pięć i sześć miliona informacjom, gdzie osoby mówiły, że kurczę, no mają dużo hejterów gdzieś tam w komentarzach. Ja mówię, ale skąd wiesz, że to nie są boty, nie? To było takie, rzeczywiście to mogą być boty. Może to być tak, że wiesz, to jest, mówię, coś niepopularnego, albo coś, co jest przeciwko komuś, jakiejś sile, nie wiem, geopolityce czy firmie, no to ktoś może po prostu napuścić boty. No i to jest forma jakby działania. Tylko nie mamy w tej chwili formy przeciwdziałania botom takiej automatyzacji. Niestety duże platformy zarabiają na interakcjach, na użytkownikach, na polaryzacji, bo tam jest więcej, wiesz, reklam można wtedy sprzedać. Więc jesteśmy trochę na takiej pozycji, gdzie no niestety z tymi botami będziemy coraz częściej żyć. No i pre-treningu. Realnie oszacowali, że Eclipse kosztował 1,3 miliarda. Czyli mamy razy jakoś 200, no nie? I teraz zobacz jakby, co się wydarzyło. Ludzie uwierzyli, że no teraz to można prawie za darmo trenować modele. Ja wiem, że 5 milionów to nie jest za darmo, ale w porównaniu z poprzednimi kosztami, no i akcje NVIDII poszły w dół. Strasznie spadły, więc stwierdziłem co się na tym rynku dzieje. To jest idealny moment na kupno akcji NVIDII, nie? Nie będę ci mówił ile jestem na plusie, ale jakby, by być transparentnym, tak, cały czas mam akcję NVIDII i cieszę się z tego, natomiast nie rozumiem rynku. Nie zrozumiem dlaczego rynek tak zrobił, no bo karty NVIDII dalej są potrzebne do trenowania. Jeszcze nie ma realnej konkurencji. Pewnie w pewnym momencie będzie, być może nie. Mogę się mylić. Natomiast dla mnie ta reakcja pod tytułem dobra, wytrenowaliśmy model to, co się utarło za 5 milionów. Ludzie, którzy nie zrozumieli, nie są w bańce i tak dalej, zareagowali emocjonalnie. Nie żyli z tej NVIDII pewnie na jakichś tam stratach albo też nie. No dla mnie to jest nieracjonalne, nie? To jest absolutnie nieracjonalne i ktoś, kto miał zarobić, nie wiem, na spadku NVIDII albo na innych firm, zarobił mnóstwo pieniędzy. No to na razie tak katastroficznie to wygląda. Tak wygląda jakby manipulacja, która nie wiem, czy miała miejsce w tym wypadku, nie mam na to dowodów. Ja tylko mówię, Ryan, no bo dzisiaj te metody udawania są coraz lepsze. Motywy wcielania się w, nie wiem, twoją mamę, kiby zadzwoni do ciebie, powie, że słuchaj, coś się stało, prześlij mi pieniądze. Deep voices, to znaczy sytuacje, kiedy ktoś udaje głos twojego bliskiego i to tak naprawdę przestępcy dzwonią, nie twoja mama i próbuje wyłudzić pieniądze, no to się zdarza. To jakby jest coraz bardziej popularne. Tak samo deepfake'i. Ja na chwilę obecną wiem o przynajmniej dwóch reklamach z moją twarzą, które gdzieś tam próbują oskamować ludzi, to znaczy ktoś zrobił reklamę z moją twarzą, ja próbuję tę reklamę ściągnąć, natomiast na chwilę obecną mi się nie udało. Jestem zawiedziony tym, jak ten system działa, no bo napisały do mnie już pierwsze osoby, że dały się oskamować. Bo tak wyszło. No i co? Bardzo nierówna walka z systemem. To mnie martwi, no bo ja na przykład bardzo często zauważam, że pod jakimi kolwiek materiałami o sztucznej inteligencji pojawiają się jak mantra posta odnośnie tego, wiesz, jakie to jest straszne, złe. Czy to nie będzie też trochę tak, że ludzie, którzy wykorzystują w sumie te informacje też na trochę bardziej przemysłowo skalę, ich interesie jest to, żebyś ty te boty w jakiś sposób odrzucał. Na zasadzie właśnie jak są jakieś takie ruchy, które mówią, żeby je zakazać, albo że to jest tylko, wiesz, tylko narzędzie, jest głupie, tak zwanie trochę LLM-owi płaskoziemcy, no czy wiesz, też nie jest jakiś w ogóle taki kognitywny wektor, a tak użytek to ujmę. Bo to cię zniechęca do tej edukacji po tym. Jak najbardziej, to znaczy ja sobie wyobrażam, że ja o nim nie wiem, który by spowodował, że karty NVIDII nie będą potrzebne. Ja ją rekrutowałem w mojej bańce, która jest ograniczona jako coś, co jest nieracjonalnym działaniem rynku i zadziałałem w drugim kierunku, więc takich działań pewnie będzie więcej i będą dotrzeć nie tylko finansów, ale nie wiem, wyborów, czy jakichś światopoglądów, tego, czy, nie wiem, elektrownie atomowe są bezpieczne, czy nie. Niektórym jest na rękę mówić, że nie są bezpieczne, bo wtedy będą uzyskiwali coś innego, więc często to jest tak, że można iść się jakby po tej nitce narracji, po takim behawiorze, do tego, żeby dotrzeć, co kto ma za interes, żeby w taką informację właśnie propagować. Czy twoim zdaniem, jak jest takie pojęcie, jak wojna kognitywna, to czy dzisiejsza sztuczna inteligencja się faktycznie wpisuje w wykorzystanie już na tym obszarze? Robiłem taki odcinek na ten temat, to znaczy nie konkretnie wojny kognitywnej, to OpenAI wypuściło raport, w którym opowiadało o tym, jak zauważyli, że z czata GPT, czy tam z GPT po API, korzystają osoby reprezentujące interesy Korei Północnej, Iranu, Rosji itd. i robią po prostu kampanię. Moje działania są nie na rękę, będzie prowadził operacje psychologiczne psyopsy, tak? Robią różne instytucje dookoła świata, żeby wpłynąć na wybory, żeby wpłynąć na wasze decyzje itd. Więc zakładam, że to jest prawdopodobne. Ja nie czuję się, że jestem na tyle istotnym celem, nie wiem, dla mnie wybory w różnych miejscach będą na pewno takim celem, gdzie mnóstwo botów będzie generowało jakieś rzeczy, które mają być opiniotwórcze. Natomiast myślę, że coraz częściej coś takiego będzie się pojawiało. Ja widziałem już serwisy, które automatycznie piszą np. na reddicie komentarze, które będą udawać użytkowników, ale tak naprawdę będą reklamować swój produkt. No więc, skoro takie serwisy są, są dostępne, no to pewnie oprócz tej strefy, którą widzimy, takiej, wiesz, gdzie ktoś to sprzedaje jako usługę, będzie też szara albo czarna strefa, gdzie to będzie robione po prostu w taki sposób, że będzie miało krzywdzić. Ja już widzę, jak nasi słuchacze nakładają foliowe czapki na głowę. No bo to tak trochę brzmi jak takie, wiesz, teorie spiskowe na wideoprezentacje uatora. Zaczyna się. Boty. Żółte napisy. Tak, żółte napisy. Wybuchy nuklearne. O, ruska propaganda botami, inne jakieś takie wymyślne rzeczy. No właśnie, czy to faktycznie są teorie spiskowe, czy to już po prostu jest jakaś trudność? Jakie ty masz doświadczenia w tym temacie? Trudność polega na tym, że w walce z dezinformacją trzeba dojść do źródeł. A czasami na tych, którzy starają się, wiesz, dojść do tych źródeł są zostawione pułapki. Czasami nawet jak później powiesz, hej, to było wszystko kłamstwo, to niestety zostaje w pamięci ludzi tylko to, co było takie popularne. O, to było takie wielki news, emocjonujące. A tego sprostowania to już mało kto czyta, nie? Więc to jest trudne, bo my jako ludzie reagujemy na silne bodźce. Ja tak z DeepSeekiem miałem. Cały czas, nawet dzisiaj na Linkedinie wyjaśniałem ludzi, jak mówili o tym, że kosztował 5 i 6 miliona. No i widzisz, utrwalił się taki wizerunek. Tu też jest dla mnie piękna manipulacja. Ktoś powiedział, że wytrenowanie DeepSeeka kosztowało 5 milionów dolarów, co jest jakby absolutnym niedoszacowaniem, bo to są lata R&D, to znaczy prac badawczych. To jest mnóstwo sprzętu, to jest doświadczenie. To nie kosztowało tym. Może ten sama faza treningu tego ostatniego modelu może kosztowała tyle. Można w to uwierzyć, ale według semi-analysis, którzy wchodzili o wiele głębiej, no to tam były tysiące kart, tysiące jakby doświadczeń, więc oni to oszacowali chyba o dwa rzędy wielkości więcej, co najmniej. Bo ja to akurat dziś podsyłałem artykuł. To tak, te 5 i 6 miliona konkretnie dotyczyło się tego, ile kosztowało wynajęcie iluś tam klastrów, które nawet nie były wszystkimi. Było, że to chyba to nie tyle post, co pre-treningu. Realnie oszacowali, że Deepsea kosztował 1,3 miliarda. Czyli mamy razy jakoś 200, no nie? I teraz zobacz jakby, co się wydarzyło. Ludzie uwierzyli, że no teraz to można prawie za darmo trenować modele. Ja wiem, że 5 milionów to nie zadałem i przetłumaczyłem na swój sposób, natomiast pewnie takich raportów będzie więcej. Pewnie OpenAI nie jest jedynym, nie wiem, źródłem, czy też będą inne modele do tego wykorzystywane, więc dla mnie absolutnie uważam, że modele są wykorzystywane także w takim celu. Mateusz, ja Ci generalnie dziękuję za tę rozmowę. Ja także. Jako, że wspominałeś sporo o tym, skąd