Menu
About me Kontakt

How to protect yourself from disinformation? - conversation with Bartosz Kicior (film, 1h and 2m)

In the latest episode of Bunkier Nauki, crucial topics regarding media hygiene and the current state of the internet and social media are discussed. Bartosz Kicior from SWPS University points out that more and more people notice that the internet is full of toxic content and verbal abuse. People are willing to pay to access better, healthier information, which echoes the issues on the food market where consumers are stuck with lower quality options. In this situation, education on media hygiene becomes fundamental, as many individuals do not know how to effectively consume content online.

Kicior observes that the Polish education system lacks training in this area, resulting in young people often being unable to distinguish facts from misinformation. This topic is particularly relevant given the chaotic and controversial current state of online communities. It is worth noting that not only younger generations struggle with verifying information. Often, individuals in their 40s and 50s are the most likely to believe in false content, which could lead to serious social consequences.

During the discussion, the responsibility of online platforms for the content published is also raised. Kicior notes that large tech companies are not invested in maintaining information quality, rather focusing on profit-making. He discusses the phenomenon of tech feudalism, where a few platform owners have disproportionate power over users and their content. Awareness of this issue may prompt users to adopt a more critical view of the content they consume online and seek information from trusted sources.

Kicior also discusses the problem of misinformation and how users should self-flag untrue content. The current fact-checking system is based on a so-called double-checking method, which can introduce chaos and confusion. It is worth asking how future verification mechanisms should look. Recently, a fact-checking association emerged in Poland that aims to tackle this verification process. Users are already aware that if they demand more from platforms, they will have a greater influence on what is published.

Lastly, Bunkier Nauki presents current statistics regarding the episode at the time of writing the article: the view count stands at 3948, and the like count is at 209. This indicates that the topics discussed in the podcast are significant for users and attract their attention. Education in media and hygiene should be a priority to positively influence the quality of information we encounter online.

Toggle timeline summary

  • 00:00 More people are noticing that the internet is full of bad content and verbal violence.
  • 00:15 There's a suggestion to treat internet content regulation similarly to food safety regulations.
  • 00:31 The anonymity of the internet allows users to push boundaries without repercussions.
  • 00:42 Big tech owners have no interest in maintaining genuine values.
  • 01:06 The discussion welcomes Bartosz Kicior from SWPS University to talk about media hygiene.
  • 01:17 He brings knowledge about media consumption and hygiene, topics absent from Polish education.
  • 01:32 The conversation emphasizes the need for awareness of media consumption.
  • 02:18 Media hygiene should be based on awareness and education about the functioning of media.
  • 02:42 Factors like business and politics significantly influence media.
  • 03:03 The discussion touches on the issue of freedom of speech and media consumption.
  • 03:30 Social media platforms prioritize profitability over user well-being.
  • 04:10 There is skepticism about whether firms treat their obligations seriously in recent years.
  • 04:48 Technofeudalism is discussed as a model where a single owner controls a digital space.
  • 06:33 A shift from top-down content verification to bottom-up user responsibility is suggested.
  • 08:00 Verification of content by users needing to be ethical and competent is emphasized.
  • 08:39 There's mention of the challenges faced when an account is taken over on social media.
  • 09:36 The importance of trustworthy journalism versus commodity-driven media is highlighted.
  • 10:34 Discussions around the influence of algorithms in shaping public perception are raised.
  • 11:20 The dangers of misinformation in the digital age and the need for awareness are reiterated.
  • 16:46 The conversation covers the need for digital literacy and effective media consumption practices.
  • 30:59 Food safety comparisons highlight the negligence of regulations in media content.
  • 47:35 The idea of regulating digital content similarly to food safety standards is discussed.
  • 58:33 The overall dialogue emphasizes the need for cautious and informed media consumption.
  • 02:12 The discussion addresses challenges in social media and possible solutions.

Transcription

Coraz więcej ludzi zauważa, że internet to jest po prostu ściek, w którym płynie bardzo dużo niedobrych treści, ale też jest dużo przemocy werbalnej, chociażby, i jest skłonna zapłacić, żeby mieć lepszy internet. Jeżeli to samo byśmy zrobili z rynkiem żywności, co w tym momencie robimy z rynkiem medialnym, to byśmy mieli dostępne w sklepach i restauracjach tylko i wyłącznie absolutnie najgorszego rodzaju jedzenie. Skoro to jest w internecie, to i tak nikt nie wie, kim ja jestem. Mogę zekstrymizować swój język do granic możliwości, spróbować naginać granice. Być może mnie wywalą, założę następne konto, bo nikt mi nic nie zrobi po prostu. Właściciele big techów nie mają w interesie, żeby dbać o nasze wartości i o nasze życie. Jeżeli ktoś mówi, że podejmuje jakąś decyzję, żeby dbać o wolność słowa, to to jest tylko po prostu wyświetlany frazys. Witamy serdecznie w bunkrze nauki. Jest z nami dzisiaj Bartosz Kicior z Uniwersytetu SWPS, Wydział Nauk Społecznych, jeżeli dobrze pamiętam. Witaj serdecznie. Z czym dzisiaj do nas przybyłeś? Przybyłem z wiedzą na temat mediów i higieny medialnej i tego, jak konsumować media. Higiena medialna. Czyli coś, co nie występuje w polskiej edukacji w ogóle, ponieważ udajemy, że internet nie istnieje, media społecznościowe nie istnieją, tak długo jak zastosujemy starą taktykę trzech małpek z Nippo. Będziemy jako nauczyciele siedzieć cicho, zostawimy sobie telefony w koszyczku i problem zniknie. Tak, to jest raz, że udamy, że problemu nie ma, ale też pójdziemy o krok dalej i zakażemy tego, nie mówiąc dlaczego, na przykład zakazujemy, co już się dzieje. I być może właśnie to jest źródłem tego, o czym mówisz. Czyli takiego problemu, który cały czas jest, ale jest on troszeczkę przemilczany. I zjawiska, które jest nam potrzebne, jak właśnie cyfrowa higiena, higiena medialna, różnie to występuje w mediach, pod różnymi postaciami, natomiast sprowadza się do jednego, a czego nadal nie ma i czego przynajmniej w polskim systemie edukacji też brakuje nam. Jak powinna wyglądać taka higiena medialna? Bo cyfrowa to z grubsza wiemy, bo o tym się często mówi, o higienie medialnej czy o jakiejś diecie medialnej zdecydowanie rzadziej. Powinna wyglądać tak, że po pierwsze powinna być wparta świadomości, a świadomość bierze się z edukacji i świadomości tego, jak działają pewne rzeczy, a rzeczy działają niestety na podstawie czynników biznesowych, merkantylnych i politycznych. Tego akurat może obszaru można by uniknąć w naszej rozmowie, natomiast jeśli chodzi o te merkantylne, to można się nad nimi też zastanowić i pochylić, bo bardzo dużo jest dyskusji, jeśli chodzi właśnie o konsumpcję mediów i mówię tutaj już konkretnie o mediach społecznościowych, dyskusji, które dotyczą takich wielkich haseł jak wolność słowa na przykład, a tak naprawdę sprowadzają się do biznesu, do tego, że za mediami społecznościowymi stoją operatorzy, którzy chcą zarobić, więc posługiwanie się takimi wzniosłymi hasłami nie zawsze jest zgodne z prawdziwymi intencjami. Ja mam w ogóle wrażenie, że opieramy się w dwóch diastazach, podwójnych układach, to znaczy jedno to jest po pierwsze to, co mówisz, czyli polityka versus dobry biznes, który da nam wolność słowa. A druga to jest praca i rozrywka, to znaczy, że te media społecznościowe kojarzą nam się z tymi dwiema rzeczami naraz, po pierwsze właśnie z rozrywką, a po drugie z czymś, co jest prywatnym biznesem, w związku z którym da nam to, czego nam nie dają różnego rodzaju rządy na świecie i to faktycznie się sprawdza w niektórych przypadkach, tam Bidę, Korea, Chiny i tak dalej, Rosja, natomiast mam wrażenie, że już nie do końca teraz, czy to się zaczęło zmieniać twoim zdaniem w ostatnich latach, czy firmy przestały już traktować te zobowiązania tak, jak traktowały na początku? Myślę, że nie, zaczęła się dopiero dyskusja na ten temat i zaczęła się dopiero od niedawna myślenie, no właśnie, myślenie oparte na świadomości, chociażby świadomości dotyczącej tego, że wytwory tej pracy, czyli jeżeli firmy reklamują się w mediach społecznościowych na przykład, nie należą do tej firmy. Reklamują się także poprzez wartościowe treści, na przykład treści edukacyjne. Wszystkie te treści należą do właściciela, danego operatora i dlatego też pojawiła się i zyskuje na popularności koncepcja technofeudalizmu, bo wracamy do układu, w którym jest jeden właściciel, który ma swoją przestrzeń, już nie ziemię, a przestrzeń cyfrową i w tej przestrzeni pozwala nam pracować, ale daje nam narzędzia, daje nam ziemię i on też zbiera owoce tej pracy dla siebie i w każdej chwili może nas ich pozbawić. Może w każdej chwili, po prostu wyłączyć konto na przykład komuś i jego... Wiem, że ciebie jako twórcy internetowego mogłoby to dotknąć osobiście, jeżeli na przykład ktoś zamknąłby twoje konto i wszystkie twoje kilkadziesiąt, kilkaset materiałów po prostu straciłbyś, już nie twoje. Nawet znam konkretny przykład, kiedyś bardzo wartościowy, zresztą kanał Popularu Naukowy, Uwaga Naukowy, był układ prowadzony przez doktora Dawida Myśliwca, który był w bunkrze nauki, nawiasem mówiąc. Pierwszy odcinek, bardzo dobry, polecam. Miał problem właśnie z tym, że kanał zniknął z tego względu, że tam były jakieś problemy, przechwycił konto, były dziwne transmisje bitcoinowe i tak dalej. Standardowe sytuacje przy przechwyceniu konta i ten proces odzyskiwania był bardzo długi, pamiętam. Ja się też rozbiłem o taką ścianę i znam paru twórców, którzy również mieli ten problem, to znaczy w momencie, w którym ktoś chce skontaktować się z operatorem, to nagle się nie da. To jest troszeczkę tak jak z tym feudałem, który siedzi na zamku. Oczywiście, że możesz w każdej chwili pójść na audiencję, no to na najbliższa będzie za 4,5 roku. Tak, możesz grać w moją grę, ale na moich zasadach. Możesz uprawiać moją ziemię, ale według tych reguł, które ja ustalam. Mało tego, ostatnio bardzo dużo mówi się o, w kontekście właśnie cyfrowej higieny, higieny medialnej i świadomego konsumowania mediów, o dezinformacji, o fake newsach i o tym, że mamy trochę odejście od takiej odgórnej weryfikacji treści do oddolnej weryfikacji treści. Czyli teraz to użytkownicy będą sami flagować, oznaczać, weryfikować treści, które są zmanipulowane. Zawsze etycznie i kompetentnie. Oczywiście, zgodnie z metodologią, którą sami sobie wypracują w swoim salonie, a nie z metodologią naukową przyjętą odgórnie przez profesjonalistów. Pozostawiając złośliwość na marginesie, to ma to zastąpić osoby, które pracowały dotychczas jako weryfikatorzy. I tych osób, bo piję do tego właśnie, że przychodzisz z problemem do technofeudała, a on ma dla ciebie czas za rok, tych, że było naprawdę niewielu na Twitterze czy też iksie w 2023, to są wyliczenia serwisu Spidersweb, jeden był w Polsce. Jeden na Polskę. Jeden moderator treści na Polskę. Wschodnia Flanka Unii, zabezpieczona. Przy czym muszę tutaj dodać, że być może był to jeden etap albo jedno stanowisko, na którym dyżurowało fizycznie dwoje lub troje ludzi na zmianę, bo to musi iść 24 na dobę. Natomiast nie było ich dużo więcej. Na palcach jednej ręki można było ich piąć. Tymczasem farma troli za wschodnią granicą i będziemy tam mieli kilkaset albo kilka tysięcy osób, które produkują wiadomości. A powiedz mi, bo to jest problem duży, to znaczy weryfikacja treści. Jak uważasz, że to powinno być zrealizowane? Bo dobrze wiemy, że jest to zrealizowane katastrofalnie. Nie mamy żadnej agory społecznej w tym momencie. Ja w ogóle uważam, że media społecznościowe tracą przywilej do używania tego predykatu. Ja nie widzę, żeby one były społecznościowe za bardzo. Częściej widzę, że one są jakimś prywatnym folwarkiem. Natomiast jednak te community notes, które się pojawiły na Twitterze, uderzały w samego Ilona Maska wiele razy. Konfrontowały go z tym, że nie jest najwybitniejszym graczem w Puffowe Exile, niesamowicie bawi. Jak nie znacie tego tematu, to mega polecam. Ja dokładnie wczoraj o tym rozmawiałem ze znajomymi i się z tego śmialiśmy. I tam w tych community notes jest szereg linków, które obrazują, że Elon Musk bredzi całkowicie. Więc jednak szef platformy, który ją kupił, jest jakoś konfrontowany z tego. Coś zadziałało, bo domyślam się, że jego weryfikatorzy, którzy byliby u niego na pasku, raczej by tego nie zrobili. Ale zadziałało na takiej zasadzie, że została dodana adnotacja do interpretacji każdego. To znaczy, że jeżeli ktoś ma bardzo mocny, jest bardzo ładne angielskie słowo na to, bias, czyli ugruntowane przekonanie na temat świata, to nawet jeżeli zobaczy twarde fakty, czyli weryfikację takich treści, ta treść nadal jest wyświetlana i może powiedzieć, nie, nie, to ci weryfikatorzy pewnie go nie lubią. I to pewnie dlatego. Więc zapytałeś, jak powinna według mnie odbywać się weryfikacja. To już jest w pewnych kręgach stosowane. To rozwiązanie, które ja uznaję za słuszne. Czyli otwarta metodologia, którą np. wyznaje IFCN, to jest International Fact-Checking Network, Międzynarodowe Stowarzyszenie Fact-Checkerów, do którego, żeby należeć, trzeba spełnić szereg wymogów. I jednym z tych wymogów jest posiadanie otwartej metodologii, otwartych zasad, według których się działa. Otwartych, czyli każdy może wejść na stronę, mamy w Polsce takie stowarzyszenie, które należy do IFCN, to jest Demagog, można wejść na stronę Demagoga i zobaczyć, według jakich reguł dokładnie działają i oni tych reguł nie mogą złamać, bo ich najzwyczajniej ktoś wyrzuci z tego stowarzyszenia międzynarodowego. I ta metodologia musi przede wszystkim określać to, co możemy weryfikować. Czyli możemy weryfikować tylko weryfikowalne rzeczy. Jeżeli coś jest nieweryfikowalne, za pomocą faktów, do których mamy dostęp, to po prostu się do tego przyznajemy. Nie mamy dostatecznych danych, żeby sprawdzić, czy jest to zmanipulowane, czy nie i gramy w otwarte karty. Jeżeli potrafimy to zweryfikować, to mamy całą skalę, która oznacza nam, czy ta dana treść jest prawdziwa, fałszywa, a może tylko częściowo jest zmanipulowana. Więc bardzo profesjonalne i ustrukturyzowane reguły działania są na pewno drogą, którą powinniśmy iść. Tylko że to dla niektórych jest dużym wysiłkiem, żeby to zrozumieć, że ktoś faktycznie działa według ustalonych reguł i nie flaguje, nie wydaje werdyktów na temat prawdziwości treści na podstawie własnego widzimisię. Tak że to, co ja uważam za być może dobrą drogę, nie zawsze jest postrzegane nomen omen społecznie jako dobre rozwiązanie. Chciałbym się odnieść do tego wymiaru społecznościowego, czyli tak jak powiedziałaś, tego wynaturzenia tej społecznościowej warstwy mediów społecznościowych. Ostatnio, to dzisiaj, Tomek Markiewka opublikował felieton, w którym napisał, że idziemy internetem dwóch prędkości. Coraz więcej ludzi zauważa, że internet to jest po prostu ściek, w którym płynie bardzo dużo niedobrych treści, ale też jest dużo przemocy werbalnej chociażby. I jest skłonna zapłacić, żeby mieć lepszy internet. Jak jest popyt, to jest podaż, więc dostawcy treści, zarówno podmioty medialne w takim tradycyjnym rozumieniu, jak i też te podmioty, nowe media, jakie nazywamy, podłapują to i oferują na przykład różne poziomy dostępu do różnych treści, coraz lepszych, za coraz większe stawki. Czyli docieramy do momentu, w którym znowu będziemy mieli rozwarstwienie społeczne, pomiędzy ludźmi, którzy korzystają w cudzysłowie za darmo, bo to nie jest nigdy za darmo, z treści, które są niskiej jakości, ale są skażone, nie wiem, tak jak z jedzeniem było 100-200 lat temu, czy być może nadal w jakimś wymiarze jest do dzisiaj. I to, za co płacimy, to już jest lepszej jakości. A jak zapłacimy jeszcze więcej, to jest jeszcze lepszej jakości. Więc znowu wszystko rozbija się o pieniądze, a nie o społeczność i o społeczeństwo. Tak, ale ta stratyfikacja społeczna to jest czysty cyberpunk. Dostajemy najniższej jakości jedzenie, najniższej jakości diety medialną, najniższej jakości usługi publiczne, no chyba, że zapłacimy. Ja zresztą płacę za zaszczyt tego, żeby meta śledziła, czy nikt nie podszywa się pode mnie, 80 zł miesięcznie za samego Facebooka, bo oczywiście meta przestaje być jedną firmą, jak przychodzi do płacenia. Wtedy nagle Instagram i Facebook, dwie różne rzeczy zupełnie. Trzeba dwa razy płacić 80 zł. Ale jak chcesz, to możesz mieć to samo konto i tu, i tu, ale musisz zapłacić za to samo. Tak, bo konto jest to samo, niby połączone, ale są dwa, jeżeli przychodzi do płacenia. Zresztą te wszystkie teraz usługi zaczynają iść w tym kierunku. Streaming to samo, też będzie streaming z reklamami, Netflixowe i tak dalej, natomiast te wyższe plany już są odpłatne, co prowadzi do rozwarstwienia społecznego, o którym mówisz. To jest bardzo niepokojące, bo w moim przekonaniu właśnie te warstwy, jeżeli mówimy o warstwach społecznych, chociaż nie lubię tego robić, ale wydaje mi się, że jeżeli się coś zaczyna rozwarstwiać, no to te warstwy społeczne zawierające ludzi, którzy nie mają najlepszej edukacji, którzy nie mają najlepszych dochodów, one właśnie potrzebują w największym stopniu fact-checkeru i w największym stopniu potrzebują pomocy informacyjnej, więc jest dokładnie na odwrót, niż powinno być. Tak, bo jeżeli tego nie mają, to stają się de facto nośnikami też dezinformacji, bo podają ją dalej i stają się darmowymi pracownikami w fabryce fake newsów bardzo często. Zresztą to też nie dotyczy absolutnie ludzi, którzy formalnie nie mają wykształcenia, bo bardzo często widzę, Polska akurat ma jeden z wyższych wskaźników w ogóle wykształcenia wyższego, a nie oszukujmy się, jeżeli chodzi o podawanie fake newsów, to to nie jest domena ludzi młodych, tylko to jest domena ludzi 40-50+, najczęściej. Nie wiem, czy są badania, które to potwierdzają, ale z moich obserwacji wynika, że to jest bardzo często. Są badania, które potwierdzają podatność na fake newsy, faktycznie wyższych grup wiekowych. Jeśli chodzi o podawanie dalej, to tak naprawdę nie ma dużej różnicy pomiędzy ludźmi młodymi a osobami wieku np. 65+. Natomiast podatność i wiara w takie rzeczy bez jakiejś refleksji jest też m.in. uzależniona od wieku. Od wykształcenia może też, ale tutaj akurat kierowałbym się nie wskaźnikiem wykształcenia, a czymś, co się nazywa Media Literacy Index. To Bułgarzy to robią rokrocznie, ale… Piśmienność medialna, tak? Tak, piśmienność, czyli coś, co nie jest analfabetyzmem medialnym. Alfabetyzm medialny, piśmienność medialna, dokładnie. No i Polska nie przoduje akurat w tych rankingach. Nie dziwię się, bo nie mieliśmy kiedy się tego nauczyć. To też bardzo często widać, jak chce się w obszarze kulturoznawstwa, nie wiem, zanalizować film, grę komputerową itd., to też ludzie nie mają do tego narzędzi. Mają narzędzia do analizowania literatury XIX wiecznej, ale nie bym na ten temat rantował. Ale taka jest prawda, to znaczy, jeżeli nie konfrontujemy się z treścią, która jest sfabrykowana, wypreparowana, to jak mamy ją rozpoznać? W moim przekonaniu w tym momencie na 90% lekcji języka polskiego powinny być treści produkowane przez EJ, żeby ludzie się nauczyli rozczytywać je, widzieć, gdzie jest problem, bo one mają pewne charakterystyczne cechy. Jeszcze, jeszcze. A ja tutaj jeszcze dorzucę kamyczek i dodam, że na lekcji historii nie powinniśmy się uczyć rozbiorów dzielnicowych i o wszystkich synach Bolesława Krzywoustego, a np. o historii komunikacji XX wieku i o tym, jak budowane były narracje propagandowe chociażby w pierwszej połowie XX wieku, żeby potem zobaczyć, jak wyglądają one dzisiaj. Zwłaszcza, że analogie są bardzo podobne. I skoro nawiązałem do modeli językowej, no nie dało się tego uniknąć w żaden sposób. No nie masz wrażenia, że też zmienia to w bardzo dużym stopniu podatność na fake newsy, to znaczy w moim przekonaniu podwyższa. Widziałem parę dni temu dosłownie, no też znowu starszą społeczność na Facebooku, bo nie oszukujmy się, że z Facebooka odpływają ludzie młodzi w postępie geometrycznym, którzy życzyli wszystkiego dobrego jakiejś starowińce wygenerowanej przez EJ. Rzeczywiście, werystycznie to było zrobione. I rozkliwiali się na tym, że o Boże, ona ma 106 lat i wnuczek do niej nie przyszedł, i ona ma taki tort tam, i ten tort jest taki autentyczny, o nie. I ja sobie myślałem, Jezus Maria, przecież ci ludzie pójdą za rok do wyborów na przykład, albo za dwa lata do wyborów i wystarczy, że ta informacja nie będzie o starowińce z tortem, tylko ona będzie o czymś zgoła innym, na przykład o tym, że są czołgi nad granicą. Ja wiem, do czego piszesz i bardzo dobrze, że poruszyłeś ten temat, bo to jest nowy trend, który wydaje się dość niebezpieczny w kontekście społecznym. Ja też chciałbym od razu zaznaczyć, że nie mam prawa i nie chcę nikomu mówić, w jaki sposób ma używać sobie mediów społecznościowych, bo to jest każdego z prawa, natomiast jako obywatel kraju, który właśnie być może będzie, w sensie jakieś decyzje na poziomie krajowym, które mnie też bezpośrednio dotkną, będą podejmowane przez ludzi wybranych właśnie przez osoby, które zostaną przekonane jakimiś wygenerowanymi treściami, niekoniecznie zmanipulowanymi, to już mnie trochę martwi. I odpowiadając krótko na twoje pytanie, czy uważam, że powszechność narzędzi AI wpłynie jakoś na podatność na fake newsy, myślałem do niedawna, że nie, aż usłyszałem od jednej ze studentek, że nie ma już zagrożenia tak naprawdę fake newsami, bo mamy przecież czata GPT, który wszystko nam zweryfikuje. I wtedy pomyślałem sobie, aha, czyli ja po prostu żyłem w bańce takiej życzeniowej przez chwilę, w której myślałem, że skoro, no bo wiesz, ja mówię o tym cały czas i też się zajmuję od strony właśnie naukowej tym tematem, więc wpadam w tę pułapkę, w taką iluzję, że wydaje mi się, że już wszyscy o tym wiedzą, już zostało tyle powiedziane o tym, że już naprawdę nie ma o czym mówić. Natomiast właśnie takie momenty mnie z tej bańki wyrywają, a to, o czym mówisz, jest też potwierdzeniem tego, to znaczy ten trend tworzenia obrazków i takich opisów troszeczkę wprowadzających takie poczucie winy albo wymuszających jakieś wyrazy wsparcia, które krążą po sieci, to jest trend gdzieś, nie wiem, od może trzech, czterech miesięcy, bardzo wyraźny, że mamy, nie wiem, atrakcyjną kobietę, która siedzi przed jakąś wiejską chatką z podpisem nikt ze mną nie chce rozmawiać, bo jestem ze wsi i albo nikt mnie nie chce zatrudnić, bo jestem ze wsi i ludzie np. udostępniają swoje numery telefonów. Pod swoim imieniem i nazwiskiem udostępniają swoje numery telefonów, zadzwoń do mnie, ja z tobą porozmawiam, ja cię zatrudnię, nie ma żadnego problemu, pomimo że widać, że jest to ewidentnie obraz wygenerowany. Jeszcze widać. Tak, tak, tak, tak, tak, jak najbardziej, być może już za pół roku, bo też trzeba mieć świadomość tego, że te narzędzia są bardzo młode, że jeszcze trzy lata temu nie potrafiliśmy sobie wyobrazić, że coś takiego będzie się w ogóle działo, więc jeżeli dzisiaj to się dzieje, to być może już w lipcu tego roku już będą o wiele bardziej realistyczne te obrazki i nawet wprawne oko będzie miało problem z odróżnieniem po kilku sekundach nawet, czy to jest wygenerowane, czy nie, dlatego tym bardziej potrzebujemy weryfikacji nie od osób, od użytkowników, tylko od osób, które są w tym kierunku wykształcone. Takie konta na razie, o których mówimy, one produkują i dystrybuują właśnie takie treści życiowe, że tak powiem, ale tak jak mówisz, być może za miesiąc zaczną dystrybować treści światopoglądowe, być może nie o czołgach, ale na przykład z narracjami antyunijnymi, bo czemu nie, i miękko będą zmieniać nastroje społeczne albo nastawiać społeczeństwo, czy tę część społeczeństwa przeciwko na przykład jakiejś grupie albo jakiemuś krajowi innemu albo jakiejś zewnętrznej albo wewnętrznej instytucji. To jest bardzo łatwe w tym momencie, w którym i tak są ludzie, którzy patrzą na ten obrazek i myślą, że to jest prawda. Widziałem taki dość ironiczny komentarz na temat tego, że są to ci sami ludzie, którzy patrzą na bardzo dobre, jakościowo, profesjonalnie wykonane zdjęcia na księżycu i mówią, to jest nieprawda, bo ten cień pada tutaj, a powinien padać tutaj. Potem patrzą na oblicze ewidentnie wygenerowanej, animowanej postaci i łapią się na to i myślą, że to jest prawda. Jeden z moich dyplomantów pisze pracę na temat wołkizmu i pomyślałem sobie od razu, że to jest dokładnie ten sam problem, bo generowanie takich wirusowych treści jest banalne. Ja znowu jestem w stanie przesiedzieć historię pojęciową tego terminu konkretnie, bo na początku on się nazywał feminazizm, potem się nazywał ideologia gender, potem się nazywał wołkizm, a teraz się nazywa jeszcze dei. I to jest nieprawdopodobne, bo cały czas jest to to samo, które jest używane w funkcji to, co mi się nie podoba po prostu w zdaniu i wystarczy sobie zobaczyć na tego rodzaju zdania i wtedy człowiek się złapie, że one nic nie znaczą. Natomiast problem polega na tym, że żeby to zrobić, trzeba mieć warsztat, najczęściej już akademicki, w tym momencie nie mamy najmniejszych złudzeń, że warsztat licealisty, maturzysty nie pozwala tego zrobić. I zastanawiam się, jeżeli my produkowaliśmy tego rodzaju treści, to były treści ludzkie, to co jeśli to będą treści produkowane przez algorytmy, które zawsze starają się być wyglądowo, poglądowo bardzo neutralne, takie łagodne. Zauważ, że ten język jest nigdy agresywny, że wszystkie te narzędzia, duże modele językowe, one odpowiadają w taki uładzony, niby poprawnie politycznie neutralny sposób. Do marketingowej mowy trawy. Tak, tak. I może dlatego właśnie ludzie się też na to tak łapią, że to jest prawda w takim razie. Do pewnego momentu, bo w pewnym momencie też ludzie będą chcieli, znowu popyt podasz, być może mocniejszego języka. I tutaj narzędzia AI są o tyle właśnie silne, że są bardzo elastyczne, więc można je dostosować do tej potrzeby języka agresywnego, na przykład nacechowanego chociażby przemocą symboliczną, o której właśnie powiedziałaś. Ja właśnie w tym momencie badam i analizuję internetowy dyskurs na temat trailera do Wiedźmina 4, który to dyskurs toczy się nie o grze, nie o produkcji, a o wyglądzie postaci i o tym, że postać żeńska będzie główną postacią w grze i to jest właśnie narzucanie jakiejś ideologii. Język kreuje rzeczywistość i jeżeli będziemy się posługiwać właśnie takimi pojęciami, jakich użyłeś, to będziemy mieli właśnie poprzez dyskurs, będziemy pielęgnować światopogląd, w którym cały czas ktoś jest przeciwko komuś i modele AI to podłapią. Oczywiście prędzej czy później będzie można też produkować treści nacechowane właśnie na przykład przemocą werbalną albo takimi słowami, wytrychami, to nawet nie są słowa klucze, które zastępują prawdziwą debatę. Ja do tego słowa jeszcze dodałbym hasło, którego nie znoszę pod kątem dyskusji na temat nowych mediów i właśnie tej weryfikacji, o której wspomnieliśmy, czyli cenzura. Słowo na C używane w kontekście na przykład właśnie weryfikowania takiego łagodnego weryfikowania faktów, wskazywania na przykład, że ktoś no po prostu źle zinterpretował jakieś liczby albo podał po prostu z tą liczbę albo kłamie wprost i nazywanie cenzurą czegoś takiego, że ja na przykład zbadam jego wypowiedź i powiem, no nie kolego, to nie jest tak, jak powiedziałeś, to jest też słowo wytrych i docieramy do momentu, w którym cenzurą nazywamy na przykład działania, które mają ochronić użytkowników mediów społecznościowych przed oszustwem, przed po prostu oszustwami, które się dzieją, które wyłudzają dane, które wyłudzają pieniądze. Znowu wracam do tego tematu weryfikacji, albowiem on też, to zjawisko, ta praktyka także była wycelowana w konta i w działalność oszustów, po prostu złodziei, którzy grasują w mediach społecznościowych i którzy na przykład za pomocą Facebooka próbują i na przykład obrazów wygenerowanych przez AI wyłudzić pieniądze. Słynna ostatnio przecież akcja z Bradem Pittem, tak, nie był Bradem Pittem, tylko z kobietą, która wysłała bardzo duże pieniądze, bo myślała właśnie, że rozmawia z Bradem Pittem, który leży w szpitalu, jego twarz była po prostu doklejona do zdjęć jakiegoś człowieka leżącego w szpitalu albo obrazki to były wygenerowane jednak, ona się na to dała złapać i weryfikacja w mediach społecznościowych także wyłapuje taką działalność i takie konta. Więc jeżeli to nazywamy cenzurą, to znaczy, że używamy nieodpowiedniego, nieadekwatnego terminu do tego, żeby określić to, co się dzieje, ale tak jak mówię, język kreuje rzeczywistość, jeżeli dalej będziemy to robić, to, no bo modele AI się uczą właśnie na rzeczywistości i na rzeczywistej debacie, to też to podłapią, prędzej czy później, bez problemu będą też mogły generować takie treści albo generować komentarze na przykład, które będą podburzać dysputę, no bo na czym zarabiają między innymi media społecznościowe? Pośrednio na tym, że jest dużo reakcji użytkowników, im więcej komentarzy, tym lepiej, więc nawet jeżeli pod jakąś treścią, powiedzmy, pojawi się kilka neutralnych komentarzy, to zawsze, żeby trochę rozkręcić tę dysputę, ja teraz fantazuję, jeszcze to nie jest udowodnione, że to się dzieje, natomiast bardzo wielu badaczy podłapało słowa Marka Zuckerberga na temat tego, że być może zaczną się pojawiać aktorzy AI na Facebooku, żeby podkręcić tę dysputę, można by na przykład tam wpuścić jakieś konto, które jest jakby prowadzone w cudzysłowie przez AI, oczywiście inni o tym nie wiedzą, no i ono zaczyna się wulgarnie odnosić do innych użytkowników, a oni, ci ludzcy użytkownicy reagują, skoro reagują, no to jest więcej komentarzy. Tak, ci aktorzy już są na Instagramie, nie można ich odobserwować. I to jest bardzo ciekawe, że jest to wymuszone istnienie tego aktora wtedy. W ogóle przerażającą rzecz poruszyłeś, zanim przejdziemy do Zuckerberga, bo ja strasznie chciałem porozmawiać o tym, jak Zuckerberg przychodzi, ewolucja Kendall Roy w sukcesji, to jest niesamowite, teraz ma fazę późnego Kendalla Roya, w każdym razie infotainment mnie zainteresował, no bo to w zasadzie jest ten element, o którym mówisz, informacja, która jest w zasadzie wyłącznie produktem mającym albo zainteresować, albo podburzyć emocje, albo po prostu dać jakąś tanią rozrywkę, w związku z tym ludzie niech się kłócą. Przede wszystkim reakcje, sprowokować do jakiejś reakcji, do reakcji, która polega na kliknięciu albo napisaniu czegoś. Ja nawet obserwowałem u siebie na kanale kiedyś, jak taki aktor, a ja wszedł i rozmawiał sam ze sobą i wygenerował jakieś średnio 60 komentarzy do jednego wątku, to było w jednym wątku cały czas, z różnych kąt, wszystkie wyglądały autentycznie, miały subskrypcję i tak dalej, więc ja po prostu usunąłem to w całości jako wątek, natomiast absolutnie nic tego nie wyłapało, ani mechanizmy Google'a w ogóle były całkowicie nieodporne na tego rodzaju ingerencje i to mnie bardzo niepokoi, to znaczy w tym momencie my przestajemy mieć to, co w środowisku elektronicznym zawsze powinno być naszą udziałem, to znaczy sprawczość, odbiera się nam sprawczość, nie jesteśmy w stanie nic zrobić. Zresztą sam ten gest zgłoszenia jakiegoś komentarza już nie działał dawno temu, co w takiej sytuacji teraz, może to jest kwestia tego, żeby po prostu pracować nad tym, żebyśmy nie reagowali emocjonalnie na to, co czytamy, ale to brzmi bardzo utopijnie. Jeżeli pytasz co teraz, to ja zawsze odpowiadam, że powinniśmy troszeczkę zmienić jakby wektor dyskusji, bo bardzo dużo się mówi o odpowiedzialności końcowego użytkownika, że osoba, która korzysta z mediów społecznościowych powinna być wyedukowana, świadoma, powinna wiedzieć, co konsumuje, w jaki sposób i tak dalej, a zapominamy o tym, że mamy środki instytucjonalne na poziomie na przykład państwa albo Unii Europejskiej, co się wydarzyło dwa lata temu, już nie dwa lata, bo to 2022 w listopadzie, w podstaci chociażby Digital Services Act, dokumentu, który daje możliwości regulowania i kolejne słowo, którego nie lubię w tym kontekście, bo jest opatrznie używane, ale kontrolowania działalności podmiotów medialnych w kontekście mediów społecznościowych i na tym też powinniśmy, znaczy powinniśmy, na tym też można by się trochę skupić i zawiesić, to znaczy co państwo robi, żeby nie dopuszczać do tego, że media społecznościowe są przestrzenią na przykład nacechowaną przemocą. Super porównanie, jak je przeczytałem, porównanie do rynku żywności. Mamy rynek żywności, który w praktycznie każdym kraju jest w jakiś sposób regulowany. Jeżeli to samo byśmy zrobili z rynkiem żywności, co w tym momencie robimy z rynkiem medialnym, to byśmy mieli dostępne w sklepach i w restauracjach tylko i wyłącznie absolutnie najgorszego rodzaju jedzenie. Najgorsze, skażone też pełne toksyn, produkty, które są. I takie jak w Ameryce. Ja nie chciałem tego powiedzieć, tylko ty to powiedziałeś wprost, także dziękuję. Dlatego, że są najtańsze w produkcji po prostu, więc jeżeli kierujemy się tylko i wyłącznie tym, no to mamy tylko to, ale mamy, w Ameryce jest FDA, które w jakiś sposób próbuje regulować ten rynek, ale na przykład chodzi o to, że nie możemy nakleić, nie wiem, naklejki sok na napoju, który ma 20% owoców. Dlaczego? No dlatego, że mamy takie przepisy. Czy w takim razie te przepisy, inaczej, czy w takim razie moglibyśmy te same przepisy, czy w tym samym kształcie zastosować do infosfery? Jak najbardziej. Właśnie na tym polega to, że jeżeli mamy podaną informację zmanipulowaną, to możemy jej nalepić nalepkę, że jest zmanipulowana, tak samo jak na takim napoju mamy obowiązek napisania, że to jest nektar, czy ten napój, a nie sok, więc wracamy do pojęcia, które w zasadzie ty tutaj wprowadziłeś nam do tej dysputy, czyli do diety medialnej, czyli dieta medialna może być zdrowsza, jeżeli też będą jakieś regulacje, które będą dbały. Gorąco jestem za tym rozwiązaniem, zwłaszcza, że mamy jeszcze jedno zjawisko, to znaczy spadek zaufania ze strony użytkowników, zwłaszcza przeciętnych użytkowników secieci, bo być dziennikarzem też pewnie ci jest bliskie z uwagi na to, gdzie pracujesz i czym się zajmujesz. Ja to obserwuję z perspektywy gracza i groznawcy, który patrzy na recenzję gier w prasie branżowej i załamuje ręce czasem i równocześnie załamuje ręce nad ludźmi, którzy twierdzą, że no tak, tak, to w takim razie w ogóle nie można słuchać prasy profesjonalnej i recenzentów gier, bo to wszystko jest zmanipulowane i kupione. I teraz staram się patrzeć na to jednocześnie i widzieć, gdzie jest problem. Znaczy u mnie problem jest oczywisty w tym przypadku, to jest problem zaufania, ale ten problem zaufania gdzieś się zaczął. Myślę, że on się zaczął w momencie, w którym stare tytuły prasowe zainteresowały się tym, że jeżeli zrobię łatwy listykul w sieci, bo był taki podział, w którym się zauważy, że tu jest prasa papierowa i o to dbamy, a tu jest ten strumień świadomości w sieci, gdzie sobie możemy zrobić listy, jakieś grafiki, jakieś filmiki i to sobie będziemy sprzedawać, a potem będziemy te nasze jakościowe dziennikarstwo, o, prasowe i tam już będzie dobrze, a tutaj będzie ten ściek. I mam wrażenie, że to jest kłopot, bo w którymś momencie to jakościowe dziennikarstwo stwierdziło, że nie, no my musimy się przenieść do sieci, bo tutaj nie sprzedajemy i nagle pomieszało się jedno z drugim, bo nagle pod etykietą przysłowiowego New York Times'a, jeśli chodzi o to, że akurat zły przykład, pojawiło się jedno i drugie, nie? I myślę, że to jest zwłaszcza problem polski. Akurat przykład New York Times'a jest o tyle ciekawy, że on jest za paywallem, więc to jest przykład tej treści dla tych, którzy chcą zapłacić, która jest lepsza. Jeżeli nie chcesz, nie chcesz płacić, w sensie, tak, jeżeli nie chcesz płacić, dostajesz coś gorszego, inaczej, jeżeli nie płacisz za produkt, sam stajesz się produktem. I tak też właśnie może zadziałała ta transformacja, o której mówi, że mieliśmy właśnie ten świat, w którym to użytkownik jest produktem i ten świat, w którym produkty produkują profesjonalni i kierujący się jakimś etosem i jest tym dziennikarzem i to się zlało w pewnym momencie, bo musiało się zlać po prostu i nikt nie był, nikt nie był na to gotowy. Myślę, że też temat jest bliski dlatego, że przez siedem lat byłem dziennikarzem, więc tym bardziej to widziałem, w jaki sposób postępuje pewne podejście do tego fachu, który też przeszedł pewną ewolucję i tak naprawdę dzisiaj występuje bardzo często pod postacią media workera, który zajmuje się bardziej napędzaniem ruchu i to go interesuje, aniżeli przyniesieniem jakościowej treści, bo po co nam treść, skoro możemy ją zabrać od kogoś, po co dziennikarza wysyłać na tygodniowe śledztwo, z którego przyniesie informacje z pierwszej ręki, skoro on w ten tydzień może wyprodukować 20 artykułów na podstawie innych artykułów i następuje w mediach takie coś, nie przetłumaczę tego stwierdzenia, n-certification, właśnie przez to, że nastawiamy się znowu przez względy merkantylne na kliki i na wyświetlenia i to jest jakby nowy motor, który nas napędza, jakość tych treści spada, więc zaufanie spada również, prosta sprawa. Ja mam też wrażenie, że jest jeszcze jeden element, to znaczy przez długi czas też w Polsce był silny ten etos anonimowości w sieci, utrzymywała się takie przekonanie, że tu możemy robić wszystko, no bo w takim przysłowiowym basfidzie będzie po prostu autor treści, redakcja i możemy sobie tam napisać, co nam się żywnie podoba. Nie ma odpowiedzialności po stronie pojedynczego człowieka, nie można wskazać np. ej, to nie jest problem taki, że ten tytuł prasowy jest zły en bloc, tylko ten człowiek bredzi, pisze niezgodnie z tego dziennikarsko, to jest wtedy feedback dla redakcji, zwalniamy człowieka, zatrudniamy kogoś kompetentnego. Natomiast w ogóle takiej refleksji nie ma, ja słyszę, że nie należy czytać jakiegoś tytułu prasowego albo nie należy oglądać jakiejś telewizji albo nie należy śledzić jakiegoś portalu w całości, bo komuś się nie spodobała jedna treść napisana przez jednego autora, ale równocześnie ktoś ludzi tego nauczył, ktoś ludzi nauczył tego, żeby nie patrzeć na tego autora i pamiętam, że ja też dlatego głównie czytałem prasę zagraniczną, że tam od dłuższego czasu było wyeksponowane to nazwisko redaktora z mediami społecznościowymi podpiętymi itd., itd. Ono było wysoko, a do dzisiaj jak studenci piszą prace dyplomowe, nie dają autorów treści. Film na YouTubie nie ma autora treści, powinna być nazwa kanału, artykuł w portalu powinna być, jeżeli nie ma autora, to ja bym w ogóle tego nie cytował. Ale mam takie właśnie wrażenie, że nauczono nas tego i może właśnie ta opcja, z drugiej strony się rozgaduje, ale to jest ważny wątek, myślę, zachęcenia ludzi do tego, żeby publikowali w internecie treści pod imieniem i nazwiskiem i za weryfikacją, boże, byłaby rozwiązaniem tego problemu, zarówno po stronie dziennikarzy, jak i po stronie użytkowników sieci. Jeżeli użytkownicy braliby odpowiedzialność za to, co potem wysyłają do tych dziennikarzy, którzy się pod imieniem i nazwiskiem prezentują, myślę, że byłoby to ciekawe rozwiązanie. Natomiast ta anonimowość nadal działa, ale ona jest jednostronna w momencie, w którym dziennikarz wyeksponuje swoje nazwisko, ale nic go nie chroni przed przemocą, która go potem spotyka, przed groźbami, które go spotykają. I to mówię z pierwszej ręki i z autopsji. Miałeś takie sytuacje? Tak, miałem takie sytuacje, że czytałem w komentarzach życzenia o śmierci, na przykład, które oczywiście omijały jakąś cenzurę, bo nie były wyrażone wprost. I pisałem też, to akurat w kontekście naukowców, o naukowcach, którzy jeżeli wypowiedzieli się tylko o pandemii, to było Wielkiej Brytanii, to dostawali na przykład na swój prywatny adres zdjęcia ludzi na szubienicy wiszących, w sensie ciał. I tyle. To nie jest groźba, ja tutaj nic nie sugeruję, ale wyślę panu takie zdjęcie, bo wiem, kim pan jest. Do tego doprowadziła ta ekstremizacja języka, o której mówiliśmy. Ta anonimizacja to jest przeciekawe, bo ja pamiętam, na studiach też miałem ten problem właśnie dokładnie taki, że znalazłem jakąś ciekawą treść w internecie i chciałem ją zacytować, ale nie była autora, więc musiałem odpuścić. I zastanawiałem się często, no to dlaczego ten ktoś umieszcza tę treść, skoro potem, no właśnie, być może się wstydzi. Jak byłem dziennikarzem, to już jakby troszeczkę zrozumiałem, dlaczego niektórzy nie chcą eksponować tego nazwiska, ale osobiście uważam, że tak jak mówisz, no, pełna informacja na temat autora na pewno też poprawi dbanie o jakość tego, w jaki sposób kreuje, publikuje, tworzy swoje treści. A z drugiej strony właśnie ta anonimizacja być może jest jednym z elementów, które doprowadziły do encyklopedii. Ale wiesz też, poruszasz bardzo ważną rzecz, bo ta anonimowość chroni przed czymś, co powinno być wyeliminowane wcześniej, to znaczy chroni przed groźbami przemocy. Jeżeli by groźby przemocy były penalizowane, niezależnie od tego, w jakim medium są transmitowane, to w ogóle nie mielibyśmy tego problemu ochrony. Znaczy, co, mamy program ochrony świadków tylko teraz dla twórców, ponieważ spotykają się z tego rodzaju treściami, to jest niepokojące. Mam wrażenie, że to jest znowu taki przykład nalepiania plastra na ropiejącą ranę po to, żeby nie widzieć, że ona ropieje, ale ona zaczęła ropić znacznie wcześniej, znacznie wcześniej dopuszczaliśmy tego rodzaju dyskurs i teraz po prostu otworzyliśmy wrota, otworzyliśmy tamę i to leci strumień, tego się nie zatrzyma. To jest jak mem z tą cieknącą wodą z tego wielkiego zbiornika, gdzie gość tam nalepia plaster i wracamy wielką klamrą do zakazu używania medium społecznościowych przez dzieci, bo mamy nagle wielki problem w wymiarze społecznym i każdy z nas może się z tym problemem spotkać, każdy z nas może tego doświadczyć, więc co robimy? No to nie wiem, zakażmy dzieciom. A, dobra, okej, no to sprawa załatwiona. Prawda jest taka, że chociażby jakiekolwiek przejawy cyberbullingu, mają ten prefiks cyber, ale bullying był ten sam, teraz jest tylko inna skala i może ludzie nagle zaczynają odkrywać, co dzieciaki sobie robiły w szkole przez całe lata na wielką skalę, ale prawda jest taka, że my to odkrywamy tylko dlatego, że teraz to jest w jakiś sposób dokumentowane. No ale widzisz, ludzie się tym przejmują. I problem jest w tym, że my nie mamy takich mechanizmów odpornościowych, które sprawiają, że ktoś się np. nie będzie przejmował tym, albo się na to wyłączy, albo nie będzie reagował. I to jest coś, o czym sam regularnie rozmawiam z twórcami. Generalnie taka zachęta ekonomiczna do reagowania na jakąś treść jest pokusu nie do powstrzymania dla wielu osób, bo wiedzą dobrze, że jeżeli zrobią odpowiedź na jakąś defamację, upublicznią ją, następnie defamator zrobi następną. Odpowiedź na odpowiedź. Tak, i w ten sposób dostajemy ten klimat, który mamy w tym momencie wszędzie i na Twitchu i na YouTubie, to znaczy reakcję na reakcję, dramy i jeden wielki Big Brother, który teraz się przeniósł do YouTube i na Twitcha. Jak ja to obserwuję, to jestem absolutnie przerażony. Wiem, że bumerzę w tej chwili, ale uważam, że to jest taka najgorsza rozrywka wyobrażalna, która w tym momencie kulminuje w Beast Games robionym przez Amazona, który jest po prostu… To nie ma nic wspólnego z teleturniejem, to specjalnie zobaczyłem parę odcinków, to jest po prostu show, to jest Big Brother. I dlatego właśnie cały czas wracam do tego, co mieliśmy wcześniej, że mam wrażenie, że media społecznościowe po prostu wykorzystują cały czas te same formaty, bo kiedyś zostaliśmy przyzwyczajeni do tego, że będziemy śledzić to, jak ludzie robią z siebie zwierzęta, jak taktują się jak zwierzęta, zachowują się wobec siebie bestialsko, redukują całą prywatność do zera, a potem jeszcze dostają za to pieniądze. Tak, produktem tego biznesu są Freak Fighty. O, następny problem, który też żeruje bardzo na negatywnych emocjach. Tak, i których nie było w erze przedinternetowej. I których nie było. Ale dopiero era internetowa i komunikacja w internecie sprawiły to, że język się zekstremizował i tworzy się… Jest takie piękne określenie na to, spirala ujadania i jazgoty, czyli napędzanie właśnie pewnych treści. I oczywiście każdy z tych iteracji, czyli na przykład każdy taki film, o którym mówisz, komentarz do komentarza i tak dalej, każdy z tych treści towarzyszy bardzo dużo komentarzy, też użytkowników w ogóle, którzy też się nakręcają i którzy też jakby wchodzą w ten mechanizm. No i robi się taki biznes chłapania jadaczką właśnie i ujadania, który potem kulminuje i gdzieś musi ujść, tak? Więc czasem uchodzi po prostu w postaci flick fightów, na których też się zarabia, bo też się je ogląda w internecie, też są za paywallem. Więc te treści, one są naturalnym efektem właśnie używania pewnego języka. Czy to się bierze z tego, że właśnie nadal panuje etos anonimizacji? Myślę, że jest to ważny element w tym, że wyszliśmy i nadal tkwimy w takim przekonaniu, mówię my, ale chodzi mi po prostu o część użytkowników, że skoro to jest w internecie, to i tak nikt nie wie, kim ja jestem tak naprawdę. Więc mogę zekstrymizować swój język do granic możliwości, spróbować jakby naginać granice, być może mnie wywalą, założę następne konto, bo nikt mi nic nie zrobi po prostu z tego tytułu. Pamiętam, że jak ja zakładałem kanał na YouTube, ludzie mnie pytali, dlaczego zakładam pod swoim imieniem i nazwiskiem. Byłem zdumiany, dlatego, że to jest moje, to było dla mnie oczywiste. Ale z drugiej strony w tym jest pewna logika, bo różni patotwórcy, którzy zafunkcjonowali, nie wiem, w tym momencie mi przychodzi do głowy boks, nie wiem dlaczego, ale ja go nie kojarzę tylko z imienia i nazwiska, czy innych wielu, wielu twórców. Ja ich kojarzę właśnie z tego niku, który zafunkcjonował w sieci, no i przecież taki był cel, bo może sobie taki człowiek, nie wiem, nie znam człowieka, on może sobie wrócić później do domu i być kochającym mężem i ojcem 16 dzieci, ale równocześnie w sieci być kimś zupełnie innym. To jest dla mnie bardzo niebezpieczne i mam wrażenie, że właśnie to społeczeństwo spektaklu jest bardzo podsycane przez to, takie poczucie, że możemy powiedzieć sobie cokolwiek. No i teraz wiesz, dokładamy do tego AI i założymy sobie, że ktoś będzie bankierem, szanowanym w... Są bankierzy szanowani, żartuję. Bankierem szanowanym powszechnie, z czystą kartoteką i stworzy sobie awatar biuściastej blondynki, która będzie robiła transmisję na Twitchu. I będzie miała konto OnlyFans, a równocześnie będzie mieć drugie konto, w którym będzie miało takiego typowego redneka zachęcającego do tego, żeby wszystkich schejtować. I co wtedy? Jak powstrzymamy człowieka przed tworzeniem swoich awatarów i przez postępującą awataryzację, skoro Mark Zuckerberg w późnej fazie Kendall Roya zachęca wręcz do tworzenia takich awatarów? Zachęca jeszcze nie, ale nie zniechęca. Nie mówi, że jeżeli będziecie robić takie rzeczy, to jakaś ręka sprawiedliwości medialnej was dopadnie. Wręcz... Może właśnie wręcz przeciwnie. Ale mówi, że możecie robić, co wam się podoba, a jeżeli komuś to będzie nie pasowało, to wtedy ten ktoś może was zgłosić. I wtedy być może będziemy rozmawiać na ten temat. Przepraszam, że ci wtrącę, ale to jest znowu z przerzucenia odpowiedzialności na użytkownika. Oczywiście. Właśnie miałem o tym powiedzieć. Przerzucamy, jakby totalnie ściągamy odpowiedzialność z operatora, z stawcy, z biznesmena, który na tym zarabia. Mówi, że możecie korzystać z mojego medium, a jak coś wam się nie podoba, to sami się tam... To jest po prostu taka rzecz, że usuwamy z kraju, czy powiedzmy z miasta, policję i dajemy ludziom pałki i mówimy, no to teraz jak chcecie, to możecie sobie sformułować straż sąsiadzką. I ona będzie dbała o bezpieczeństwo w tym mieście. Bo wiecie, bo policja jest zła, bo jest skorumpowana i tak dalej, więc po co w zasadzie jest na to czekać. Taki film nazywał się Noc oczyszczenia. Ale wiesz, może rozwiązanie jest takie, jeżeli mamy wydawcę, bo jesteśmy w stanie sprawdzić, jakie czasopisma są wydawane przez jakie grupy wydawnicze. Ground News jest bodajże taką aplikacją na terenie... nie Polski działającą, to Polska nie bardzo. Tak, ale to są raczej dostępne informacje. Ale wiesz, chodzi o to, że masz narzędzia, które pozwalają ci profilować też politycznie, sprawdzać, kto gdzie jest, kto kogo reprezentuje. Nie masz tego w internecie. W przypadku twórców treści nie ma takiej możliwości. Ja na przykład zobaczę, że Wieńczysław Nieszczególny, na cytuję Nieźwiorskiego, odpowiada za ten kanał właśnie z tą blondynką na Twitchu, następnie ten jeden, następnie jeszcze prowadzi Instagrama, gdzie sprzedaje wyroby z drewna, jak Nikoferman, i jeszcze będzie mieć coś innego i coś innego. I wtedy byśmy mieli taką czytelną strukturę, że tak, jest jeden twórca, który sobie stworzył tych parę modeli EA-owych, to niech sobie tworzy, tak? Jest kapitalizm, wolny rynek, może, ale niech ludzie przynajmniej wiedzą, że to jest sztuczne, bo za naprawdę moment będzie to na takim poziomie realizmu, że my nie będziemy w stanie tego zweryfikować. Te nisze wypełniają właśnie dziennikarze i wspomniani przeze mnie fakturkarzy, no bo jest potrzeba jakaś społeczna tutaj, odwołam się do mojego socjologicznego podłoża, więc jest też element albo aktor, bądź też aktorzy, którzy spełniają tę potrzebę, pełnią tę funkcję, takie stowarzyszenia, środowiska i grupy, jak na przykład Bellingcat, osoby, które używają OSINT-u i białego wywiadu, po to, żeby OSINT, czyli Open Source Intelligence, inaczej, wywiad na podstawie źródeł dostępnych wszystkim, po to właśnie, żeby weryfikować pewne rzeczy i pokazywać, prowadzić po prostu śledztwa dziennikarskie i ujawniać powiązania niektórych twórców, którzy powiedzmy, że najpierw tworzą content, antyunijny, a potem po dwóch latach nagle prowadzą jakąś propagandę pro jakiegoś ugrupowaniu politycznemu i być może są finansowani właśnie przez jakąś partię albo ugrupowanie polityczne albo przez jakiś rząd i tego nie robią media społecznościowe same w sobie, one dają tylko przestrzeń do działania, umywają ręce i mówią, to nie jest nasza odpowiedzialność, każdy robi, co chcemy, dajemy tylko i wyłącznie narzędzia, to robią właśnie osoby związane m.in. z Białym Wywiadem, osoby, których właśnie teraz troszeczkę Mark Zuckerberg oczernia, mówiąc, że oni manipulują teraz treściami i właśnie wprowadzają cenzurę. A cenzurą na przykład jest to, że ktoś przeprowadzi całe śledztwo i pokaże, że ten kanał jest prowadzony przez osobę związaną z tą grupą interesów, a ta grupa interesów np. ma powiązania z rządem tego państwa. Boże, jakie to byłoby potrzebne, więc mam nadzieję, że ten os.in. będzie się rozwijał także bardziej w Polsce. To są pasjonaci, a nie osoby, które np. są dotowane przez jakieś programy państwowe itd. Powspomnieliśmy kilka razy już o Marku Zuckerbergu, więc trzeba pociągnąć ten wątek. Ale obecnie nam zasięgi, bo że w... Bo wiesz, bo na początku to było niesamowite, że przez całe lata piękni chłopcy z Doliny Krzemowej byli bardzo liberalni, byli bardzo po stronie wartości progresywnych i równocześnie wszystkich, którzy nie byli, nazywali oczywiście nazistami i faszystami, wiadomo, bo to się sprzedawało, były emocje. Teraz to nam na pewno, żebym ten zasięg... Teraz dokładnie na odwrót, to znaczy Mark Zuckerberg założył złoty łańcuch, zaczął oczywiście trenować, jest teraz, ja tylko czekam na paleodietę jeszcze, jest w tej fazie późnej Kendala Roya właśnie i to jest niesamowite, stał się zupełnie innym człowiekiem, ale nie tylko on przecież. To znaczy mamy w zasadzie większość bądzów informacyjnych w tym momencie przeszła, przynajmniej w Stanach Zjednoczonych, na pozycje turbokonserwatywne i to jeszcze właśnie takie paleokonserwatywne, powiedziałbym, nie mające nic wspólnego z wartościami republikańskimi, o czym zresztą mówią sami republikanie, tylko mających więcej wspólnego... Będziesz pewnie wiedział, o kim mówię, bo mnie w tym momencie... O Alex Jones, prawie zapomniałem o istnieniu tego człowieka. Który miał już zarzuty, udowodniał mu wszystko. Byłeś w dobrym momencie swojego życia, jeżeli zapomniałeś o jego istnieniu. Zbankrutował, ale był dla mnie takim emblematem tego, jak właśnie funkcjonuje ta patologiczna infosfera amerykańska, że jest program, który bazuje na całkowitej seansie nienawiści, że użyję orwellowskiego terminu, dosłownie. Przepięknie, swoją drogą, polecam, spotykowane są seanse nienawiści w drugim odcinku pierwszego sezonu Black Mirror, potem Fifteen Million Merits. Tam jest taka właśnie scena, że człowiek sztucznie wzburza się i potem mówi, o, na następnym odcinku będzie. Więc to jest to. Nie to robił Alex Jones, tylko po to, żeby sprzedawać swoje niedziałające probiotyki. I dla mnie to jest w tym momencie standardem w Stanach Zjednoczonych. Przeraża mnie, to pokazuje działalność Zuckerberga, pokazuje działalność Ilona Maska, który kupił Twittera. I być może będzie tak jeszcze z innymi portalami, nie wiemy w zasadzie, staramy się, żeby ta rozmowa była w miarę uniwersalna, może za 10 lat będzie jeszcze gorzej, może będą też inne nazwiska. Ale to mi się wydaje bardzo problematyczne, bo nie jesteś w stanie walczyć z tak skoncentrowanym kapitałem w rękach jednego człowieka, który jedną decyzję, jak Zuckerberg ostatnio mówi, nie będziemy robić fact-checkingu, ponieważ fact-checking kojarzy się z wartościami liberalnymi. To taka prawda. Znowu ta dyskusja sprowadza się do tego zjawiska technofeudalizmu, w którym jest jeden pan, który może jedną decyzją zmienić to, w jaki sposób funkcjonuje bardzo wiele osób, np. twórców, którzy żyją z tworzenia treści na jego folwarku. I to nie tylko jest kwestia tej jednej postaci, bo taki piwot widać w przypadku większości takiego panteonu techno-oligarchów, Peter Thiel, Sam Altman, a takich piewców w ogóle właśnie też tego obozu, tak jak Alex Jones, jest o wiele więcej. Można wspomnieć chociażby siedzącego trochę okrakiem Sefa Rogana, który jest w tym momencie większy, aniżeli tradycyjne media. To są teraz mainstreamowe media. Sef Rogan i Alex Jones to są teraz mainstreamowe media, biorąc pod uwagę zasięgi. Więc ten piwot jest widoczny, jak najbardziej, przy czym jest on, moim zdaniem, znowu motywowany ekonomią, decyzjami biznesowymi, które po prostu też są mocno spięte z decyzjami politycznymi. W sensie idziemy za tym, kto akurat osiągnął sukces polityczny, kto jest teraz na szczycie, no bo więcej dzięki temu możemy uzyskać. I pokazuje to jedną rzecz, o której wszyscy powinniśmy wiedzieć od dawna i której powinniśmy się nauczyć, że właściciele big techów nie mają w interesie, żeby dbać o nasze wartości i o nasze życie. Jeżeli ktoś mówi, że podejmuje jakąś decyzję, żeby dbać o wolność słowa, to to jest tylko po prostu wyświetlany frazes. Ktoś sobie tylko wyciera gębę ładnie brzmiącą maksymą, ładnie brzmiącym hasłem, po to, żeby zlegitymizować swoją decyzję biznesową. Czyli Elon Musk mówiący, ja zaprowadzę ludzkość teraz na inną planetę. Jakby zapomnijcie o tym. To jest gość, który siedzi w Dolinie Krzemowej i to jest gość, który dba tylko o swój interes i o swoją markę, nie o pieniądze, a nie o was, o jako ludzkość. Neil deGrasse Tyson miał takie genialne riposte, że jeżeli będziemy mieli technologii i narzędzia do terraformacji Marsa, to będziemy mieć technologii i narzędzia do terraformacji Ziemi. Także taka jest kolejność rzeczy. Ale zaśmiałem się przy stanie Altmanie dlatego, że ja ostatnio usłyszałem najlepszy dowcip z ust tego bardzo poważnego, nobliwego człowieka, takiej pozunie na niego. I to był jedyny raz, kiedy się niesamowicie śmiałem z jego dowcipu. To dlatego, że sam Altman powiedział, że bardzo bolewa tym, że DeepSeek, czyli duży model językowy chiński, kradnie treści przez OpenAI, które zostały zbudowane na kradzieży treści. To było w tym tygodniu, bo to jest bardzo znana rzecz teraz. W sensie bardzo intensywnie dyskutowana. I znowu odwołam się do kultury śmiesznych obrazków. Doskonale opisuję to słynnym mem z Spidermanem, który jeden pokazuje na drugiego. I pierwszy pokazuje na drugiego, drugi pokazuje na pierwszego. Ten pierwszy się zdenerwował, że ktoś go okradł, a ten drugi jakby wprost potwierdza, że ten pierwszy też jakby te treści, którymi nakarmił swoje narzędzie, nie były do końca uczciwie pozyskiwane. Ale to pewnie zadecydują sądy o tym, bo na razie są mocne podejrzenia co do tego, ale nie ma jeszcze dowodów. A nawet jeżeli dowody są, to zawsze pojawi się jakieś tłumaczenie. A to, że DeepSeek jest uczony na innych narzędziach, pokazuje chociażby to, że czasem on nie do końca jest jeszcze dopracowany i czasem się podpisuje jako chart GPT. To pięknie. Znaczy jest jedna rzecz, która myślę powinna stać się częścią tej rozmowy, mianowicie, że muszą być regulacje, które wymuszają na twórcach oprogramowania tworzenie chociażby takich samych mechanizmów autentyfikacji, jak jest w przypadku produkcji drukowania banknotów. Że nie możesz mieć mennicy, jeżeli nie będziesz w stanie sprawić, że my będziemy wiedzieli, że ten środek płatniczy jest autentyczny. Ludzie nie będą tworzyli, nie będą mogli tworzyć filmów, zdjęć i treści AI bez użycia tego oprogramowania. Więc absolutnie powinno być tak, że każda treść wytworzona zawiera w sobie jakiś, nie wiem, może na mechanizmie blockchain, może być to o parte, wszystko jedno, jakiś cyfrowy ślad, który dla innych programów wtedy jest informacją. To zostało wygenerowane przez AI. Nie wiem, czy wiecie, jak się wrzuca film na YouTube, jest tam taka opcja, oznacz, czy treść została zrobiona przez AI. Nie dość, że ja muszę za każdym razem wciskać nie, co mnie doprowadza do szału, to pomijając to wszystko, to jest absurdalne. To znaczy, na użytkowniku końcowym spoczywa odpowiedzialność za to, żeby oznaczył, oczywiście uczciwie, że treść nie jest lub jest stworzona przez AI. Ale możesz tego nie oznaczyć na przykład. A tymczasem, gdyby to było po stronie producentów, to byś nawet nie mógł niczego zmienić, ponieważ byłoby wiadome, że to zostało wygenerowane za pośrednictwem tego oprogramowania. I już słyszę głosy, które krzyczą, że jest to cenzura, bo narzucamy jakiś sposób etykietowania treści wrzucanych do przestrzeni informacyjnej. Ja jeszcze właśnie do tej przestrzeni informacyjnej chciałem się odnieść, bo to wszystko, o czym mówimy, sprowadza się do takiego problemu zanieczyszczenia ekosfery informacyjnej. Jest takie pojęcie wśród badaczy, czasem ono też funkcjonuje jako infosfera. Można przez prostą metaforę spojrzeć na to, w jaki sposób... Wiem, że nadal trwają gorące dyskusje na ten temat, ale mimo wszystko chronimy środowisko. I na przykład nie pozwalamy, żeby lokalna fabryka farb wylała 13 ton chemikaliów do rzeki, bo są za to kary. A jednocześnie pozwalamy, żeby ta ekosfera informacji była zanieczyszczona i żeby duże podmioty mogły właśnie wylewać takie cyfrowe ścieki. I wracając właśnie do hasła, jednego z kluczowych haseł, które wspomniałem, czyli regulacje. Właśnie na tym by one polegały i na tym one mają w założeniu polegać, żeby chronić użytkownika końcowego, a nie żeby jemu zabierać jakąś wolność słowa. Po to jest DSA, Digital Services Act, żeby móc zainterweniować w takim momencie, jak na przykład w sytuacji, która wydarzyła się w Rumunii, gdzie TikTok pozwolił nie oznaczać treści jako reklamy wyborcze jednego kandydata, podczas gdy inni kandydaci musieli grać według starych reguł. Stara reguła mówiła o tym, że w ogóle TikTok zabrania płatnych reklam politycznych. To jest raz. Teoretycznie, jak się okazuje, nie do końca. Ale jeżeli ktoś płaci za reklamę wyborczą, to nie tylko musi być to oznaczone jako treść sponsorowana, ale także jako treść sponsorowana o charakterze politycznym. Przy czym jeden z kandydatów takiego wymogu spełnić nie musiał, bo wystarczyło, że ktoś w TikToku wyłączył jedną funkcjonalność. Nie możemy pozwolić na to, żeby decyzje podmiotów komercyjnych, czy w tym wypadku komercyjno-rządowych, tylko że z obcych państw, miały bezpośredni wpływ na nasze wybory w państwie demokratycznym. Po to są regulacje i po to są pomysły, żeby w jakiś sposób ten świat kontrolować. Myślę, że argument dotyczący cenzury jest łatwy do odbicia o tyle, że mieliśmy lata temu w Polsce epidemię całkowitą treści reklamowych nieoznaczanych. I zostało wymuszone oznaczanie treści reklamowych przez Urząd Ochrony Kontroli Konsumentów. Były słynne sprawy procesów przeciwko twórczyniom na Instagramie, które naruszały to regularnie i teraz musi być to oznaczenie. I to oznaczenie nie jest wprowadzane właśnie przez użytkowników, tylko ono się wyświetla za sprawą stosownego algorytmu, który w aplikacji wymusza oznaczenie tej treści. I to wydaje mi się najsensowniejsze rozwiązanie. Ale co do tego doprowadziło? Doprowadziło do tego to, że użytkownicy zgłaszali sami treści, które wyglądały jak sponsorowane, a nie miały takiego oznaczenia. Więc znowu to było działanie końcowego użytkownika, a nie działanie na przykład regulatora, a nie działanie państwa, a tym bardziej nie działanie dostawcy tej treści. Bo tak jak mówię i powtarzam, nikomu tam w Dolinie Krzyżowej nie jest na rękę, cożby chronić tych użytkowników, czy żeby ich informować o tym, że coś jest sponsorowane, czy nie. Dopóki się klika, to jest dobrze. Jakby chciałbym to sprowadzić, tę całą dyskusję do tego, co może wyciągnąć widz z tego, tak? Może wyciągnąć przede wszystkim świadomość tego, że musi mieć jednomocności i też musi mieć świadomość tego, że... znaczy nie musi, tak jak mówię, każdy korzysta z mediów społecznościowych, jak chce. Ale jeżeli chce to robić higienicznie, bo od tego wyszliśmy, to dobrze byłoby czasem zajrzeć właśnie tam pod spód, pod ten dywanik i zobaczyć, co tam się dzieje i jakie czynniki napędzają pewne decyzje, a nie od razu pisać w komentarzach, co mu się wydaje, de facto napędzając ten biznes, co do którego powinna taka osoba się nastawiać podejrzliwie, albo z taką delikatną dozą zdrowego sceptycyzmu. Myślę, że nie mogliśmy się pokusić o lepsze podsumowanie. Dziękuję ci serdecznie. To był bunkier nauki. Rozmawialiśmy o problemach związanych z mediami społecznościowymi i niełatwymi rozwiązaniami tychże. Dzięki wielkie. Dzięki za rozmowę.