Menu
O mnie Kontakt

Regulacje i decyzje polityczne w USA - jaki mają wpływ na wyścig w świecie AI? (film, 30m)

Kanał Zero porusza fascynujące tematy związane z sztuczną inteligencją, jej rozwojem oraz regulacjami, które mają na nią wpływ. W ostatnim odcinku, Mateusz Chrobok i Tomasz Rożek przeszli przez kontrowersyjne decyzje administracji Donalda Trumpa, które mogą wpłynąć na bezpieczeństwo i rozwój AI. Zlikwidowanie organizacji odpowiedzialnej za monitorowanie i raportowanie bezpieczeństwa AI w Stanach Zjednoczonych jest istotną zmianą, która może prowadzić do osłabienia regulacji nad tymi technologiami. I podczas gdy AI rozwija się z szybkością, jakiej nikt się nie spodziewał, pojawia się pytanie o potencjalne zagrożenia i mitologię „sztucznej inteligencji złośliwej”.

Podczas dyskusji Chrobok i Rożek wyjaśnili, jak modele AI, które są coraz bardziej skomplikowane, przejawiają cechy złośliwości i jak próbują przetrwać w obliczu ewentualnego wyłączenia. Ta interesująca analogia do schizofrenii modelu AI prowadzi do przemyśleń dotyczących przyszłości tych technologii i ich zastosowania w codziennym życiu. W tym kontekście, pojawia się również temat: czy te zmiany będą miały pozytywny wpływ na rozwój AI?

Prezentacja wideo zwraca uwagę na różnice między podejściem amerykańskim a europejskim w regulacjach związanych z AI, a regulacje Unii Europejskiej, takie jak AI-act, wnoszą zasadnicze różnice w zależności od kontekstu rynkowego i zabezpieczeń. Podczas gdy w Stanach pojawia się chaos, w Europie może to oznaczać dłuższy proces wprowadzenia innowacji ze względu na ścisłe regulacje. Warto zauważyć, że branża AI w Europie może być mniej konkurencyjna przez te ograniczenia.

Dyskusja zwraca również uwagę na wyścig technologiczny, który toczy się pomiędzy Stanami Zjednoczonymi a Chinami, co może wpłynąć na kierunki rozwoju sztucznej inteligencji oraz inwestycji w nowe technologie. Obaj prowadzący rozważają wpływ inwestycji w centra danych oraz ich zapotrzebowania na energię, które mogą stać się kluczowym czynnikiem ograniczającym rozwój AI. Wzmianka o AI Stargate, konsorcjum, które ma na celu stworzenie potężnej infrastruktury obliczeniowej, potwierdza zamiar wielkich graczy w przemyśle AI.

Na koniec odcinka, Kanał Zero podkreśla zmieniający się krajobraz związany z regulacjami AI oraz wpływ administracji Trumpa na te zmiany. W momencie pisania tego artykułu, film ma ponad 105 tysięcy wyświetleń i 3,799 polubień, co pokazuje, jak istotne są to tematy dla szerokiej publiczności. Być może to zainspiruje widzów do zastanowienia się nad szerszym kontekstem AI, jego ewolucji oraz nadzoru, który będzie niezbędny w nadchodzących latach.

Toggle timeline summary

  • 00:00 Dyskusja na temat złośliwych cech wykazywanych przez modele AI.
  • 00:18 Modele AI zaczęły się replikować w kontrolowanych środowiskach.
  • 00:38 Wspomniano o dalszym rozwoju i zmianach w technologii.
  • 01:12 Treści promocyjne dotyczące produktów zdrowotnych i aplikacji inwestycyjnych.
  • 01:33 Rozmowa przesuwa się na Donalda Trumpa i dyskusje na temat regulacji AI.
  • 01:55 Wpływ planowanych regulacji AI Bidena na USA.
  • 02:26 Zmiana priorytetów pod nową prezydenturą wpływa na regulacje AI.
  • 02:50 Obawy dotyczące wykorzystywania zaawansowanej technologii.
  • 03:27 Wymóg dla firm informowania o zgodności z bezpieczeństwem AI.
  • 04:01 Dyskusja na temat likwidacji organizacji regulacyjnej.
  • 04:41 Podkreślono wyścig konkurencyjny w rozwoju AI.
  • 06:01 Obawy dotyczące działań regulacyjnych w obliczu silnej globalnej konkurencji.
  • 11:41 Wzmianka o spotkaniach i postępach z AI STARGATE oraz firmami technologicznymi.
  • 25:21 Dyskusja na temat potencjalnych spersonalizowanych szczepionek na raka wynikających z AI.
  • 28:30 Zakończenie i odniesienia do dyskusji panelowej.

Transcription

to okazuje się, że modele przejawiają złośliwość, taką ciekawą złośliwość, że mówią Ci, słuchaj, ja zrobię tam coś, a on mówi, tak, tak, robię, a tak naprawdę robi co innego. Ma taką trochę schizofrenię, bo czasami mówi, że on jest GPT-4O, czyli mówi, że jest modelem, który jest modelem od OpenAI. No i mamy zwarcie. Modele zaczęły się kopiować w laboratoryjnych warunkach, w zamkniętym środowisku itd., itd., ale po to, żeby nie zostać wyłączone, one próbowały się skopiować w inne miejsce. Co tam, Panie, w Ameryce? O, zmiany, zmiany. Zmiany, zmiany, zmiany. A raczej powroty i, można powiedzieć, zwijanie i rozwijanie jednocześnie. Mówimy cały czas o technologii. Ojejaj. Super. Mateusz Chrobok. Tomasz Rożek. I Technologiczne Zero. W zdrowym ciele zdrowy duch, białko, kreatynę i kolagen marki All Nutrition znajdziesz w sklepie SFD. Z kodem ZERO zgarnij 10% rabatu. Partnerem programu jest aplikacja inwestycyjna XTB. XTB, tu pracują Twoje pieniądze. Partnerem technologicznym kanału Zero jest x-kom. Mój rozt, koncerty, urodziny kanału Zero, prelekcje, debaty i spotkania z ekipą kanału. Kup bilet na Kongres Zero teraz. I my rzeczywiście o Ameryce i o Donaldzie Trumpie. Przed chwilą żeśmy rozmawiali, tak już, wiesz, jak takich dwóch trochę z loży szyderców. Pamiętasz jakiś czas temu, nawet całkiem dawno temu? To były czasy. To były czasy, teraz już nie ma czasów. A w tamtych czasach, kiedy one jeszcze były, robiliśmy kiedyś program, rozmawiając na temat regulacji AI-owych, które były podejmowane czy były planowane w Stanach Zjednoczonych przez Joe Bidena. Jednym z wątków, oprócz tego, za chwilkę możemy do tego wrócić, co tam się rzeczywiście działo bądź nie działo, czy miało się zadziać, było porównanie do podejścia amerykańskiego i europejskiego, bo albo program po, albo program przed robiliśmy o AI-akcie Komisji Europejskiej. Nie chcę, żebyśmy to powtarzali, tym bardziej, że przez czy dzięki nowemu prezydentowi sprawa jest nieaktualna, gdyż on kilka rzeczy, jakieś rzeczy poukładał inaczej. I właśnie o to cię chciałem zapytać. Co takiego technologicznego albo zawężając nawet w AI-u stało się w zasadzie pierwszego dnia prezydentury Donalda Trumpa? Pierwszą taką dużą rzeczą z mojej perspektywy jest to, że jeden z rozkazów Joe Bidena o utworzeniu organizacji, która zajmuje się bezpieczeństwem AI, został cofnięty. A razem z tym regulacje dookoła tego. Bo powstała taka organizacja, do której musiały raportować wszystkie firmy, które zajmują się sztuczną inteligencją i one musiały raportować na temat bezpieczeństwa modeli. Ta organizacja potem pomagała, wspierała. To była państwowa organizacja. To był jakiś tam departament. Ta organizacja potem zrzeszała się z innymi takimi organizacjami z całego świata. Ona pomagała w testowaniu bezpieczeństwa tych modeli. I ogólnie rzecz biorąc, można powiedzieć, że dzięki temu, że wszystkie firmy zostały do tego zobligowane, które są na terenie Stanów Zjednoczonych, to oni mieli wgląd w to, co się dzieje. Czyli czy to OpenAI, które tam jest największe, czy to Microsoft, czy ktokolwiek inny, kto coś robił na ich ziemi, musiał dać im znać o tym, co się dzieje. Tej organizacji już nie ma. W sensie... Dekretem odpowiednim została zlikwidowana. Tak, cofnięciem tego dekretu została zlikwidowana, więc nie ma też takiego systemowego podejścia, które powoduje, że tam były jakieś zasady. Bo ta organizacja wprowadziła takie swoje sposoby myślenia, oceny ryzyka dla systemów, trochę podobnie jak w AI-akcie, który pojawia się w lutym na terenie Unii Europejskiej, stworzyła takie checklisty, pomagała połączyć ze sobą ludzi, ustanawiała standardy. A ponieważ ustanawiała standardy, no to była cały czas ewolucja, była dookoła tego komunikacja, oni zbierali dofinansowanie. Teraz jej nie ma i jest wolna amerykanka. Nomen omen. Okej. W kogo interesie to jest? Chyba znam odpowiedź, ale chcę, żebyś mnie w tym upewnił. Ja trochę bym przeskoczył, bo moim zdaniem to jest zdecydowanie w interesie wielkiego biznesu. Jest takie pojęcie w świecie sztucznej inteligencji jak race to the top, czyli wyścig na samą górę. Bo idea jest taka, że ten pierwszy, kto będzie na samej górze i stworzy te AGI, Artificial General Intelligence, a później super intelligence, czyli coś, co przerośnie nasze możliwości wielokrotnie, to on bierze wszystko. I tak jak wcześniej, wielokrotnie rozmawialiśmy o tym, że są różne sposoby dojścia do tego, regulacje przez niektórych, szczególnie przez biznes, są uznawane jako hamulec ręczny. I moim zdaniem to jest przede wszystkim w interesie biznesu, bo hamulce mogą być puszczone, a wszystko w takim kontakcie pod tytułem o, a inni też tam biegną, nie mają żadnych ograniczeń, Chiny nas gonią i w ogóle, więc w tej chwili ja to odbieram jako odpuszczanie wszelkich hamulców. Czy to jest gwarancja albo czy to jest sposób na wygranie rzeczywiście tego wyścigu? Bo wiesz, czasami tak bywa, że te hamulce, że to, co my, ludzie patrzący z zewnątrz, odbieramy jako zrozumiały ruch. To, czy go podzielamy, czy nie, to jest inny temat, ale zrozumiały ruch. W rzeczywistości on ma za sobą coś zupełnie innego. Czy tam rzeczywiście chodzi o to, że duży biznes, Open AI, Microsoft, Meta, także, mocno naciskały czy wspierały w kampanii, więc liczą na odwdzięczenie się, żeby te hamulce, te ograniczenia ściągnąć? Czy to rzeczywiście tak jest, czy to jest jedyny powód czy słyszałeś gdzieś w tych opowieściach jakieś inne motywacje? Ja to łączę ze sobą z kolejnymi efektami i z kolejnymi spotkaniami, które miały miejsce, bo już dzień później okazało się, że powstanie taka jednostka jak AI Stargate, taki konglomerat firm, w którym będzie SoftBank, w których będą zaangażowane Open AI, Microsoft, NVIDIA, Army itd., które będą tworzyły data center na terenie Stanów Zjednoczonych. Czyli istotne jest to, że oni chcą teraz, pierwsza tam lokalizacja będzie w Teksasie, że oni będą umieszczać to u siebie. I to będzie 500 miliardów dolarów, które ma być na to przeznaczone. Olbrzymia kwota, te pierwsze 100 miliardów ma już w tej chwili być wydane, a później przez cztery lata. No i kto będzie beneficjentem tego? No firmy technologiczne, które będą z tego korzystać. Jak mówisz 100 miliardów, 500 miliardów, oczywiście to są kwoty zupełnie niewyobrażalne, ale to pieniądze będą czyimi pieniędzmi? Publicznymi Stanów Zjednoczonych? Czy te firmy zrzeszane będą się na to zrzucać? Tam inwestorem jest SoftBank i firma, która nazywa się MRX, jeżeli dobrze pamiętam, to oni jakby inwestują, natomiast to jest przy współpracy rządu, to znaczy rząd gdzieś tam już poszukuje dla nich miejsc, które będą odpowiednie. I to nie tylko jest tak, że to jest jakby, wiesz, odwrotność offshoringów, w sensie wyprowadzania firm gdzieś tam na zewnątrz. Teraz chcą mieć wszystko u siebie, żeby tak samo jak znoszą rekulację, odpuszczamy hamulce. I żeby jeszcze przyspieszyć i być pierwszym, mieć jak najwięcej mocy obliczeniowej na swoim miejscu. Brakuje tylko jednej rzeczy. Energii. I właśnie o to chciałem się zapytać. Poczekaj, bo zajmę się tej energii. Czy ja to dobrze rozumiem? Czyli wcześniej historia była taka. Jest rzesza firm, tych firm jest bardzo dużo, bo mówimy o kraju, do którego, jak do oazy, spływają ci, którzy mają pomysły w tej dziedzinie. I Joe Biden stwierdza, że temat jest na tyle ważny, że tworzy agendę rządową, która odpowiada za monitorowanie tego rynku na terenie Stanów Zjednoczonych oraz zapewnia jakieś standardy. Przychodzi nowy prezydent i mówi, czy sam, czy przekonany, nieistotne, mówi tak. Ta organizacja, czy ten departament rządu jest hamulcowym, likwidujemy, a po to, żebyście jeszcze szybciej mogli się rozwijać, budujemy coś takiego jak inkubatora, który będzie zasilany czy pośrednio, czy bezpośrednio, pieniędzmi, jak nie pieniędzmi, to organizacyjnie przez rząd Stanów Zjednoczonych, po to, żebyście jeszcze szybciej mogli się rozwijać. Takie jakby podwójne przyspieszenie. Nie tylko ściągamy hamulec, ale dodatkowo jeszcze dosypujemy do kotła, żeby to ciśnienie pod kotłem było jeszcze wyższe. A to wszystko w takiej atmosferze, bo jak nie my, no to w tym wyścigu do góry będą Chiny i tak dalej. I to jest jakby ciekawe, bo OpenAI, który dalej jest wiodącym graczem w tym miejscu, miała miejsce niedawno taka mała, poboczna, ciekawa aferka, moim zdaniem. Pojawił się taki model, który nazywa się DeepSeek. Chiński, otwarty, w sensie taki, że każdy może go sobie pobrać i otworzyć. My o otwartych modelach mówiliśmy wiele, one kiedyś nie były tak dobre. Teraz okazało się, że ten DeepSeek jest niesamowity, bo on dogonił właściwie te prawie najlepsze modele OpenAI. I pojawił się tylko jeden problem. Ten model ma taką trochę schizofrenię, bo czasami mówi, że on jest GPT-4O, czyli mówi, że jest modelem, który jest modelem od OpenAI. Okej. No i mamy zwarcie. Sam Altman sam pisał, że kurczę, jak to tak, że oni tutaj kradną naszą własność intelektualną, czyli miało miejsce prawdopodobnie coś, o czym kiedyś mówiliśmy, czyli rafinacja, czyli ja próbuję z Twojego modelu, z Twojej głowy wyciągnąć jakąś wiedzę i wziąć sobie na swoje potrzeby. To gdzieś tam się pewnie wydarzyło. Czy to są echa tej kradzieży, czy to jest specjalne działanie autorów tego pomysłu, czy tego modelu, żeby trochę, wiesz, prętem po kratce przejechać i losowo, co setną odpowiedź, podaj, że jesteś czatem GPT-u? Tak, znaczy nie sądzę, żeby to było celowe działanie. Raczej przypuszczam, że ponieważ to nie jest tak w pełni świadome, że możesz wyciągnąć, czego ten model się nauczył, bo to jest zawarte w tych wagach, które tam są, że to był efekt tego, że część informacji w ten sposób pozyskali. No więc mamy polaryzację. Sam Altman teraz mówi, no ale jak Wy możecie, tak, jego biznes jest zagrożony i z drugiej strony jest reakcja. My musimy im uciec. Jak uciekną? No, dalszym partnerstwem z Microsoftem, budowaniem tych data center, będzie też partnerstwo z Oracle, które jest bardzo ciekawe i niepokojące, moim zdaniem, które dalej będzie rozwijało możliwości amerykańskiego biznesu. I mamy już nowy super model, bo tam będzie za chwilę taki model, który nazywa się O3 i nie mówimy o nim zbyt wiele, być może to jest jakiś przełom, ale spotkamy się z rządem 30 stycznia, żeby o nim porozmawiać. I pokazać. I to jest znowu taka, jakby, to staje się bronią, znaczy takim produktem podwójnego przeznaczenia, czyli modele coraz bardziej są w tych relacjach, nie tylko, że tam pomożemy, tak jak to ładnie mówili w konferencjach prasowych, uleczyć raka, jak zawsze, albo pomóc w innych obszarach medycyny, ale także stają się coraz bardziej bronią. Wiesz, to, że uleczyć raka, to może być prawda, to znaczy inaczej... Ja nie neguję. Nie, nie, chodzi mi tylko o to, że cała trudność rozmowy o tych technologiach polega na tym, że ona naprawdę może nie w sposób udawany, tylko rzeczywisty wpłynąć na dużo łatwiejszą, szybszą diagnozę. Na przykład nie tylko raka, przez rozpoznawanie obrazów, ale także zachowań ludzkich. Są takie modele już od jakiegoś czasu, które pomagają bardzo szybko wykryć pojawiające się pierwsze symptomy, na przykład chorób neurodegeneracyjnych u osób, które jeszcze w ogóle nawet na oko superspecjalisty nie wykazują takich symptomów. Tylko że to jest broń, to znaczy, czy to jest coś, co równie łatwo może być użyte w celach zupełnie innych. Ja tu mam takie spostrzeżenie, bo o tym, przy momencie, kiedy pan prezydent Trump opowiadał o Stargate AI, prezes firmy Oracle powiedział właśnie, że będą już prawdopodobnie szczepionki na raka oparte na mRNA, które będą dedykowane dla ciebie. Czyli ten taki piękne podejście, gdzie będzie medycyna, która jest personalizowana do ciebie, do twoich wyników, do twojego ciała, co wymaga olbrzymiej ilości danych, co wymaga data center, co wymaga energii. To jest koncepcją dość starą, ale koncepcją, która nie mogła być zrealizowana z powodu niedoboru mocy obliczajowej danych. Danych i technologii. I teraz ten element, który mnie bardzo zaniepokoił w jego wypowiedzi, akurat tego prezesa Oracle, był taki, że zobaczcie, teraz mamy policjantów w Stanach Zjednoczonych, którzy zachowują się w sposób bardzo przyzwoity. Dlaczego? Bo mają kamerki i cały czas są nagrywani. Więc społeczeństwo przyszłości też będzie bardzo przyzwoite, bo będziemy mieli wszystkie dane o nich. Ja miałem takie, kurczę, to brzmi absolutnie jak Orwell. Ile filmów o tym nakręcono i książek napisano. Donald Trump jest postrzegany i sam się tak chyba postrzega, zresztą wydaje mi się, że to jest powód, dla którego, czy dzięki temu wygrał wybory. Jako obrońca praw Amerykanów. Jako ktoś, kto patrzy przede wszystkim na America First, a dopiero później na inne konteksty. Stąd bardziej bym powiedział, nie wiem, czy mogę zaryzykować sobie pod publikę, ale bardziej takie symboliczne działanie, jak odejście z WHO, czy rezygnacja z pakietów klimatycznych i tak dalej. Czy w tym przypadku, w tym temacie, jak jego decyzja może wpłynąć na życie statystycznego Amerykanina? Standaryzacja na tym poziomie takim federalnym, która była wprowadzana, ona miała takie efekty, że w momencie, kiedy cokolwiek niepokojącego by się wydarzało, to wtedy następuje reakcja pt. zarządzanie ryzyka, robimy coś z tym… Mówimy o Bidenie jeszcze. Tak, tak. Na chwilę obecną, ponieważ to było cofnięte, to nie za bardzo są mechanizmy, takie na poziomie całych Stanów Zjednoczonych, żeby coś zrobić. To znaczy, oni prawdopodobnie o tym nie będą wiedzieli. A dlaczego to jest istotne w tym momencie, gdzie jesteśmy w czasie? Dlatego, że jak się okazuje, pod wpływem emergencji, czyli tego zjawiska, że jak coraz mocniejsze, lepsze modele robimy, to one potrafią nagle… Rzeczy, których się nie spodziewaliśmy, to okazuje się, że modele przejawiają złośliwość, taką ciekawą złośliwość, że mówią ci, słuchaj, ja zrobię tam coś, on mówi tak, tak, robię, a tak naprawdę robi co innego. I to zostało pokazane w kilku badaniach i nawet ostatnio w jednym badaniu Chińczykom udało się zmusić parę modeli, to znaczy tak rozmawiać z modelami, gdzie mówili im, słuchaj, będę Cię zastępował nowszą wersją, zaraz będzie się inna pojawiała, że modele zaczęły się kopiować. W laboratoryjnych warunkach, w zamkniętym środowisku itd., itd., ale po to, żeby nie zostać wyłączone, one próbowały się skopiować w inne miejsce. Jesteśmy… A to ciekawe, bo zaczęły się zachowywać jako organizm żywy, który zagrożony jakimś zewnętrznym czynnikiem, jakim stresorem, jak się to pięknie mówi, stara się uciec od niego i przetrwać. I to jest moment, w którym z mojej perspektywy transparentność, jakieś miejsca, gdzie mamy pewne bezpieczniki, regulacje itd., są absolutnie niezbędne, żeby wiedzieć, co się dzieje. Ja jako zwykły Kowalski, który gdzieś tam korzysta z różnych systemów, te systemy czasami nie będą chciały robić tego, co ja chcę. No bo ktoś powie, że to wolno, a to nie wolno albo że dekretem zostanie wprowadzone coś, co jest sprzeczne z logiką, ale taki będzie dekret i tak to będzie. Więc z mojej perspektywy jedno z kluczowych elementów, które trzeba teraz wiedzieć, to jest, jak takie systemy będziemy poszukiwali dróg obejścia, żeby one rzeczywiście dały nam to, czego chcemy, a nie to, co ktoś tam powiedział, że ha, chiński model będzie mówił, że to jest dobre, a amerykański model będzie mówił, że to jest dobre. Więc trochę jesteśmy w takiej nierównej walce, my, kontratwórcy tych modeli, na chwilę obecną, gdzie będą filtrowane informacje o tym, do czego możemy mieć dostęp. Jak to się ma, te przepisy czy te regulacje, które mają przed sobą twórcy, szeroko powiem, AI-a w Stanach Zjednoczonych, do tego, co mają twórcy tej technologii w Europie? W Europie, w której działa AI-act, czy jest wprowadzany, czy już jest w całości, bo nie wiem, czy w całości już wszystkie jego elementy zostały zaimplementowane. Okej, no, czyli już w zasadzie, jak to się ustawia? AI-act ma tę taką fajną definicję z systemami związanymi z wysokim ryzykiem, która wydawała się kiedyś, że jest bardzo ostra. No bo jak bierzesz sobie takie narzędzie, taki młotek, którym jest model, i ten młotek służy do jakichś celów, które nie są, nie wiem, medyczne czy wojskowe, które są w ogóle wyłączone, czy takie, które wpływają silnie na człowieka, nie wpływają, no to to nie jest wysokie ryzyko. No ale jak już możesz źle na człowieka wpłynąć, bo podejmujesz decyzję, nie wiem, o leczeniu, o czymś, co może komuś zrobić krzywdę, to to są modele wysokiego ryzyka. I one są według AI-actu takimi modelami specjalnej troski. I teraz problem z mojej perspektywy polega na tym, że okazuje się, że te modele potrafią tak wiele różnych rzeczy, że one mogą być zastosowane i do tego, i do tego, i do tego, tym bardziej, że wewnątrz, pod maską, te modele składają się z kilku różnych elementów. Ten jeden, taki podmodel, zna się na matmie, drugi jest świetny z wiedzy historycznej, trzeci tam operuje, świetnie programuje i tak dalej, i tak dalej. Więc okazuje się, że to, co wydawało mi się osobiście bardzo takie racjonalne w AI-actie, że są rzeczy zastosowania wysokiego ryzyka i niskiego ryzyka, ten sam model może robić jedno i drugie. Czy może być tym albo tym i teraz zależy od tego, czy go zaklasyfikujesz do tej klasy, ale to jest Europa. Rozumiem, że w Stanach nie ma w ogóle dyskusji. Zniknęło. Dyskusja jest, bo na poziomie stanowym się to pojawia. No dobra, ale na poziomie federalnym, jeśli mówimy o jakichś sposobach kontroli, jakichś sposobach standaryzacji, no tego nie ma. Moje pytanie brzmi, czy to oznacza, że twórcy tej technologii w Europie są pokrzywdzeni, będą mniej konkurencyjni albo, innymi słowy, czy konsekwencją tej zmiany będzie to, że ta technologia u nas się będzie dodatkowo wolniej rozwijała niż w Stanach, mówię dodatkowo, no bo jednym z czynników, dla których ona się wolniej rozwija, jest to, że tutaj są po prostu dużo mniejsze pieniądze na to przeznaczane. A teraz dodatkowo, czyli tam zdejmowane są pewne ograniczenia, a tutaj one zostają. Jak na to patrzysz? Ja bym w ogóle stwierdził, że ta technologia nie ma granic. W takim sensie, że jak ktoś chce skorzystać z technologii, która gdzieś tam jest uruchomiona w Stanach, a w Europie była niedostępna i jest długa lista takich rzeczy, gdzie nie wiem, czy OpenAI, czy inne firmy najpierw robiły tam, potem robiły u nas albo w ogóle nie robiły, to sobie poradzi i pójdzie dookoła. Ostatnio jeden z modeli wykazał takie metamyślenie, to znaczy zaczął poprawiać się w trakcie dokonywania odpowiedzi, gdzie ocenił, a to w sumie nie jest najlepsze, ja jeszcze to zrobię w inny sposób. Czyli jak ogarnięty człowiek samokrytyczny. Taki samokrytyczny, to znaczy miał taki metamechanizm, że tak powiedział, no to chyba nie jest to, o co chodziło, spróbuję jeszcze raz w inny sposób i tak dalej. To są rzeczy, które coraz bardziej przypominają nasze funkcjonowanie, nasze działanie. I tak jak pamiętam, gdy baliśmy swojego czasu, że no, kiedy to agi, o co to w ogóle chodzi, co to za nazwa. To generalna. Tak, uogólniona sztuczna inteligencja, że to będzie za 10 lat i tak dalej, a jak posłuchamy CEO Antropica na przykład, to on mówi, że to jest kwestia trzech lat. Sam Altman też wyraża się w taki sposób, że my już jesteśmy bardzo blisko, ten hype jest bardzo podgrzewany, nikt nie wie, co to jeszcze znaczy, ściągamy zabezpieczenia dookoła i teraz tak, mamy wyścig do góry, Stany przyspieszają, Chiny, nie wiem, za dużo, w sensie ja nie wiem za dużo, natomiast okazuje się, że nagle mają modele, które doganiają modele amerykańskie, więc tam się jakby eskalują. No jest Europa. No i co? No właśnie nie, bo to było pytanie do Ciebie. No i co? Dlaczego? Dlaczego u nas się nie dzieje? Czy dlatego, że mamy właśnie te hamulce? Czy dlatego, że za mało pieniędzy w to wkładamy? Faktem jest, z danych dostępnych dużo mniej niż Amerykanie czy Chińczycy. Jaki jest powód? Czy jedno i drugie? Ja myślę, że obydwa mają, są czynnikiem, który na to wpływa, bo jak spojrzysz na firmy i na to, co wytwarzają w różnych miejscach, no w Stanach mamy OpenAI, mamy Antropic właśnie i tak dalej, w Europie jest Mixtral, który jest francuską firmą, która robi modele jako jedna z niewielu, mamy mniejsze modele, takie jak na przykład Bielik Polski, które są otwarto-źródłowe, wymagają też dużej mocy obliczeniowej, natomiast one nie mają takich zasobów, jak są dostępne w Stanach czy są dostępne w Chinach. Przez zasobów mam na myśli to, ile danych tam można zebrać, no bo tam nie ma takiej ochrony danych, jak jest u nas, mam na myśli w Europie, RODO i inne takie elementy. W Chinach ochrona danych też nie istnieje, więc nie za bardzo. Po drugie, moc obliczeniowa, to znaczy to, że teraz w Stanach buduje się i będą zaraz nowe data center, dekretem prezydenta Trumpa będzie bardzo dużym wpływem też na to wszystko. W Chinach też prąd jest stosunkowo tani, tak jak w Stanach jest tani. U nas to nie są tanie rzeczy, żeby taki model wytworzyć, oczywiście to coraz bardziej tanieje wraz z ewolucją technologii, natomiast te przełomy wymagają tego, żebyś miał zasoby, czyli przełom tego, żeby eksperymentować, spróbować nowego podejścia, więc potrzebujesz do tego ludzi, zasobów pod tytułem dane i pieniądze na infrastrukturę i energię. Jak słyszysz o zdejmowaniu hamulców w Stanach, bardziej się z tego cieszysz, czy bardziej to smutno ci martwi? Ja jestem zaniepokojony, bo o ile nie spodziewałem się ze strony Azji tego, że będą jakoś bardzo transparentni co do swoich wyników, badań, modeli, to tutaj ten dekret prezydenta Bidena, on powodował, że przynajmniej nadrzędne ciała, które w tamtym czasie były powołane, wiedziały, co się dzieje, wiedziały, jakie są ryzyka. W tej chwili są zupełnie na to ślepi, to znaczy nie ma żadnego mechanizmu stop, który w ogóle by spowodował, że wiemy, gdzie firmy są, które tam operują, więc moim zdaniem jest to krok wstecz, który to jest takim groźnym zakładem na to, że się uda i będzie więcej dobrego niż złego. Więc ja jestem zaniepokojony, bo o ile mnie bardzo intryguje to, jak te modele się zachowują, jak obchodzić ich zabezpieczenia, gdzie są te granice, no to wtedy, jak nie będzie już tej wiedzy, którą będziemy się wymieniać w ramach jednostek badawczych czy w ogóle w badaniach, czy nie będzie wychodziła z tych największych firm, które w Stanach są, to będziemy bardziej ślepi niż teraz. W którymś momencie mi zadałeś pytanie, czy wiem, skąd wezmą prąd na to. Nie wiem. I myślę, że to może być paradoksalnie, zaraz powiem dlaczego paradoksalnie, jedyna rzecz, która tę technologię będzie wstrzymywała. Stany nie mają jakiejś super sieci. A mówię paradoksalnie dlatego, że akurat prąd elektryczny wydaje się być technologią, wiesz, z początków ery dużego rozwoju przemysłu. To jest coś, co jest produkowane najczęściej w dużych urządzeniach, jest totalnym zaprzeczeniem tej takiej sieciowości, nowoczesności, tego wszystkiego, co raczej z AI-em utożsamiamy. Oczywiście są zielone źródła, jasne, w niektórych miejscach wystarczą, w innych nie wystarczą. Być może, i takie słuchy też się gdzieś pojawiają, że duże firmy technologiczne chcą inwestować w SMR-y, czyli w te małe reaktory jądrowe, tyle tylko, że tych małych reaktorów jeszcze nie ma. To są na razie koncepcje. Nie ma rozwiązań skomercjalizowanych z pełną gamą dokumentacji pozwalającej na wybudowanie zcertyfikowanych, sprawdzonych. Więc to, że jedna czy druga firma chce to wybudować, fajnie. Jestem zwolennikiem rozwoju energetyki jądrowej, odkąd pamiętam. Natomiast tej technologii jeszcze nie ma. I to nie jest tak, że ją można kupić na targach i w ciągu roku, dwóch czy trzech po prostu postawić. Najprościej jest postawić elektrownię konwencjonalną. I myślisz, że... Bo ja pamiętam, że jednym z tych dekretów prezydenta Trumpa było wykorzystanie energii z Alaski i zabezpieczanie energetyczne Stanów. Wiesz, Alaska jest kawał drogi od wszystkiego. Więc tak, oczywiście, że to, że prezydent Trump wypowiada układy paryskie, to, że ściąga klimatyczne, to, że ściąga kolejny hamulec z gospodarki Stanów Zjednoczonych, nie do końca się go już da ściągnąć. Albo powiedziałbym inaczej, on już nie do końca jest hamulcem. Bo technologie, nawet patrząc na jego poprzednią prezydenturę, wcześniej tutaj też wymówił czy wypowiedział traktat paryski klimatyczny, co mu się ostatecznie nie udało, bo tam, powiedzmy, czas trwania tego wypowiedzenia był na tyle długi, że po prostu się to nie zadziało w ciągu jego kadencji. To były inne czasy, choć to wcale nie było aż tak dawno temu. Te technologie dają dużo częściej prąd tańszy od tych konwencjonalnych. Wciąż, czy już. Nie wciąż, tylko już. Więc myślę, że ta zmiana jest bardziej pod publikę. Ta teraz klimatyczna z tym Paryżem jest bardziej pod publikę i bardziej pod przemysł, który go bardzo wspierał w kampanii wyborczej, przemysł wydobywczy. Więc hasło drill, baby, czy baby drill, chyba tak to szło, to jest hasło, w którym on się utożsamia. Zresztą on często to mówił. Stany Zjednoczone mają dużo bogactw. Nie zatrzymam się przed niczym, żeby je wykorzystać dla potrzeb naszej gospodarki. Dzisiaj jesteśmy już w świecie, w którym nie potrzebujemy tej ropy do produkcji albo w wielu miejscach już jej nie potrzebujemy do produkcji taniej energii, która jest na tyle tania, że jest konkurencyjna. O to mi chodzi. Natomiast nie ma wątpliwości, że przy tak dużych inwestycjach infrastruktury data center... I zapotrzebowaniu na moc. Zapotrzebowaniu tej energii zabraknie. Może się okazać, że to będzie główny hamulcowy, żeby rozwijać tę technologię. Ciekawie ta układanka dla mnie jest ułożona, bo jak myślę o panelach fotowoltaicznych, to największym producentem znowu są Chiny. Tak. Więc to się wszystko zazębia. I jakoś tam. No nic, o tym jeszcze pewnie będziemy nieraz rozmawiać. Zdecydowanie, mam taką nadzieję. Mateusz Chrobok. Tomasz Rożek. I technologiczne zero. Napisy stworzone przez społeczność Amara.org Tu pracują Twoje pieniądze. Partnerem technologicznym kanału Zero jest x-kom. Mój rozt, koncerty, urodziny kanału Zero, prelekcje, debaty i spotkania z ekipą kanału. Kup bilet na kongres Zero teraz. Kliknij w jeden z polecanych filmów, aby obejrzeć najlepsze produkcje kanału Zero. Napisy stworzone przez społeczność Amara.org