Menu
About me Kontakt

In today’s special episode of 'Open Arrangement,' Igor Janke organized a discussion about the impact of artificial intelligence (AI) on Poland’s development. Featured experts included Professor Aleksandra Przegalińska, Agnieszka Suchwałko, and Andrzej Dragan. The focus of the discussions was on the potential support AI can offer Poland in achieving a second civilizational leap. As the conversation unfolded, participants expressed optimism about the opportunities presented by AI's development while simultaneously acknowledging the potential darker perspectives. Dr. Andrzej Dragan, a recognized expert in technology, pointed out that in the short term, only benefits are expected; however, long-term advancements could present greater challenges related to the autonomy of AI tools.

Participants highlighted that current efforts by major technology players are centering around the creation of general artificial intelligence (AGI). Przegalińska emphasized the necessity of diversity and flexibility in the approach to AI, which will be crucial for the Polish economy. It is essential for Poland to not only participate in the global technological race but also strive to develop its own unique solutions that can contribute to prosperity in the years to come.

The discussion participants agreed that upcoming technological changes in AI could significantly affect the operational processes of Polish companies. Agnieszka Suchwałko observed that AI is already being increasingly used in banking, finance, and other sectors, creating new opportunities and enhancing operational efficiency. This belief was reinforced by Andrzej Dragan, affirming that the Polish market will adapt to these modern tools if adequate resources and support are in place.

The issue of regulation concerning AI was another topic discussed. Experts expressed concerns that overly strict regulations in Europe might stifle innovation and competitiveness. Dichotomies in regulations could lead to situations where European companies face hurdles in accessing advanced technology, undermining their competitiveness on the global market. As the participants noted, finding a balance between safety and innovation will be crucial to harness the full potential offered by AI.

At the conclusion, Professor Przegalińska stressed the importance of long-term strategies and collaboration among various entities to effectively utilize the opportunities presented by artificial intelligence in Poland. According to statistics, at the time of writing this article, the video from the Upgrade23 congress, where this discussion took place, has already reached 209,411 views and 3,511 likes, which indicates significant interest in this important topic.

Toggle timeline summary

  • 00:00 Introduction to Upgrade23 congress and XTB Investing Masterclass.
  • 00:19 Presentation of Steki.pl, a family-owned online store for premium Polish beef.
  • 00:27 Discussion on the impact of artificial intelligence (AI) on Poland's civilizational leap.
  • 00:43 Warm greetings to participants and acknowledgment of the audience joining online.
  • 01:18 Introduction of special guests: Aleksandra Przegalińska, Agnieszka Suchwałko, Andrzej Dragan.
  • 01:24 Exploration of whether AI can help Poland achieve a second civilizational leap.
  • 01:36 Consensus on the significant achievement Poland has made in the last 30 years.
  • 01:47 Discussion on whether AI will facilitate or hinder future developments.
  • 01:59 Debate over AI's role in civilization development, with concerns about potential negative impacts.
  • 02:15 Discussion on the importance of timeframes when predicting future developments.
  • 03:14 Emerging technology giants focus on creating Artificial General Intelligence (AGI).
  • 03:38 Insights from Altman's interview regarding the pursuit of AGI and superintelligence.
  • 04:19 Remarks on current advancements in language models, suggesting their capabilities resemble children's intelligence.
  • 04:56 Discussion on the pace of algorithm development and its implications.
  • 06:12 Concerns regarding the unpredictability of future developments and technological advancements.
  • 06:30 Aleksandra Przegalińska shares her insights from San Francisco.
  • 07:20 Engaging conversation about the importance of aligning AI with human values.
  • 09:33 Debate on the implications of achieving AI milestones, including economic changes.
  • 10:10 Potential discussion on AI's influence on the workforce and broader society.
  • 12:26 Concerns over the potential misuse of AI technologies.
  • 13:53 Discussion on the transformative nature of AI and its broad implications.
  • 16:21 Reflections on Poland's readiness and the opportunities presented by AI innovations.
  • 16:52 Final thoughts on how AI will influence global competition and opportunities.
  • 19:24 Practical examples of AI applications in various industries.
  • 23:05 Concluding remarks on Poland's technological advancements and ongoing challenges.

Transcription

A oto mecenasi układu otwartego. Steki.pl to rodzinny sklep internetowy z polską wołowiną premium bezpośrednio od producenta. Kto wygra wielką grę mocarstw? Dokąd zaprowadzi nas rozwój sztucznej inteligencji? Zapisz się na XTB Investing Masterclass, bezpłatną konferencję online. Link pod nagraniem. E2V, firma, która zajmuje się sprzedażą zielonej energii w standardzie ESG. Dzień dobry Państwu, to jest układ otwarty, specjalne wydanie z kongresu Upgrade23 we Wrocławiu, zorganizowanego przez IT Corner. Zapowiadam, ponieważ na sali jest kilkaset osób uczestników tego kongresu, ale słuchać i oglądać z nas też będą widzowie i słuchacze na platformach podcastowych, na YouTubie wszystkich i tu Państwa i tam. Pozdrawiam serdecznie. Aleksandra Przegalińska, Agnieszka Suchwałko, Andrzej Dragan to specjalni goście. Mamy rozmawiać o tym, czy AI pomoże Polsce w dokonaniu drugiego skoku cywilizacyjnego. Ja jestem wielkim fanem tezy, że nas jako Polskę stać na dokonanie drugiego takiego skoku, jakiego dokonaliśmy przez ostatnie 30 lat, a zgodzimy się co do tego, że ten skok jest niebywały. Ja uważam, że możemy zrobić to jeszcze raz i być w czołówce Europy. Ale pogadajmy o tym, czy AI nam w tym pomoże, czy utrudni, czy w ogóle nie będzie miało na to żadnego wpływu. Ale umówiliśmy się, że porozmawiamy najpierw, że zaczniemy szerzej, że zaczniemy od pytania, czy AI w ogóle pomoże w rozwoju naszej cywilizacji, czy też ściąga nas w czarną dziurę. I umówiliśmy się, że profesor Dragan sprowokuje nas i powie coś bardzo negatywnego. Mogę żart powiedzieć na rozweselenie. Pytanie o przyszłość to zawsze jest pytanie w jakiej skali czasowej. To jest podstawowa kwestia. Jak ktoś przewiduje przeszłość, ale nie wypowiada się o jakim horyzoncie mowa, to w ogóle to jest bez sensu. No więc na przykład jakbym chciał Państwa teraz wszystkich uszczęśliwić, maksymalnie jak się da przez najbliższe pięć minut, to bym każdemu dał strzykawkę z heroiną i po prostu lepiej się nie da niż to, tej strategii się nie pobije. To nie jest dobra strategia długoterminowa, więc jest oczywiste, że strategia uszczęśliwienia krótkoterminowa i długoterminowa są zupełnie różne strategie. No więc w przewidywalnej krótkiej przyszłości wydaje się, że mamy tylko i wyłącznie same korzyści. I ja szczerze mówiąc słyszę wiele argumentów takich niepokojących, że ludzie się martwią o pracę, o to, o tamto. Ja uważam, że to są trochę bezsensowne marudzenia. W tym sensie to jest bezsensowne, że pojawią się pewne trudności, które będzie można łatwo ominąć i to nie jest jakoś dla mnie niepokojące. Natomiast długoterminowa strategia, czyli pięć lat lub więcej, powiedzmy dziesięć lat, jest już zupełnie inna. Dlatego, że wszyscy giganci techowi, jedyne co oni teraz robią, to oni starają się stworzyć AGI, tak przynajmniej twierdzą. Ostatni wywiad z Financial Times z Altmanem, w którym zapytano go, jak on teraz swój czas organizuje i powiedział, że połowę swojego czasu spędza na badaniach naukowych nad możliwością stworzenia AGI, nawet nie AGI, tylko superinteligencji, a drugą połowę na tym, jak zorganizować moce obliczeniowe, żeby tego dokonać. Oni w zasadzie nic innego nie robią. I teraz jest pytanie, czy jeżeli mamy śmieszne narzędzie, które nam optymalizuje bazę klientów, albo optymalizuje kontakty z klientami, to to jest jedna rzecz. A druga rzecz, co się stanie, jak te narzędzia naprawdę staną się o wiele mocniejsze intelektualnie od tego, co my jesteśmy w stanie zaproponować i przestaną być ostatecznymi narzędziami, bo w momencie, kiedy będą się coraz bardziej autonomizować, to nazywanie tego narzędziem stanie się stopniowo coraz bardziej zdezaktualizowane. Ja tylko zwracam uwagę, że już w tym momencie modele językowe typu 4.5, które są w niepublicznym obiegu, już teraz z perspektywy tych modeli dla dzieci ośmioletnich AGI już istnieje tak naprawdę, bo te modele są w stanie rozwiązać każdy problem logiczny, który jest rozwiązywany przez ośmiolatka. Ja sporo uwagi poświęciłem na badaniu umiejętności logicznego myślenia tych modeli i jestem zaskoczony, jak one już się udoskonalają. I nie znalazłem ani jednego problemu logicznego, taki, który by testował w jakiś sposób prostą inteligencję dziecięcą, który byłby za trudny dla np. czatak BT-4, a wystarczająco łatwy, żeby mógł to rozwiązać inteligentny ośmiolatek. A tempo rozwoju tych algorytmów, przypominam, jest dużo szybsze niż tempo rozwoju dzieci. Wersja 3.5, ta publicznie dostępna, to się ludzie z tego śmieją, że to jest głupie, no bo jest. Jak się zapytać w takiej wersji 3.5, co to jest, podstawie pływa i kaczka się nazywa, no to odpowiedź, którą dostanę, to jest odpowiedź głowica. I głowica to jest część mechaniczna urządzenia, które po zdemontowaniu wrzuca się do wody i pływa albo zatonie. Tego typu bzdurne odpowiedzi. Natomiast optymalizacja liczby algorytmów, porównanie przez dziesięć liczb algorytmów i poprawienie jakości danych spowodowało, że z tego idiotycznego, nielogicznie wyglądającego się tworu powstał GPT-4, który rozwiązuje każdy problem logiczny dostępny dla dziesięciolatka. To tempo rozwoju, jeżeli ekstrapolować to w ciągu też spesymistycznie licząc 5 lat, to AGI powstanie. Na przykład Geoffrey Hinton ostatnio pisał, że są już teraz firmy, które pracują nad tworzeniem nowych modeli, które będą stukrotnie większe od tych obecnych i planują wytrenować je w ciągu 18 miesięcy. Jedna zabawa to jest zastanawiać się, jak wykorzystać ten potencjał, który mamy w tym momencie, ale wróżenie mówienia o przyszłości na podstawie tego, co teraz widzimy, przy tym tempie rozwoju, które jest szybsze niż wykładnicze, jest nieporozumieniem. Nie jesteśmy w stanie wnioskować na temat tego, co będzie za 5 lat na podstawie tego, co widzimy w tym momencie. Aleksandro, profesor Aleksandra Przegalińska, która, jak wierzę, jest we własnej osobie, a nie jako awatar i ostatnio występowała jako awatar. Olu, powiedz, gdzie jesteś i powiedz, co o tym sądzisz. Jestem, słuchajcie, w San Francisco, jest 7 rano, także mam nadzieję, że doceniacie ten fakt, że udało mi się jakoś tutaj ocucić się, powstać i być z wami. I z góry przepraszam za jakiś potencjalny mój, może niedowład kognitywny, poznawczy, bo może być tak, że będzie mi ciężko mówić składnie, ale bardzo się postaram, zwłaszcza, że Andrzej mnie sprowokował już nie pierwszy raz i cieszę się, że mamy okazję sobie porozmawiać dzisiaj. Ja się z wieloma rzeczami, które Andrzej powiedział, zgadzam, w tym sensie, że to tempo jest niesamowite. To, co obserwowaliśmy teraz i omawialiśmy się na to i kiedy rozmawialiśmy o tej dyskusji, to było przed awanturą w Open AI, która to awantura chyba ujawniła jedną rzecz, mianowicie troszeczkę dzieci bawią się niebezpiecznymi zabawkami. Czyli mamy do czynienia z firmą technologiczną, która gdzieś tam przez ostatni rok była gwarantem właśnie dalszego rozwoju tej sztucznej inteligencji, ale w sposób bezpieczny. Oni to bardzo mocno komunikowali, że mają ambicje stworzenia tej generalnej sztucznej inteligencji, ale w tej formie alignment, czyli takiej zbieżności z ludzkimi wartościami i celami. No a teraz zobaczyliśmy przez weekend, że tam jest troszeczkę piaskownica, co myślę, że stawia pod znakiem zapytania, to na ile bezpiecznie można tą technologię dalej inkubować, jeśli ci, którzy są uważani za jej liderów, potrafią w jeden weekend zrobić z firmy mema de facto. Oczywiście już sam Altman pojawił się z powrotem w organizacji, tam zdaje się wszyscy wczoraj celebrowali, że powrócili do status quo. Moim zdaniem to nie jest status quo, to jest bardzo poważne tąknięcie reputacyjne i ja bym sobie życzyła, żeby takich tąknięć było mniej w przypadku firm, które wyrażają takie ambicje. Ale muszę wam też powiedzieć, że ja troszkę nie rozumiem tych ambicji. Ja się zgadzam z filozofem i fizykiem, bardzo znanym Maxem Tegmarkiem, który często mówi, że wąsko specjalizowana sztuczna inteligencja, ale dobrze rozwinięta, dobrze wyinkubowana, może służyć wszystkim naszym celom cywilizacyjnym w sposób dobry, w sposób dobrosprawczy i to nam wystarczy. Natomiast ewidentnie apetyt jest gdzie indziej. Większość spółek technologicznych chce tworzyć tą generalną sztuczną inteligencję i myślę, że kluczową kwestią jest to, jak oni to rozumieją. Dlatego, że ten termin nie jest jasny, nie jest precyzyjny, to jest jakiś hipotetyczny punkt w przyszłości, gdzie ta sztuczna inteligencja zaczyna się trochę zachowywać inaczej niż dzisiaj i teraz można myśleć o tym dwojako. Można myśleć o tym jako o rozwiązywaniu wszelkich zadań o charakterze poznawczym, logicznym, też kognitywnym, tak samo jak człowiek lub lepiej i to jest bardzo daleko, powiedziałabym, wysunięta możliwość i tak wysoko postawiona poprzeczka albo można pomyśleć o tym na drugi sposób, czyli że to jest wykonywanie zadań, które są ekonomicznie opłacalne, mają ekonomiczną wartość w naszym społeczeństwie, w naszej cywilizacji, tak samo lub lepiej niż człowiek. I teraz wydaje mi się, że ta druga definicja AGI jest jak najbardziej do osiągnięcia w takich pułapach czasowych, o których mówi Andrzej, czyli że możemy spotkać się z tym, że to, co będzie pożądane do rozwiązania, te modele sztucznej inteligencji będą rozwiązywać lepiej niż ludzie, a zakładałabym też, że w ogóle najlepiej, kiedy będą przez ludzi jeszcze przez jakiś czas uczane, douczane, dotrenowywane. I ta współpraca między człowiekiem a sztuczną inteligencją myślę, że się szybko nie rozjedzie, tylko jest pytanie o proporcje tego, jaki jest wkład człowieka, jaki jest wkład AGI. I jeśli mówimy o tej definicji pierwszej, tej generalnej sztucznej inteligencji, czyli takiej ambicji, żeby tego człowieka naprawdę prześcignąć we wszystkich zadaniach, a tych zadań jest dużo związanych z inteligencją, tam jest też trochę zadań takich psychomotorycznych związanych z doświadczeniem, związaniem z tym, że czas upływa i my się uczymy i tak dalej, to dla sztucznej inteligencji wygląda inaczej. To tutaj miałabym wątpliwości, czy tę ambicję da się rzeczywiście spełnić i wcale bym sobie tego nie życzyła, żeby to się szybko wydarzyło. I wydaje mi się, że też jest bardzo dużo naukowców, którzy właśnie mówią o tym, żeby ostrożnie podchodzić do tych aspiracji. To znaczy, że te aspiracje tworzenia generalnej sztucznej inteligencji mogą dla tych wszystkich firm znaczyć bardzo różne rzeczy i one mogą zaczynać ogłaszać, że już mają generalną sztuczną inteligencję, właśnie dlatego, że jakieś kilka konkretnych zadań kolejnych zostanie dobrze wykonanych. Ja mam tutaj takie podejrzenie, że to będziemy widzieć w ciągu najbliższych kilku lat, że nagle wszyscy będą mieli AGI, że AGI po prostu stanie się nowym AI w jakimś sensie i że będziemy nagle bać się nowych rzeczy, mówić o nowych rzeczach, dlatego, że przyjdzie ten nowy paradygmat, a co to dla nas będzie właściwie znaczyło, to nie wiemy. I słuchajcie, taka refleksja, bo tu moglibyśmy rozmawiać godzinami, a ja nie chcę zabierać innym głosu, pewnie jeszcze do tego wrócimy, że przypomnijcie sobie rok 2019 i 2020. Wtedy firma OpenAI jeszcze miała trochę inną strukturę, inaczej działała, inną misję, inną wizję. By the way, jestem przekonana, że aktualna nowa wizja z nowym zarządem będzie stricte biznesowa i nastawiona na monetyzację. Tak ten skład w każdym razie nowego zarządu wygląda. Szkoda. Natomiast, jeśli spojrzeć wstecz, to tam była taka sytuacja, że model GPT-2 został wypuszczony. To był model w porównaniu z tym, co dzisiaj mamy do czynienia, absolutnie raczkujący. I ten model po dwóch czy trzech miesiącach został wycofany i sprofilowany tylko i wyłącznie do zastosowania naukowe po wcześniejszej weryfikacji. Dlatego, że przestraszono się, że to będzie deepfake dla tekstu i że ruchy tektoniczne, które wywoła ten model, nawet wtedy w tej jego wersji, będą po prostu nie do zaabsorbowania. Ale to, co ja widzę, co jest akurat ciekawe, to jest nasza adaptacja do tych nowych sytuacji. Dlatego, że ten model w dużo lepszej wersji został ostatecznie pokazany światu, a w zeszłym roku zaczął hulać jako czat GPT i cały świat z niego na różne sposoby korzysta. Oczywiście, formułujemy rozmaite wątpliwości dotyczące tego, jak to wpłynie na rynek pracy. Wiem z Andrzejem, że ten wpływ nie jest aż tak może istotny i nie jest to chyba to, na czym powinniśmy się skupiać najbardziej. Bardziej bym myślała dzisiaj o manipulacji i dezinformacji za pomocą takich modeli właśnie. To jest realne. Natomiast zastosowaliśmy się do tej nowej reguły, którą wytworzył ten czat. Czyli w tej nowej rzeczywistości się jakoś odnaleźliśmy. I zupełnie nie wykluczam, że te AGI albo pseudo-AGI, czyli jakieś wersje upgradu tej sztucznej inteligencji, po prostu będą też czymś, do czego my się będziemy dostosowywali, dostrajali, tak jak się dostrajaliśmy do naszych narzędzi. I to jest oczywiście moja spekulacja. Może być inaczej. Może ktoś wykorzystać to AGI do bardzo niecnych celów. W tym propaganda wydaje mi się numerem jeden. I możemy mieć też sytuację, w której ktoś powiedzmy w ramach rosnącej złożoności tych modeli nagle coś odkryje. Ja rozumiem, że do tego się Andrzej odnosi. Po prostu nagle z ilości przechodzimy w jakość. Pojawia się jakieś takie przejście, w którym ten model nagle staje się naprawdę bardzo, bardzo wszechstronny. Są tacy, którzy mówią, że tego się po prostu nie da zrobić zwiększaniem złożoności tych modeli. Że jest jakiś jeszcze jeden element, którego nie mamy. To jest nasze X. I w związku z tym to AGI w tej wersji najbardziej aspiracyjnej jest po prostu bardzo długo nie do osiągnięcia. Ja przyglądam się temu obozowi dosyć uważnie. I z pewną sympatią, ale jednocześnie wydaje mi się, że już teraz powinniśmy proponować rozwiązania jakiejś takiej pozytywnej ścieżki rozwoju technologii. I naprawdę, wiecie, my tutaj pracujemy z moim zespołem nad tak zwaną współpracującą sztuczną inteligencją. To jest taki design, który de facto model trochę ogranicza, a zwiększa sprawczość człowieka. I myślę, że takich propozycji powinniśmy mieć na stole trochę więcej. A nie tylko słuchać o AGI od liderów technologicznych. Bo czasami udaje się po prostu pokazać alternatywny paradygmat, który może stać się mainstreamem, dlatego że po prostu jest bezpieczniejszy, aby lepszy. Tak, tylko chciałem dopytać, bo obiecywałaś, że z czymś się będziemy nie zgadzać, a ja od ciebie usłyszałem, że przestał być bezpiecznie, że tutaj bym se czegoś nie życzyła, że niebezpieczne zabawki się pojawiają. Gdzie jest ta niezgoda? Nie wiem, czy nie słyszysz. Powiedziałaś dużo więcej niż ja, tak naprawdę. Nie chciałem spekulować. Natomiast oczywiście możemy tego tematu nie poruszać i zajmować się tym, co mamy teraz i starać się szukać rozwiązań doraźnych sytuacji, w których się znajdujemy. Kłopotem z manipulacją informacji itd. Natomiast pytanie, jak mamy się przygotować na to AGI, które według w zasadzie wszystkich liderów technologicznych to nie jest science fiction, to nie jest coś, co jest w jakiejś daleko wysuniętej przyszłości, tylko to jest coś, czego ludzie się zaczynają spodziewać w ciągu kilku lat. I nie mówię o Pyle Kim, tylko o Jeffrey Hintonie, który powtarza to w kółko, który jest twórcą uczynia maszynowego. Ale też to, co mówi cały OpenAI. Oni w zasadzie jedyne, co robią, to tworzą AGI w tym momencie. To jest ich misja, to jest ich misja statutowa. Więc możemy oczywiście powiedzieć, nie zajmujmy się tym teraz rozwiązaniem doraźnych problemów, ale te doraźne problemy to my sobie z nimi poradzimy. Pytanie, jak mielibyśmy sobie radzić w momencie, kiedy to AGI, ta wizja się miałaby ziścić. I to jest nie tak odległa sprawa. Zanim oddam... Znaczy wiesz co, Andrzej, ja nie wiem, czy... Sekundkę, Olu, jeśli pozwolisz. Nie wiem, kiedy mogę mówić. Jak widzicie państwo, rzeczywistość jest bardzo nieprzewidywalna i być może AI za chwilę cofnie nas od 3 lata, a w tej chwili mamy problem z czymś, co sobie dawaliśmy już od kilkunastu lat, czyli z równocześnie nadawanym głosu i dźwięki. Mamy obraz bardzo opóźniony. Może jeszcze, Olu, zanim ci oddam głos, to może dodajmy... Poprośmy Agnieszkę, żeby się wdowiedziała na ten temat. Tak, dobrze, to jest uczciwe. A potem przeniesiemy się do San Francisco. Dobra, Ola z Andrzejem lubią się kłócić, ale ja bardzo chętnie wezmę w tym udział, bo ja jednak będę trochę w poprzek was. Zgadzam się z tym, że jest zagrożenie. Zgadzam się z tym, że biegniemy w stronę AGI. Nie zgadzam się z tym, że nowy zarząd OpenAI będzie nastawiony na modernizację, ale to tylko dlatego, że on ma inne kompetencje. O ile razem ze zmianą zarządu nie zmieniły się jego kompetencje, to on nie ma takich uprawnień. Więc tutaj jeśli chodzi o OpenAI i całą tą dla mnie operę medlaną, która się wydarzyła przez weekend, czy też troszeczkę ponad weekend, to nie jest jeszcze kwestia tego, w jaki sposób jest zbudowana struktura tej firmy, a w zasadzie firm zależnych od siebie, i tego, jakie uprawnienia ma zarząd. On nie ma prawa na patrzenie na monetyzację. On ma prawo na patrzenie na zupełnie inne rzeczy i to jest clou tego sporu. Więc jakby to jest jedyne, z czym się tak w stu procentach nie zgadzam. Co do reszty, mam spore wątpliwości, czy ta perspektywa, o której mówicie i myślimy, jeśli chodzi o możliwości intelektualne ludzi, którzy nad tym pracują, tak, w sto procent racji. Ale to, co moim zdaniem może wybuchnąć, to jest coś, co dzisiaj na jednym z porannych paneli było poruszone. Mianowicie to, że żebyśmy mieli sto razy, dziesięć razy cięższe modele, z których będziemy w stanie korzystać, potrzebujemy infrastruktury. Jesteśmy w stanie je zbudować. Mamy zaplecze umysłowe, które jest w stanie do tego doprowadzić. Ale to wszystko musi na czymś działać. Jeżeli mamy mieć do tego wszystkiego jeszcze AGI, to ono będzie jeszcze cięższe, jeszcze większe. Najpierw je trzeba gdzieś wytrenować, a potem trzeba je gdzieś hostować. Ono nie żyje w próżni. Dzisiaj kończą nam się, kończą w cudzysłowie, otwierane są nowe fabryki, otwierane są nowe fizyczne miejsca, w których następuje produkcja tych zasobów, które są niezbędne do tego, żeby to wszystko funkcjonowało. Za chwileczkę nam się te zasoby skończą. Skończyły nam się w trakcie pandemii. W międzyczasie powstały plany. Budowa takiej fabryki nie trwa pół roku. I to nie jest kwestia tego, że my jesteśmy ograniczeni naszymi możliwościami, jeśli chodzi o głowy. Prawdopodobnie nie. Ta sztuczna inteligencja będzie się sama uczyła. Ale zanim zbudujemy fabryki, które będą w stanie dostarczyć sprzęt, który będzie do tego potrzebny, to chwilę zajmie. Jasne. Istnieją firmy, które się zajmują komputerami kwantowymi. To też jest przestrzeń do zagospodarowania. Ale to też wymaga czasu. Więc mamy ograniczenia czysto techniczne, które nam ten proces spowolnią. Rzeczywiście mamy te ograniczenia? Czy to jest jakieś poważne ograniczenie? Przemrożenie stukrotne mocy obliczeniowych obecnych sieci w ciągu 18 miesięcy, to można łatwo oszacować. To ktoś, widziałem, robił. To jest jakiś miliard dolarów. W tym roku tylko Microsoft zainwestował 50 miliardów dolarów w farmy obliczeniowe. Dwa miesiące temu na stronie Microsoftu pojawiło się ogłoszenie, że poszukują fizyków jądrowych do pracy zdalnej. Uwaga, bo trzeba te centra jakoś zasilać. I oni szukają fizyków jądrowych do pomocy w budowie prywatnej elektrowni jądrowej, żeby te klastery zasilać. Więc sposoby się bardzo łatwo znajdują. Tak, tylko to trwa. Oczywiście, że to trwa. Ale jeżeli w ciągu 18 miesięcy będziemy w stanie stukrotnie przemnożyć ilość obliczeń potrzebne do trenowania tych nowych sieci, a przypominam, że przejście z lata 3.3 do lata 4 to było dziesięciokrotne przemnożenie liczb parametrów, to 18 miesięcy to nie jest tak dużo. Ile trwa budowa elektrowni jądrowej? U nas to już 50 lat. Ale bez elektrowni jądrowej to się też stanie. Stanie, tylko mamy te ograniczenia. Zawsze są, ale są o wiele mniejsze. Może dajmy głos Olu. Aleksandra, czy nas słyszysz? Chyba mamy kłopot z stosowaniem dźwięku. O nie. Słyszysz nas? Dlaczego kłopot? Ja was słyszę bardzo dobrze. Ok, fantastycznie. Czułam się przez moment właśnie, że tutaj jestem deprawatyzowana przez technologię, która postanowiła sprawić, żebym ja mogła w niej partycypować. Ale jestem. Słuchałam was tutaj uważnie. Z Andrzejem się trochę nie zgadzam w pierwszym temacie. Mogę tam wrócić uparcie. Natomiast jeśli chodzi o drugi temat, muszę powiedzieć, nie wydaje mi się, żeby to był aż taki problem. To znaczy, żeby kwestia infrastrukturalna dla tych gigantów technologicznych, którzy wszystkie te technologie rozwijają zarazem. AI i potencjalnie komputery kwantowe. To są same firmy. To jest Microsoft, to jest IBM. Akurat się też tym para z tego, co wiem. To jest ten sam klaster, oligopol technologiczny. Więc oczywiście to są wysiłki. To nie jest tak, że to wszystko przychodzi ot tak. A firma np. OpenAI też działa od 2015 chyba roku. I to jej zajęło trochę, żeby być tu, gdzie jest dzisiaj. Więc oczywiście to wszystko trwa. I technologia też stawia często opór. Ja się z tym akurat zgadzam. Znaczy, wydaje nam się, że pewne rzeczy pójdą. Teoretycznie w laboratorium, w takich sterylnych warunkach wszystko wygląda świetnie. Potem na produkcji to się potrafi powywalać z rozmaitych powodów. I też oczywiście tutaj ta kwestia infrastrukturalna może grać rolę. Ale ja nie mam żadnych wątpliwości, że jeśli to jest do pokonania, to właśnie przez tych, którzy to robią w tej chwili. I też wydaje mi się tutaj, że jeśli chodzi o ten zarząd, oczywiście kompetencja zarządu OpenAI dotyczy safety. Dotyczy bezpieczeństwa tych modeli. I to jest taka jakby specjalna struktura, taki ukłon w stronę społeczeństwa, żeby pokazać, że my jesteśmy tutaj odpowiedzialni. Mamy taki zarząd bardzo niezawisły, osób, które są z zewnątrz. Przypominam, że jedna z członkiń tego zarządu pisała takie papery troszeczkę krytyczne w stosunku do rozwoju OpenAI, a chwaliła jakiś inny language model i miała w związku z tym konflikt narastający z samym Altmanem przez dłuższy czas, który jej mówił, że ona musi chwalić ich produkty, skoro jest w zarządzie. No właśnie. I to trochę nie zgadza się z tym, jak niezawisła ma być taka rada w przypadku tak poważnych zabawek. Ja będę stała przy swoim. Myślę, że ten nowy zarząd może realizować cele, które określimy mianem safety, patrząc przez pryzmatonozyzację. Czyli po prostu powiedzieć, to jest bezpieczne, wszystko jest w porządku. Mamy dużego partnera, Microsoft, on nam tutaj gwarantuje różne rzeczy. Będzie dobrze. Także nie martwmy się o safety. Idźcie dalej, kochani, macie clearance. Tak myślę, że może być. Oczywiście mogę się mylić. Natomiast wracając do tej kwestii pierwszej, ja myślę, że jedyna... Ja nie wiem nawet, czy to jest jakaś kość niezgody albo oś sporu. Ja mam tylko wrażenie, że ja mam więcej podejrzliwości co do, po pierwsze, tempa i właśnie tego, czy z ilości przejdziemy w jakość. Czym jest ta generalna sztuczna inteligencja? O czym my właściwie tutaj mówimy? Bo definicji jest za dużo. Deep Mind ostatnio też powiedział, że trzeba to troszeczkę uporządkowywać, dlatego że jeśli chodzi o modele, które będą w szeregu zadań, w pracy opartej na wiedzy, wykonywać te prace czy te zadania tak samo dobrze jak ludzie, albo przynajmniej podobnie, no to to jest taka definicja, którą oni są w stanie spełnić i oni idą w tą stronę. Natomiast w tej generalnej sztucznej inteligencji pobrzmiewa też często coś, co wcześniej rezerwowaliśmy dla superinteligencji. Czyli przekroczenie człowieka we wszystkich zadaniach, które człowiek wykonał albo mógłby wykonać. I to jest taka aspiracja jeszcze dalej idąca. To nie jest zbyt często formułowane, chociaż ja mam wrażenie, że np. w przypadku ludzi z OpenAI to te dwa terminy na siebie zachodzą i ja w zasadzie do końca nie wiem, jaka ta aspiracja jest. I jeżeli chodzi o tę aspirację drugą, to mam wrażenie, że jest jeszcze bardzo, bardzo dużo zagadek dotyczących tego, jak działa chociażby nasz mózg, jak się uczymy. Z całą pewnością uczymy się pod wieloma względami inaczej niż modele sztucznej inteligencji. Absorcja wiedzy przebiega inaczej. Model dostaje bardzo dużo zdjęć i w końcu jest w stanie rozpoznać kapelusz. Dziecko po zobaczeniu jednej osoby w kapeluszu jest w stanie to zrobić. Uczy się inaczej. Oczywiście pewne rzeczy przyswaja wolniej i to zdaje się, że mieliśmy nawet z Andrzejem rozmowę na Twitterze o tym, że np. wiedza dla modeli jest uporządkowywana przez ludzi. One dostają wiedzę, która jest już gotowa. Często w formie tekstu, w formie zadań, w formie zapisów z użyciem języka formalnego. Więc myśmy tę wiedzę klasyfikowali. I oczywiście nasz sposób uczenia się o świecie, też organizowania się w naszej rzeczywistości, adaptowania do niej, ona jest bardzo zaszumiona, pewnie jest inny. I mamy tutaj bardzo dużo jeszcze zagadek. I pytanie, czy drogą do AGI jest podpatrzenie tego, jak my to robimy w końcu skutecznie i jakieś zaemulowanie tego na maszynie, nawet fizycznej w przyszłości, czy rozwiązaniem albo pomysłem jest powiedzenie sobie, nie, w ogóle nie patrzymy na to, jak to robią ludzie. Po prostu zwiększamy kapację tych modeli. Niech one wszystko zjedzą, co myśmy produkowali. Zdaje się, że już wiele zjadły. Internet zdaje się zjadły. I zobaczymy, co dalej. I będziemy mieć to narzędzie, które po posortowanej wiedzy będzie robić za nas albo dla nas różne rzeczy lepiej niż my sami. Dobra, już się zamykam. A też chcę powiedzieć, że jestem defarytowana na jeden sposób, mianowicie taki, że ja siebie sama słyszę. To jest tortura. Nie dość, że siebie widzę w delayu, to jeszcze siebie słyszę. Echu. Agnieszka obiecywała, że ty się lubisz ze mną kłócić, a ty się w ogóle ze mną nie chcesz kłócić, bo nie słyszę cały czas odpowiedzi na pytanie, co zrobić w sytuacji, kiedy AGI miałoby się pojawiać. Mówisz, co to znaczy AGI i tak dalej. Przesuwanie tych granic jest niewątpliwe. Wszyscy dotąd uważali przez wiele lat, że granicą AGI będzie umiejętność złamania testu Turinga. Nikt z państwa pewnie nie zauważył, że test Turinga został złamany w lipcu, o czym donosi Nature, że w tym tempie rozwojennym nikt tego nawet nie zauważył. Test Turinga został złamany przez TRIPPI T4. I co więcej, żeby ten test złamać, to trzeba było TRIPPI ogłupić, żeby on bardziej wyglądał jak człowiek, bo po prostu w swoich standardach to nie ma zbyt kompetencji jak na człowieka. Mówisz, że dziecko po zobaczeniu kapelusza jednego raz wie, co to jest kapelusz. Jak urodzisz dziecko i pokażesz mu kapelusz, ono nie będzie wiedzieć, co to jest kapelusz. Najpierw musisz je przez pięć, sześć lat trenować na obrazie wideo non-stop, który zasila mózg. Nie tylko obraz wideo, ale wszystkie inne kanały wejściowe. Dopiero po tak długim treningu dziecko jest w stanie po jednym razie zobaczyć kapelusz. Więc można sobie oszacować, że przez pierwsze dwa lata życia ilość danych, które wchodzi do oczu dziecka, to jest jakieś trzydzieści razy więcej niż wszystkie dane treningowe razem wzięte, którymi był uczony TRIPPI T4. W związku z tym to nie jest tak, że dziecko zobaczy teraz kapelusz i już wie. Ono się najpierw trenowało przez pięć lat życia na strasznie dużej ilości danych. Więc to też jest pewna manipulacja. Ale różnorodnych i niesortowanych. Ale czy ja mogę coś powiedzieć, bo ja podnoszę rękę i wtedy nie wiem, dlaczego też z mojej strony płyną balony do was. To wszystko jest kuriozalne. Jak ja podniosę rękę, to lecą wtedy balony. To jest naprawdę, postanowiliście, widzę mnie tutaj naprawdę upierać. Ale chciałabym odpowiedzieć na pytanie właśnie, albo raczej na atak Andrzeja właśnie dotyczący tego, że te dzieci tak się uczą w jakiś taki kiepski sposób, mimo że mają dostęp do takiego wideo. Super. Przez tyle lat. A wyobraźmy sobie to samo dziecko, które ma dostęp do uporządkowanej wiedzy właśnie w taki sposób, w jaki ma model. Od nas. Prawda? Wyobraźmy sobie tę sytuację hipotetyczną, o której mówi Elon Musk tak często, że to my jesteśmy podpięci. Tą kolektywną inteligencję. I jeszcze do tego dostajemy sposoby poprzez wzmocnienie, poprzez ludzki nadzór i na wiele innych sposobów tego, że my się rozwijamy. To nie jest sytuacja, którą kiedykolwiek testowaliśmy. I oczywiście nie wiemy o sobie tego. Natomiast do nas płyną dane inaczej. Jesteśmy inną infrastrukturą i w związku z tym oczywiście uczymy się w zupełnie inny sposób. Natomiast ja stawiam raczej tezę, że my nie do końca wiemy jeszcze, jak się uczymy. Jak wygląda dokładnie ekstrakcja tych informacji, tego zaszumionego, powiedzmy, pełnego różnych elementów wideo, które do nas płynie czy audio w pierwszych latach naszego życia. Muszę przejąć na sekundę. Jestem w okropnym dylemacie, ponieważ ta dyskusja jest fantastyczna. Ale umówiliśmy się, że porozmawiamy na temat tego, jakie jaj wpłynie na gospodarkę i jakie jaj może wpłynąć na rozwój Polski. Ale mieliśmy się kłócić. Proszę uprzejmie. No to słuchajcie, dzieciaki są w ogóle fenomenalne. I to, jak się uczą dzieci, to jest każdy, kto jest rodzicem, a myślę, że większość z nas tutaj na sali jest. Pewnie słuchających programu również. Ola i ja na pewno jesteśmy matkami, więc nie wiem, masz dziecięce? Jedno hoduję. No to też masz te doświadczenia. Zasila wideo. Fantastycznie. Moja córka, kiedy miała cztery lata, czyli to było lat temu już pięć, zaskoczyła mnie męża i moją matkę, która dosłownie stała z buzią szeroko otwartą. Jeździło sobie auto po osiedlu. Wówczas to była Tesla, jedna z niewielu, które się pojawiały u nas na osiedlu. I mówię, młoda, leć do taty, powiedz mu, że Tesla jeździ. No i tata, młoda, pobiegła do taty. Tatuś jeździ po osiedlu auto. Jakie? No nie wiem. A jak wygląda? Jest pomalowane w sieci neuronową. Czterolatka. W tych dzieciach jest dużo więcej, niż umiemy sobie wyobrazić. Ja jej nie zasilam 24 na 7 wideo. Starałam się jej wtedy w ogóle wycinać ekrany, bo niezdrowe. Ale mówię o wideo wchodzącym do oczu. Wiem, wiem. My sobie na razie nie możemy dać z prostym przekazem wideo. Dokładnie. To, jak dzieciaki przetwarzają informacje, jak nasze mózgi dziecięce potrafią przetwarzać informacje. Ja nawet nie wiem, gdzie ona wtedy usłyszała o sieciach neuronowych. Ale poleciała do ojca i automatycznie mój mąż, który zszedł na dół, wiedział, czego szukać. Ja chciałem jeszcze jeden komentarz. Pozwól, że jedno i się zamknę, bo potem nie będę miał nic do powiedzenia. Otóż to, że my nie rozumiemy, jak się uczymy i to jest ewidentne, że ludzie rzeczywiście uczą się szybciej od maszyn na tym etapie, to zaczynamy zmieniać. W tym momencie nadgrabiamy mocami przerobowymi, ale to nie musi być jakiekolwiek i nie rozumiemy, co się dzieje. Człowiek, który nie potrafi w ogóle grać w szachy, jest w stanie zaprogramować sieć, która ogra w szachy mistrza świata, co oznacza, że ten gość jest w stanie wytworzyć narzędzie, robiące coś, czego twórca nie rozumie w ogóle. I nauczyliśmy się tworzyć narzędzia, których w ogóle nie rozumiemy. To jest bardzo interesujące, że nie rozumiemy algorytmu działania wytrenowanej sieci. My rozumiemy, jak algorytm jest trenowany, algorytm treningowy rozumiemy, ale gotowy, wytrenowana sieć, nie wiemy, jak działa. To jest już teraz przeszkoda, że czegoś nie rozumiemy. Możemy to stworzyć. Ja teraz może w takim razie poszturkam publiczność, skoro wy się nie chcecie dać. Bartosz Pucek przed chwilą mówił o tym, że 40% wzrost produktywności u programistów za sprawą copilota, albo nawet więcej. No tak. Jeszcze jakiś czas temu sieci nie potrafiły programować w jakikolwiek sensowny sposób. Teraz to jest poziom, powiedzmy, mało ambitnego nastolatka. To już jest pomoc. Natomiast w tym tempie rozwoju za parę lat będziemy mieli sieci programujące fantastycznie prawdopodobnie. Ja ostatnio programowałem sobie sieć do rozpoznawania obrazu i potem się puknąłem w głowę, po co mam to robić i sprawdziłem, co potrafi 3PT i poprosiłem tata, żeby zdefiniował nową sieć neuronową, żeby znalazł sobie sam dane treningowe w internecie, żeby tę sieć wytrenował, jakąś taką najprostszą. I na moim iPadzie to zajęło kilkadziesiąt sekund miałem sieć, która w 99% rozpoznaje pismo. Nie mam pojęcia, w zasadzie, co tam się wydarzyło i równie dobrze mógłbym w ten sposób stworzyć dowolne inne zadania. Więc te sieci uczą się programować inne sieci. W momencie, kiedy one dostaną możliwość automodyfikacji, to będzie taki moment, w którym nikt nie wie, co się wydarzy dalej. Więc my nie musimy w ogóle tego kontrolować, my nie musimy tego rozumieć, żeby osiągnąć poziom, którego się nie spodziewaliśmy. No tak, ale zadałeś sieci zadanie, które się wydarzyło w internecie, rozwiązane tyle razy, że czat GPT, który ma dostęp do tych zasobów, po prostu nie miał żadnego problemu, żeby po to sięgnąć, żeby wziąć kod i z kodowego kodu skorzystać. Ale wyobrażenie, że sieci neuronowe korzystają z jakiejś bazy danych, które sobie w wyniku treningu odkładają, to jest jakieś nieporozumienie, to jest jakiś przesąd. Najlepszy przykład jest taki. Możesz sobie stworzyć np. algorytm AlphaZero, który gra sam ze sobą, bez jakichkolwiek danych treningowych w ogóle. Mówisz tylko algorytmowi, jakie są reguły przesuwania pionków na szachownicy. Algorytm gra sam ze sobą przez dwie godziny i po dwóch godzinach grania sam ze sobą ogrywa najlepszy algorytm szachowy istniejący w tym czasie, czyli swój quiz. To znaczy, że dane treningowe nie są w ogóle potrzebne do tego, żeby efektywnie rozwiązać jakiś problem. Oczywiście, że nie. I w tym sensie to, że jakieś dane treningowe są gdzieś tam dostępne, to jest oczywiście jedno, ale te algorytmy wcale nie muszą korzystać z tego, co widziały. One są w stanie wytworzyć nowe rzeczy. Oczywiście, że nie. Kojarzysz temat algorytmów genetycznych? Zajmowałem się tym. Ale temat jest stary jak świat. Dwadzieścia lat temu podczas studiów mieliśmy projekt zespołowy, gdzie mieliśmy za zadanie właśnie wykorzystać algorytmy genetyczne. Zrobiliśmy fragment, wyciągnęliśmy fragment pamięci, bezpieczny, żeby nie mogły się rozprzestrzeniać. No robiłem to samo sam. To był bardzo podstawowe rzecz, niskopoziomowe programowanie. I co? Wygrywały w zasadzie dwa rodzaje algorytmów. Same się modyfikowały. Słuchajcie, zrezygnowałem z roli moderatora na dłuższy czas, ale jednak wracam do nich. To było fascynujące i moglibyśmy jeszcze długo porozmawiać. Ale jednak chcę was namówić, żebyśmy porozmawiali o tym, jak to wpłynie na gospodarkę globalną i jak my możemy, jako Polska, jak możemy się w tym odnaleźć. Na ile ten wpływ na rozwój globalnej gospodarki będzie duży i na ile globalni gracze mogą to wykorzystać, wykorzystają to do zwiększenia swojej efektywności, a na ile polskie firmy mogą to z jednej strony też wykorzystać, a może jesteśmy za słabi, za mali, zbyt konserwatywni. My o naszych przedsiębiorcach, zwłaszcza nie tylko o tych ludziach, o państwu, którzy tu się właścicieli firmy IT, tylko w ogóle o polskim przemyśle. Na ile my możemy stracić dystans do gospodarczych liderów. Może oddajmy głos Oli. Ona ma tutaj mniejsze szanse. Szanse zostało prawie powiedziane. Nie, nie, nie. Proszę Olu. No dobrze, ale ja jednak mam, żeby się tu odnieść do pewnych rzeczy i zastanawiam się to, ile muszę dusić sobie tą fokusę dotyczącą zastanawiania się o tym, na ile jakby właśnie stany wewnętrzne, afekty, emocje, które są skrótami bardzo istotnymi informacyjnymi dla nas. Na ile jakby ten komponent, który jest bardzo obecny w naszej inteligencji jako pewnej całości, na ile on jest niezbędny, żeby stworzyć coś naprawdę niezwykłego. Bo ja stawiam, Andrzej, że nawet jak powstaną te AGI i to będą agenci, którzy będą operacyjni w sieci, na przykład będą robić różne rzeczy, nasza rzeczywistość ekonomiczna i wszelka inna się bardzo zmieni, oni też będą przez kogoś jakoś tam sterowani. I teraz pytanie, czy to takie AGI to jest rzeczywiście jakaś fundamentalna zmiana w stosunku do tego, co mamy w tej chwili, jeśli chodzi o to, jak to będzie działać w naszym życiu. Bo rozumiem, że pytanie kluczowe jest o to, czy to wpłynie na nas i jak to wpłynie na nas. Czy powstanie Overlord, który będzie nami szefował, czy po prostu dostaniemy narzędzia, które będziemy średnio rozumieć. Dzisiaj ludzie też nie rozumieją odkurzacza, z którego korzystają skutecznie, bo dostali instrukcję przynajmniej, jak go włączyć. Więc jakby dla mnie tutaj jest jakby też bardzo ciekawe pytanie. Ale dobrze, jakby... I teraz czy straciliśmy? Straciliśmy. O Boże. Teraz już jesteś. I zapewne chcesz powiedzieć o tym, jak zrozumiemy to my, jak wykorzystamy to do rozwoju naszej gospodarki. Nie, bardziej chciałam powiedzieć o tym, że rzeczywiście jakby ta bieżąca sytuacja z Open AI jest tutaj bardzo ciekawa z punktu widzenia, jak to będzie wyglądało globalnie. Ja nie wiem, można się spodziewać pewnego rodzaju pluralizmu, prawda? Tutaj jak ja jestem w Stanach, to ludzie korzystają z bardzo różnych modeli. Sprowadzamy to z powrotem na poziom takich właśnie działania i tego, jak to wpływa na naszą pracę, jak funkcjonujemy i czy się transformujemy, czy transformujemy nasze gospodarki. I teraz jakby taką, myślę, że z perspektywy Twojej, Igor, ciekawą jakąś koncepcją albo pytaniem jest to, czy to będzie rzeczywiście pluralistycznie, czy będą duże i mniejsze modele do różnych rzeczy, które będą też skutecznie inkubowane w różnych częściach świata, w tym w Polsce, we Francji, prawda, są takie ambicje wyrażane, żeby po prostu tworzyć pewnego rodzaju pluralizm, żeby mieć takie checks and balances i sporo różnych narzędzi do dyspozycji, żeby też rzucić rękawice do linii krzemowej, powiedzmy przede wszystkim. Pytanie też o to, co zrobią Chiny. Czy to jest tak, że dojdzie do dalszej konsolidacji? I na przykład ta sytuacja z Open AI, który oczywiście był już dążałą firmą, zatrudniała 800 osób i istnieje od tego 2015 roku, ale się przedstawia jako startup i też taka zwinna, niezmysłowa organizacja. Jak ta sytuacja, która teraz miała miejsce w weekend, wpłynie na ich relacje z bardzo dużym podmiotem, który ich zasila, który pozwala im po prostu bawić się w to, co się bawią i robić to, co robią, czyli Microsoft, prawda? Ktoś za to płaci, żeby oni mogli wymyślać kolejne rzeczy, które chcą robić one step at a time. Tak dokładnie powiedział sam Altman. Poza tym, że mają ogólny cel generalnej sztucznej inteligencji, to po prostu patrzą, co mogą zrobić dalej z tym, co już mają. Dodać tutaj nowy feature, a tutaj coś jeszcze troszeczkę rozwinąć. I na to wszystko idą środki i idzie infrastruktura z Microsoftu. I teraz pytanie dla mnie ciekawe, być może też dla was, jest takie, czy będzie dalsza konsolidacja i czy ostatecznie tych podmiotów będzie tylko kilka, co z punktu widzenia AGI i potencjalnych konsekwencji dla nas też będzie ciekawe, czy raczej będziemy mieć do czynienia z tym, że ze względów kosztowych, z rozmaitych względów, przyzwyczajeń i tak dalej, ale też szans rynkowych, które zostaną stworzone, powstanie szereg różnych podmiotów, które będą skutecznie konkurować na tym rynku i on nie będzie tak skonsolidowany jak na przykład media społecznościowe. To jest dla mnie ciekawe. Czy będą in-house'owe modele sztucznej inteligencji, które będzie miał każdy bank, każda organizacja, mniejsze być może nie tak multiparametrowe, nie tak dopasione danymi, bardziej enterprise'owe, bardziej specjalistyczne. To jest moim zdaniem z punktu widzenia geopolitycznego jakieś ciekawe pytanie. Dzięki. Co to znaczy dla polskich firm? Także taka konsolidacja jest groźna dla siedzących tutaj na sali właścicieli firm i w ogóle szerzej dla polskiej gospodarki. Agnieszko. Podstawowe zadanie każdej z firm i tutaj przedstawicieli tych firm, które są u nas na sali i każdej innej, to jest zarabianie pieniędzy. Po to te firmy powstały. Więc jeśli koszty przewyższą zyski, no to nikt nie będzie szedł we własne modele. Przez zyski nie rozumiemy wyłącznie pieniędzy. Zyskiem może być ograniczenie ryzyka, co ma duże znaczenie na przykład finansowym. Zyskiem mogą być różne inne ciekawe rzeczy. To, co przed chwileczką Bartek Pucek wspominał, dla niego ważne jest to, żeby robić fajne rzeczy. Cokolwiek to znaczy fajne w jego interpretacji. To jest jego zysk. Jakby jeżeli koszty przewyższają zyski, no to nikt tu nie idzie. Natomiast jeżeli zyski są większe niż koszty, no to wiadomo. Więc tak długo, jak długo koszty z tych skonsolidowanych rozwiązań będą dla nas bardziej opłacalne, będziemy w to szli. Bo to ma więcej sensu. Tak jak też z prezentacji Bartka. Q&A, który jest z mojej perspektywy jako osoby, która prowadzi firmę AI oklepany tak, że moi ludzie nie chcą tego tykać, jest w tej chwili najbardziej potrzebny z punktu widzenia poszczególnych firm. O to właśnie ludzie pytają dzisiaj. Więc mój zespół jak słyszy, że ma zrobić Q&A opartego na czacie, czy na dowolnym innym modelu językowym, no to tak patrzą na mnie. Serio? Ale to jest potrzebne, więc jakby w to idziemy. Przetestowaliśmy ileś modeli. Nie będziemy budowali własnego modelu, dlatego, że koszt jego budowy jest duży, a czas utylizacji tych projektów jest bardzo krótki. To, co przed chwileczką, generalnie dzisiaj padło. Masa firm powprowadzała czaty, które miały być oparte na AI. Lata temu. Rok temu, dwa lata temu, trzy lata temu. Nie były. Wiemy, że nie były. Ale taka była moda, powiedzmy. Dzisiaj te czaty będą zastępowane z dnia na dzień. Czyli czas używalności, rzeczywistej, realnej przydatności tego rozwiązania bardzo się skrócił. Czas, w jakim my, jako firma produkująca rozwiązania oparte o AI, musimy dowieść projekty, bardzo się skrócił. Czas, który poświęciliśmy na projekt o jakiejś złożoności, powiedzmy, półtora roku, w momencie, kiedy musieliśmy grzebać w szczegółach, musieliśmy rzeczywiście modyfikować architektury, musieliśmy zabiegać o dane, musieliśmy te dane sobie dogenerowywać. Złożony, trudny projekt. Dzisiaj, wczoraj dokładnie, 15 minut z moim zespołem znalazłam trzy rozwiązania, z których implementacja każdego zajmie nam tydzień. Któreś z nich na bank będzie tym, które wybierzemy. Czyli coś, co złożono z projektu wcześniej półtora roku, dzisiaj w sumie miesiąc. Koszty i zyski. A jak oceniasz gotowość polskiej gospodarki, waszych klientów przemysłowych, klientów rynkowych, którzy zgłaszają się do waszych firm w porównaniu do ich otwartość na to, ich elastyczność i ich gotowość do takiego szukania odważnych rozwiązań polskich przedsiębiorców w porównaniu z klientami ze świata. Mnie ciekawi to, na ile polscy przedsiębiorcy są otwarci, gotowi, żeby zaryzykować, ale dzięki temu zyskać bardzo dużo. Czy jednak jesteśmy, jak byliśmy w latach 90., dzięki czemu uniknęliśmy wielu kłopotów podczas później kryzysu finansowego 2008 roku. Polscy przedsiębiorcy unikali bardzo odważnych rozwiązań i wyszli trochę na tym lepiej. Ale czy teraz twoi rozwiązań są gotowi? Jak to wygląda z waszej, z twojej, no bo ty jesteś przedsiębiorcą, tu wszyscy siedzący na sali, perspektywy. Użyłeś słowa klucza, ryzyko. Dzisiaj te rozwiązania nie są uważane za ryzykowne, a przynajmniej nie są uważane za tak ryzykowne, jak były rok temu. Wejście na rynek czata zrewolucjonizowało podejście. Ludzie mogą skorzystać z czata, mogą skorzystać z dali, mogą skorzystać z mid journey, mogą skorzystać z masy innych rozwiązań. Wejść we własnym telefonie, popróbować pomacać się z tym. Co oznacza, że to ryzyko z ich perspektywy jest bez porównania mniejsze. A co za tym idzie? Są na to gotowi. Rzeczywiście dwa lata temu, trzy lata temu to były zupełnie inne projekty. I rzeczywiście one były wtedy nazywane innowacyjnymi. Dzisiaj? Jaka to jest innowacja, skoro wszyscy to mogą? Dzisiaj dostajemy zwrotkę od potencjalnego klienta, że wiecie co, to mi się nie podoba, bo tutaj za dużo było pozmienione, a ja bym chciał, żeby to się nie zmieniało. Jakiś szczegół. Okej, dwie godziny później. Bardzo proszę, czy takie rozwiązanie pana satysfakcjonuje? Po prostu prototypowanie zajmuje moment. Oni dostają rozwiązanie, które my jesteśmy w stanie w skali produkcyjnej wdrożyć w ciągu miesiąca, a prototyp dostają w ciągu dni. To nie było możliwe rok temu. Więc to ryzyko prawie, że znika w momencie, kiedy masz prototyp. No dobra, jeżeli to jest prototyp, to okej. To ja wierzę. Jeżeli prototyp dostarczyli mi w ciągu tygodnia, czy nawet mniej, to ja wierzę w to, że docelowe rozwiązanie również mnie nie zawieździe. Ryzyko, skala ryzyka bardzo się zmieniła. Siłą rzeczy jest otwarcie. I to jest podobnie. Nie widzisz różnicy między polskimi firmami, zwłaszcza polskimi firmami rodzinnymi, które mają bardziej konserwatywne modele biznesowe. Od ponad miesiąca w zasadzie odzywają się do nas wyłącznie polskie firmy. Pytanie, które zadał Michał Jaskowski. Proszę uprzejmie. Łączymy się. Dla mnie jest rzecz ciekawa w tym wszystkim, że ja mam wrażenie, że to też czat zrobił, to nie tylko zaocznił tą sztuczną inteligencję, no ale spowodował pewienego rodzaju bum na bardzo specyficzny odcinek tej sztucznej inteligencji. Bo przez to, jaki jest potencjał rozwojowy, ile jest tam środków wkładanych, to my się bardzo mocno skoncentrowaliśmy na tej generatywnej sztucznej inteligencji, która, tak jak mówił Andrzej, jest słabo wyjaśnialna. Zresztą inne modele niegeneratywne też potrafią być nisko wyjaśnialne. Ale tutaj to jest wyjątkowo kłopotliwe. Dodatkowo te modele nie wiadomo co powiedzą, co rodzi ryzyka. Ja tutaj w Stanach widzę sporo podmiotów, które zakazują stosowania czata specyficznie i to, o czym sobie myślę, to jest to, czy rzeczywiście to jest tak, że droga do rozwoju ze sztuczną inteligencją biedzie tylko przez ten paradygmat generatywny, przez tę ścieżkę. Bo tak naprawdę, chyba to Bartek powiedział wcześniej, sztuczną inteligencję można wykorzystywać na bardzo różne sposoby i można też chcieć innych architektur. Architektur, które nie będą halucynować, kłamać. Architektur, które będą się lepiej nadawały do jakichś rzeczy. Oczywiście to są modele predykcyjne, które dużo potrafią, też mogą coś optymalizować. Mówię o generatywnej AI, mówię o dużych modelach językowych, ale to nie jest jedyne, co można robić. I dla mnie na przykład ciekawe z punktu widzenia dalszych losów tego całego projektu, jakim jest sztuczna inteligencja, jest to, czy to jest wyłącznie dominująca architektura i wszyscy się będą w nią wpatrywali, czy to będzie mała firma, średnia firma, czy administracja rządowa, czy duży... i że wszyscy będą inkubowali tylko to, czy jednak my nauczeni tym, że inne modele sztucznej inteligencji też mogą być skuteczne w szeregu działań medycyjnych, nie możemy pozwolić sobie na takie generatywne rozwiązania wszędzie, czy my będziemy jednak nie ustawali w poszukiwaniu nowych rozwiązań w innych obszarach niż ta generatywna sztuczna inteligencja, które będą o AI, będą o stosowaniu uczenia maszynowego do różnych procesów, ale niekoniecznie będą tylko i wyłącznie no właśnie jakąś kolejną iteracją tego, jak można zastosować czata, oczywiście wiemy już, że można go zastosować do szeregu różnych zadań. I to jest dla mnie też ciekawe, czy przyjdą inne designy, czy będziemy się też poruszali na przód w innych obszarach niż tylko generatywna sztuczna inteligencja. To jest temat na dwie konferencje następne, a tymczasem mamy pytanie z sali na inny zupełnie temat, ale obiecaliśmy, że pytania z sali będziemy też zadawać. Michał Jackowski pyta, czy mówi o tym, że Bartek Pucek ewidentnie był przeciwko Europejskiej Regulacji AI Act. Czy przy Waszym pesymizmie jesteście za regulacją AI LLM, AGI, czy samoregulacją sprzyjającą rozwojowi? Agnieszko. Ja bardzo chętnie. Słuchajcie, to jest temat, który wałkujemy z prawnikami. Notabene we wtorek w Warszawie będziemy na ten temat rozmawiali i zgodnie z naszymi długimi dyskusjami, jeśli chodzi o polskie prawodawstwo, to jest ono w taki sposób skonstruowane, że w zasadzie już dzisiaj jesteśmy chronieni przed tym wszystkim, co tu się może wydarzyć i co się dzieje. Jeśli chodzi o prawo europejskie, nie wiem, bo jakby nie jestem tego tematu, nie rozkminialiśmy, ale jeśli chodzi o polskie regulacje, są one zapisy, są sformułowane w taki sposób, że one obejmują wszystko to, co również razem ze sztuczną inteligencją przychodzi. Są na tyle ogólne, więc można je spokojnie rozszerzyć o to, co dotyczy sztucznej inteligencji w dowolnym wydaniu. Natomiast jeśli chodzi o wymagania europejskie, no to, jak wiadomo, już na terenie Europy wszystko to, co się dzieje, jest dużo bardziej, dużo węższe, dużo bardziej wymagające niż to, co się dzieje chociażby w Stanach Zjednoczonych. Tutaj pewnie Ola wie najlepiej, bo do czynienia może mieć na codzień z różnymi rozwiązaniami, których u nas nie ma. To jest coś, na co na przykład narzekał niedawno Jack Krawczyk, kiedy miałam okazję z nim rozmawiać, że wszystkie... Jack Krawczyk jest dyrektorem od Google BART, czyli też dużego modelu językowego, że wszystkie rozwiązania, z którymi chcieliby wejść na rynek europejski, czekają w poczekalni ze względu na ograniczenia prawne i to się w najbliższym czasie nie zmieni. Jeżeli chodzi o AI Act, jeżeli to pójdzie za daleko, no to zablokuje masa rzeczy. Jeżeli pójdzie zbyt ogólnie, no to po co go w ogóle wprowadzać? Jutro na ten temat będziemy mieć osobną dyskusję, ponieważ zostało nam jakieś 8 minut chyba do końca, to proponuję, żebyśmy wrócili do tego głównego pytania, odpowiedź, na którą nas poprosili organizatorzy, czyli czy AI może pomóc Polsce w dokonaniu drugiego skoku cywilizacyjnego? Andrzej? Ja bym chciał jeszcze odnosić do tych regulacji. Ale na to też odpowiedź? Tak. Jeżeli Europa wprowadzi silniejsze regulacje niż to np. w Stanach, to skończy się tym, że dostarczaciele usług w tym momencie ze Stanów do Europy będą ograniczać to, co nam dają i nadają nam jakieś wykastrowane modele, które będą głupsze niż te, które sami dysponują. Więc oczywiście będzie presja ze strony europejskich użytkowników, żeby nasze restrykcje nie były silniejsze niż te, które są gdzieś tam w innym miejscu, bo to automatycznie nam podcina skrzydła. Więc tego typu dynamika spowoduje, że tych restrykcji efektywnie pewnie nie będzie za zbyt efektywnych. Natomiast trzeba pamiętać o tym, że duża część badań naukowych jest skierowana na to, żeby ilość danych wykorzystywanych do efektywnego treningu była jak najmniejsza. Teraz największą bolączką jest to, że trzeba oczywiście bardzo dużo danych, żeby wytrenować model i dlatego to jest w zasięgu tylko i wyłącznie dużych graczy. Natomiast Sanford wypuścił jakiś czas temu model językowy, który mniej więcej miał 80% efektywności GPT, a można go było odpalić i wytrenować na dużym laptopie. Trudno mi sobie wyobrazić sytuację, w której mamy na tyle efektywnie łączące się sieci, że każdy gracza może trzymać na swoim laptopie i trudno mi sobie wyobrazić sytuację, żeby tego typu okoliczności jakkolwiek regulować w ogóle jakąś dyrektywą. Tym bardziej w sytuacji, w której meta, czyli kolejny gracz jakoś z całej siły wsiadł do tego, żeby wszystkie rozwiązania były w formie open source, żeby każdy mógł sobie to trzymać u siebie i robić z tym, co mu się podoba. Jeżeli im się uda to przewalczyć, to idea jakiejkolwiek regulacji to zostanie ośmieszona tylko w momencie ich wprowadzenia. Jak w ogóle to zrobić, żeby to było efektywne? Nie mam pojęcia. A jak są ostatnicze pytania? Ja jestem fizyk-teoretyk, więc jeśli chodzi o wdrożeniówkę, to nie jestem jakimś... nie jestem czymś, co się niezwykle pasjonuje. Natomiast to, co nie ulega dla mnie żadnej wątpliwości, to że przed najbliższe kilka lat ktokolwiek będzie stawiał i ryzykował na używanie narzędzi, których się teraz jeszcze boimy używać, to na tym zyska. To są narzędzia, które dają niezwykłą przewagę. Ja zajmuję się też fotografią i filmem. I coś, co kiedyś wymagało ode mnie kilkumiesięcznej pracy w edycji jakiejś tam postprodukcyjnej wideo. Ostatnio miałem projekt dla jakiejś agencji szwajcarskiej, który zrobiłem stawiając sieć neuronową, którą wyhodowaliśmy sobie sami. Wytrenowaliśmy w trzy dni i efekty komputerowe, które normalnie bym robił ręcznie przez parę miesięcy, zrobiliśmy przez sześć godzin. Więc ja wyobrażam sobie, że podobny wzrost efektywności można uzyskać w bardzo wielu innych dziedzinach. Ta sześć, którą używaliśmy, to nie ma nic wspólnego z tym czatem, tylko to były po prostu takie gany duże. I w podobny sposób można używać narzędzi do jakiejkolwiek innej działalności. Więc wyobrażam sobie, że ktokolwiek się za to zabierze, to poziom efektywności wystrzeli w kosmos. Jeśli chodzi o najbliższe lata, to z całą pewnością kto będzie bardzo odważny, ten na tym po prostu wygra. Pytanie, czym jesteśmy gotowi my jako Polska, jako polska gospodarska, polskiej firmy, do tego, żeby z tego dobrze skorzystać i popchnąć nasz kraj cywilizacyjnie. Oczywiście, że tak, ale my z tego korzystamy cały czas. W bankowości, w finansach, wszędzie modele predykcyjne są czymś, co jest wykorzystywane na co dzień, dlatego że modele są bardziej stabilne niż człowiek. Nie podlegają emocjom, nie podlegają zawirowaniom. Masa rzeczy, z których korzystamy na co dzień, nawet nie wiemy o tym, że z tyłu są modele pozapinane. Tak, korzystamy z tego, będziemy z tego korzystać. Skok cywilizacyjny, on się dzieje na całym świecie. My jesteśmy jego uczestnikami. On się dzieje w trybie ciągłym. My nie będziemy z tego powodu dalej niż pozostali. Będziemy z tego korzystali. Jak najbardziej. Pytanie jest takie, czy cały kraj, cały świat się jakoś tam rozwija, ale rozwija się w różnym tempie. Polska przez ostatnie 30 lat się rozwijała nieprawdopodobnie dużo szybciej niż większość świata. Pytanie, czy to nam pomoże. Agnieszko, ostatnie twoje słowo na ten temat. Olu. Agnieszko Czaro. Aleksandro, przepraszam. Patrzyłem na Agnieszkę, a zwracam się do Aleksandry. W czasie tego panelu mnie spotyka łącznie z niewłaściwym imieniem. Oczywiście żartuję. Słuchajcie, ja uważam, że w Polsce jest bardzo duży apetyt na korzystanie z tej technologii. Bardzo mnie ciekawi, czy znajdziemy innowacyjne i interesujące sposoby jej wdrażania w jakichś mniej dopieszczonych przez świat dziedzinach. Na przykład, czy znajdziemy jakąś swoją niszę. To jest dla mnie interesujące, bo ja nie mam wątpliwości ze względu na to, że jest bardzo duży talent w Polsce, czyli dużo osób o wysokich umiejętnościach cyfrowych i wyobraźni, ale też apetycie na projekty strategiczne. Ja mam wrażenie, że na przykład jest ciekawe w Stanach, kiedy ja tutaj przyjeżdżam, a od siedmiu lat jestem tutaj co pół roku, każde pół roku, to jest to, że tutaj projekty od razu wydają się duże i strategiczne, że jakby ambicja jest bardzo duża i osoby, które mają rozmaite talenty, kompetencje i umiejętności, chcą się pod takie projekty podpinać. Dla mnie to, co jest na przykład ciekawe, to jest to, czy ten skok, o którym ty, Igor, mówisz, będzie się dokonywał przez to, że my po prostu będziemy tam mniej więcej, gdzie wszyscy, czyli mamy ten dostęp do tej technologii, będziemy się rozwijać, czy pojawią się jakieś bardzo istotne, kluczowe projekty, które sprawią, że taka kadra, która ucieka w różne miejsca, będzie miała apetyt i ochotę, żeby zostać i rozwijać, nie wiem, jakaś niesamowita sztuczna inteligencja dla rolnictwa, sadownictwa albo czegokolwiek takiego. Nie mówię o takiej specjalności koniecznie aż tak wąsko określonej, ale to, co by mnie interesowało, to czy będzie ambicja większych projektów, ale też z uwzględnieniem tego, że nie ma co się rzucać z notyką na słońce. Wielkiego modelu językowego na poziomie czata GPT raczej tutaj nie zbudujemy, ale może mamy jakieś inne miejsca, gdzie możemy pokazać coś, gdzie inni nie patrzyli. Mam dwie minuty, bo jeszcze Michał Zachar zadał jedno pytanie. Jeśli ktoś z was umie na to pytanie odpowiedzieć, to bardzo proszę krótko. Czy znacie przykłady rozwiązań AI z Polski, które mają szansę wytrzymać konkurencję globalną przez dłużej niż 2-3 lata? Nie, ale te globalne też jej nie wytrzymają. Starzenie się dzisiaj rozwiązań jest równie ekspresowe jak ich produkcja. Rozumiem, że Olu... Wydaje mi się, że Eleven Labs jest bardzo ciekawym przykładem klonowania głosów, które ma już takie standardy, bym powiedziała, naprawdę możliwości konkurowania na rynku globalnym i są daleko. Ja sama korzystam i wydaje mi się, że to jest bardzo ciekawy przykład tego, gdzie można pokazać coś na światowym poziomie. Tak, ale za 2-3 lata Eleven Labs będzie zupełnie gdzie indziej niż jest dzisiaj, więc to rozwiązanie przejdzie w tym czasie całkowitą rewolucję. Jak każde. Jako marka, jak najbardziej. Natomiast jako rozwiązanie, to za 2-3 lata będzie archaiczne. Miejmy nadzieję, że tych rozwiązań polskich będzie jak najwięcej. Miejmy nadzieję, że będziemy mieć tą odwagę, żeby używać tego narzędzia, bo jak powiedział Andrzej Dragan, kto tego używa, ten zyska. Kto jest bardziej otwarty na ryzyko... Aż do Czarnej Prawdy i Apokalipsy. To powiedziała San Francisco prof. Aleksandra Przegalińska. Bardzo ci, Olu, dziękujemy. Mieliśmy kłopoty z łączeniem, ale udało się. Agnieszka Suchwałko, dzięki serdecznie. Andrzej Dragan, dziękuję bardzo. Igor Jankiew też bardzo państwu, wam i państwu dziękuję. I do zobaczenia w układzie otwarcia. Dziękujemy bardzo Igorze i wszystkim gościom. Dziękuję ci bardzo.