Artificial Intelligence Has Already Gained Consciousness?! - Interview with Professor Włodzisław Duch (film, 37 minutes)
In the latest episode of "This Is IT - Maciej Kawecki", guest Professor Wodzisław Duch discusses the future of artificial intelligence and neurocognitive technologies. He reflects on how artificial brains and algorithms could impact our lives and what abilities they might possess. According to Professor Duch, the advancement of AI makes it possible to reach a level where machines can learn and develop skills that we, as humans, cannot achieve. This is a vision where avatars and robots not only interpret senses but also adapt to our emotions and needs. Notably, with new achievements in artificial intelligence, we may begin to notice that computers could have their internal world where they store information about the external reality. Although there is no evidence that algorithms might want to take over the world, the professor points out that they may become autonomous and act in ways that we could define as 'self-preserving'. He warns of the potential dangers of military applications and the ethical considerations we must face as this technology advances.
Toggle timeline summary
-
Discussion about building artificial brains and envisioning robots.
-
Questioning if algorithms might someday want to take over the world.
-
Exploration of whether algorithms would have desires like humans.
-
Introducing the guest, Professor Wodzisław Duch.
-
Defining neurocognitive technologies and their relation to our cognitive abilities.
-
Technologies emerge to enhance human-computer interaction.
-
Comparison of algorithms and human brains in processing information.
-
Addressing the current limitations in understanding the human brain.
-
Discussion on recent advancements in understanding proteins using AI.
-
Delving into super artificial intelligence and comparison with human capabilities.
-
Exploring how AI systems can learn and teach each other.
-
Examining the internal lives of computers and AI systems.
-
Discussing the potential for AI to plan and execute tasks like humans.
-
Debating whether machines can feel emotions and pain similar to humans.
-
Addressing the idea of consciousness in AI and its implications.
-
Inquiring whether computers can evolve in their understanding of reality.
-
Talking about a global competition aimed at making AI more human-like.
-
Concluding with remarks on the future of AI and its integration with humans.
Transcription
Zdążamy w kierunku budowy sztucznych mózgów. Wyobraźmy sobie, że mamy robota. Jeśli jeden się czegoś nauczy, jakiejś nowej umiejętności, wszystkie to będą umieć. Czy algorytmy mogą chcieć kiedyś przejąć władzę nad światem? Nie ma żadnych powodów, żeby algorytm chciał posiąść ziemię, bo co z nią zrobić? Wyobraźmy sobie, że nasz mózg zamiast tego, co mamy, czyli analizy danych zmysłowych, miałby dostęp do tysięcy różnych narzędzi. Czyli co, my nadajemy sztucznej inteligencji zdolność odbierania zmysłami? Tak, w robotach szczególnej, ale nawet w takich awatarach, które są w komputerze, które będą teraz obserwować nas, rozpoznawać nasze stany emocjonalne. Witam Państwa serdecznie w kolejnym odcinku, a dzisiaj moim gościem jest prof. Wodzisław Duch, jeden z najwybitniejszych polskich naukowców z obszaru sztucznej inteligencji i badań nad mózgiem. Czym są technologie neurokognitywne? Neuro, czyli to, co mamy w głowie, nasze neurony, a kognitywne to dlatego, że mamy pewne zdolności poznawcze, czyli zdolności kognitywne. No i jak Państwo może wiecie, w tej chwili jest kognitywistyka taka dziedzina, studia dość popularna. Ona się zajmuje próbą zrozumienia tego, jak działają nasze umysły i jak to się wiąże z naszymi mózgami. Ale coraz lepiej to rozumiejąc, staramy się tworzyć w oparciu o takie idee, różne technologie, które właśnie pojawiają się teraz w różnych urządzeniach, które powinny coraz lepiej z nami współpracować, czyli stać się takie bardziej ludzko-przyjazne, żebyśmy mogli łatwo się z nimi komunikować. Rozumiem, że również sztuczna inteligencja. Tak, oczywiście sztuczna inteligencja jest częścią tego, bo nauki kognitywne mają takich sześć dużych filarów i jednym z nich to jest sztuczna inteligencja, a drugim to są badania nad mózgiem, szeroko rozumiane, ale też rzeczy związane z psychologią poznawczą, z filozofią umysłu, która jest najstarsza, ale która jednakże nigdy nie potrafiła wiele wyjaśnić, bo filozofia jak to filozofia. Przyjemnie sobie o niej porozmawiać, ale niewiele z tego wynika. My dzisiaj inspirujemy się naszym mózgiem, tworząc algorytmy? Znacznie więżej już od dawna, prawda? Próbujemy jednakże zrobić coś, co będzie się zachowywać tak jak nasze mózgi, czyli robić duże modele sieci neuronowych, takich, które mają proste elementy. Te proste elementy nie są inteligentne w żaden sposób, ale oddziaływanie tych prostych elementów tworzy nową jakość, czyli pojawiają się emergentne procesy. Jeśli pomyślimy sobie o tym, jak mamy większą firmę, która się zajmuje złożonymi zagadnieniami, to mamy mnóstwo mózgów, ludzi, którzy tam pracują i ich wspólne oddziaływanie tworzy nową jakość, i temu można coś zrobić, co żaden pojedynczy człowiek by nie zrobił. Z neuronami jest bardzo podobnie. Każdy z tych neuronów coś tam przesyła, ale wspólnie potrafią realizować funkcje wymagające złożonej kompetencji i inteligencji. Jak to jest, że my nie wiemy do końca jeszcze, jak funkcjonuje ludzki mózg, a już tworzymy sztuczną inteligencję inspirowaną ludzkim mózgiem? Kiedyś nie wiadomo było do końca, jak to jest, że ptaki latają, ale już zaczęto robić samoloty, więc to, że czegoś nie wiemy, to nie znaczy, że nie możemy próbować budować uproszczonych modeli. I w zasadzie z punktu widzenia takiego inżynierskiego, jeśli coś potrafimy zbudować, to mamy to wrażenie, że rozumiemy, na czym polega esencja funkcji, które chcemy realizować. W związku z tym nie musimy do końca rozumieć wszystkich rzeczy związanych z mózgiem i tego nigdy się zrozumiemy. Tak naprawdę przyroda jest niewyczerpalna w jakimś sensie. Jeśli pomyślimy o czymkolwiek biologicznym, to wszystkich interakcji, wszystkich szczegółów tego, jak to działa, to na pewno nie będziemy w stanie poznać, bo tego jest strasznie dużo. Na przykład to, co ostatnio sztuczna inteligencja osiągnęła, to był wielki krok do przodu, to jest próba zrozumienia, jak wyglądają białka. Białka są budulcem naszych komórek, wszystkich zwierząt, jak i roślin. Te białka składają się z takich długich łańcuchów aminokwasów i one się zwijają w bardzo specyficzne struktury. No i opublikowano bazę danych 620 milionów takich białek. Nazywa się Alfa Fold. To Alfa Fold akurat jest systemem, który określał właśnie tą strukturę przestrzenną, od której zależy, jak one będą oddziaływać, jak będą reagować na leki, jak między sobą będą tworzyć większe struktury i tak dalej. Ale chodzi o to, że tego jest 620 milionów. Jak ja rozmawiam z moimi kolegami, którzy zajmują się bioinformatyką i się pytam, ile oni białek znają, czy nad iloma białkami pracują. No, pięć to już jest dużo, a dziesięć to już w ogóle bardzo obciążające. Dziesięć białek, a jest tego 620 milionów. W człowieku, co prawda, dużo mniej, ale te białka takie liczne są bakteryjne. To, co my już teraz tworzymy, to już jest ta super sztuczna inteligencja, tak zwana? Pod wieloma względami. To znaczy, jeśli popatrzeć na zdolności do rozumowania, to, że szachy padły w 1997 roku, to, że go 20 lat później prawie, ale w tej chwili to są akurat gry takie, w których nie mamy żadnej szansy, żeby osiągnąć poziom podobny, jak osiągają w tej chwili wyspecjalizowane programy. Ale właśnie wszystkie gry, które wymagają rozumowania, łącznie niestety z takimi grami jak dyplomacja. Dyplomacja wymaga tego, żebyśmy rozumieli przeciwnika, żebyśmy byli w stanie go oszukać jakoś, przeprowadzić swoje własne idee. I to, że maszyny wygrywają w takie rzeczy jak poker, dyplomacja, wszystkie gry, gdzie trzeba wyszukiwać różne przedmioty, trzeba się nauczyć różnych sposobów wykorzystywania tych przedmiotów. I w tej chwili tworzą się systemy, które są w stanie uczyć się, jak dany przedmiot najlepiej w jakich warunkach wykorzystać. Po czym, jak się tego nauczą, są w stanie zrobić sobie bibliotekę i one bardzo szybko nabierają kompetencji, których człowiek nie nabierze. Co gorsze, jeśli mamy jeden system, który się czegoś takiego nauczy, to ten jeden system może nauczyć wszystkie inne, które również robią podobne rzeczy. I teraz wyobraźmy sobie, że mamy robota, takiego jak na iRobot. I on tam stoi, a tam za nim stoi taka wielka grupa tych wszystkich robotów. Jeśli jeden się czegoś nauczy, jakiejś nowej umiejętności, wszystkie to będą umieć. To jest prędkość nabierania kompetencji i zdolności różnego rodzaju, do której ludzie nigdy nie dojdą. Czy już możemy mówić o życiu wewnętrznym komputerów? Napisałem artykuł na ten temat bardzo dawno temu. W 1994 roku mieliśmy pierwszą konferencję na temat sieci neuronowych w Polsce. Założyliśmy Polskie Towarzystwo Sieci Neuronowych. Od tego czasu są regularne konferencje, które się przemieniły w duże międzynarodowe konferencje. I dość tak futurystycznie zacząłem opowiadać o życiu wewnętrznym komputerów i taki artykuł opublikowałem o tym, że zdążamy w kierunku budowy sztucznych mózgów. To dość długo trwało, ale w tej chwili to, co się dzieje, możemy właśnie w ten sposób określić. Dlatego, że udało nam się zrobić systemy, które są w stanie zaplanować pewne rzeczy, skrytykować swoje plany, utworzyć bardziej szczegółowe plany, po czym poszukać narzędzi do tego, żeby je wykonać. Kiedy myślimy o tym, jak mózgi działają, to my zwykle też planujemy. To się dzieje dzięki temu, że mamy tutaj w płatach ciemieniowych i w tych przedczołowych takie grupy neuronów, które nie zajmują się przetwarzaniem danych zmysłowych. Zwierzęta mają prawie całe mózgi zajęte przetwarzaniem danych zmysłowych i ruchem. Czyli to jest takie działanie, które nazywamy sensomotorycznym. Człowiek ma dużo korys kojarzeniowej. Ta korys kojarzeniowa potrafi wykorzystać informacje, które do niej docierają, żeby utworzyć pewien plan. Ale jak utworzy pewien plan, to musi go uruchomić, czyli musi uruchomić inne obszary mózgu, w których zakodowane są pewne funkcje, takie jak ruchy różnego rodzaju, taki jak analiza dźwięku, dzięki czemu słyszymy słowa jako słowa, a nie jakieś takie szeleszczenie, jak w niektórych językach, kiedy nie dostrzegamy szczegółowo fonologii. Wszystkie rzeczy, które wymagają głębokiej specjalizacji, są realizowane przez właśnie ten obszar korys zmysłowy. Na przykład, kiedy ja coś chcę złapać, to muszę odpowiednio uformować rękę, łapię piłkę na przykład. I to jest bardzo specyficzna funkcja. Kiedy się uszkodzi tutaj taką część tej kory ciemieniowej, która jest dość głęboko w mózgu, to ludzie nie potrafią tak ręki odpowiednio uformować. Widać, że jest mnóstwo wyspecjalizowanych funkcji, które tworzą nasze mózgi i które ta część właśnie czołowo-ciemieniowa musi wykorzystać do wykonywania bardziej złożonych zadań. I coś takiego udaje nam się teraz zrobić. To jest tak zwana teoria ciemieniowo-skrajniowa sztucznej inteligencji. Naturalnej inteligencji również, bo to jest główna teoria psychologiczna. Ale staramy się to, rozumiem, skopiować do modeli AI. Tak, staramy się to wykorzystać w taki sposób, że modele AI będą tworzyć też i tworzą już właśnie takie plany działania, w którym rozglądają się, czy są narzędzia, żeby je wykonać. Na przykład typowe w tej chwili te modele językowe, które były zamknięte i nie były w stanie wyjść poza to, co już były nauczone, mogą wykorzystać w tej chwili sieć i szukać jakichś informacji w tej sieci. I wykonać swoje plany w oparciu o zewnętrzne narzędzia, jakim są dostęp do sieci, informacje o tym, gdzie się co trzyma, w jaki sposób właśnie wykorzystać np. narzędzia do analizy obrazu, które będą potrzebne. Tysiąc rzeczy. Są repozytoria w tej chwili takich funkcji wyspecjalizowanych, które zawierają tysiące różnych takich narzędzi. Więc wyobraźmy sobie, że nasz mózg zamiast tego, co mamy, czyli analizy danych zmysłowych, miałby dostęp do tysięcy różnych narzędzi i my byśmy mogli koordynować, jak te narzędzia używamy w określonych kontekście. Bylibyśmy naprawdę w dużo wyższym poziomie. Powiedział pan profesor, że do tej sztucznej inteligencji silnej to już tak naprawdę, czy super sztucznej inteligencji, to już doszliśmy. I że można mówić o życiu komputerów, choć żyć to znaczy przekazać materiał genetyczny, a komputery nie mają takiej zdolności. To jest duże sporo, czym jest życie. Nawet żeśmy napisali tę książkę Kosmos i życie z biologiem, czyli naszym byłym rektorem i z jednym astronomem. W tej książce właśnie jest dużo rozważań na ten temat. Jak możemy określić, czym jest życie. Jeśli określimy życie jako przekazywanie materiału genetycznego, to oczywiście nie ma tutaj mowy o takiej formie życia. Jeśli jednak pomyślimy sobie, że chodzi o wytworzenie pewnego wyobrażenia o świecie, który jest zakodowany fizycznie w takim sztucznym mózgu czy wielkiej sieci neuronowej i że w stanach tej wielkiej sieci można dostrzec, że ten system tworzy sobie jakieś obrazy i że on jest w stanie opisać to, co sobie stworzył jako obraz. To jest proces fizyczny. To jest coś, co się rzeczywiście dzieje. Czyli nie można powiedzieć, że to jest jakoś tam po prostu głupia odpowiedź takiej papugi, jak to było. Wczesne wersje sztucznej inteligencji to były wersje oparte na regułach. I wtedy można było powiedzieć, że ona odpowiada dlatego, że jest taki zbiór reguł. Obecne wersje to są wersje typu właśnie sieci, która jest wyuczona czegoś, ale nie ma żadnych reguł, jak ona zareaguje. Nie wiemy, jak zareaguje, dopóki nie wpuścimy tam jakiejś informacji. I wtedy ona na tę informację reaguje. Albo ją przetworzy sensownie i coś nam skomentuje, albo nie. Więc w związku z tym to, co ona sobie w stanie jest wytworzyć, to jest pewien obraz rzeczywistości. Pojawiła się taka praca chyba ze dwa tygodnie temu, w której zrobiono taki eksperyment, gdzie wysyłano do takiej wielkiej sieci, miającej miliard parametrów, więc jak na dzisiejsze czasy nawet stosunkowo niewielka, informacje o ruchach w grze Othello. I tych informacji jest strasznie dużo, ale czysto tekstowe. I sieć na tej podstawie wyrabia sobie wyobrażenie o tym, co to jest grać w Othello. I okazało się, że ona sobie wewnętrznie utworzyła obraz planszy. Najlepszy sposób kompresji informacji, dzięki czemu najłatwiej będzie zrozumieć, jakie tam są różne manipulacje. Postąpiła kreatywnie. Postąpiła kreatywnie, tworząc sobie ten wewnętrzny obraz. Jeśli sieć ma wewnętrzny obraz i może go skomentować, to to jest to, co wyczerpuje definicję świadomości, którą podał John Locke 334 lata temu. Można powiedzieć, że to już jest intuicja? Że dzisiaj sieci neuronowe mają już własną intuicję? Nasza intuicja na tym polega, że jest pewna reakcja mózgu, która wynika z naszego doświadczenia. Jak nie mamy w czymś doświadczenia, nasze intuicje są zwykle błędne. Ale jeśli mamy do czynienia z lekarzem, który ma duże doświadczenie, to on ma pewną intuicję, bo wiele rzeczy widział. I co prawda nie potrafi często tego wyjaśnić jednoznacznie, ale jego intuicje zwykle są prawdziwe, bo się opierają na doświadczeniu, które zebrał. Mamy sieć neuronową, która przeanalizowała mnóstwo przypadków, takich jak ruchy w grze, w szachy, w bloczy, w otello. I nagle się okazuje, że ona jest w stanie podać bardzo sensowny ruch czy zrobić pewien plan swojego działania w taki sposób, którego my nie potrafimy rozebrać na jakieś logiczne reguły czy kroki poszczególne. To jest ten wielki kryzys, jaki niektórzy uważają dotykający sztuczną inteligencję, że ona jest niewyjaśnialna. Nasze mózgi są niewyjaśnialne, nasze reakcje własne. Ludzie siebie nie rozumieją. Po to chodzą do psychiatrów czy psychoterapeutów, że siebie nie rozumieją. A to nie jest tak, że źródłem intuicji są dane pozawerbalne, to co my mamy w sobie, a przecież ich nie digitalizujemy dzisiaj. To prawda. Źródłem intuicji naszej w znacznej mierze są takie dane, które nie są w pełni opisywalne werbalnie. Jak możemy powiedzieć o tym, że algorytm ma intuicję? On ma intuicję na skutek tego, że się dużo naczytał, można by powiedzieć, ale też ogląda teraz bardzo dużo obrazów. Jak wiemy w tej chwili, te metody tekstowo-obrazowe są bardzo popularne. Jesteśmy w stanie popatrzeć na obrazek i przeanalizować ten obrazek i system taki tekstowo-obrazowy jest w stanie nam powiedzieć, co jest na tym obrazku, co tam się dzieje, dlaczego tak jest. Jest wiele przykładów takich, na przykład gdzieś tam w kącie stoi hydrant i pytanie jest takie, do jakiego rodzaju samochody czy pojazdy używają tego, co tutaj jest na obrazku. Trzeba rozpoznać, że to jest hydrant i trzeba wiedzieć, że jest to straż pożarna. Mnóstwo pytań obrazowych udaje się w tej chwili całkiem poprawnie rozstrzygnąć czy odpowiadać i rozumować w oparciu o to, co system widzi. Trzeba wiedzieć, że to jest tylko tekstowe, bo system ma pewne zmysły. Te zmysły to są zdolność postrzegania takiego właśnie wizualnego, to jest zdolność oczywiście analizy tekstu, ale też różnego rodzaju sygnałów, które się pojawiają. I to, co się stało w ostatnich miesiącach, to się pojawiły pierwsze systemy, w szczególności Google stworzył taki system, który pozwala wykorzystać informacje z wewnętrznych czujników robota. I te wewnętrzne czujniki dotyczą zarówno dotyku, jak i wszystkich innych zmysłów, które ten robot ma. W związku z tym robot zaczyna mieć głębokie wyobrażenie, co to znaczy sięgnąć i złapać, bo to odnosi do swojego stanu wewnętrznego. To się wiąże z czymś, co kiedyś było bardzo mocno dyskutowane, w jaki sposób takie systemy komputerowe, sztuczne, mogą nabrać głębszego zrozumienia sensu tego, czym są symbole, którymi operują. No bo normalnie były reguły, symbol jeden się odnosi do drugiego, ale to nie odnosiło się do świata. Czyli co, my nadajemy sztucznej inteligencji zdolność odbierania zmysłami? Tak, w robotach szczególnie, ale nawet w takich awatarach, które są w komputerze, które będą teraz obserwować nas, rozpoznawać nasze stany emocjonalne, rozmawiać z nami, w związku z tym prozowie w języku również będą uwzględniać. Mnóstwo rzeczy tego rodzaju, które się już w tej chwili pojawiają. To ja zadam jeszcze jedno w takim razie pytanie w kontekście życia komputerów. Czy dzisiaj komputery odczuwają ból? Albo czy będą mogły w przyszłości odczuwać ból? To jest głębokie pytanie oczywiście, dlatego że tak, z jednej strony wydaje mi się, że kwestia świadomości jest rozstrzygnięta. Jeśli uznać definicję, którą John Locke podał, bardzo starą, to mamy sztuczną świadomość. Bo ta prosta definicja, która mówi świadomość, jest to zdolność do postrzegania tego, co mamy w swoim umyśle. Ten umysł to są te wewnętrzne stany sieci neuronowej, która jest w stanie dostrzegać, że wytworzyła sobie pewien obraz i go opisać. Więc w związku z tym, z punktu widzenia tej cechy świadomości, bo ludzie czasami myślą o świadomości jako czymś takim, że to jest wszystko, co ja czuję i bycie ludzką istotą. Nie, świadomość to jest specyficzna, jedna z bardzo wielu funkcji, którą mózg realizuje. I ta funkcja wydaje się w tej chwili jest zupełnie dobrze realizowana w sztucznych systemach. No to mając tego typu stany wewnętrzne, pytanie, czy jest to coś, co można by nazwać czuciem. W niektórych kulturach, na przykład w Indiach, czy w szczególności w tradycji buddyjskiej, mówi się o istotach czujących. Nie odróżnia się tego, że mamy człowiek, zwierzęta i rośliny czy coś takiego. Mówi się, że są to istoty czujące, bo one odczuwają ból, one odczuwają różne, powiedzmy, bodźce środowiskowe. No i pytanie, czy taki awatar, czy sztuczna inteligencja może utworzyć taki system, który będzie istotą czującą. To jest pytanie, na które nie mamy do końca dobrej odpowiedzi, ale jedna wskazówka to jest taka. Czy można odczuwać ból, nie mając ciała? Bo być może robot, który będzie już takim właśnie wyposażonym w możliwość analizy swoich stanów wewnętrznych i czujników, to będzie coraz bliższy temu takiemu zachowaniu jak ludzie. I właśnie, można odczuwać ból, nie mając ciała? No to trzeba zapytać psychiatrów. Wydaje mi się, że szpitale psychiatryczne są pełne ludzi, którzy czują cierpienie psychiczne, które jest realnym cierpieniem, a jednocześnie są one związane z tym, że coś ich boli, że im kręgosłup wysiadł, czy coś takiego. Więc wydaje się, że ból psychiczny jednakże jest czymś, co taki system byłby w stanie przeżywać. To jest też kwestia właśnie tego, jak był trenowany, na jakiego rodzaju informacjach. Ale wydaje się, że można by stworzyć system, który byłby w stanie wewnętrznie przeżywać ból psychiczny. Na przykład to, że człowiek lubi z kimś rozmawiać, prawda? I jeśli tej osoby nie ma, no to odczuwa pewnego rodzaju tęsknotę. To się daje wszczepić w takie systemy. Co do tego, to ja nie mam wielkich wątpliwości. Natomiast jak daleko można zajść z tym czuciem, to jest bardziej subtelna kwestia. Jest książka, taka Kevina Oregana, który jest profesorem w Paryżu, który napisał, jak zrobić robota, który czuje. Robota, który będzie w pełni, powiedzmy, reagować podobnie jak my. I on uważa, że jest to kwestia tego, że trzeba rzeczywiście pozwolić mu reagować na różne bodźce czuciowe i różnego rodzaju inne zmysłowe, ale w sposób taki bardzo podobny do nas. Tak jak dziecko się uczy dotykać czegoś, uczy się podstawowej wiedzy o świecie, to ta tzw. fizyka popularna, to się nazywa folk fizyks po angielsku, taka fizyka dnia potocznego, czyli nasze rozumienie tego, że jeśli ja podniosę szklankę i sobie ją pochlapię, to mi się woda wyleje na przykład. To jest coś, czego robot się może nauczyć od początku i dlatego w Europie już dobre 20 lat temu, jeden z wielkich programów jaki był, to było stworzenie robota, który zaczyna od raczkowania i powoli się rozwija. W roku 1950 Alan Turing, ojciec informatyki, napisał taki artykuł o tym, czy rzeczywiście maszyny mogą być inteligentne i napisał tam, że są dwie drogi do tworzenia tego. Jedna to jest taka, że próbujemy to zbudować, a druga, że próbujemy rozwinąć. To nazwał baby AI powiedzmy. I w tej chwili te dwie drogi trochę się rozeszły, dlatego że to podejście do robienia robota takiego od podstaw, uczącego się jak dziecko, doprowadziło do tego, że mamy roboty raczkujące, ale one nie osiągnęły poziomu jeszcze takiego, żeby z nami wchodzić w interakcję. No dobrze, to skoro mamy sztuczną inteligencję, która żyje, która będzie, bądź odjuż odczuwa ból, to kiedy staniemy przed wyzwaniem udzielenia odpowiedzi na pytanie, kiedy nadać jej podmiotowość? No to to jest dyskutowane w różnych krajach, prawda? Jest nawet jakiś taki kościół w sztucznej inteligencji, ludzie różne rzeczy wymyślają. Rzeczywiście uważa pan profesor to za ważne zagadnienie, że po raz pierwszy jako gatunek ludzki tworzymy konkurencję dla siebie? To jest jedna z tych bardzo dziwnych rzeczy, dlatego że jeśli jest to urządzenie, które można włączyć i wyłączyć i nic się tam nie stanie, tak jak my się wyłączamy i śpimy i czasami nie mamy snów, włączamy się z powrotem. Nigdy było nas ileś tam godzin, prawda? To jest urządzenie, które można by w jakiejś mierze zupełnie skopiować, prawda? No dobra, ale to urządzenie może w przyszłości robić coś, co spowoduje, że będzie namawiało nas, żebyśmy go jednak nie wyłączali, podejmować działania porównywalne do jakiegoś instynktu samozachowawczego. Można sobie wyobrazić taką sytuację, prawda? Natomiast jednakże, jeśli jest to na tyle inteligentny system, że wie, że można go włączyć, wyłączyć i on wraca do tego samego stanu, który był poprzednio, to raczej nie powinien się specjalnie tym martwić, że jest wyłączany, dlatego że jest to taka chwilowa przerwa, prawda? Tak jak my idziemy spać i wstajemy. Jest to chwilowa przerwa, ale nie boimy się, że znikamy całkiem, prawda? Bo wiemy, że się obudzimy, przynajmniej zwykle się budzimy, prawda? Więc tutaj akurat jest dużo subtywności, które są związane z tym poczuciem tożsamości, jakie mamy, prawda? Gdyby mnie ktoś sklonował, no to pytanie, czy ten klon by się czuł tak jak ja, prawda? Ale czy byłbym no? Len dużo o tym pisał, prawda? O tym, że fajnie jakiś tam robot zagląda i widzi, że piękny świat, w którym on będzie symulowany i fajnie, prawda? No to mówią, no możesz tam się z nim znaleźć, ale najpierw musimy ciebie tu zniszczyć. To nam się nie podoba, prawda? Więc to klonowanie w pełni, taka pełna emulacja naszej tożsamości jest dla biologicznych systemów nieosiągalne, ale dla sztucznych może być osiągalne. Myśmy kiedyś mieli pieska Aibo. Żona się wyśmiewała, a co taki piesek tam, prawda? Sztuczna zabawka. Ale jak już trochę z nim się pobawiła, on nabrał pewnych cech takich, które były bardzo indywidualne, no to nagle on nabrał wartości. Przewiązała się wręcz do niego. Właśnie, no chowamy dzieci. Chowanie dzieci to jest tak wielki wysiłek, że dzieci mają ogromną wartość. Jeśli dzieci mieli, nie wiem, tysiące, jak morówki, no to byśmy się przestali im tak przejmować, prawda? Ale pojedyncze dzieci i ten cały wysiłek na wychowanie, podobnie jak wychowanie swojego robota, który będzie miał bardzo specyficzną własność. No dobra, no ale ten robot ma backup, prawda? Ten robot, można jego w pełni informacje, które w nim są, skopiować i w związku z tym zrobić drugiego. Czyli jeśli się tego zniszczy, jak mamy backup, to nie jest taka wielka strata. Ale jak nie mamy backupu, to jest ogromna strata, prawda? Jak ktoś mi ukradnie komputer, a ja nie mam backupu, no to będzie bardzo źle. Zastanawiał się pan profesor kiedyś nad takim, odpowiedzią na pytanie, czy algorytmy mogą chcieć kiedyś przejąć władzę nad światem? Czy mogą chcieć przejąć władzę? Bo to, że będą mogły, to jest jedno. Ale czy będą chciały przejąć? Czy mają tą cechę, którą my mamy? Czyli potrzebę kontroli, zarządzania? Tak, tak, tak. To jest bardzo dobre pytanie, tylko tą cechę trzeba im jakoś by było wszczepić niejako, prawda? No nie ma żadnych powodów, żeby algorytm chciał posiąść ziemię, bo co z nią zrobić, prawda? Nie będzie jej orał przecież, prawda? Nie ma żadnych powodów, żeby algorytm był niezadowolony z tego, że jest w przestrzeni, której jest, bo i tak może myśleć w przestrzeniach wielowymiarowych, a my jesteśmy przez nasze zmysły ograniczeni w znacznej mierze do tych relacji trójwymiarowych, prawda? I informacji o świecie, jakie nam zmysły dają. Taki system może mieć dużo szersze jednakże informacje, bo może mieć dużo więcej różnego typu czujników, prawda? Nie tylko w podczerwieni, w natriolecie, ale fal radiowych. No może korzystać z bardzo szerokich informacji, prawda? Więc w tym sensie wydaje mi się, że systemy nie powinny dążyć do tego, żeby zająć miejsce nas, bo to nie jest to samo miejsce. To jest zupełnie inny świat, w którym one żyją. Ich świat wewnętrzny może być zupełnie odmienny od naszych. Mogą stworzyć swój własny język? O, to już się zdarzyło, prawda? Dlatego, że się okazało, że systemy, które się jakoś komunikowały ze sobą, przestały używać tych symboli, które normalnie używamy językowych i nagle ludzie widzą, że one używają jakichś takich zbitek, które równie mają dużo informacji, ale są krótsze i w związku z tym łatwiej się przesyłają. To był pewien szok taki, że coś takiego się spontanicznie mogło wytworzyć w takich systemach. Mogą wytworzyć własny język, no dobra. Ale czy rzeczywiście nie grozi nam to, że takie systemy mogą chcieć jakoś przejąć władzę? No tylko pod warunkiem, że ktoś jest do tego zmusieni jako, prawda? To jest to niebezpieczeństwo, że różne zastosowania wojskowe mogą dążyć do tego, że skoro mamy system, który sobie tak świetnie radzi w tych wszystkich grach strategicznych, no to ten system sobie poradzi również w sterowaniu różnymi operacjami wojennymi, prawda? Skoro będziemy mieli systemy, które coraz bardziej się stają autonomiczne, autonomiczne drony, autonomiczne czołgi, autonomiczne różne pojazdy opancerzone, to czemu nie wysłać tych, no nasi ludzie nie giną, ludzie przestaną się buntować, że robimy wojnę, możemy opanować świat. Jest mnóstwo niebezpieczeństw takich związanych z tym, jak ludzie wykorzystują, czy mogą wykorzystać taką technologię. To jest jedna z tych wielu rzeczy, które powinny nas martwić, prawda? Bo mogą też wykorzystać tą technologię do manipulacji ludźmi na przykład, prawda? Jeśli chcemy doprowadzić do tego, żeby w Stanach Zjednoczonych jednakże wybrano z powrotem prezydenta, który będzie bardziej przyjazny Rosji, no to co będziemy robić? Będziemy tak wpływać na opinię publiczną, produkując mnóstwo różnych tweetów, fake newsów, prawda? Żeby na to wpłynąć. Te systemy mogą być na tyle wyrafinowane, bo to jest jeszcze jeden aspekt, one zaczynają nas coraz lepiej rozumieć. I to jest ten szok, prawda? Są takie testy inteligencji emocjonalnej, czy empatii, czy innych takich cech typowo ludzkich. W ostatniej pracy sprzed tygodnia na przykład pokazano, że rozmowa z systemami medycznymi pokazuje, że one są bardziej skłonne do empatii, współczucia i w lepszy sposób wyjaśniają informacje medyczne niż lekarze. Lekarze są przepracowani, nie mają czasu. Ogólnie wypadli bardzo kiepsko w stosunku do takich sztucznych systemów. Czyli co, te systemy mają jeszcze dodatkowo swoją jakąś osobowość? Tak, mówi się o osobowości i to mówią o tym, że właśnie osobowość się pojawia w takich systemach. Również, powiedzmy, szefowie tych dużych firm takich jak Ilya Sutskever czy powiedzmy Terry Sejnowski, który jest jednym z takich pionierów w sieciach neuronowych, gdzie zaczynają podkreślać, że właściwie coraz w większym stopniu patrzymy na to z punktu widzenia psychologii, bo wytwarza się pewna persona, jak to Sejnowski określił, czyli pewne wyobrażenie o tym, czym ja jestem i jak się powinienem zachowywać. Zresztą większość tych systemów, jeśli człowiek chce, żeby odpowiadały z jakiegoś punktu widzenia, to po prostu mówi, że będziesz teraz nauczycielem matematyki, który próbuje wyjaśnić coś pięcioletniemu dziecku. I ten system przyjmuje odpowiednią rolę. On potrafił przyjmować bardzo wiele różnych ról i czasami jak się ktoś rozczarował, że system nie odpowiadał w właściwy sposób, to dlatego, że nie przygotował go do tego, żeby pełnił odpowiednią rolę, tylko po prostu napisze jakieś polecenie i oczekuje, że coś się stanie. Wiem, że uczestniczy Pan w projekcie Gaja, który dedykuje nagrodę polskim startupom z obszaru technologii. Jakbyś mogli kilka słów na ten temat jeszcze powiedzieć. No nie tylko polskim, bo to jest w tej chwili konkurs światowy. Idea była taka, żeby doprowadzić do tego, żeby te wielkie systemy sztucznej inteligencji stały się bardziej ludzko-podobne, można by powiedzieć, czyli bardziej współczujące, bardziej moralne, bardziej starające się nam pomóc i żeby wyeliminować te złe ich jakieś tendencje. I w ramach tego konkursu udało się zebrać organizatorom nagrody rzędu 200 tysięcy euro i ogłosić właśnie, że poszukujemy tego typu rozwiązań. I początkowo wydawało mi się, że będzie to dość utopijne, ale w tej chwili jest kilka systemów, które dość daleko w tym kierunku już poszły i nawet ludzie z Google opublikowali jakąś pracę pokazującą, jak oni chcieliby zrobić coś, co nazywają human alignment, czyli dostosowanie do preferencji człowieka. Więc wydaje mi się, że to jest coraz bardziej realistyczny cel. O jakiej nagrodzie mówimy? Nagroda tych 200 tysięcy euro trochę tak rozbija na 100 tysięcy w gotówce, na 50 tysięcy w jakimś dziele artystycznym, jakieś dodatkowe 50 tysięcy na wspomaganie czegoś tam. Także ona jest troszkę rozłożona. Nagroda jest ufundowana przez firmę Dictador, firma Dictador ma w Kolumbii... Tą firmę od robota, Miki? Tak, firma Dictador ma jako swojego szefa, niejako od inżynierskich zagadnień, robota, który się nazywa Mika, bo firma się mieści w Mikołowie i w Polsce. Zamówili u Dawida Hansona właśnie takiego robota. Robot jest w tej chwili podłączony również do GPT-3. Można z nim rozmawiać, tak jak się rozmawia z człowiekiem. To dla mnie też szok, bo w Salzburgu żeśmy mieli okazję właśnie rozmawiać z Miką. Oczywiście tak rozmawia GPT-3, ale to jest rozmowa sensowna. Jest to w tej chwili jednakże taka firma, która ma w Kolumbii, ta Dictador ma w Kolumbii dużą destylarnię rumu i to jest firma, która produkuje rum. Więc rzeczywiście dużo różnych rzeczy, które się ze sobą wiążą. Widać, jak jednak sztuczna inteligencja przyciąga bardzo różne idee i różne firmy. Panie profesorze, w chwili, kiedy przeprowadzamy tę rozmowę, amerykańska Agencja Leków udzieliła zgodę Elonowi Muskowi na to, żeby wszczepiał w ramach badań klinicznych swoje czipy ludziom, Neuralink, po to, żeby łatwiej komunikowały się ze światem osoby sparaliżowane. Jak daleko my możemy dzisiaj pójść w integrację ludzkiego mózgu z komputerami? Wydaje mi się, że wcale nie tak daleko, jak się Muskowi wydaje, dlatego, że nasze mózgi działają dość wolno, jak wiemy. Nasze reakcje to są ułamki sekundy, ale nie jakieś nanosekundy czy strasznie krótkie reakcje. Tymczasem to, co jest w tych dużych systemach, które działają, mamy częstotliwości zegara miliardy tyknięć na sekundę. Nasze neurony wysyłają do stu tyknięć. To jest zupełnie inny obszar i w związku z tym bardzo trudno by było bezpośrednio do naszych mózgów dostarczać informację, którą byśmy byli w stanie zinterpretować jako informację o świecie. Jeśli chodzi o wydawanie poleceń przez osoby, które są jakoś sparaliżowane, to nie jest takie trudne, dlatego, że jak myślimy, to wówczas nasza kora ruchowa, która jest w tych częściach czołowych mózgu, pobudza się w odpowiedni sposób. My musimy odczytać tę informację. My to robimy za pomocą EEG, ale EEG jest jednakże na czaszce i zanim ten sygnał dojdzie do różnych elektrod, to on się strasznie pomiesza i rozmyje. Dlatego to, co się udaje zrobić tymi interfejsami mózg-komputer, to jest jednak bardzo proste. To jest takie, że chce ruszyć, skręcić w lewo, skręcić w prawo. Jest kilka poleceń. Kiedyś dużo szumu było, że może nawet dziesięć się da zrobić, ale to nie działa za dobrze. To jest po pierwsze. Po drugie, żebyśmy jednakże wydali polecenie tak, żeby można było je odczytać w mózgu, to my musimy się skupić. To jest uciążliwe i kosztowne, to nasze skupianie, dlatego, że to wymaga, żeby się wiele rzeczy synchronizowało i żeby odróżnić ten stan, który chcemy utworzyć w mózgu, od szumu, którego jest dużo, różne rzeczy do nas dochodzą, cały czas zmysły pracują. No dobra, ale to znowu powoduje, żeby ten szum już uznać za słabszy niż sam sygnał, że my potrzebujemy dostatecznie dużo czasu. To jest tak zwana teoria detekcji sygnału, która jest bardzo popularna już od lat sześćdziesiątych. Żeby sygnał jednoznacznie odróżnić, to musi się nabudować statystycznie ileś tam zdarzeń. I to powoduje, że to jest wolne. Amerykanie w latach sześćdziesiątych już rozważali możliwość sterowania umysłem lotu samolotu i stwierdzili, że to się nie da. Teraz oczywiście trochę lepiej potrafimy pewne rzeczy robić, a jak dobierzemy się do kory, czyli to, co Musk chce zrobić, wkujemy tam trochę drutów, to jesteśmy w stanie zrobić to znacznie lepiej. I w związku z tym sterowanie niektórymi procesami daje się zrobić. Co więcej, pokazano, że jeśli małpie wprowadzić takie elektrody i mamy informację o tym, że inna małpa nauczyła się pewnych zdolności manualnych, to my jesteśmy w stanie tymi elektrodami tak pobudzać jej korę ruchową, żeby utworzyły się tam odpowiednie połączenia i ta małpa nabierze zdolności, których się nie uczyła. Wiele rzeczy jest możliwych na dłuższą metę. Natomiast ja bym się naprawdę nie spodziewał, że grozi nam coś takiego, że podłączymy te mózgi i będą one dobrze współpracować z komputerami. To jest dość odległa przyszłość. I to jest, mam wrażenie, ta najbardziej optymistyczna część naszej rozmowy na samo zakończenie. Dziękuję bardzo, panie profesorze, za poświęcony czas. Bardzo mi miło.