Menu
O mnie Kontakt

Jakub 'unknow' Mrugalski na swoim kanale UW-TEAM.org dzieli się na temat pracy z GPT-3, czyli Generative Pre-Train Transformer. To model sztucznej inteligencji, który przetwarza tekst, bazując na danych, które wcześniej pochłonął. W nagraniu Kuba wyjaśnia, jak zacząć korzystać z tego narzędzia, zaznaczając, że wystarczy założyć konto, aby uzyskać dostęp do platformy OpenAI. To wszystko można robić online, co sprawia, że narzędzie jest wygodne w użyciu, chociaż takie funkcje zazwyczaj mają swoją cenę.

Uczestnicy powinni wiedzieć, że GPT-3 nie jest darmowe, jednak oferuje miesięczny przydział tokenów, które pozwalają na eksperymentowanie bez dodatkowych kosztów. Po utworzeniu konta, użytkownicy mogą korzystać z rozbudowanego panelu, dostępnego w sekcji Playground. To miejsce, gdzie mogą wprowadzać różne zapytania do modelu bez potrzeby znajomości programowania. Kuba pokazuje, jak proste zapytanie takie jak "Prezydentem Polski jest" zwraca odpowiedź, ale zaznacza, że jakość odpowiedzi w dużej mierze zależy od wyboru używanego modelu, który, jak tłumaczy, może być droższy lub tańszy, w zależności od jego możliwości.

Kuba wskazuje na różne modele, takie jak Da Vinci, Babbage czy ADA, z których każdy ma swoje zastosowanie i różni się jakością odpowiedzi i ceną. Zwraca uwagę, że dla prostych zadań warto korzystać z Babbage’a, ponieważ jest on tańszy, ale wystarczający do takich zapytań. Warto eksperymentować z temperaturą modeli, która wpływa na kreatywność odpowiedzi, oraz poznać, do jakich zadań poszczególne modele najlepiej się nadają, co omawia w różnych przykładach.

Podczas omawiania bardziej skomplikowanych zapytań, Kuba zilustrował, jak GPT-3 potrafi rozpoznać kontekst, na przykład w quizach, a także jak tworzyć zapytania SQL. Podczas przepisania zapytania na format SQL, GPT-3 udowodnił swoje możliwości poprzez zrozumienie podanych instrukcji i dostarczając poprawnych odpowiedzi. Następnie Kuba zachęca do próbowania różnych kombinacji i zastosowań GPT-3 w rozmaitych kontekstach, co może być przydatne zarówno w codziennym życiu, jak i w bardziej technicznych zadaniach.

Pod koniec nagrania Jakub zachęca widzów do kontynuowania eksperymentów i poszukiwania nowych zastosowań GPT-3, podkreślając, że platforma Playground jest tylko punktem wyjścia. W momencie pisania tego artykułu, film ma 52,314 wyświetleń oraz 1,318 polubień, co dowodzi dużego zainteresowania tematyką i przydatności szerokich zastosowań sztucznej inteligencji w codziennej pracy. Jakub zapewnia, że więcej materiałów na ten temat będzie dostępnych na kanale, co zachęca do subskrypcji i zadawania pytań w komentarzach.

Toggle timeline summary

  • 00:00 Wprowadzenie od Kuby Mrugalskiego na temat pracy z GPT-3.
  • 00:04 Wyjaśnienie GPT-3 jako modelu Generative Pre-Train Transformer.
  • 00:08 Opis celu GPT-3 w przekształcaniu wcześniej przyswojonego tekstu.
  • 00:12 Przegląd tego, jak GPT-3 generuje nową treść na podstawie wcześniejszych artykułów.
  • 00:20 Instrukcje dotyczące rozpoczęcia korzystania z GPT-3 bez instalacji.
  • 00:27 Wyjaśnienie, że GPT-3 działa całkowicie online.
  • 00:39 Wzmianka na temat kosztów związanych z korzystaniem z GPT-3.
  • 00:43 Informacja o uzyskaniu pewnej liczby tokenów do bezpłatnego użycia miesięcznie.
  • 00:54 Kroki do zarejestrowania konta na stronie OpenAI.
  • 01:06 Wprowadzenie do platformy OpenAI i sekcji Playground.
  • 01:18 Demonstracja podstawowych zapytań w Playground.
  • 01:40 Wyjaśnienie wyboru modelu i znaczenia rozmiaru modelu.
  • 02:04 Omówienie równowagi między używaniem bardziej inteligentnych modeli a kosztami.
  • 02:22 Porównanie różnych modeli GPT-3 i ich efektywności cenowej.
  • 02:56 Testowanie odpowiedzi ADA na proste zapytanie i analiza ustawienia temperatury.
  • 03:47 Wniosek, że Babbage jest wystarczający do prostych zapytań ze względu na jego efektywność kosztową.
  • 04:01 Przejście do bardziej zaawansowanych metod zapytań, takich jak quizy.
  • 04:59 Wprowadzenie do wyjaśniania języka SQL i zapytań.
  • 08:01 Testowanie zrozumienia negacji przez GPT-3 w zapytaniach SQL.
  • 09:31 Przykłady generowania kodu i poprawek w różnych językach programowania.
  • 11:25 Demonstracja upraszczania skomplikowanego tekstu prawnego w celu łatwiejszego zrozumienia.
  • 12:57 Generowanie zwięzłych streszczeń i tweetów złożonych tekstów.
  • 18:33 Zachęta do odkrywania możliwości GPT-3 poza tylko Playground.
  • 19:07 Zachęta do zaangażowania i interakcji z publicznością.
  • 19:15 Uwagi końcowe i pożegnanie od Kuby Mrugalskiego.

Transcription

Cześć, to Kuba Mrugalski. Dzisiaj nauczę Cię, jak pracować z GPT-3. Co to w ogóle jest GPT-3? Jest to Generative Pre-Train Transformer, czyli mówiąc prościej jest to model AI, który służy do transformowania tekstu, który wcześniej wchłonął. Uczono więc taki model wcześniej dużą ilością artykułów i na podstawie tych artykułów tworzone są nowe treści, które spełniają Twoje wymagania. Ty mówisz na przykład, że chcesz mieć rozprawkę na temat x, a ta rozprawka jest pisana. Jak w takim razie rozpocząć pracę z takim narzędziem? Po pierwsze, nic nie trzeba instalować. GPT-3 jest narzędziem działającym w pełni online'owo. Oczywiście istnieją klienty, które możesz zainstalować offline'owo, ale one i tak potrzebują korzystać z backendu, który jest chmurzy. Do tego GPT-3 nie jest usługą darmową. Trzeba założyć sobie konto i za to konto płacić. Jest to raczej śmieszna kwota, ale jeżeli chcesz wykorzystywać GPT-3 zupełnie za darmo, to co miesiąc dostajesz pewną liczbę tokenów, która się odnawia, a którą możesz wykorzystać do zabawy z tym narzędziem. Jak więc rozpocząć pracę? Zaloguj się na stronę, której adres masz w opisie, a następnie załóż tam konto, zarejestruj się i twoim oczom ukawy się coś takiego. Po zalogowaniu się na platformę OpenAI, twoim oczom ukawy się mniej więcej taki panel. Nas interesuje Playground. To jest taka piaskownica, gdzie możemy się pobawić różnymi zapytaniami do GPT-3 bez konieczności programowania, używania bibliotek zewnętrznych. Po prostu wszystko dzieje się w tym oto oknie. Możemy tu napisać jakieś bardzo proste zapytanie, na przykład Prezydentem Polski jest. Klikamy na Submit i naszym oczom okazuje się, że jest to Andrzej Duda. Pytanie było proste, więc i odpowiedź jest prosta. Zwróćcie jednak uwagę, że mamy tutaj mnóstwo różnego rodzaju parametrów. Nie zmieniliśmy żadnego. Co jest tutaj ważne? Przede wszystkim model. Model to jest to coś, co jest naszym silnikiem, na którym działa nasze zapytanie. Domyślnym modelem jest da Vinci. Zwróćcie uwagę, że koło każdego modelu jest coś takiego jak wielka kropka narysowana. Im większa kropka, tym bardziej pojemny jest ten model, czyli jest wyuczony na większe ilości danych i tym bardziej zasobny we funkcje, jakie może wykonać, i tym bardziej domyślny. Czyli można powiedzieć, że im większa kropka, tym bardziej inteligentny model. Możesz zapytać, to po co używać głupszych modeli, skoro mogę używać najbardziej inteligentnego z możliwych? Odpowiedź jest prosta. Jeżeli nie wiesz, o co chodzi, to chodzi o pieniądze. GPT-3 jest płatny. W każdym razie płacisz za to, z jakiegoś wielkiego modelu korzystasz. Warto więc korzystać z jakiegoś bardzo, bardzo małego. Zwróć uwagę tutaj na cennik. W cenniku mamy podane cztery główne modele. Da Vinci, Kiri, Babycz oraz ADA. Da Vinci jest najbardziej zasobny, ale też najdroższy, mniej więcej 2 centy za 1000 tokenów. A jeżeli chodzi o ADA, jest najtańsza, ale też najgłupsza. W takim razie zobaczmy, jaką odpowiedź wygeneruje nam ADA. A następnie mówimy, wygeneruj mi to. ADA twierdzi, że prezydentem Polski jest Kancelaria Rzecznika, Rzecznik Premiera. Powiedzmy, że nie. Ale może tak się zdarzyć, że ADA wcale nie jest taka głupia, tylko my sprawiliśmy, że ADA jest głupia. Dlaczego? Chodzi o coś takiego jak temperatura. Temperatura to jest kreatywność modelu, czyli jak bardzo kreatywny jest model w wymyślaniu odpowiedzi. Im bardziej w prawo, tym bardziej kreatywne. Od czapy odpowiedzi możemy oczekiwać, ale im bardziej w lewo, tym bardziej inteligentna odpowiedź. Sprawdźmy więc maksymalną inteligencję naszej ADY, co nam odpowie. Dalej, nie ma to sensu. W takim razie można powiedzieć, ADA do tego zadania się nie nadaje. Zwróć uwagę, że tutaj najeżdżając na wszystkie modele, z boku masz napisane, do czego się ADA nadaje. Parsowanie tekstu, klasyfikacja, poprawianie jakichś tam rzeczy. Wybierzemy więc Babbage'a. On jest nieco bardziej inteligentny. Sprawdzimy, jaki wynik daje nam Babbage. Andrzej Duda. Wniosek. Babbage do tak prostych pytań jest w zupełności wystarczający. To bardzo ważne, dlatego że Babbage jest wiele, wiele razy tańszy niż Da Vinci, więc warto na Babbage'u akurat tego rodzaju pytania oprzeć. Teraz chcielibyśmy zrobić coś nieco bardziej zaawansowanego. Popatrz więc na to. Przerobię sobie to pytanie w wersję ABCD, czyli quiz. Odpowiedź A. Prezydentem Polski jest Jan Kowalski. Odpowiedź B. Jan Nowak. Odpowiedź C. Zenon XYZ. I odpowiedź D. Andrzej Duda. Tu literówkę zrobiłem, ale już poprawiam. I teraz piszę po prostu językiem normalnym, mówionym. Odpowiedź to. I klikam na Submit. I co się okazuje? Babbage stwierdza, że jest to Andrzej Duda. Czyli od razu podał odpowiedź z listy podanej powyżej. Zwróć uwagę, on rozumie kontekst, on rozumie, że to jest quiz, że to nie są jakieś poszczególne polecenia, zaklęcia i inne takie rzeczy, tylko wie, że to jest quiz, trzeba wybrać jedną odpowiedź. Czyli całkiem inteligentny model, jakby nie patrzeć. Chciałbym pokazać przykłady, jak można byłoby język zrozumieć. Chcę już wytłumaczyć człowiekowi, jak działa język SQL. Trzeba mu powiedzieć, co to są tabele, rekordy w bazie, nazwy kolumn. Jak to wszystko działa. I zróbmy sobie to w ten sposób. Piszę parsera zapytań SQL. Po co w ten sposób napisałem na początku? Po to, aby nadać kontekst. To jest to, co w zasadzie robię. Będzie tu input, będzie tu output. W inpucie będzie np. coś takiego. Wybierz wszystkie rekordy z tabeli newsy. Jak powinno wyglądać zapytanie? Select gwiazdka from newsy. No okej. Teraz kolejne zapytanie. Wybierz imię i nazwisko z tabeli osoby. Odpowiedź to select imię, nazwisko from osoby. I kolejne zapytanie. Wybierz osobę o id 456. I odpowiedź to będzie select gwiazdka from osoby, where id równa się 456. I teraz uwaga. Zwróć uwagę, co robię. Po pierwsze stop sequence ustawiam na entera. Enter to znaczy, że po prostu enterem rozdzielone są poszczególne zapytania, które uczą naszego GPT-3. Następnie mamy tutaj dwa pola, które często się ludziom mylą. Insert start text oraz insert restart text. To jest to, gdzie zaczyna się nasze zapytanie do GPT-3. Czyli to jest nasze i. Nasza litera i zaczyna się od dwóch enterów. Enter, enter, a następnie i dwuklopek. Czyli input. Dlaczego dwa entery? Bo to następuje faktycznie nasz input. Jeżeli chodzi o to, gdzie zadziała nasz GPT-3, to jest to enter, a następnie output, dwuklopek. I w ten sposób przygotowaliśmy sobie, jak to ma mniej więcej wyglądać. Tu oczywiście temperaturę ustawiamy na zero, bo chcemy mieć jak najbardziej sensowną odpowiedź. I zadajemy teraz pytanie. Input to będzie np. wybierz i np. cena i typ z tabeli produkty. Gdzie id równa się 2,2,2. Output i niech to nie będzie babecz, tylko niech to będzie da Vinci, najbardziej rozbudowany z silników. I pytanie w mi, czy napisze nam poprawnie zapytanie SQLowe. Select cena typ from produkty, where id równa się 2,2,2. Dokładnie tak. On wywnioskował na podstawie tego, co mu podaliśmy tutaj, czyli jak wyciąga się wszystko z danej tabeli, jak wyciąga się konkretne z pool, jak wyciąga się dane id, a następnie pomieszaliśmy wszystko razem. Tu oczywiście niepotrzebnie to napisałem, bo on mi sam to dopisał. I w ten sposób mamy poprawnie napisane zapytanie SQLowe. Możemy też pytać go o coś, o co jeszcze nie pytaliśmy. To znaczy, nie nauczyliśmy go, jak się neguje. Pytanie brzmi, czy GPT-3 umie sam wywnioskować, jak wygląda negacja. Gdzie id nie jest równa 2,2,2. Poradzi sobie, czy też nie? Jak najbardziej. Więc jakąś własną inteligencję też posiada. No okej. A teraz moglibyśmy zrobić coś zupełnie innego. Kasujemy nasze ustawienia, tak, aby wszystko było czyste. I teraz damy coś takiego, jak stop sequence, ustawiony na załóżmy 3 minusy. Te 3 minusy to jest taki separator pomiędzy zapytaniami. Możemy więc zadać jakieś proste zapytania. Na przykład nadajemy zawsze kontekst, czyli co robimy, w jakim celu robimy, kogo pytamy, na tej zasadzie. Po to, aby ten kontekst był złapany przez GPT-3. Na przykład. Poprosiłem kolegę o napisanie funkcji sprawdzającej, czy podane słowo jest palindromem. Czego tu brakuje? Brakuje w kontekście, poprosiłeś go o napisanie, ale przepraszam, w jakim języku? Więc poprosiłem kolegę o napisanie funkcji, załóżmy, w PHP, sprawdzającej, czy podane słowo jest palindromem. Teraz co to jest palindrom? To jest słowo, które czytane od lewej do prawej i od prawej do lewej daje dokładnie ten sam wynik. Przykładowo kajak. No i teraz mamy tutaj informację. Kolega napisał taki kod. OK. I generujemy. Bardzo prosty, czytelny kod. Tu oczywiście dał jeszcze formatowanie, znane z Markdowna, możemy je pominąć. I mamy tu funkcję isPalindrome, która przyjmuje słowo i zwraca nam, czy słowo jest takie samo, jak słowo pisane w SPAC. Jeśli tak, to jest palindromem, jeśli nie, to nie. Ale możemy to pisać. Załóżmy tutaj, damy te trzy minusy i poprosiłem kolegę o przepisanie tego kodu na JavaScript. I zobaczymy, co kolega napisał. Dokładnie to samo napisane w JavaScript. Więc jak najbardziej działa. Teraz sprawdźmy, czy GPT-3 rozumie też polecenia Linuxowe. Poprosiłem admina Linuxa o ściągnięcie o ściągnięcie paczki. Tu podałem jakiś wymyślony link do paczka TGZ. Rozpakowanie jej i uruchomienie skryptu run.msh znajdujące się w środku. Teraz nie podaje niczego jako parametr dodatkowy. Daje tylko submit. Jaka jest odpowiedź? On mi wypisuje pobierz paczkę, rozpakuj paczkę, uruchom skrypt. Świetnie, ale to jest nie to, co chciałem. Dopisuję kolejną rzecz, która nadaje mi kontekst. Jakiej ja odpowiedzi się spodziewam? Spodziewam się odpowiedzi jakiej? Załóżmy. Admin wpisał w terminal Linuxa następujące polecenia. I teraz sprawdzamy, czy to ma sens. Pobieranie paczki, czyli wget. Rozpakowywanie paczki, czyli tar-zxvf. Następnie uruchomienie skryptu .slash run.msh. Dokładnie o to chodziło, czyli jak najbardziej rozumie tu też basza. Świetnie. Co jeszcze możemy zrobić? Wejdźmy sobie na stronę niebezpieczny.pl i znajdziemy jakiś fragment artykułu, który jest skomplikowany. Co by tu mogło być? O, tutaj mamy jakiś dziwny tekst. I ten tekst jest napisany dość takim językiem prawniczym, bym powiedział. Dość oficjalnym. Chcielibyśmy to napisać prościej. Na początku podajemy więc jakiś kontekst. Mam podany tekst. I następnie wklejam ten tekst. I teraz poprosiłem kolegę o przepisanie go tak, aby zrozumiało go dziecko z podstawówki. Kolega napisał. I teraz co kolega napisał? Sprawdzamy. Ten skomplikowany tekst u góry jest napisany bardzo prosto. Doszło do nieuprawionego użycia hasła w dwóch przypadkach i po trzecie się pod kancelarię komorniczą. Na portalu itd., itd. wszystko jest wyjaśnione bardzo prostym językiem. Ale chcielibyśmy to na przykład napisać inaczej. Kolega napisał streszczenie po angielsku. Teraz zwróćmy uwagę. Jest to bardziej skomplikowana operacja. Jak najbardziej da się ten tekst streścić po angielsku i też będzie w miarę sensownie brzmiało. Wszystko się zgadza. Dobra. Na główek czytam. Wygląda to nieźle. No dobra. A gdyby tak streścić go? Kolega napisał mi streszczenie. Kolega napisał mi streszczenie tego tekstu w maksymalnie 280 znakach. Dlaczego tyle? Żeby się na Twittera zmieściło. Damy sobie submit. I sprawdzamy. I sprawdzamy. Powinno być okej. I to jest streszczenie. Doszło do nieuprawionego użycia hasła, poczucie się podkomorniczo, jakąś kancelarię na portalu itd. No, działa spoko. Co byśmy jeszcze mogli zrobić? Moglibyśmy z tego na przykład wygenerować sobie jakiś wątek na Twitterze. Kolega w tle nieuczy mi koda, ale mam nadzieję, że wybaczy się. Kolega napisał mi wątek na Twitterze. Kolega napisał mi wątek na Twitterze składający się to jest literówka, składający się z trzech wpisów na ten temat. Jakie to są wpisy? No, zupełnie nie zrozumiał GPT-3 o co tam chodziło. Widać, że nawet najinteligentniejszy z modeli zupełnie nie zrozumiał co my mamy na myśli. Warto by więc zmienić zapytanie. Na przykład kolega stworzył trzy wpisy na Twitterze do 280 znaków na temat tego tekstu. OK. Oto co napisał. I sprawdzamy sobie, czy to działa lepiej. I teraz jest to lepiej zrozumiane. Więc trzeba złapać taki sposób działania GPT-3, aby umieć formułować swoje zapytania tak, aby nasz model AI zrozumiał co my mamy na myśli. Czasami dla nas jest coś banalnie proste, bo my wiemy jak się piszą Tweety na przykład. My wiemy, że one mają do 280 znaków. My wiemy, że się je dzieli na kawałki na przykład. Ale GPT-3 nie wie tego. Więc wypada mu to jakoś wyjaśnić. Dobra. Kot przyszedł. To jest Nora. Pomachaj tam. Siema. OK. Będzie już siedzieć tu z boku, a ja uczę ludzi dalej. W takim razie zróbmy inną rzecz. Kasujemy to co tutaj mamy. Możemy też poprosić GPT-3 o poprawianie rzeczy w kodzie. Na przykład napisałem skrypt PHP, który nie działa. I na przykład ten skrypt PHP będzie bardzo prosty. Czyli na przykład mamy PHP i tu mamy na przykład dolar A równa się 13, dolar B równa się 15, dolar wynik równa się A plus B i mamy echo wynik i tu mamy nową linię. I tyle. Tutaj zgubiłem średnik. W tym miejscu nie ma średnika. W takim razie dlatego nam to nie działa. Kolega poprawił mi kod. I pytanie brzmi jak bardzo poprawił nam kod? Submit. Dopisał średnik. Więc jak najbardziej tego typu poprawki też można w GPT-3 sobie robić. Niekoniecznie na DaVinci, bo to poprawianie kodu może być na znacznie słabszych modelach, ale czemu by nie. Kto Boga temu zabroni, będę jechał na DaVinci cały czas. Inna rzecz, którą możemy zrobić, to na przykład jakaś inspiracja. Czyli na przykład chcemy wygenerować sobie pytania na rozmowę kwalifikacyjną. Więc co piszę? Byłem na rozmowie o pracę... Byłem na rozmowie o pracę na stanowisku junior javascript dewelopera. Zadano mi tam 10 pytań. Oto jest lista. I submit. Okej, generują nam się pytania. I to są faktycznie pytania, jakie mógłby dostać nasz junior javascript developer. Co to jest javascript? Jak działa pętla for, while, do while i tak dalej. Okej, w ten sposób możemy generować różnego rodzaju listy, spisy treści na przykład. Jeżeli masz pomysł na artykuł, chciałbyś napisać artykuł na temat x, ale nie wiesz od czego zacząć, to bardzo przydaje się generowanie śródtytułów. Czyli wygeneruj mi śródtytuły dla artykułu na temat czegoś tam i on Ci to generuje. Inna rzecz, którą możemy zrobić, tutaj mamy te tryby pracy. Domyślny tryb to jest complete, ale mamy tutaj jeszcze insert oraz edit. Edit słabo działa w języku polskim, więc nie będę go pokazywał, ale jeżeli chodzi o insert. Insert. Na przykład. On nam tu przekleił, że byłem na rozmowie, okej, ale zróbmy inaczej. Niech to będzie oto przepis na pyszną pizzę. I teraz tak. Punkt pierwszy. Kup wszystkie potrzebne składniki. Następnie mamy punkt dziesiąty. Twoja pizza jest gotowa. I tutaj insert. Wstaw nam brakującą część naszego przepisu, bo trochę za mało jak na przepis kucharski, prawda? Damy sobie submit i sprawdzamy, co się dokładnie dzieje. Działamy na DaVinci, bez jakiejś tutaj innowacyjności. I jest tak. Przygotuj ciasto, rozgrzej piekarnik, pokrój wszystkie składniki na pizzę, umiej składniki, bla, bla, bla. Pierwsze 120 minut nie powiedzieli na ile ustawić piekarnik, będzie spalone. Ale okej. Twoja pizza jest gotowa. Więc w ten sposób możemy generować sobie rzeczy na podstawie właśnie inserta. Co jeszcze tu można zrobić? Na przykład drabina awansów w naszej firmie. Mamy junior dewelopera i mamy CTO. Ale co jest pomiędzy insert i dajemy sobie submit. I w ten sposób wygeneruje nam stanowiska, jakie potencjalnie mogłyby być po drodze. Mamy seniora, leada, software architekta, CTO. Dwa razy nam to tutaj wzięło, ale nie szkodzi. Pewnie dlatego, że zapomniałem czegoś takiego jak separator. Ale widzisz tutaj, że zostało to wygenerowane i jak najbardziej takie uzupełnianie danych w pełni działa. To są takie absolutne podstawy, jeśli chodzi o pracę z GPT-3, ale myślę, że dzięki temu nauczysz się, jak taki GPT-3 można wykorzystać. Oczywiście cała praca w GPT-3 to nie jest tylko praca w Playgroundzie. Playground jest tylko do tego, aby testować te zapytania. Gdy już zrobisz zapytanie, które jest inteligentne i które działa dokładnie tak, jak działać powinno, to można sobie kliknąć na view code i następnie wziąć sobie kod i podpiąć go na przykład do swojego programu w Pythonie, czy w Node, czy w czymkolwiek innym i w ten sposób rozbudować swoją aplikację o inteligencję bazującą na GPT-3, czyli na sztuczna inteligencja, jakby nie patrzeć. Jeżeli masz jakiekolwiek pytania, pytaj w komentarzach, no i daj lajka, subskrybuj, aby zobaczyć więcej filmów tego typu. Do zobaczenia w kolejnym nagraniu. Cześć!