ChatGPT zamiast backendu aplikacji? (film, 9 minut)
W dzisiejszym odcinku Jakub Mrugalski, znany jako 'unknow' z UW-TEAM.org, dzieli się swoim doświadczeniem w wykorzystaniu sztucznej inteligencji do generowania backendu aplikacji. Jego celem jest stworzenie API, które po otrzymaniu tekstu zwracałoby odpowiednie hasztagi. Film zaczyna się od wyjaśnienia, że zamiast pisać kod backendu, Kuba skorzysta z AI jako backendu, co sprawi, że proces będzie znacznie prostszy i efektywniejszy. W tym celu wykorzysta dwa kluczowe narzędzia: Make i Hopscotch. Make to platforma do automatyzacji, która ułatwia konfigurację potrzebnych elementów, a Hopscotch to klient HTTP, który pozwala na wygodne przesyłanie zapytań do API.
Pierwszy krok w budowie backendu to utworzenie webhooka w Make, gdzie Kuba pokazuje, jak to zrobić krok po kroku. Po poprawnym skonfigurowaniu webhooka, Kuba przesyła dane do swojego klienta HTTP, aby przetestować, czy wszystko działa poprawnie. Wyjaśnia, jak skorzystać z funkcji debagowania w Make, aby zweryfikować, jakie dane zostały przesłane. Jakub kładzie duży nacisk na możliwość rozpoznawania struktury danych przez Make, co pozwala na dalsze korzystanie z tego narzędzia w przyszłości.
Następnie Kuba przechodzi do integracji z ChatGPT, co jest kluczowym elementem całego procesu. Wyjaśnia, jak skonfigurować odpowiedni model i jak przygotować zapytanie, aby AI wygenerowało odpowiednie hasztagi na podstawie podanego tekstu. To, co wyróżnia ten odcinek, to jego przystępność - Jakub szczegółowo opisuje każdy krok, co czyni to nagranie idealnym dla osób, które dopiero zaczynają przygodę z AI i programowaniem.
W kolejnych etapach Kuba testuje, jak zmieniają się hasztagi w zależności od zadanego kontekstu. Po wielu modyfikacjach udało mu się uzyskać satysfakcjonujące wyniki, co pokazuje elastyczność i moc AI w generowaniu odpowiedzi dostosowanych do konkretnych potrzeb użytkowników. Pomimo że stworzony backend nie jest jeszcze gotowy do produkcji ze względu na prędkość odpowiedzi, proklamuje on jego potencjał w szybkiej prototypizacji aplikacji, co jest istotne w świecie technologii.
Pod koniec filmu Jakub zachęca widzów do zapisania się na listę oczekujących na nowy projekt związany z OpenAI, który planuje wkrótce uruchomić. Przy aktualnym czasie pisania tego artykułu, materiał zdobył aż 10788 wyświetleń i 451 polubień, co świadczy o jego popularności wśród programistów i pasjonatów technologii. Pełniejsza analiza i dostęp do takich materiałów wzbogaci z pewnością wiedzę wielu osób, które pragną eksplorować możliwości sztucznej inteligencji w codziennej pracy.
Toggle timeline summary
-
Wprowadzenie przez Kubę Mrugalskiego na temat generowania backendu z wykorzystaniem AI.
-
Dyskusja na temat typu aplikacji i API, które mają być stworzone.
-
Wprowadzenie narzędzi do użycia: Make i Hopscotch.
-
Tworzenie webhooka w Make.
-
URL webhooka jest generowany i kopiowany do klienta HTTP.
-
Konfiguracja ciała żądania z zmienną tekstową.
-
Otrzymanie pomyślnej odpowiedzi po wysłaniu żądania.
-
Nadawanie nazwy i zapisywanie scenariusza.
-
Uruchamianie scenariusza po zapisaniu.
-
Dodawanie nowego modułu do interakcji z OpenAI.
-
Konfiguracja i wybór modelu GPT-35 Turbo.
-
Ustawienie instrukcji do generowania hashtagów z podanego tekstu.
-
Finalizacja obsługi odpowiedzi dla webhooka.
-
Wyświetlanie odpowiedzi wyjściowej z modelu Chat GPT.
-
Udoskonalenie wyniku, aby zwrócić najlepiej pasujące hashtagi.
-
Ostateczne testy pokazujące wygenerowane hashtagi w formacie JSON.
-
Podsumowanie procesu generowania backendu.
-
Zaproszenie do poznania więcej na temat korzystania z OpenAI i tajnego projektu.
-
Zakończenie i końcowe uwagi.
Transcription
Cześć, tu Kuba Mrugalski. Dzisiaj pokażę Ci, jak wygenerować backend z użyciem sztucznej inteligencji. A mówiąc konkretniej, nie będziemy generować kodu backendu, tylko użyjemy AI jako backendu bezpośrednio. Chcę użyć chat GPT do zwracania mi odpowiedzi w takim formacie, jaki będzie użyteczny dla mojej aplikacji. A co to za aplikacja? Chciałbym wygenerować API. API, które pobiera tekst na wejściu, a na wyjściu daje hasztagi dostosowane do tego tekstu. Czyli jeżeli podaje na przykład tekst, ale ma kota, to chciałbym dostać hasztagi ala i kot. Jak to więc zrobić? Użyjemy dwóch narzędzi, które nam to ułatwią. Po pierwsze użyję Make'a. Make'a, dlaczego akurat to narzędzie? Dlatego, że jest bardzo proste do wyklikania tego, co jest nam potrzebne. A drugie narzędzie to będzie Hopscotch, który jest klientem HTTP. Równie dobrze możesz używać Postmana albo Curla, co tam lubisz. Ale zaczniemy od Make'a. Klikamy sobie na dodawanie nowego elementu. Ten nowy element nazywa się webhook. Wpisuję więc webhook w tym miejscu i klikam dodaj. Jakiego rodzaju to będzie webhook? Czy będzie to mailhook, czy może webhook urlowy? To będzie URL, do którego ja chciałbym wysyłać dane. Klikam więc sobie na tę drugą opcję. Klikam teraz na utworzenie nowego webhooka i gotowe. Webhook będzie utworzony, tylko trzeba dodać mu nazwę. Nazywam więc go hasztagi. Mamy teraz wygenerowanego urla. Kopiuję sobie go do schowka, idę do naszego klienta HTTP i w to miejsce sobie go wklejam. Nie chcę wysyłać danych gettem, tylko zmienię sobie to na posta. A następnie w ciele dokumentu dodam jedną zmienną. Jak się ona nazywa? No tak jak sobie wymyślę, niech się nazywa np. txt. A co będzie w środku zmiennej txt? Ala ma kota i kot lubi pierogi. Klikam sobie teraz na wyślij. Czekam chwilę. Czekam, czekam, czekam i dostaję odpowiedź accept. A co się pojawia w make'u? A w make'u pojawia mi się successful. Dlaczego w ten sposób? Dlatego, że make stara się rozpoznać strukturę danych, jaką otrzymał. Udało mu się to rozpoznać, nauczył się tej struktury i teraz mogę z niej korzystać. A jak zapisać mój scenariusz? Warto nadać mu jakąś nazwę. Np. moje API. OK. I klikam sobie na zapisz. Teraz klikam na run once i w moim kliencie HTTP wysyłam request. Czekam chwilę, czekam, czekam. Nic nie słucha na zapytania. Dlaczego nic nie słucha na zapytania? No dlatego, że nie aktywowałem sobie tego czegoś. I teraz będzie run once. Zapisamy sobie. Wyślij. Accept. Wszystko jest dobrze. I tutaj widzimy taką lupę. Ta lupa umożliwia nam debagowanie naszego zapytania. Widzimy, co dokładnie dostaliśmy. Dostaliśmy takiego bundla, gdzie napisane jest Ala ma kota i kot lubi pierogi. No dobra. Teraz co z tym chcemy zrobić? Chcemy to wysłać do chat GPT. Klikam sobie na dodanie nowego modułu. Na liście nie mam niczego fajnego, więc wpisuję sobie OpenAI. OpenAI. Jest tu jeden taki moduł. Ja już mam go skonfigurowanego, więc od razu mnie pyta opcję. U ciebie będzie pytał o klucz API. Skąd wziąć klucz API? No musisz zalogować się do OpenAI, kliknąć ustawienia i pobrać ten klucz API. Klikamy teraz na tworzenie nowego uzupełniania, czyli na odpowiedź na pytania, mówiąc prościej. Klikam sobie na to coś. Trwa ładowanie modułu. I teraz wybieramy, co chcemy zrobić. Chcemy użyć nie Prompta, a Chata. Następnie, z jakiego modelu chcemy korzystać? Aktualnie od kilku dni dostępny jest jeden moduł. On się nazywa ten model GPT-35 Turbo. Klikamy na to coś i dodajemy nowy message do Chata. Dokładnie tak, jakbyśmy go pisali w oknie Chat GPT. Na początku, kim jesteś? Czy jesteś informacją systemową, użytkownikiem, czy asystentem, który odpowiada? Do czego to jest? Doczytasz sobie w dokumentacji. Ty jesteś użytkownikiem, bo zadajesz pytania. Jaki to będzie message? No, message będzie brzmiało na przykład. Do podanego tekstu wygeneruj mi hasztagi. No i tyle. Możemy teraz powiedzieć, w jakim formacie chcemy mieć odpowiedź. Czyli na przykład odpowiedź zwróć jako tekst i rozdziel hasztagi spacjami. OK, daję dwóch kropek i następnie wklejam tutaj, co? Zmienną teksta. To jest ta zmienna teksta pobrana z poprzedniego zapytania. Czyli do podanego tekstu wygeneruj mi hasztagi. Odpowiedź zwróć jako tekst i rozdziel hasztagi spacjami. Wygląda dobrze. Zapisujemy oczywiście. I teraz ważna rzecz. Co się stanie z odpowiedzią? No nic się nie stanie z odpowiedzią, dlatego że ta odpowiedź po prostu przepadnie. Klikamy więc dodanie kolejnego modułu i to będzie kolejny webhook, ale tym razem webhook response, to znaczy odpowiedź na tego webhooka, którego dostaliśmy. Jaka to będzie odpowiedź? 200 OK. A co będzie w odpowiedzi? A o tym za chwilę. Dajemy sobie teraz zapisz, run once. Dlaczego za chwilę? Dlatego, że jeszcze ten webhook końcowy nie wie jaką strukturę danych zwraca GPT. W takim razie wysyłamy naszą testową tutaj pytanie. Czekamy, czekamy. Dlaczego tak długo to trwa? Dlatego, że chat GPT musi przetworzyć odpowiedź. Mamy teraz accept. A tutaj mamy w debugu, jaka była odpowiedź. Teraz zwróćmy uwagę na output. Output wygląda tak, że tu mamy listę dostępnych odpowiedzi. Jest to jedna odpowiedź. I tutaj w message'ach jest ala kod pierogi, czyli dokładnie to, o co nam chodziło. Chcemy teraz zwrócić te odpowiedzi w tym miejscu. Więc tutaj w body wybieramy dokładnie to, co przed chwilą Ci pokazywałem, czyli wybory dostępne, message'e dostępne i następnie content. Zamykam, zatwierdzam, zapisuję. I teraz daję wyślij. Popatrz teraz, jak to będzie działało. Ala kod pierogi lubi zwierzak jedzenia. Powiedziałbym, nie jest źle. Gdybyśmy to używali jako hasztagi na Instagrama, to byłoby całkiem fajnie. Gdybyśmy chcieli mieć bardziej szczegółowe hasztagi, znaczy bardziej pasujące do tekstu, to możemy to dopisać sobie na przykład. Zwracaj tylko najlepiej pasujące hasztagi. No i teraz powinno być trochę lepiej. Klikamy na zapisz. Uruchom ponownie. Wysyłamy nasze zapytanie do backendu. I najlepiej pasujące hasztagi to, czekamy chwilę, kod ala pierogi, zwierzak, smakowanie życia. Jest gorzej niż myślałem. Można więc uszczegółowić to w taki sposób. A żeby dopisać na przykład, zwracaj tylko najlepiej pasujące hasztagi, najlepiej pasujące do tekstu hasztagi. Czasami trzeba nadać taki kontekst, który wyjaśni, co my tak naprawdę mamy na myśli. Klikamy na wyślij i sprawdzamy, czy teraz poszło trochę lepiej. Domowe przysmaki, jedzenie. OK. Możemy więc powiedzieć, zwracaj tylko hasztagi zawarte w tekście. OK. I teraz możemy dać sobie zatwierdzenie, zapisanie, uruchomienie. I odpalamy. I teraz mamy ala kod pierogi. Dokładnie o to mi chodziło. Możemy też zmienić format odpowiedzi, no bo jesteśmy programistami. Co będziemy? Tekst czytać? A bez sensu. W takim razie zmieniamy sobie tutaj odpowiedź zwróć jako tekst. Nie, nie, nie. Odpowiedź zwróć jako JSON. I teraz powinniśmy mieć pełnoprawne API. Klikamy sobie na uruchomienie, a następnie na wyślij. Czekamy chwilę na przetworzenie naszego zapytania i widzimy, że są hasztagi ala kod pierogi. Wszystko w formacie oczywiście JSON. Dokładnie o to chodziło. Jak widzisz, wygenerowanie backendu nie zajęło nam wiele czasu i było stosunkowo proste. Cały backend składa się z trzech elementów. Jest element przyjmujący dane od użytkownika, element odpowiadający i po środku jest ta magia, która jest właśnie klockiem chat GPT. W ten sposób można bardzo szybko prototypować aplikacje. To nie nadaje się za bardzo do użycia produkcyjnego ze względu na szybkość odpowiedzi, ale jak najbardziej do szybkiego otworzenia prototypów mogłoby Ci pomóc w codziennej pracy. Jeszcze jedna rzecz. Jeżeli chcesz dowiedzieć się więcej na temat tego, jak używać OpenAI jako programista, jak lepiej prototypować, jak automatyzować swoje życie, to w takim razie tutaj pod filmem masz linka do listy oczekujących na start pewnego tajnego projektu, który niebawem ujrzy światło dzienne. Jeżeli interesują Cię te tematy, wpisz się na listę, a ja szybko wyślę Ci wiadomość, gdy tylko coś nowego w tym projekcie Ci pojawi. A tymczasem do zobaczenia w kolejnym filmie. Cześć.