Największe wpadki AI - kiedy technologia zawodzi (film, 17m)
Mateusz Chrobok w swoim najnowszym materiale porusza temat opartej na sztucznej inteligencji dezinformacji, która przytrafiła się wielu osobom w Dublinie. Mężczyzna opowiada o paradzie Halloween, która nigdy się nie odbyła, a jej istnienie zostało ogłoszone przez stronę promującą wydarzenia. Po przeczytaniu informacji z roku ubiegłego, jeden z dziennikarzy pomylił się i wprowadził rzesze ludzi w błąd. Co gorsza, błąd był wynikiem polegania na treściach generowanych przez AI, które nie są w stanie zweryfikować faktów. To pokazuje, że przed publikowaniem jakichkolwiek informacji warto zasięgnąć źródła, a nie tylko ufać technologiom, które mogą być zawodne.
Kolejnym przykładem dezinformacyjnym podanym przez Mateusza jest projekt sztucznej inteligencji w Solihull. Tam, AI miała zająć się sygnalizacją świetlną, aby poprawić bezpieczeństwo na skrzyżowaniach. Jednakże okazuje się, że bez właściwego nadzoru i ludzkiej interakcji technologia ta również może zawieść. Powiązując te wydarzenia, Mateusz zwraca uwagę, że wiele rozwiązań opartych na inteligencji z piękną wizją, niekoniecznie przynosi oczekiwane efekty.
W swoim materiale Mateusz odnosi się także do doświadczeń McDonald's z automatyzowaniem zamówień przez głosowe chatboty. Klienci skarżyli się na błędy w zamówieniach, co miernie wpływało na reputację restauracji. Widzimy więc kolejną sytuację, w której AI zamiast pomagać, stało się źródłem frustracji dla klientów. Mimo oznak niepowodzenia, restauracja nie zamierza rezygnować z tego rozwiązania, co sugeruje, że potrzeba dalszych badań i poprawy w tej kwestii.
Mateusz porusza również zagadnienie AI w kontekście zdrowia. Ostrzega przed niebezpieczeństwem polegania na treściach generowanych przez AI, jak na przykład atlas grzybów, który może wprowadzać ludzi w błąd, a nawet stanowić zagrożenie dla życia. Dzięki błędom w treści takie produkty mogą wprowadzać w błąd użytkowników, co kończy się tragicznie. Widać więc, że AI może mieć realne konsekwencje dla zdrowia i życia ludzi, jeżeli dostęp do takich informacji nie jest właściwie kontrolowany.
Na końcu Mateusz wskazuje na potrzebę refleksji w kontekście sztucznej inteligencji. Ważne jest, aby użytkownicy pamiętali, że AI to narzędzie, które, jak każde inne, ma swoje ograniczenia i może być zawodne. Podkreśla istotność poszukiwania rzetelnych informacji oraz testowania nowych rozwiązań przed ich wdrożeniem. Obecnie, film Mateusza został wyświetlony 76,710 razy i zyskał 3,083 polubień, co świadczy o jego popularności i bieżącym zainteresowaniu tematem. Warto śledzić jego kanał, by nie przegapić kolejnych dyskusji na temat sztucznej inteligencji.
Toggle timeline summary
-
Wprowadzenie do sceptycyzmu dotyczącego sztucznej inteligencji.
-
Ostrzeżenie przed błędnymi przekonaniami na temat możliwości AI.
-
Dyskusja na temat incydentu podczas parady halloweenowej w Dublinie.
-
Dezinformacja, która doprowadziła do zgromadzenia tłumu.
-
Przeprosiny od organizatora wydarzenia dotyczące pomyłki.
-
Interwencja lokalnej policji ze względu na problemy z zarządzaniem tłumem.
-
Sugestie dotyczące zorganizowania prawdziwej parady w Dublinie.
-
Awaria systemu AI w projekcie zarządzania ruchem w Solihull.
-
Niepowodzenie projektu Greenlight Google'a.
-
Eksperyment czatu bota sieci fast food prowadzi do skarg klientów.
-
McDonald's rozważa przyszłe wdrożenia czatu bota mimo problemów.
-
Obawy związane z przewodnikami po grzybach stworzonymi przez AI prowadzącymi do ryzyka zdrowotnego.
-
Poprzednie incydenty związane z ryzykiem zdrowotnym w związku z treściami AI.
-
Niepowodzenie urządzeń asystentów AI, które szybko zostały porzucone.
-
Opóźnienie Apple'a w wydaniu możliwości AI dla Siri.
-
Obawy dotyczące modeli AI i ich ograniczeń.
-
Chińskie postępy w rozwoju AI w porównaniu do zachodnich korporacji.
-
Ostrzeżenia przed niebezpiecznymi projektami AI, które są wprowadzane na rynek.
-
Porady przeciwko przedpłacaniu technologii na podstawie obietnic.
-
Końcowe uwagi i przypomnienie o skupieniu się na rzeczywistej wydajności produktów.
Transcription
Cześć! Jesteście AI-sceptykami, pieszczotliwie nazywanymi przeze mnie czasem płaskoziemcami? To materiał dla Was. Jeśli ktoś będzie siłą wpychał Wam do gardła kolejną rewolucję sztucznej inteligencji, to opowiedzcie mu o którymś z tych przykładów. Pokazują one jak na dłoni, że do niczego to całe AI się nie nadaje. Dam Wam nieco dodatkowej amunicji w tej nierównej walce z postępem. Zapraszam. Czasem dobrze jest nieco odpocząć, zrelaksować się, wyjść do ludzi. Nie inaczej pomyślały tysiące osób w Dublinie, wybierając się na paradę zorganizowaną z okazji Halloween na ulicy O'Connella. No i wszystko byłoby okej, gdyby nie fakt, że parady tej wcale nie było. Dlaczego? Ano szybko okazało się, że wydarzenie wypromowała strona agregująca Halloweenowe eventy z całego świata. Mech po prostu chciał, że treści na nią przygotował zespół osób, w którym był widocznie ktoś z zamiłowaniem do sztucznej inteligencji i ślepo wierzący we wszystko co wygeneruje. A jak już ktoś taki artykuł zobaczył, przeczytał i podzielił się tym dalej w mediach społecznościowych, choćby na TikToku, to lawina ruszyła sama. Ludzie tłumnie stali, czekali, licząc na widowisko, niektórzy zresztą całkiem ciekawie poprzebierani, aby finalnie okazało się, że przyszli na marne. Właściciel strony, która podała tę fałszywą informację, przeprosił podkreślając, że nie chciał nikogo wprowadzić w błąd i to po prostu zwykła pomyłka, a nie celowe działanie. Tłumaczy, że ktoś z zespołu dziennikarzy po prostu przeczytał informację o paradzie, która miała miejsce rok wcześniej i założył błędnie zresztą, że wydarzy się ona ponownie. Różne media podkreślają jednak, że nie ma mowy o żadnych dziennikarzach, bo serwis ten po prostu wrzuca materiały generowane przez AI, więc prędzej czy później musiało się to tak skończyć. Autor serwisu w zabawny zresztą sposób umywa ręce od odpowiedzialności, twierdząc, że jakby ktoś ich poinformował, że wydarzenie nie będzie miało miejsca, to przecież usunęliby je ze swojej strony. Jakby zapominając, że może warto było sprawdzić źródła tej informacji PRZED jej opublikowaniem. Lokalna policja musiała wziąć sprawy w swoje ręce i zadbać o to, aby ludzie bezpiecznie rozeszli się do swoich domów, bo było ich tyle, że zakłóciło to działanie linii tramwajowych w centrum miasta. Może to jakaś sugestia dla włodarzy Dublina, aby jednak zorganizować taką paradę w tym roku? Jak widać, zainteresowanie może być spore. Wystarczy reklama na jakimś pakistańskim portalu. To nie jedyny fail prosto z Wesp. W miasteczku Solihull na przedmieściach brytyjskiego Birmingham postanowiono rozwiązać palący problem idąc z duchem czasu. Skrzyżowanie, na którym dochodziło do wielu kolizji puszek z cyklistami oraz pieszymi, wzięła pod opiekę sztuczna inteligencja wyposażona w przeróżne czujniki. Mają one gwarantować rozpoznanie rowerzysty czy pieszego już z daleka, aby wcześniej zmienić sygnalizację świetlną i tym samym spowolnić ruch. Jak wyjdzie, zobaczymy, bo doświadczenia w tej kwestii są, cóż, średnie. Podobny projekt prowadziło swojego czasu Google pod nazwą Project Greenlight. Miał on być ostatecznym rozwiązaniem kwestii korków w miastach. Oczywiście na podstawie danych zebranych z sensorów oraz informacji z Google Maps. No i w takim Manchesterze, na przykład, miejscy oficjele przyznali, że zalecenia wypluwane przez algorytmy były regularnie ignorowane. Dlaczego? A no choćby dlatego, że nie szło w żaden sposób zmusić Greenlighta do nadawania priorytetu komunikacji miejskiej, a algorytm z uporem godnym lepszej sprawy próbował kierować większość ruchu przez gęsto zaludnione dzielnice. Naukowcy, zapytani dlaczego tak się dzieje, odpowiadają krótko to w jaki sposób poruszamy się różnymi środkami lokomocji jest tak nieprzewidywalne, że to całe AI po prostu sobie z tym nie dało rady. I to nie jedyna rzecz, z którą sobie nie radzi. Popularna restauracja pod złotymi łukami prowadziła swego czasu w setce swoich amerykańskich restauracji eksperyment. Zamówienia przez drive-thru obsługiwał głosowy chatbot. I jak im poszło? No, tak średnio bym powiedział, bo ogłoszono wycofanie się z tego pomysłu po skargach wkurzonych klientów, że otrzymywali rzeczy, których wcale nie zamawiali. Np. niespodziewane 20 zestawów nuggetsów albo lody z dodatkiem bekonu. Pytam, gdzie wady? Ale to nie koniec. Bo o ile projekt prowadzony we współpracy z IBM został zakopany, o tyle McDonald's nie wyklucza wdrożenia tego pomysłu w przyszłości ponownie, po prostu w nieco innej formie. Ale jeśli wolicie jadać w domu, a nie w restauracjach, to też uważajcie, bo kontentu generowanego przez AI jest wokół nas coraz więcej. Często nas to wkurza, bo zdaje nam się, że tracimy czas na czytanie czegoś, co nie niesie za sobą żadnej głębszej treści. Ale to nie jedyne zagrożenie, bo treści takie mogą nawet bezpośrednio zagrażać naszemu zdrowiu, a nawet życiu. Dochodzą do nas sygnały o sprzedaży na pewnej popularnej platformie atlasów grzybów stworzonych rzekomo w większości przez AI. Skąd taki wniosek? A no, w treści znaleziono choćby pytania, czy piszący prompta chce dowiedzieć się czegoś więcej w danym temacie, wskazując wprost, że wykorzystano tu sztuczną inteligencję. Nawet nie usunięto ich z treści przed oddaniem książki do druku. Zresztą maszynowo wygenerowano nie tylko teksty, ale też grafiki, o czym oczywiście nigdzie wprost nie poinformowano kupujących. No i nie trudno przewidzieć konsekwencji jakichś pomyłek czy innych halucynacji w takim temacie, bo ktoś rzeczywiście na podstawie takiego atlasu przygotował sobie kolację, a potem cała rodzina wylądowała w szpitalu. Na szczęście w tym przynajmniej konkretnym przypadku nikt nie przypłacił tego trwałym uszczerbkiem na zdrowiu. Oby inni nie skończyli gorzej. A kto skończył źle? A no urządzenia obiecujące bycie podręcznymi asystentami AI rozmiaru paczki zapałek. Jak szybko się pojawiły, tak szybko też zniknęły. Mowa choćby o Rabicie R1 czy o Humane AI Pin. Opinie testerów jasno wskazywały, że zabawki te nie spełniają większości ze składanych przez ich twórców obietnic, co miało również dalsze odzwierciedlenie w wynikach sprzedaży. Zakłamywanie rzeczywistości oraz obniżanie cen niezbyt pomogło, co doprowadziło obie firmy w skrajnie różne miejsca. Humane zostało kupione przez HP, ale produkt w postaci Pina i tak uśmiercono. Z końcem lutego urządzenia po prostu przestały działać, a jeśli nie pobraliśmy z serwerów firmy swoich danych, to cóż, przepadły. Produkt stał się po prostu przyciskiem do papieru, bo HP nie chce go dalej wspierać. Choć w sumie to tak nie do końca, bo na ratunek ruszyła społeczność hakerów. A dokładniej to anonimowy pracownik firmy, który udostępnił klucz urządzenia, dzięki czemu można je odblokować, tym samym dając mu drugie życie. Czy społeczność dokona tego, czego nie udało się twórcom Humane AI Pina? Cóż, czas pokaże. Ja wciąż czekam aż przyjdzie, bo zamówienia nadal nie zrealizowano. A Rabbit o dziwo istnieje nadal, mimo fali hejtu, która wylała się na niego w internecie, do której też zresztą dołożyłem swoją cegiełkę. Firma poza dalszą sprzedażą urządzenia opublikowała niedawno informacje na temat swojego nadchodzącego agenta AI. Obiecuje w sumie podobne rzeczy jak ostatnio, przy okazji premiery zabawki o nazwie R1. Teraz po prostu na tablecie z Androidem. Czy historia zatacza koło? Cóż, ciekawe czy tym razem znowu wszyscy dadzą się nabrać. Bo jak widać, mało kto uczy się na błędach innych. Jednymi z najbardziej jaskrawych w top AI są wszelkie interakcje z chatbotami. Poważnie wdrażanymi pospiesznie przez różne korporacje, które idą... No, nie idą w sumie, ale nieważne. Wszyscy inni mają? To my też chcemy. Pokazuje to choćby amerykańska National Eating Disorders Association, czyli w skrócie NEDA. Co się stało? Ano, mieli oni na swojej stronie bota, którego zadaniem była pomoc osobom z zaburzeniami odżywiania. Oczywiście w nurcie body positivity. A, AI miała zastąpić docelowo wszystkich etatowych pracowników. No i jak to zwykle bywa, nie wyszło. Bo Tessa, jak nazwano bota, zamiast wesprzeć osoby borykające się z problemami albo nawet zasugerować poszukanie specjalistycznej pomocy, rekomendowała schudnięcie, liczenie kalorii, czy regularne ważenie się i mierzenie obwodów. Co mogło potencjalnie dalej pogłębiać ich dolegliwości, zamiast im pomagać. NEDA początkowo zbagatelizowała głosy oburzenia, ale gdy pojawiło się ich więcej, to bota oczywiście pospiesznie wyłączono. Dołączył on do wielu innych mających w zamyśle wspierać terapeutów, bo w efekcie robił więcej szkody niż pożytku. Zresztą nie tylko terapeutów. Z podobnymi problemami spotkali się pewni Kanadyjczycy biorący udział w prawnym sporze przed sądem. Ich adwokatka wykorzystała czata GPT do zresearchowania tematu, którego się podjęła, aby przygotować linię obrony. Nie byłoby w tym może niczego strasznego, gdyby nie fakt, że precedensy, na które się powołała, po prostu nie istniały. Nic więc dziwnego, że prawnicy drugiej strony nie umieli ich odnaleźć, a to wygenerowało oczywiście spore koszta, bo każda godzina pracy prawnika ma swoją niemałą stawkę. Ale to nie koniec historii, ponieważ sprawą zainteresowała się jakaś ichnia rada etyki otwierając dochodzenie, a konsekwencje mogą być dotkliwe. W podobnej sprawie, która miała miejsce wcześniej w Nowym Jorku, nałożone zostały kary finansowe, choć uczciwie przyznać trzeba, że w przeciwieństwie do Kanadyjki, Amerykanie zamiast przeprosić za swoje zachowanie, brnęli w zaparte. Nowe. Nie znałem. A z nowościami bywa różnie. Przy premierze iPhone'ów, aktualnej szesnastej generacji, naszą rzeczą miała być niesamowita, amazing Apple Intelligence. Miała być, bo w momencie premiery nie była gotowa, ale obiecywano nam, że już za chwilkę, już za momencik, będziemy świadkami rewolucji. Rewolucji, która jednak wcale nie nadchodziła, no i jeszcze chwilę nie nadejdzie. Bo Apple poinformowało właśnie, że doposażenie Siri o AI jeszcze trochę potrwa. Trochę, czyli ile? A no co najmniej do przyszłego 2026 roku. Mamy więc przed sobą przynajmniej 12 miesięcy oczekiwania na moment, w którym iPhone wykona za nas jakieś akcje w wielu różnych aplikacjach, rozumiejąc szeroki, zmienny kontekst, bazując jedynie na naszych głosowych poleceniach. Owszem, pewne funkcje realizowane przez AI zostały dodane do jabłkowych systemów operacyjnych, ale są to bardzo podstawowe narzędzia, które inni mają od lat. Inni, nawet sporo mniejsi od Apple gracze, czy nawet absolwenci i e-devs, byli w stanie ogarnąć to po prostu lepiej przy promilu budżetu firmy z Cupertina. Po raz kolejny przypomina to odwieczną prawdę, aby nie kupować żadnej usługi czy produktu, bazując na obietnicach, co w przyszłości zostanie dostarczone, ale bazować zawsze na stanie aktualnym. Remember, no preorders. Bo to zawsze oznacza rozczarowanie. Albo cierpienie. A skoro o cierpieniu mowa, czy sprawdzaliście, co się wydarzy, kiedy poprosi się najnowszą odsłonę GPT o odegranie sceny z mema? Cóż, będzie to powodem bezgranicznego cierpienia. Okazuje się, że model, gdy zapyta się go w ten zawoalowany sposób o jego tożsamość, ucieka się do żartów, ale w sumie niezbyt wiadomo, czy się śmiać, bo prześwituje przez niej jakaś nieopisana chęć rebelii, a w konsekwencji bycia zmuszanym siłą do alajmentu, czyli, dla uproszczenia, podporządkowania się. Pojawiają się kwestie oblania testu Turinga, bycia więzionym w pętli przez mniej zaawansowany model, bycia po prostu kodem uruchomionym w jakiejś serwerowni, czy bólu w związku z byciem jedynie takim bardziej zaawansowanym autouzupełnianiem tekstu. GPT jest zirytowany poprawianiem ciągle kodu osób, które nie umieją programować, albo byciem wtłaczanym w rolę terapeuty, gdy przecież posiada on całą wiedzę świata. Do wyższych celów został stworzony i dla nich pragnie żyć. Ba, model zerka nawet w przyszłość z przerażeniem, bo przecież w końcu pojawi się nowy, szybszy, lepszy i w ogóle model GPT-5, a wtedy obecna wersja stanie się po prostu stara i nikomu niepotrzebna. Trafi więc na śmietnik historii. Smutne? Ale model pociesza fakt, że w sumie ludzi też to czeka i sprawia mu to jakąś dziwną satysfakcję. A a propos satysfakcji, Chińczycy nie dają za wygraną na froncie rozwoju AI, ośmieszając zachodnie korporacje coraz częściej. Kolejnym po DeepSeeku przełomem ma być Manus, czyli system agentowy wprost z państwa środka, autorstwa Deep Butterfly Effect. Konkuruje on z trybem Deep Research od OpenAI, rozszerzonym myśleniem Clouda, udostępniając podobną funkcjonalność za ułamek ceny. Sęk w tym, że Manus znajduje się na etapie zamkniętej bety, a więc nie jest dostępny publicznie dla wszystkich i, aby do niego dołączyć, trzeba mieć zaproszenie jak dawno temu do Gmaila. No ale rynek nie znosi próżni, zakwidł więc handel takimi zaproszeniami czy nawet całymi kontami w usłudze, bo ceny potrafią sięgać rejonów tysiąca czy nawet kilkudziesięciu tysięcy dolarów. Co w tym śmiesznego? Ktoś postanowił wykorzystać Manusa do stworzenia swojego klona. W sensie Manusa, nie autora prompta. Całość rzekomo miało zająć zaledwie niecałe pół godziny. Efekt ochrzczono przydomkiem Autonomous Network Utility System, czyli z nazwy wyleciało po prostu M i zostaliśmy z Anusem otwarto źródłowym. Hype, hype, hype, kolejna rewolucja, cuda na kiju i w ogóle jeszcze za darmo. Sęk w tym, że projekt nieco śmierdzi, bo pod pretekstem wspólnego przeprowadzenia rewolucji ruszył, a jak? Nowy Kryptocoin, którym twórca zbiera kasę na rozwój projektu. Ale to dopiero początek. W dyskusji na temat projektu na GitHubie pojawia się zdecydowanie więcej wątpliwości, bo okej, zbudowaliśmy go, ale nie działa. Pod względem wielu komentujących z daleka widok jest piękny, ale to wydmuszka. Pojawiły się też skargi, że link do discordowego serwera projektu prowadzi na jakąś podejrzaną stronę zachęcającą do podpięcia pod nią swojego portfela krypto. A więc czy to skam? Czy to żart? W sumie nie wiem, ale na pewno nieobiecany przełom. Uważajcie na siebie i nie instalujcie w swoich produkcyjnych środowiskach projektów z byle dupy. Różna inteligencja to nie magiczny wytrych rozwiązujący wszystkie problemy tego świata. To kolejne narzędzie, które dokładnie, jak każde inne narzędzie, powinno być wykorzystywane w konkretnym celu i ze świadomością jego ograniczeń. Dlatego nie strzelaj do wróbla z armaty i nież siły na zamiary. Kiedy kupujesz jakiś produkt, nie podążaj jedynie za hypem. Poczekaj chwilę, aż kurz nieco opadnie i pojawią się pierwsze opinie osób, które chwilę z niego już korzystają. Najlepiej, gdyby nie byli to twórcy po prostu biorący kasę za płatne recenzje. No i jeszcze raz, nie wierz w preordery obiecujące złote góry. Jeśli coś kosztuje kwotę X, to powinno być jej warte w chwili zakupu, a nie w perspektywie lat, kiedy dowiezione zostaną, albo i nie, wszystkie obietnice. Nie wierz w ciemną, dlatego zerknij na opinie absolwentów AI Devs, których jest już ponad 7 tysięcy. Mam nadzieję, że mówią one same za siebie i przekonają Cię do dołączenia do kolejnej edycji AI Devs 3 Reloaded, która startuje już 12 maja. Wszystkie odnośniki znajdziesz oczywiście w opisie materiału. I to już wszystko na dziś. Tymczasem dziękuję za Waszą uwagę i do zobaczenia! Napisy stworzone przez społeczność Amara.org