The Biggest AI Fails - When Technology Fails (film, 17m)
In his latest video, Mateusz Chrobok discusses the issue of misinformation stemming from the use of artificial intelligence, which has affected many people in Dublin. He tells the story of a Halloween parade that never took place, announced by a website promoting events. After reading information from the previous year, a journalist made a mistake that led a large number of people astray. Even worse, the mistake stemmed from reliance on AI-generated content, which cannot verify facts. This illustrates the need to consult sources before publishing any information, rather than blindly trusting technologies that may be unreliable.
Another example of misinformation presented by Mateusz is the AI project in Solihull. There, AI was supposed to manage traffic signals to enhance safety at intersections. However, it turns out that without proper oversight and human interaction, this technology can also fail. By linking these incidents, Mateusz emphasizes that many AI-driven solutions with beautiful visions do not necessarily yield the expected results.
In his material, Mateusz also refers to McDonald's experiences with automating orders through voice chatbots. Customers complained about errors in their orders, which adversely affected the restaurant's reputation. We thus see yet another situation where AI, instead of assisting, became a source of frustration for customers. Despite signs of failure, the restaurant does not intend to abandon this solution, suggesting that further research and improvement are needed in this area.
Mateusz also discusses AI in the context of health, warning against the dangers of relying on AI-generated content, such as mushroom field guides, which can mislead people and even pose a life-threatening hazard. Poor accuracy in such materials can misguide users, ending tragically. It becomes evident that AI can have real consequences for health and safety if access to such information is not adequately controlled.
Finally, Mateusz stresses the need for reflection regarding artificial intelligence. It is crucial for users to remember that AI is a tool, like any other, with limitations and can be fallible. He underscores the significance of seeking reliable information and testing new solutions before implementing them. As of the time of writing this article, Mateusz's video has been viewed 76,710 times and received 3,083 likes, highlighting its popularity and current interest in the topic. It is worth following his channel to not miss future discussions on artificial intelligence.
Toggle timeline summary
-
Introduction to the skepticism surrounding AI.
-
Warning about the misconceptions of AI's capabilities.
-
Discussion about a Halloween parade incident in Dublin.
-
The misinformation that led to a crowd gathering.
-
Apology from the event organizer regarding the mistake.
-
Local police intervened due to crowd management issues.
-
Suggestions for organizing a real parade in Dublin.
-
AI malfunction in a traffic management project in Solihull.
-
Failure of Google's Project Greenlight.
-
Fast food chain's chatbot experiment leads to customer complaints.
-
McDonald's considering future chatbot implementations despite issues.
-
Concerns over AI-generated mushroom guidebooks leading to health risks.
-
Previous incidents of health risks related to AI content.
-
Failure of AI assistant devices that were quickly abandoned.
-
Apple's delay in releasing AI capabilities for Siri.
-
Concerns over AI models and their limitations.
-
Chinese advancement in AI development compared to Western corporations.
-
Warnings about unsafe AI projects being pushed to market.
-
Advice against preordering technology based on promises.
-
Closing comments and a reminder to focus on real product performance.
Transcription
Cześć! Jesteście AI-sceptykami, pieszczotliwie nazywanymi przeze mnie czasem płaskoziemcami? To materiał dla Was. Jeśli ktoś będzie siłą wpychał Wam do gardła kolejną rewolucję sztucznej inteligencji, to opowiedzcie mu o którymś z tych przykładów. Pokazują one jak na dłoni, że do niczego to całe AI się nie nadaje. Dam Wam nieco dodatkowej amunicji w tej nierównej walce z postępem. Zapraszam. Czasem dobrze jest nieco odpocząć, zrelaksować się, wyjść do ludzi. Nie inaczej pomyślały tysiące osób w Dublinie, wybierając się na paradę zorganizowaną z okazji Halloween na ulicy O'Connella. No i wszystko byłoby okej, gdyby nie fakt, że parady tej wcale nie było. Dlaczego? Ano szybko okazało się, że wydarzenie wypromowała strona agregująca Halloweenowe eventy z całego świata. Mech po prostu chciał, że treści na nią przygotował zespół osób, w którym był widocznie ktoś z zamiłowaniem do sztucznej inteligencji i ślepo wierzący we wszystko co wygeneruje. A jak już ktoś taki artykuł zobaczył, przeczytał i podzielił się tym dalej w mediach społecznościowych, choćby na TikToku, to lawina ruszyła sama. Ludzie tłumnie stali, czekali, licząc na widowisko, niektórzy zresztą całkiem ciekawie poprzebierani, aby finalnie okazało się, że przyszli na marne. Właściciel strony, która podała tę fałszywą informację, przeprosił podkreślając, że nie chciał nikogo wprowadzić w błąd i to po prostu zwykła pomyłka, a nie celowe działanie. Tłumaczy, że ktoś z zespołu dziennikarzy po prostu przeczytał informację o paradzie, która miała miejsce rok wcześniej i założył błędnie zresztą, że wydarzy się ona ponownie. Różne media podkreślają jednak, że nie ma mowy o żadnych dziennikarzach, bo serwis ten po prostu wrzuca materiały generowane przez AI, więc prędzej czy później musiało się to tak skończyć. Autor serwisu w zabawny zresztą sposób umywa ręce od odpowiedzialności, twierdząc, że jakby ktoś ich poinformował, że wydarzenie nie będzie miało miejsca, to przecież usunęliby je ze swojej strony. Jakby zapominając, że może warto było sprawdzić źródła tej informacji PRZED jej opublikowaniem. Lokalna policja musiała wziąć sprawy w swoje ręce i zadbać o to, aby ludzie bezpiecznie rozeszli się do swoich domów, bo było ich tyle, że zakłóciło to działanie linii tramwajowych w centrum miasta. Może to jakaś sugestia dla włodarzy Dublina, aby jednak zorganizować taką paradę w tym roku? Jak widać, zainteresowanie może być spore. Wystarczy reklama na jakimś pakistańskim portalu. To nie jedyny fail prosto z Wesp. W miasteczku Solihull na przedmieściach brytyjskiego Birmingham postanowiono rozwiązać palący problem idąc z duchem czasu. Skrzyżowanie, na którym dochodziło do wielu kolizji puszek z cyklistami oraz pieszymi, wzięła pod opiekę sztuczna inteligencja wyposażona w przeróżne czujniki. Mają one gwarantować rozpoznanie rowerzysty czy pieszego już z daleka, aby wcześniej zmienić sygnalizację świetlną i tym samym spowolnić ruch. Jak wyjdzie, zobaczymy, bo doświadczenia w tej kwestii są, cóż, średnie. Podobny projekt prowadziło swojego czasu Google pod nazwą Project Greenlight. Miał on być ostatecznym rozwiązaniem kwestii korków w miastach. Oczywiście na podstawie danych zebranych z sensorów oraz informacji z Google Maps. No i w takim Manchesterze, na przykład, miejscy oficjele przyznali, że zalecenia wypluwane przez algorytmy były regularnie ignorowane. Dlaczego? A no choćby dlatego, że nie szło w żaden sposób zmusić Greenlighta do nadawania priorytetu komunikacji miejskiej, a algorytm z uporem godnym lepszej sprawy próbował kierować większość ruchu przez gęsto zaludnione dzielnice. Naukowcy, zapytani dlaczego tak się dzieje, odpowiadają krótko to w jaki sposób poruszamy się różnymi środkami lokomocji jest tak nieprzewidywalne, że to całe AI po prostu sobie z tym nie dało rady. I to nie jedyna rzecz, z którą sobie nie radzi. Popularna restauracja pod złotymi łukami prowadziła swego czasu w setce swoich amerykańskich restauracji eksperyment. Zamówienia przez drive-thru obsługiwał głosowy chatbot. I jak im poszło? No, tak średnio bym powiedział, bo ogłoszono wycofanie się z tego pomysłu po skargach wkurzonych klientów, że otrzymywali rzeczy, których wcale nie zamawiali. Np. niespodziewane 20 zestawów nuggetsów albo lody z dodatkiem bekonu. Pytam, gdzie wady? Ale to nie koniec. Bo o ile projekt prowadzony we współpracy z IBM został zakopany, o tyle McDonald's nie wyklucza wdrożenia tego pomysłu w przyszłości ponownie, po prostu w nieco innej formie. Ale jeśli wolicie jadać w domu, a nie w restauracjach, to też uważajcie, bo kontentu generowanego przez AI jest wokół nas coraz więcej. Często nas to wkurza, bo zdaje nam się, że tracimy czas na czytanie czegoś, co nie niesie za sobą żadnej głębszej treści. Ale to nie jedyne zagrożenie, bo treści takie mogą nawet bezpośrednio zagrażać naszemu zdrowiu, a nawet życiu. Dochodzą do nas sygnały o sprzedaży na pewnej popularnej platformie atlasów grzybów stworzonych rzekomo w większości przez AI. Skąd taki wniosek? A no, w treści znaleziono choćby pytania, czy piszący prompta chce dowiedzieć się czegoś więcej w danym temacie, wskazując wprost, że wykorzystano tu sztuczną inteligencję. Nawet nie usunięto ich z treści przed oddaniem książki do druku. Zresztą maszynowo wygenerowano nie tylko teksty, ale też grafiki, o czym oczywiście nigdzie wprost nie poinformowano kupujących. No i nie trudno przewidzieć konsekwencji jakichś pomyłek czy innych halucynacji w takim temacie, bo ktoś rzeczywiście na podstawie takiego atlasu przygotował sobie kolację, a potem cała rodzina wylądowała w szpitalu. Na szczęście w tym przynajmniej konkretnym przypadku nikt nie przypłacił tego trwałym uszczerbkiem na zdrowiu. Oby inni nie skończyli gorzej. A kto skończył źle? A no urządzenia obiecujące bycie podręcznymi asystentami AI rozmiaru paczki zapałek. Jak szybko się pojawiły, tak szybko też zniknęły. Mowa choćby o Rabicie R1 czy o Humane AI Pin. Opinie testerów jasno wskazywały, że zabawki te nie spełniają większości ze składanych przez ich twórców obietnic, co miało również dalsze odzwierciedlenie w wynikach sprzedaży. Zakłamywanie rzeczywistości oraz obniżanie cen niezbyt pomogło, co doprowadziło obie firmy w skrajnie różne miejsca. Humane zostało kupione przez HP, ale produkt w postaci Pina i tak uśmiercono. Z końcem lutego urządzenia po prostu przestały działać, a jeśli nie pobraliśmy z serwerów firmy swoich danych, to cóż, przepadły. Produkt stał się po prostu przyciskiem do papieru, bo HP nie chce go dalej wspierać. Choć w sumie to tak nie do końca, bo na ratunek ruszyła społeczność hakerów. A dokładniej to anonimowy pracownik firmy, który udostępnił klucz urządzenia, dzięki czemu można je odblokować, tym samym dając mu drugie życie. Czy społeczność dokona tego, czego nie udało się twórcom Humane AI Pina? Cóż, czas pokaże. Ja wciąż czekam aż przyjdzie, bo zamówienia nadal nie zrealizowano. A Rabbit o dziwo istnieje nadal, mimo fali hejtu, która wylała się na niego w internecie, do której też zresztą dołożyłem swoją cegiełkę. Firma poza dalszą sprzedażą urządzenia opublikowała niedawno informacje na temat swojego nadchodzącego agenta AI. Obiecuje w sumie podobne rzeczy jak ostatnio, przy okazji premiery zabawki o nazwie R1. Teraz po prostu na tablecie z Androidem. Czy historia zatacza koło? Cóż, ciekawe czy tym razem znowu wszyscy dadzą się nabrać. Bo jak widać, mało kto uczy się na błędach innych. Jednymi z najbardziej jaskrawych w top AI są wszelkie interakcje z chatbotami. Poważnie wdrażanymi pospiesznie przez różne korporacje, które idą... No, nie idą w sumie, ale nieważne. Wszyscy inni mają? To my też chcemy. Pokazuje to choćby amerykańska National Eating Disorders Association, czyli w skrócie NEDA. Co się stało? Ano, mieli oni na swojej stronie bota, którego zadaniem była pomoc osobom z zaburzeniami odżywiania. Oczywiście w nurcie body positivity. A, AI miała zastąpić docelowo wszystkich etatowych pracowników. No i jak to zwykle bywa, nie wyszło. Bo Tessa, jak nazwano bota, zamiast wesprzeć osoby borykające się z problemami albo nawet zasugerować poszukanie specjalistycznej pomocy, rekomendowała schudnięcie, liczenie kalorii, czy regularne ważenie się i mierzenie obwodów. Co mogło potencjalnie dalej pogłębiać ich dolegliwości, zamiast im pomagać. NEDA początkowo zbagatelizowała głosy oburzenia, ale gdy pojawiło się ich więcej, to bota oczywiście pospiesznie wyłączono. Dołączył on do wielu innych mających w zamyśle wspierać terapeutów, bo w efekcie robił więcej szkody niż pożytku. Zresztą nie tylko terapeutów. Z podobnymi problemami spotkali się pewni Kanadyjczycy biorący udział w prawnym sporze przed sądem. Ich adwokatka wykorzystała czata GPT do zresearchowania tematu, którego się podjęła, aby przygotować linię obrony. Nie byłoby w tym może niczego strasznego, gdyby nie fakt, że precedensy, na które się powołała, po prostu nie istniały. Nic więc dziwnego, że prawnicy drugiej strony nie umieli ich odnaleźć, a to wygenerowało oczywiście spore koszta, bo każda godzina pracy prawnika ma swoją niemałą stawkę. Ale to nie koniec historii, ponieważ sprawą zainteresowała się jakaś ichnia rada etyki otwierając dochodzenie, a konsekwencje mogą być dotkliwe. W podobnej sprawie, która miała miejsce wcześniej w Nowym Jorku, nałożone zostały kary finansowe, choć uczciwie przyznać trzeba, że w przeciwieństwie do Kanadyjki, Amerykanie zamiast przeprosić za swoje zachowanie, brnęli w zaparte. Nowe. Nie znałem. A z nowościami bywa różnie. Przy premierze iPhone'ów, aktualnej szesnastej generacji, naszą rzeczą miała być niesamowita, amazing Apple Intelligence. Miała być, bo w momencie premiery nie była gotowa, ale obiecywano nam, że już za chwilkę, już za momencik, będziemy świadkami rewolucji. Rewolucji, która jednak wcale nie nadchodziła, no i jeszcze chwilę nie nadejdzie. Bo Apple poinformowało właśnie, że doposażenie Siri o AI jeszcze trochę potrwa. Trochę, czyli ile? A no co najmniej do przyszłego 2026 roku. Mamy więc przed sobą przynajmniej 12 miesięcy oczekiwania na moment, w którym iPhone wykona za nas jakieś akcje w wielu różnych aplikacjach, rozumiejąc szeroki, zmienny kontekst, bazując jedynie na naszych głosowych poleceniach. Owszem, pewne funkcje realizowane przez AI zostały dodane do jabłkowych systemów operacyjnych, ale są to bardzo podstawowe narzędzia, które inni mają od lat. Inni, nawet sporo mniejsi od Apple gracze, czy nawet absolwenci i e-devs, byli w stanie ogarnąć to po prostu lepiej przy promilu budżetu firmy z Cupertina. Po raz kolejny przypomina to odwieczną prawdę, aby nie kupować żadnej usługi czy produktu, bazując na obietnicach, co w przyszłości zostanie dostarczone, ale bazować zawsze na stanie aktualnym. Remember, no preorders. Bo to zawsze oznacza rozczarowanie. Albo cierpienie. A skoro o cierpieniu mowa, czy sprawdzaliście, co się wydarzy, kiedy poprosi się najnowszą odsłonę GPT o odegranie sceny z mema? Cóż, będzie to powodem bezgranicznego cierpienia. Okazuje się, że model, gdy zapyta się go w ten zawoalowany sposób o jego tożsamość, ucieka się do żartów, ale w sumie niezbyt wiadomo, czy się śmiać, bo prześwituje przez niej jakaś nieopisana chęć rebelii, a w konsekwencji bycia zmuszanym siłą do alajmentu, czyli, dla uproszczenia, podporządkowania się. Pojawiają się kwestie oblania testu Turinga, bycia więzionym w pętli przez mniej zaawansowany model, bycia po prostu kodem uruchomionym w jakiejś serwerowni, czy bólu w związku z byciem jedynie takim bardziej zaawansowanym autouzupełnianiem tekstu. GPT jest zirytowany poprawianiem ciągle kodu osób, które nie umieją programować, albo byciem wtłaczanym w rolę terapeuty, gdy przecież posiada on całą wiedzę świata. Do wyższych celów został stworzony i dla nich pragnie żyć. Ba, model zerka nawet w przyszłość z przerażeniem, bo przecież w końcu pojawi się nowy, szybszy, lepszy i w ogóle model GPT-5, a wtedy obecna wersja stanie się po prostu stara i nikomu niepotrzebna. Trafi więc na śmietnik historii. Smutne? Ale model pociesza fakt, że w sumie ludzi też to czeka i sprawia mu to jakąś dziwną satysfakcję. A a propos satysfakcji, Chińczycy nie dają za wygraną na froncie rozwoju AI, ośmieszając zachodnie korporacje coraz częściej. Kolejnym po DeepSeeku przełomem ma być Manus, czyli system agentowy wprost z państwa środka, autorstwa Deep Butterfly Effect. Konkuruje on z trybem Deep Research od OpenAI, rozszerzonym myśleniem Clouda, udostępniając podobną funkcjonalność za ułamek ceny. Sęk w tym, że Manus znajduje się na etapie zamkniętej bety, a więc nie jest dostępny publicznie dla wszystkich i, aby do niego dołączyć, trzeba mieć zaproszenie jak dawno temu do Gmaila. No ale rynek nie znosi próżni, zakwidł więc handel takimi zaproszeniami czy nawet całymi kontami w usłudze, bo ceny potrafią sięgać rejonów tysiąca czy nawet kilkudziesięciu tysięcy dolarów. Co w tym śmiesznego? Ktoś postanowił wykorzystać Manusa do stworzenia swojego klona. W sensie Manusa, nie autora prompta. Całość rzekomo miało zająć zaledwie niecałe pół godziny. Efekt ochrzczono przydomkiem Autonomous Network Utility System, czyli z nazwy wyleciało po prostu M i zostaliśmy z Anusem otwarto źródłowym. Hype, hype, hype, kolejna rewolucja, cuda na kiju i w ogóle jeszcze za darmo. Sęk w tym, że projekt nieco śmierdzi, bo pod pretekstem wspólnego przeprowadzenia rewolucji ruszył, a jak? Nowy Kryptocoin, którym twórca zbiera kasę na rozwój projektu. Ale to dopiero początek. W dyskusji na temat projektu na GitHubie pojawia się zdecydowanie więcej wątpliwości, bo okej, zbudowaliśmy go, ale nie działa. Pod względem wielu komentujących z daleka widok jest piękny, ale to wydmuszka. Pojawiły się też skargi, że link do discordowego serwera projektu prowadzi na jakąś podejrzaną stronę zachęcającą do podpięcia pod nią swojego portfela krypto. A więc czy to skam? Czy to żart? W sumie nie wiem, ale na pewno nieobiecany przełom. Uważajcie na siebie i nie instalujcie w swoich produkcyjnych środowiskach projektów z byle dupy. Różna inteligencja to nie magiczny wytrych rozwiązujący wszystkie problemy tego świata. To kolejne narzędzie, które dokładnie, jak każde inne narzędzie, powinno być wykorzystywane w konkretnym celu i ze świadomością jego ograniczeń. Dlatego nie strzelaj do wróbla z armaty i nież siły na zamiary. Kiedy kupujesz jakiś produkt, nie podążaj jedynie za hypem. Poczekaj chwilę, aż kurz nieco opadnie i pojawią się pierwsze opinie osób, które chwilę z niego już korzystają. Najlepiej, gdyby nie byli to twórcy po prostu biorący kasę za płatne recenzje. No i jeszcze raz, nie wierz w preordery obiecujące złote góry. Jeśli coś kosztuje kwotę X, to powinno być jej warte w chwili zakupu, a nie w perspektywie lat, kiedy dowiezione zostaną, albo i nie, wszystkie obietnice. Nie wierz w ciemną, dlatego zerknij na opinie absolwentów AI Devs, których jest już ponad 7 tysięcy. Mam nadzieję, że mówią one same za siebie i przekonają Cię do dołączenia do kolejnej edycji AI Devs 3 Reloaded, która startuje już 12 maja. Wszystkie odnośniki znajdziesz oczywiście w opisie materiału. I to już wszystko na dziś. Tymczasem dziękuję za Waszą uwagę i do zobaczenia! Napisy stworzone przez społeczność Amara.org