Menu
About me Kontakt

What has Microsoft broken lately? - Recall, Copilot+PC etc. (film, 19m)

Mateusz Chrobok, in his latest video, discusses the high-profile launch of Microsoft’s new laptops known as Copilot Plus PC, which gained attention due to the promised support for artificial intelligence. The conference, which took place in Seattle, aimed to introduce a new tool named Recall, which according to the company, was to become a personal memory assistant on computers. Mateusz highlights that Microsoft’s marketing narrative resembled more of a jargon-filled pitch than an actual technological revolution, critiquing their approach to user data processing. Recall was supposed to allow users to search their computer usage history, making it easy to find various files and information. However, despite the intriguing concept, Mateusz expresses concerns about privacy protections, raising issues about the safety of transactions and data stored on computers.

During the presentation, Microsoft emphasized that user data was stored locally on their devices rather than in the cloud, but Mateusz points out that this is not something to celebrate. Research findings and community critiques regarding safety have revealed that Recall could capture sensitive information, potentially leading to many uncomfortable situations; users should be wary of what this "personal assistant" might mean for their personal security. In his reflections, Mateusz notes that this kind of technology could easily be used against users by various authorities, and concerns for privacy may expand as technology develops.

A central point in the discussion is the default settings of Recall. Microsoft seemingly did not foresee the backlash against their product, as concerns began to emerge that the tool might operate in a manner akin to spyware. Controversies grew, particularly after various statements from Microsoft who attempted to calm fears and announced a change in the tool’s activation from default to optional. However, as Mateusz notes, before the release happens, it’s crucial to consider the potential long-term consequences of introducing such sophisticated solutions for everyday users.

As the analysis continues, increasingly negative information began to surface about Recall. Mateusz notes security vulnerabilities, including an absence of encryption for essential data. This could lead to information theft and serious privacy breaches. These concerns intensified as research revealed significant flaws in security systems that Microsoft promised to fix. Open questions about the duration of data storage mean users should think more critically about what such functionality might mean for their privacy.

In conclusion, Mateusz emphasizes that while Microsoft has taken steps to adjust Recall’s functions, many concerns and uncertainties remain. The video has garnered 75,237 views and 3,756 likes as of the time of writing this article, indicating significant interest in the topic but also a growing awareness regarding security issues in new technology contexts. Importantly, he reminds viewers that the topic of technological accountability will always provoke controversies, and users have the right to set demands and expect greater transparency in this regard.

Toggle timeline summary

  • 00:00 Introduction and greeting.
  • 00:04 Discussion of Microsoft's recent conference focused on AI.
  • 00:26 Announcement of new high-performance laptops called Copilot Plus PC.
  • 00:39 Shift from Copilot to the introduction of Recall as a primary feature.
  • 00:50 Introduction to Recall, the new personal assistant.
  • 00:57 Microsoft's marketing claims about new laptops and AI capabilities.
  • 01:20 Highlighting issues of information processing between humans and computers.
  • 02:23 Recall's functionality to remember everything users do.
  • 02:57 AI-driven memory system designed to enhance user experience.
  • 03:10 Emphasis on privacy and user trust regarding data handling.
  • 04:08 Concerns voiced by the privacy community regarding Recall.
  • 04:51 Potential risks related to unauthorized data access.
  • 06:16 Critiques on how Recall might violate privacy.
  • 07:52 Introduction of vulnerabilities found in Recall's implementation.
  • 10:00 Microsoft reassures users about privacy issues.
  • 14:40 Recall's delayed release for further adjustments.
  • 15:40 Discussion on Microsoft's need to regain trust post-controversies.
  • 16:50 Acknowledgment of the thin line between software and spyware.
  • 17:56 Mention of an open-source project aiming to improve privacy.
  • 18:17 Conclusion and thanks for attention.

Transcription

Cześć! Microsoft ostatnio odwalił naprawdę niezłą manianę. Jakoś pod koniec maja odbyła się w Seattle jedna z ich dorocznych konferencji, taka skierowana bardziej do deweloperów. Oczywiście, co raczej nikogo nie dziwi, w jej trakcie skupiono się przede wszystkim na tym, jak i gdzie jeszcze wepchnąć AI, nawet na siłę, i tym, którzy go wcale nie chcą. Niejako w związku z tym swoją szumną premierę miały też najnowsze laptopy, które w końcu wydajnością miały przewyższać maki z procesorami M. Nazwano je dumnie Copilot Plus PC. No i kiedy wydawało się, że to Copilot właśnie będzie głównym akcentem całego tego zamieszania, pierwsze skrzypce zaczął grać Recall. Niestety, wcale nie w sposób, którego oczekiwał Microsoft. O co chodzi? Właśnie o tym dziś Wam opowiem. Zapraszam! Zaprezentowane przez Microsoft laptopy dostały nie tylko nową nazwę Copilot Plus PC, ale też zatytułowano je całkowicie nową kategorią urządzeń. Taką, której świat nigdy jeszcze na oczy nie widział. Czy na wyrost? Ocenicie sami, ale moim zdaniem jest to marketingowy bełkot naprawdę pierwszej wody. Bo chodzi po prostu o to, że między innymi dzięki zmianie architektury z leciwego już x86 na ARMA i dodaniu dedykowanej obliczeniom AI NPU wszelkie algorytmy wykorzystywane w zakresie modeli sztucznej inteligencji mają wydajnie działać nie tylko gdzieś tam daleko w chmurze, ale też lokalnie na naszych osobistych komputerach. Rewolucja rewolucją, tylko tak właściwie to po co nam to? Ano, Microsoft zwrócił uwagę na dość istotny problem. My, ludzie, inaczej przetwarzamy i również w inny sposób zapamiętujemy informacje niż komputery. Nie mamy w głowach ustrukturyzowanych baz danych znacznie ułatwiających wyszukiwanie. Zamiast tego robimy notatki, wysyłamy sobie maile, żeby o czymś nie zapomnieć, czy trzymamy w przeglądarkach setki otwartych zakładek. Ciężko nie zgodzić się z tezą, że nie jest to najproduktywniejsza rzecz pod słońcem. A więc Microsoft wpadł na sprytny pomysł, jak rozwiązać ten problem swoim nowym, rewolucyjnym narzędziem czyli pamięcią absolutną. Kiedy kojarzymy, że coś gdzieś kiedyś i dzwoni, ale nie wiadomo, w którym kościele, to możemy po prostu zapytać swojego nowego, osobistego asystenta. Pamięta on wszystko, co robiliśmy, a nawet po prostu widzieliśmy na ekranie swojego komputera. Kiedy więc potrzebujemy coś odnaleźć, to nawet nie trzeba wiedzieć, czego dokładnie szukamy, ale wystarczy opisać, że coś tam było na baz grane fioletowym markerem na slajdzie w powerpointie, a on znajdzie prezentację, którą mamy na myśli. Microsoft przedstawiał to jako fotograficzną pamięć dla naszego komputera, za którą stoi oczywiście GPT-4O od OpenAI, abyśmy już zawsze mogli odnaleźć to, czego szukamy. Genialne. W trakcie całej prezentacji wielokrotnie podkreślano, że narzędzie to dba o naszą prywatność, a jego budowniczy naprawdę skupili się na odpowiedzialnym podejściu do sprawy. Podkreślano też kwestię zaufania do nich jako do firmy, jakby przewidując nadciągającą burzę. Zbierane dane miały być bezpieczne i przechowywane jedynie lokalnie na naszych dyskach twardych. Nic też nie wędrowało do chmury, więc obiecywano, że nikt nie wykorzysta tego, co widzimy na swoim ekranie do trenowania innych modeli, a my będziemy mogli usunąć informacje, których przechowywać wcale nie chcemy. Mieliśmy też móc dodać wyjątki dla konkretnych aplikacji czy stron internetowych, no i oczywiście nikt postronny nie miał mieć wglądu do całej zebranej historii naszego korzystania z komputera. A jak wyszło w praktyce? Prezentacja Microsoftu chyba nawet nie zdążyła się na dobre zakończyć, a wśród społeczności osób dbających o bezpieczeństwo i prywatność nieźle zawrzało. No bo jak to tak? Cyberbezpiecznicy każdego dnia walczą ze złośliwym oprogramowaniem, które chce podglądać, co robimy na swoich komputerach. Tyle się mówi, żeby nie instalować byle badziewia, korzystać z szyfrowania end-to-end, a nawet nie siedzieć w kawiarni przy stoliku, gdzie na nasz ekran komputera może patrzeć ktoś za okna. A tu ktoś po prostu na poziomie systemu będzie stale podglądał jak przez ramię, co robimy. Brzmi to przecież jak jeden z odcinków Black Mirror. Pojawiły się uzasadnione pytania i liczne obawy, że recall będzie mógł podglądać nasze hasła, stany kont w bankach, odpowiedzi na sekretne pytania pozwalające odzyskać dostęp do różnych usług, czy po prostu treści, których przeglądanie wolelibyśmy zachować dla siebie. Podejrzliwość rosła tym bardziej, że Microsoft podjął bardzo kontrowersyjną, aczkolwiek spodziewaną decyzję o domyślnym włączeniu recalla wszystkim. To nie my mieliśmy mieć możliwość z niego skorzystać, ale aby nas nie szpiegował, musieliśmy aktywnie podjąć taką decyzję i znaleźć zakopaną gdzieś w odmętach panelu sterowania czy innych ustawieniach opcję. Co, jak dobrze wiemy, w przypadku szarego użytkownika komputera pewnie nigdy się nie wydarzy i podglądacz będzie sobie domyślnie hulał w tle większości komputerów. A ich użytkownicy w wielu przypadkach nawet nie będą wiedzieli o jego istnieniu. Microsoft chyba nie był przygotowany na taki odbiór swojego najnowszego dzieła. Spodziewali się pewnie zachwytów i poklepywania po plecach, a tu taki opór. Niedługo jednak od zwerbalizowania tych wszystkich obaw zaczęli uspokajać społeczność i zapewniać wszystkich, że to nie tak jak myślisz, kotku. Wszystko jest naprawdę git, a tak w ogóle to niedobra o to pytać. Jednak ilość wątpliwości i pytań tylko rosła. Wśród potencjalnych użytkowników tego amazing wynalazku pojawiło się wiele krytycznych opinii. Jak choćby takie, że skoro nasz prywatny komputer będzie od teraz przechowywał pełną historię wszystkiego, co robimy w tak pieczołowicie ustrukturyzowany sposób, to narzędzia mające do niego dostęp mogą zostać wykorzystane również przeciwko nam. Na przykład przez różnorakie służby. I na nic się zda odmowa złożenia przeciwko sobie samemu zeznań. W historii mogą znaleźć się przecież takie rzeczy, które świadomie już dawno usunęliśmy. Zresztą nietrudno wyobrazić sobie nawet abstrakcyjną dość sytuację, w której taki model, halucynując, obciąża nas popełnieniem jakiegoś przestępstwa, z którym nie mieliśmy nic wspólnego, a jedynie czytaliśmy jakiś kryminał, w którym miało ono miejsce. Interesująco brzmi też użycie takiego narzędzia w biznesowych realiach, gdzie szef w firmie zamiast prosić o raporty odpytuje modele każdego z pracowników, co tak naprawdę każdy robił przez cały miesiąc. A wtedy szybko może wyjść, kto zamiast pracować scrollował całymi dniami Instagrama. Wszyscy te może i brzmią zabawnie, ale to realne zagrożenie dla naszej prywatności. Komputer osobisty w ten sposób przestaje być osobisty. No dobra, bo ja tu pitu-pitu, ale może jakieś konkrety? Z czasem niestety pojawiły się dużo bardziej konkretne przykłady, dlaczego recall, a w sumie tak konkretniej to jego implementacja, jest bardzo niefortunnym pomysłem, delikatnie mówiąc. Okazało się, że z tą całą prywatnością to wcale nie jest tak prywatnie, jak nam obiecywano. Okej, nasze dane przetwarzane są lokalnie i nie trafiają do niczyjej chmury. Super. Ale na tym dobre wiadomości właściwie się kończą. Recall, robiąc zrzut naszego ekranu, wyciąga z niego wszystkie czytelne informacje, m.in. za pomocą narzędzi do rozpoznawania tekstu. Dane te przechowywano w bazie SQLite czystym tekstem, która nie była w żaden sposób dodatkowo szyfrowana. Umożliwiało to jej kradzież albo przynajmniej podgląd, a tym samym wyciek z niej informacji. Badaczom zresztą udało się taki proces przeprowadzić chwilę po premierze recalla, a potem niestety było już tylko z górki. Np. okazało się, że nie trzeba być nawet zalogowanym na konto atakowanego użytkownika, a dostęp do bazy danych możliwy jest również skąd innych użytkowników systemu. I to nawet takich, którzy nie mają uprawnień administratora. Co kilku badaczy już udowodniło. Tylko ile tych zebranych danych tak właściwie jest? W tej kwestii obserwacje są różne, ale niektórzy badacze wskazują, że w najbardziej optymistycznym przypadku taka baza danych jest naprawdę mikroskopijnych rozmiarów. Nawet zbierając informacje z wielu miesięcy intensywnej pracy. Co jest z jednej strony nie lada zaletą, bo pozwala na wyszukiwanie informacji w niej w błyskawicznym tempie, ale wiecie co jeszcze jest dzięki temu błyskawiczne? Przesłanie jej przez internet do atakującego, któremu uda się przejąć zdalną kontrolę nad naszym komputerem, np. za pomocą złośliwego oprogramowania. A to może prowadzić do naprawdę tragicznych konsekwencji. Przecież zebrane informacje mogą być bardzo, ale to bardzo wrażliwe. Staną się one pierwszym celem dla cyberprzestępców i wszelkich grup wywiadowczych stosujących najbardziej zaawansowane na świecie techniki, aby wiedzieć, co dzieje się w obozie wroga. Na tym etapie Microsoft mógł po prostu wycofać się rakiem ze swojego pomysłu, mówiąc wszystkim, że był to po prostu nieśmieszny żart. Niestety, oczywiście, nic takiego się nie stało, lecz pytań i wątpliwości tylko rosła i rosła. No bo skoro podgląda się wciąż nasz ekran i to we w miarę inteligentny sposób, analizując wszystkie widoczne na nim treści, to dlaczego system w tak samo inteligentny sposób nie jest w stanie po prostu pomijać określonych danych, które mogą głęboko naruszać naszą prywatność? Np. dlaczego nie można zdefiniować w jakiś prosty sposób Nie patrz na moje konto w banku. Skoro AI widzi i zapamiętuje zdaniem Microsoftów wszystko, to powinno wiedzieć też, że właśnie korzystamy z banku. Więc dałoby się to technicznie zrobić. To zresztą, moim skromnym zdaniem, powinno być elementem domyślnej konfiguracji takiego narzędzia, ale nikt na to nie wpadł. Albo nie chciał wpaść. Prowadzone domyślne zabezpieczenia, takie jak niezbieranie informacji na przeglądarki, działały tylko w ograniczonym zakresie. W przeglądarce Microsoftu – Edge'u. Ale kiedy już korzystaliśmy z Chroma czy Firefoxa, Ricoh miał to w nosie i przyglądał się wszystkiemu jak leci. Choć fakt uczciwie trzeba przyznać, że mogliśmy wykluczyć z niego konkretne aplikacje, natomiast musieliśmy to robić ręcznie, sami. Jeżeli zapomnieliśmy albo o tym zwyczajnie nie wiedzieliśmy, to klops. Niebezpieczeństwa związane z korzystaniem z takiego narzędzia sięgają jednak zdecydowanie dalej niż tylko do tego, co w danym momencie robimy na komputerze. No bo usuwamy jakiś dokument czy wiadomość albo otwarliśmy w Signalu czy na Snapchacie fotkę, która miała nam się wyświetlić tylko jednokrotnie. No i co z tego? Ricoh zapisze jej treść w swoich czeluściach na zawsze, o ile aktywnie nie zdecydujemy inaczej. Pozwala to komuś, kto uzyska dostęp do naszego komputera, sprawdzić nie tylko, co mamy na nim zapisane, ale też dowiedzieć się o wszystkim, co kiedykolwiek na nim zobaczyliśmy. I to w bardzo łatwy do automatyzacji sposób, bo przeszukuje się nie cały komputer, a zoptymalizowaną w tym celu bazę danych. Na początku czerwca, czyli po jakichś dwóch tygodniach odrzeczonej konferencji, Microsoft opublikował wpis, w którym wyjaśnił i zaktualizował kilka spraw. Po pierwsze podkreślili kolejny już raz, że wszystko dzieje się lokalnie, na naszych komputerach, a nic nie trafia do chmury. Tak, to już wiemy. Przypomnieli, że Ricola można w każdej chwili wyłączyć, czasowo lub na stałe, wykluczyć z niego wybrane aplikacje czy w końcu usunąć zebrane dane, częściowo lub w całości. To wszystko oczywiście zakopano pod stertą informacyjnego bełkotu o rozwoju, usuwaniu cywilizacji do przodu, dawaniu wyboru, zaufaniu itd. Jednak na szczęście zmiany nastąpiły też w bardziej konkretnych kwestiach. Na przykład po tych wszystkich wiadrach wylanych pomyj zmieniono jednak sposób wyrażania zgody na korzystanie z Ricola. Zamiast pierwotnego opt-out, gdzie musieliśmy aktywnie podjąć decyzję, że nie chcemy z niego korzystać, dostaje się realny wybór. Dostaniemy przed oczy komunikat, w którym po prostu podejmiemy decyzję, czy załączyć szpieg asystenta, czy też nie. Po drugie, aby coś wyszukać, będziemy musieli fizycznie być przed swoim komputerem, a zagwarantować ma to weryfikacja biometryczna wykorzystywana w Windows Hello. Jeżeli kamera nie zobaczy naszej twarzy, to z wyszukiwania nici. Albo przynajmniej będzie trzeba w jakiś inny sposób Poprawiono też kwestię szyfrowania w taki sposób, aby dekrypcji ulegało minimum potrzebnych w danym momencie danych. Dzięki temu, przynajmniej w teorii, ktoś złośliwy nie będzie w stanie tak łatwo uzyskać do wszystkiego dostępu. Mamy też wprost widzieć, że w danym momencie jest robiony zwrót ekranu, bo powie nam o tym ikona umieszczona koło zegarka. Ciekawe, czy będzie migać co kilka sekund, ale nie wiem. Doprecyzowano, że nie będą zapisywane treści chronione mechanizmami DRM, ani prywatne okna przeglądarek. Tak, nie tylko EDGE, ale również popularnej konkurencji. Na liście nie ma jednak ARCA, BRAVE'a i innych, rzadziej używanych rozwiązań. Ale najważniejsze zostawiłem na koniec. Microsoft podjął też na pewno trudną, ale jedyną słuszną decyzję. Tak, Recall dostępny będzie później, bo na razie korzystać z niego będą mogli tylko członkowie zamkniętego programu Windows Insider jako króliki doświadczalne. Szeroka premiera została odłożona w czasie, nie wiadomo jeszcze na kiedy. Oby do momentu naprawienia wszelkich potencjalnych podatności, bo na wtopę w tej kwestii nie możemy sobie pozwolić. Produkt dający takie możliwości musi chronić swoich użytkowników tak dobrze, jak to tylko możliwe. Zresztą, nie wiem czy wiecie, ale Satya Nadella, prezes Microsoftu wysłał niedawno maila swoim pracownikom z informacją, że najwyższym priorytetem firmy ma być właśnie bezpieczeństwo. Podkreślił, że kiedy staną przed wyborem, w którym na jednej z szal leży bezpieczeństwo, to właśnie ono powinno zostać wybrane. I to bez wyjątku. Po kilku głośnych wpadkach ostatnimi czasy nie dziwi fakt, że potrzebują odzyskać zaufanie korporacyjnego i nie tylko świata. Bo to nie tylko kwestia licznych i głośnych ostatnio cyberataków. To też choćby wciskanie siłą do gardę Windowsa w jedenastej odsłonie wszystkim, czy umieszczanie w nim reklam, ciężkich do wyłączenia mechanizmów śpiegujących, niechęć do respektowania prywatności użytkowników itd. Z jednej więc strony dziwi fakt, że recall w ogóle trafił na tę prezentację, a Satya wypowiadał się o nim w samych superlatywach. Brzmi to jak skrajna hipokryzja. Z drugiej mimo wszystko dobrze widzieć, że firma choć odrobinę słucha społeczności i cała ta burza skłoniła ich do przełożenia premiery produktu do czasu, aż rzeczywiście będzie gotowy. Choć ja pewnie wyłączę go przy pierwszej możliwej okazji. Co robić i jak żyć? Sztuczna inteligencja nie ma ostatnimi czasy dobrej prasy i Microsoft nadział się na to w karykaturalny wręcz sposób. Oprogramowanie takie jak recall zachowuje się w dokładnie taki sam sposób jak zwykły spyware, chociaż ma nieco inny cel. Przynajmniej w teorii. To zadziwiające jak cienka granica je oddziela. Ale my, użytkownicy, mamy po prostu prawo wymagać od producentów oprogramowania więcej. Recall działać ma jedynie na najnowszych urządzeniach sprzedawanych pod marką Copilot plus PC, które ledwo co dopiero miały premierę, więc mamy jeszcze trochę czasu, zanim będziemy na każdym kroku zachęcani do korzystania z niego. Mam nadzieję, że w międzyczasie Microsoft rozwieje resztę naszych wątpliwości w zakresie bezpieczeństwa swojego produktu. Zresztą nie zdziwię się, jeżeli w Unii Europejskiej recall okaże się niezgodny z regulacjami takimi jak RODO czy Digital Services Act. Dlatego, o ile problem na razie jest dość odległy, to warto go mieć na uwadze. Jak to zwykle bywa, jest to kompromis pomiędzy wygodą a prywatnością. I to my powinniśmy móc zadecydować, gdzie leży nasza w tej kwestii granica. Rozwiązanie to wydaje Ci się interesujące, ale przekreślają je dla Ciebie kwestie prywatności i tego, że stoi za nimi wielka korporacja? Cóż, mam dla Ciebie dobrą wiadomość. Pojawił się już otwarto-źródłowy projekt, którego zadaniem jest robienie tego samego co recall, tylko lepiej. Nie powiem ciekawe, ale na razie pozostaje w kategorii ciekawostek, bo to jedynie proof of concept, że coś takiego da się w ogóle zrobić, a nie gotowy i dopracowany produkt. Ale od czegoś zawsze się zaczyna. I to już wszystko na dziś. Tymczasem dziękuję za Waszą uwagę i do zobaczenia. Napisy stworzone przez społeczność Amara.org