Microsoft przygotowuje rewolucję – do systemu Windows 11 trafią agenci AI, którzy będą działać w tle, wykonując za użytkownika codzienne zadania. Pomysł brzmi jak wizja z futurystycznego filmu, ale im bliżej premiery, tym częściej pojawia się pytanie o bezpieczeństwo. Czy naprawdę chcemy, by sztuczna inteligencja miała dostęp do naszych plików, poczty i kont bankowych?
Inteligencja z dostępem do wszystkiego
Nowa funkcja Copilot Actions w ramach programu Copilot Labs ma umożliwić agentom AI bezpośrednią interakcję z aplikacjami, dokumentami i systemem operacyjnym. W teorii brzmi to znakomicie – wystarczy polecenie, a Copilot uporządkuje pliki, zarezerwuje bilety czy wyśle e-maila, zachowując się dokładnie tak, jak zrobiłby to użytkownik. W praktyce jednak taka swoboda działania otwiera zupełnie nowe pola zagrożeń.
Badacze z Aim Security wykazali już, że agenty AI można oszukać – w czerwcu odkryto lukę EchoLeak (CVE-2025-32711), pozwalającą na tzw. atak zero-click, w którym wystarczyło wysłać e-mail, by przejąć kontrolę nad agentem Microsoft 365 Copilot. Taki incydent pokazuje, że sztuczna inteligencja, mimo swoich zalet, wciąż uczy się odróżniać polecenia użytkownika od manipulacji.
Trzy filary zaufania według Microsoftu
Firma zapewnia, że tym razem stawia bezpieczeństwo na pierwszym miejscu. Każdy agent AI będzie działał na osobnym, dedykowanym koncie, całkowicie odseparowanym od konta użytkownika. To pozwoli ograniczyć skutki ewentualnego włamania i przypisać agentom precyzyjnie zdefiniowane uprawnienia.
Drugi filar to minimalne uprawnienia startowe – Copilot nie będzie mógł niczego zmieniać bez wyraźnej zgody użytkownika. Dostęp do plików, takich jak Dokumenty czy Pobrane, można nadać lub odebrać w dowolnej chwili. Trzeci filar stanowi zaufanie operacyjne, czyli konieczność cyfrowego podpisania każdego agenta przez zweryfikowane źródło. W razie wykrycia anomalii Microsoft zyska możliwość natychmiastowego cofnięcia certyfikatu i zablokowania niepożądanego oprogramowania.
Izolowany asystent i kontrola użytkownika
Nowością jest również agent workspace – środowisko, w którym Copilot działa w osobnej sesji systemowej. Dzięki temu agent ma własny „pulpit” i nie widzi aktywności użytkownika, co ogranicza ryzyko nieautoryzowanego dostępu do danych. To coś pomiędzy wirtualną maszyną a kontenerem – lekkie, wydajne i szczelnie zabezpieczone.
Microsoft zapewnia, że użytkownik pozostaje w pełni decyzyjny. Copilot Actions jest domyślnie wyłączony i wymaga ręcznej aktywacji w ustawieniach. Dopiero po zgodzie użytkownika agenci zyskają dostęp do systemu.
Trudno oprzeć się wrażeniu, że gigant z Redmond próbuje pogodzić dwa światy – wygodę automatyzacji i nieufność wobec technologii, która może się „nabrać na nigeryjskiego księcia”. Na razie Microsoft buduje zaufanie powoli, krok po kroku, pamiętając, że w świecie AI największym luksusem nie jest moc obliczeniowa, lecz prawo do kontroli nad własnym komputerem.