I · Niewidzialna flota
Teraz, w Twojej firmie, pracownicy korzystają z narzędzi AI, o których nie wiesz. Nie dlatego, że są nieostrożni — bo próbują wykonywać swoją pracę.
ChatGPT do pisania propozycji. Notion AI do notatek ze spotkań. Cursor do szybszego pisania kodu. Perplexity zamiast Google'a. GitHub Copilot zatwierdzony przez IT — ale nikt nie śledził, do jakich danych ma dostęp ani kto ma dostęp do tego, co generuje.
A potem są agenty. Narzędzia, które nie tylko pomagają ludziom, ale działają w ich imieniu. Podłączone do Twojego CRM. Zdolne do wysyłania e-maili. Z dostępem do odczytu rekordów klientów. Wdrożone przez menedżera produktu we wtorek po południu, bez jednego przeglądu bezpieczeństwa, ponieważ onboarding dostawcy sprawił, że było to tak rutynowe jak dodanie rozszerzenia przeglądarki.
To nie jest historia o zaniedbaniu. To historia o szybkości. Biznes porusza się szybciej niż zarządzanie. AI sprawiło, że luka między nimi stała się katastrofalna.
Narzędzia są użyteczne. To jest problem. Ludzie adoptują to, co sprawia, że są bardziej efektywni, a narzędzia AI są najefektywniejszą dźwignią produktywności, do jakiej większość pracowników wiedzy kiedykolwiek miała dostęp. Zarządzanie nie może zwyciężyć, będąc departamentem "nie". Musi stać się widoczne, zanim ryzyko stanie się widoczne.
II · Iluzja kontroli
Każdy główny dostawca AI powie Ci, że jego produkt jest klasy korporacyjnej. Bezpieczny. Zgodny z regulacjami. Zarządzany. Nie kłamią. Opisują złą rzecz.
Microsoft Copilot dostarczany jest z politykami DLP. Na początku 2024 roku te polityki zawodziły przez tygodnie bez wykrycia — Copilot ujawniał dokumenty, do których użytkownicy nie mieli prawa dostępu, cicho, bez żadnych alertów po żadnej ze stron. Własny system kontroli dostawcy nie wykrył awarii własnego systemu kontroli.
Salesforce Agentforce, udostępniony ogólnie pod koniec 2024 roku, okazał się podatny na prompt injection kosztujący zaledwie 5 dolarów. Atakujący mógł przekierować działania autonomicznego agenta — działania podejmowane w imieniu Twojej firmy, wobec Twoich klientów — po prostu tworząc złośliwą instrukcję w strumieniu wejściowym agenta.
Gdy narzędzie AI jest jednocześnie warstwą zarządzania, masz jeden punkt awarii bez niezależnej weryfikacji. Ufasz dostawcy w audytowaniu samego siebie.
To nie są przypadki brzegowe do łatania i zapominania. To jest strukturalny problem ze sposobem, w jaki sprzedawane jest zarządzanie AI. Dostawca ma każdą motywację, by jego produkt wydawał się bezpieczny, i bardzo mało motywacji, by ujawniać sposoby, w jakie nim nie jest. Ich logi bezpieczeństwa są zaprojektowane, aby zadowolić ich dział prawny, a nie Twój.
Nie pozwoliłbyś bankowi audytować własnych ksiąg. Nie ufałbyś wykonawcy w inspekcji jego własnej pracy. Logika jest taka sama w przypadku systemów AI z dostępem do Twoich danych, Twoich klientów i Twoich operacji.
III · Moment regulacyjny
UE nie uchwaliła AI Act, bo politycy chcieli regulować technologię. Uchwalili go, bo obserwowali to, co stało się z mediami społecznościowymi — technologią, która przekształciła społeczeństwo, zanim ktokolwiek zrozumiał jej skutki — i postanowili nie powtarzać tego błędu z AI.
AI Act ma znaczenie dla Ciebie, jeśli jesteś firmą MŚP w Europie, nawet jeśli myślisz, że nie ma. Zgodnie z Artykułem 28, wdrażający systemy AI — czyli Ty, gdy dajesz pracownikom dostęp do narzędzi AI — współdzielą odpowiedzialność za zapewnienie, że te systemy są używane zgodnie z Ustawą. Potrzebujesz rejestru. Potrzebujesz klasyfikacji ryzyka. Musisz być w stanie to wykazać regulatorowi na żądanie.
RODO również ma zastosowanie. Za każdym razem, gdy pracownik wkleja dane klientów do promptu AI, to jest zdarzenie przetwarzania danych. Jeśli serwery tego narzędzia AI są poza UE, to jest transfer transgraniczny. Jeśli nie ma podpisanej DPA z dostawcą, ta luka należy do Ciebie do wyjaśnienia — nie do nich.
NIS2, która stała się bezpośrednio stosowalna w październiku 2024 roku, rozszerza obowiązki związane z ryzykiem łańcucha dostaw na oprogramowanie i usługi stron trzecich. Narzędzia AI są łańcuchem dostaw. Incydent bezpieczeństwa dotyczący dostawcy AI, który wpływa na Twoje operacje, to teraz Twój incydent do zgłoszenia, w ciągu 72 godzin, z udokumentowanymi krokami naprawczymi.
Regulacje nie są wrogiem. Są mechanizmem wymuszającym, który sprawia, że zarządzanie staje się widoczne, budżetowalne i obronne w Twojej organizacji.
Rozmawialiśmy z dziesiątkami specjalistów ds. compliance w firmach MŚP w Niemczech, Holandii i Polsce. Prawie żadna z nich nie ma pełnego inwentarza narzędzi AI, z których korzysta ich firma. Większość nie ma formalnego procesu zatwierdzania narzędzi AI przed wdrożeniem. Żadna z nich nie czuje się komfortowo, mówiąc, że jest w pełni zgodna z wymaganiami AI Act, które już obowiązują. Regulacje nadeszły. Narzędzia do ich spełnienia, dla firm tej wielkości, jeszcze nie.
IV · Martwy punkt MŚP
Duże przedsiębiorstwa mają zespoły bezpieczeństwa. Mają platformy GRC, procesy zarządzania ryzykiem dostawców i ludzi, których cała praca polega na myśleniu dokładnie o tych problemach. Nadal nie są w pełni posortowane — ale mają infrastrukturę i budżet, aby tam dotrzeć.
Firmy z 50 do 300 pracowników nie mają. Istniejące narzędzia zarządzania — ServiceNow, Archer, korporacyjne poziomy każdej platformy compliance — są zaprojektowane dla organizacji z dedykowanymi działami compliance. Kosztują sześć cyfr. Wdrożenie zajmuje kwartały. Zakładają dojrzałość organizacyjną, której większość rosnących firm jeszcze nie osiągnęła i nie powinna musieć osiągać przed zarządzaniem narzędziami używanymi przez pracowników.
Więc firmy MŚP nie robią nic. Albo tworzą udostępniony arkusz kalkulacyjny, który staje się przestarzały w ciągu miesiąca. Albo dodają "zarządzanie AI" jako kwartalny punkt agendy, który jest depriorytetyzowany, gdy pipeline jest w ogniu.
Tymczasem narzędzia AI proliferują. Agenty się mnożą. Regulacyjny zegar tyka. A luka między tym, co dzieje się w firmie, a tym, co wie kierownictwo, rośnie każdego tygodnia.
To jest martwy punkt, który rynek postanowił zignorować, bo firmy MŚP są trudniejsze do sprzedaży niż przedsiębiorstwa, ich transakcje są mniejsze, a ich potrzeby zarządzania są bardziej nieuporządkowane. Uważamy, że to zły wybór — zarówno komercyjnie, jak i etycznie. Firmy, które ucierpią najbardziej z powodu niezarządzanego AI, to nie te z dedykowanymi zespołami bezpieczeństwa. To te bez nich.
V · Co oznacza niezależna warstwa
Spostrzeżenie stojące za PanelSec jest proste: zarządzanie musi siedzieć poza stosem, którym zarządza. Nie wewnątrz ustawień Copilot. Nie wewnątrz konsoli administracyjnej ChatGPT. Nie w arkuszu kalkulacyjnym posiadanym przez IT. Na zewnątrz, niezależnie, z własnym łańcuchem odpowiedzialności za dane, które zbiera.
Niezależna warstwa zarządzania robi trzy rzeczy:
Inwentaryzuje. Każde narzędzie AI, każdy agent, każdą integrację — zatwierdzoną przez IT lub nie. System rejestrów dla AI, z której faktycznie korzysta Twoja firma, a nie tego, co IT uważa, że zatwierdziło. Odkrycie musi być automatyczne, ponieważ ręczne inwentarze są zawsze błędne, gdy tylko je skończysz.
Egzekwuje. Nie ufając własnym kontrolom dostawcy, ale siedząc między Twoimi ludźmi a narzędziami, z których korzystają — na warstwie sieciowej i tożsamościowej. Blokuje niezatwierdzone narzędzia. Wymaga uzasadnienia biznesowego, zanim nowy agent otrzyma produkcyjne poświadczenia. Egzekwuje polityki klasyfikacji danych, które mają zastosowanie niezależnie od tego, który dostawca AI jest po drugiej stronie.
Rejestruje. Niezmiennie, w formacie użytecznym dla regulatora, audytora lub prawnika. Nie dziennik aktywności dostawcy, którego nie możesz eksportować. System rejestrów, który posiadasz, który możesz przedstawić na żądanie, który opowiada spójną historię o tym, co robiły Twoje systemy AI i jakie kontrole były na miejscu, gdy to robiły.
Nie możesz udowodnić, że zarządzanie miało miejsce, jeśli Twoim jedynym dowodem są własne logi dostawcy. To nie jest niezależność. To raportowanie okrężne.
Zasada architektoniczna jest stara. Tak działa audyt finansowy. Tak działa regulacja bezpieczeństwa przemysłowego. Dlatego zatrudniasz zewnętrznego testera penetracyjnego zamiast pytać developera, czy jego kod jest bezpieczny. Niezależna weryfikacja nie jest oznaką braku zaufania — to mechanizm, który umożliwia zaufanie między organizacjami o różnych motywacjach.
VI · Co budujemy
PanelSec to ta warstwa, zbudowana dla firm, które nie mogą sobie pozwolić na zatrudnienie korporacyjnego zespołu GRC, ale nie mogą sobie pozwolić na konsekwencje jego nieposiadania.
Zaczęliśmy od konkretnej osoby: specjalisty ds. compliance w 150-osobowej firmie świadczącej usługi profesjonalne, który ma obowiązki EU AI Act lądujące na biurku, pracownika IT w niepełnym wymiarze godzin i brak budżetu na oprogramowanie za sześć cyfr. Musi wiedzieć, jakich narzędzi AI używają jej współpracownicy. Musi klasyfikować je według ryzyka. Musi generować raport compliance, który może pokazać klientowi lub regulatorowi, nie spędzając tygodnia na zbieraniu danych z pięciu różnych miejsc.
Budujemy też dla CTO w 200-osobowej firmie SaaS, który właśnie zdał sobie sprawę, że jego dział sprzedaży od dawna przesyła dane klientów do narzędzia AI z serwerami w USA, bez DPA i bez zatwierdzonego uzasadnienia biznesowego. I dla menedżera IT, któremu powiedziano, żeby "ogarnął sytuację z AI" z trzy-dniowym terminem i bez narzędzi.
Nie budujemy kolejnego produktu bezpieczeństwa, który generuje raporty, których nikt nie czyta. Budujemy system zarządzania, który sprawia, że właściwa rzecz jest łatwa — zinwentaryzuj swoje AI, sklasyfikuj jego ryzyko, egzekwuj swoje polityki, wygeneruj swoją dokumentację — przy minimalnym narzucie niezbędnym do faktycznego użycia przez ludzi odpowiedzialnych za to, aby to działało.
Narzędzie zarządzania, z którego nikt nie korzysta, jest gorsze niż żadne narzędzie zarządzania. Tworzy iluzję kontroli bez jej substancji. Nie mamy zainteresowania w budowaniu tego.
Jesteśmy natywnie z UE. Nasze serwery są we Frankfurcie. Nie kierujemy Twoich danych przez USA. Uważamy, że środowisko regulacyjne w Europie zadaje właściwe pytania, nawet gdy konkretne odpowiedzi w ustawodawstwie są niedoskonałe. Budujemy na dłuższą metę w tym kontekście regulacyjnym, a nie próbując go abstrahować.
Przyjmujemy teraz partnerów projektowych — małą liczbę firm, które będą używać PanelSec w produkcji i będą mieć bezpośredni wpływ na to, co budujemy. Jeśli zarządzanie AI jest Twoim problemem dzisiaj, chcielibyśmy pracować nad nim z Tobą.
PanelSec Team
Built in Europe · Hosted in Germany · 2026-02-01