Skip to main content

Cyberbezpieczeństwo Q1 2026

Page 1


Cyberbezpieczeństwo

04 TRAFFORD

Lokalne AI kontra globalna chmura – kto kontroluje Twoje dane?

ALMA

Następna era cyberataków już nadchodzi – i to szybciej, niż myślisz

WOMEN GO CYBER

Nowe oblicza phishingu i deepfake – jak nie dać się oszukać w erze AI?

09

Instytut Łączności

Twój podpis online, Twój bank – czas sprawdzić, czy naprawdę są bezpieczne

12

Łukasz Gawron

Suwerenność cyfrowa – dlaczego to Twoja sprawa?

14

Konrad Komornicki

Twój PESEL to klucz do Ciebie. Czy wiesz, że możesz go zastrzec?

15

Krzysztof Gulda

80 proc. firm płaci hakerom okup – Twoja może zarabiać zamiast tracić

Project Manager: Julia Centkowska (+48 576 916 414, julia.centkowska@mediaplanet.com) Business Developer: Stanisław Machnacki Content and Production Manager: Izabela Krawczyk Managing Director: Krystyna Miłoszewska Skład: Mediaplanet Fotografie: stock.adobe.com, zasoby własne Kontakt e-mail: pl.info@mediaplanet.com Adres: MEDIAPLANET PUBLISHING HOUSE SP. Z O.O., ul. Zielna 37, 00-108 Warszawa

Cyberbezpieczeństwo zaczyna się w sektorach – o roli sektorowych zespołów CSIRT

Incydenty bezpieczeństwa komputerowego w instytucjach i przedsiębiorstwach objętych Krajowym Systemem Cyberbezpieczeństwa (KSC) są różne w zależności od sektora gospodarki, do którego organizacja należy. Zespoły CSIRT, powołane dla danego sektora lub podsektora, dzięki znajomości specyfiki konkretnej branży czy środowiska mogą działać skuteczniej i – co najważniejsze – szybciej.

Ministerstwo Cyfryzacji

Dzięki nowelizacji ustawy o KSC rozszerza się zakres działalności sektorowych Zespołów Reagowania na Incydenty Bezpieczeństwa Komputerowego (CSIRT). Zespoły CSIRT sektorowe będą aktywnie współpracować z CSIRT-ami poziomu krajowego, czyli:

• CSIRT NASK – prowadzony przez Naukową i Akademicką Sieć Komputerową – Państwowy Instytut Badawczy (NASK PIB). Do głównych zadań należą rejestrowanie i obsługa zdarzeń naruszających bezpieczeństwo sieci, aktywne reagowanie na zagrożenia oraz działania informacyjno-edukacyjne.

• CSIRT GOV – prowadzony przez Agencję Bezpieczeństwa Wewnętrznego. Główne zadania to rozpoznawanie, zapobieganie i wykrywanie zagrożeń dla ciągłości funkcjonowania systemów teleinformatycznych organów administracji publicznej.

• CSIRT MON – prowadzony przez Ministerstwo Obrony Narodowej, zobowiązany do koordynacji incydentów zgłaszanych przez podmioty podległe Ministrowi Obrony Narodowej oraz przedsiębiorców o szczególnym znaczeniu gospodarczo-obronnym.

Zespoły CSIRT sektorowe

Do tej pory powołano dwa zespoły CSIRT sektorowe: CSIRT KNF funkcjonujący przy Komisji Nadzoru Finansowego oraz CSIRT CeZ – Centrum e-Zdrowie w sektorze ochrony zdrowia.

Czytaj więcej na stronie: poradnikbiznesu.info

Po wejściu w życie znowelizowanych przepisów powstaną kolejne, obejmujące wszystkie sektory KSC, m.in. CSIRT INFRASTRUKTURA (Ministerstwo Infrastruktury), CSIRT ENERGIA (Ministerstwo Energii) oraz CSIRT CYFRA (Ministerstwo Cyfryzacji).

Korzyści dla przedsiębiorców Podmioty uznane za kluczowe lub ważne będą zobowiązane do terminowego zgłaszania incydentów oraz utrzymywania określonego poziomu środków ochrony. Działalność CSIRT sektorowego może przynieść przedsiębiorcom wymierne korzyści. Sektorowe zespoły umożliwią przede wszystkim szybsze zażegnanie kryzysu wywołanego incydentem bezpieczeństwa, wsparcie eksperckie w sytuacjach kryzysowych oraz szybszy dostęp do informacji o aktualnych zagrożeniach i możliwość konsultowania rozwiązań bezpieczeństwa.

Dlaczego specjalizacja jest potrzebna?

Inne ryzyko incydentów cyberbezpieczeństwa dotyczy sektora zdrowia, a inne sektora energetycznego czy transportowego. Specjalizacja branżowa sprzyja trafniejszym rekomendacjom, ponieważ wydają je specjaliści z doświadczeniem i wiedzą o realiach danego sektora. W efekcie uzyskamy wyższy poziom odporności cyfrowej całych gałęzi gospodarki. CSIRT sektorowe będą analizowały incydenty i podatności specyficzne dla branży, prowadziły działania prewencyjne oraz mogły przeprowadzać oceny bezpieczeństwa systemów informacyjnych podmiotów objętych KSC. To nowe uprawnienie wzmacnia profilaktyczną rolę CSIRT-ów sektorowych. Więcej wiedzy to większe bezpieczeństwo Zespoły CSIRT sektorowe staną się istotnym elementem budowania kultury cyberbezpieczeństwa. Edukacja oraz wymiana wiedzy o zagrożeniach mają potencjał realnie podnieść świadomość ryzyka i zmniejszyć liczbę incydentów.

Jesteśmy przekonani, że system cyberbezpieczeństwa nie powinien być postrzegany jako narzędzie sankcyjne, lecz jako mechanizm współpracy i zwiększania odporności całej gospodarki na cyberzagrożenia.

Jak technologia łączy sektor prywatny i służby

Cyberprzestępczość rozwija się szybciej niż kiedykolwiek, a jej sprawcy coraz skuteczniej wykorzystują nowe technologie. Jak w tej rzeczywistości odnajdują się służby mundurowe i dlaczego współpraca z sektorem prywatnym staje się kluczowa dla bezpieczeństwa? O tym rozmawiamy z Małgorzatą Wolbach z Działu Technologii, Ekspertyz i Wdrożeń Polskiej Platformy Bezpieczeństwa Wewnętrznego (PPBW).

Małgorzata Wolbach

Polska Platforma

Bezpieczeństwa Wewnętrznego

Czy łatwo złapać cyberprzestępcę?

Zdecydowanie nie. Zwalczanie cyberprzestępczości to jeden z najbardziej wymagających obszarów bezpieczeństwa. Duża część naszej codziennej aktywności przeniosła się do świata online, a wraz z nią – działalność przestępcza. Służby podejmują więc intensywne działania, by nadążyć za tym procesem. Policja systematycznie podnosi swoje kompetencje i korzysta z coraz bardziej zaawansowanych narzędzi. Jednocześnie cyberprzestępcy nieustannie rozwijają swoje metody, coraz częściej sięgając po socjotechnikę czy rozwiązania oparte na sztucznej inteligencji. Co istotne, nie mówimy tu wyłącznie o pojedynczych osobach, lecz także o zorganizowanych grupach przestępczych.

Jak radzą sobie z tym problemem służby? Policja coraz szerzej wykorzystuje zaawansowane systemy umożliwiające m.in. monitoring aktywności w darknecie, analizę mediów społecznościowych oraz przetwarzanie dużych zbiorów danych. Kluczową rolę odgrywają narzędzia automatyzujące analizę informacji, które pozwalają szybciej identyfikować zagrożenia i wspierać proces wykrywania sprawców. Równie ważne jest systematyczne podnoszenie kompetencji funkcjonariuszy – bez tego nawet najlepsze technologie nie będą skuteczne. Statystyki pokazują, że z roku na rok rośnie

liczba prowadzonych postępowań oraz zatrzymań, szczególnie w obszarach oszustw internetowych, wykorzystywania dzieci czy złośliwego oprogramowania. To efekt profesjonalizacji pracy służb, wdrażania nowoczesnych rozwiązań oraz szerokiej współpracy międzynarodowej, bo cyberprzestępczość nie zna granic.

Jak sektor prywatny może wspierać pracę policji? Kluczowe jest zrozumienie realnych potrzeb służb i projektowanie rozwiązań „szytych na miarę”. Wiele narzędzi powstaje w modelu partnerskiej współpracy – poprzez dialog, projekty pilotażowe oraz testowanie w warunkach operacyjnych. Istotną rolę odgrywa także transfer wiedzy i doświadczeń pomiędzy dostawcami technologii a służbami. Dzięki temu nie chodzi wyłącznie o dostarczenie gotowych systemów, ale o realne zwiększenie efektywności działań operacyjnych. Przykładem takiego podejścia jest działalność PPBW, która identyfikuje innowacyjne technologie i wspiera ich adaptację na potrzeby organów ścigania w Polsce i Europie.

Jaką rolę w tym układzie odgrywa PPBW? Łączymy świat innowacji ze służbami mundurowymi i instytucjami publicznymi odpowiedzialnymi za bezpieczeństwo. Docieramy do

nowoczesnych rozwiązań, które mogą realnie wspierać działania operacyjne, oraz wspieramy transfer technologii i procesy wdrożeniowe. Organizujemy także tematyczne konferencje technologiczne, które sprzyjają wymianie wiedzy i budowaniu bezpośredniego

Policja coraz szerzej wykorzystuje zaawansowane systemy umożliwiające m.in. monitoring aktywności w darknecie.

dialogu pomiędzy sektorem technologicznym a funkcjonariuszami służb, w tym Policji. Przykładem jest międzynarodowa konferencja Cyberprzestępczość.4 – Technologie, organizowana w Akademii Policji w Szczytnie w dniach 24–26 marca ( ppbw.pl/cp ). To trzy dni intensywnych spotkań, rozmów i networkingu dostawców technologii, organów ścigania oraz środowiska naukowego. Zachęcamy do kontaktu i udziału w naszych przedsięwzięciach.

Lokalne AI czy eksterytorialna chmura

Między suwerennością a outsourcingiem – kluczowy dylemat świadomych organizacji i ich liderów.

AIodmieniana przez wszystkie przypadki to codzienność już nie tylko artykułów z szeroko rozumianej branży IT. Z jednej strony kuszeni jesteśmy rosnącymi możliwościami wykorzystania AI w biznesie i życiu codziennym, z drugiej pojawiają się obawy o jej wpływ na rynek pracy, rzetelność informacji czy bezpieczeństwo danych i systemów. Niezależnie od skali działalności organizacje stają przed wyborami, które zdeterminują, czy potencjał AI zostanie wykorzystany, czy zmarnowany. Jednym z nich jest określenie, na ile organizacja powinna podążać za hasłem suwerenności również w tym obszarze.

W dyskusjach o wdrażaniu AI w firmach przeważają kwestie użytkowe – który model wybrać, jak go wykorzystać, ile zarobić lub oszczędzić. Skąd taki nacisk na niezależność w kontekście AI?

Często zbyt szybko przechodzimy do wizualizacji efektów, pomijając fundamenty. Obserwujemy w zasadzie dwa – teoretycznie sprzeczne ze sobą – podejścia: oparcie „rewolucji” AI na komercyjnych, globalnych modelach

lub próby budowy własnych, wewnętrznych modeli i narzędzi promujących hasło suwerenności.

Co wiąże się z jednym oraz z drugim podejściem?

Podążanie globalnymi ścieżkami daje szybki efekt skali i skrócony „time to value”. Globalni dostawcy oferują przewagę technologiczną, ale ograniczają kontrolę nad narzędziami, co zmniejsza realną niezależność operacyjną. Samodzielne projekty AI wydają się atrakcyjniejsze, natomiast autonomiczność bez wysokich kompetencji i odpowiedniej skali to ryzykowna iluzja. Budowa „własnego AI” bez kompetencji ML/AI, solidnych centrów danych, długoterminowego finansowania i zdolności utrzymaniowych może skończyć się kosztowną infrastrukturą bez rzeczywistej przewagi.

Brzmi to trochę tak, jakby nie istniało „dobre” rozwiązanie… Nie byłbym pesymistą – chodzi o właściwy dobór fundamentu pod architekturę. W Polsce wyzwaniem są koszty i kompetencje, ale niezależność staje

Podążanie globalnymi ścieżkami daje szybki efekt skali i skrócony „time to value”.

się wymogiem regulacyjnym wynikającym z NIS2 czy AI Act. Z naszego wieloletniego doświadczenia we wdrażaniu rozwiązań cyberbezpieczeństwa wiemy, że istnieją rozsądne kompromisy między pełną niezależnością a efektywnością i skutecznością. Podobnie jak przy migracji do chmury, gdzie najrozsądniejszym wyborem jest hybryda – z mądrym migrowaniem elementów, dla których migracja ma sens. W przypadku AI taką hybrydą może być warstwowa autonomiczność poprzez outsourcing lokalnych modeli,

gdzie dane pozostają pod kontrolą i są przetwarzane w Polsce. Jeśli spojrzymy na cyberbezpieczeństwo i połączymy to z koncepcją platformizacji, która pozwala integrować modele z istniejącymi systemami SIEM czy XDR bez budowania wszystkiego od podstaw, uzyskujemy realne korzyści bez utraty kontroli.

Bez względu na to, jakie narzędzia AI wdrożysz, muszą być chronione jak infrastruktura krytyczna.

Czy outsourcing lokalnych modeli wystarczy do zgodności z NIS2 i AI Act, np. w kontekście danych przetwarzanych w SOC?

Przez kilkanaście lat i setki wdrożeń systemów bezpieczeństwa przekonaliśmy się, że kluczowa jest integracja z istniejącą infrastrukturą, nie całkowita izolacja. Outsourcing lokalnych modeli może być pierwszym krokiem na ścieżce budowania lokalnego AI. Z czasem podejście to można ewoluować w kierunku wdrażania własnych modeli. W efekcie wykazanie zgodności z regulacjami będzie o wiele łatwiejsze.

Czy możemy przełożyć to na konkretny use case?

Dużo mówi się o ryzyku zastąpienia ludzi przez AI, z drugiej strony ciągle narzekamy na brak specjalistów ds. cyberbezpieczeństwa. Weźmy automatyczny triage incydentów – lokalny model analizuje logi i flaguje anomalie znacznie szybciej niż człowiek, skracając czas reakcji. Suwerenność modelu oraz znajomość kontekstu organizacji pozwalają robić to precyzyjniej. W kolejnym etapie można zintegrować systemy XDR i SIEM z własnym modelem do korelacji alertów i analizy Threat Intel. AI nie zastępuje analityków, tylko ich uzupełnia. Pracujemy już nad projektami tego typu.

A co z osobami, które nie chcą oddać kontroli „czarnym skrzynkom”? Zwłaszcza w postaci agentów AI. Agentowa AI sprawdza się w ściśle określonych zadaniach, ale łatwo pada ofiarą manipulacji. Korzyści z przetwarzania danych są nie do przecenienia, ale modele nie wykazują ludzkiej kreatywności. Zawsze rekomendujemy działanie pod nadzorem człowieka. AI powinna być traktowana jako element infrastruktury, ale też jako element krajobrazu zagrożeń – z własnym katalogiem ryzyk. Niezależnie od wybranej ścieżki zabezpieczamy narzędzia AI równie rygorystycznie jak resztę infrastruktury. Shadow AI stanowi ogromne ryzyko, które organizacje dopiero zaczynają identyfikować.

Agentowa AI pod nadzorem brzmi rozsądnie – ale jak geopolityka wpłynie na decyzje liderów?

Geopolityczne napięcia wzmacniają potrzebę krajowej suwerenności, choć istnieje ryzyko fragmentacji rynku. Polska ma realny potencjał w rozwijanych projektach niezależnej AI, które tworzą solidny grunt pod przyszłość. Regulacje takie jak NIS2 wymuszą inwestycje, a Shadow AI będzie rosło – firmy, które teraz wdrożą przemyślane rozwiązania, zyskają przewagę i długoterminowe korzyści konkurencyjne w swoich segmentach rynku.

Jakie są kluczowe wnioski dla CISO/CIO, by nie zostać w tyle z AI?

Bez względu na to, jakie narzędzia AI wdrożysz, muszą być chronione jak infrastruktura krytyczna. Inwestycje teraz, oparte na platformizacji i integracji, pozwolą technologii mądrze uzupełnić ludzkie kompetencje, zanim braki kadrowe staną się nie do nadrobienia. CISO i CIO są pod presją zarządów skupionych na nagłówkach o wszechmocnej AI – lepiej mieć konkretną propozycję wdrożenia, niż polegać na samozwańczych „guru AI”. Warto powierzyć to zaufanym partnerom. Kilkunastoletnie doświadczenie w cyberbezpieczeństwie i ponad czterech lat budowania SOC dla firm różnej skali pozwalają mi z przekonaniem powiedzieć, że jako organizacja wiemy, jak to zrobić skutecznie oraz odpowiedzialnie. W erze AI suwerenność nie oznacza izolacji, a globalność nie oznacza utraty kontroli – kluczowe jest to, kto definiuje architekturę odpowiedzialności i ma zdolność jej egzekwowania.

Przygotujmy

systemy na erę postkwantową i nowe cyberzagrożenia

Rozwój komputerów kwantowych może w najbliższych latach podważyć skuteczność obecnych metod szyfrowania. Firmy i instytucje już dziś powinny wdrażać rozwiązania odporne na przyszłe cyberataki.

Łukasz Kolenda-Parakiel

Absolwent Politechniki Poznańskiej i MBA na WSB w Poznaniu; od 2018 r. w Alma S.A., najpierw Dyrektor Sprzedaży, obecnie Prezes Zarządu; członek Zarządu Grifninity; specjalista ds. sieci i cyberbezpieczeństwa

Rząd przyjął nową Strategię Cyberbezpieczeństwa Polski do 2029 r. Jakie zapisy z tego dokumentu, dotyczące bezpieczeństwa instytucji i firm, wydają się najważniejsze?

Strategia wyraźnie akcentuje znaczenie kryptografii postkwantowej i rozwoju technologii kwantowych. Jeszcze niedawno komputery kwantowe wydawały się odległą perspektywą, dziś jednak ich rozwój postępuje na tyle szybko, że trzeba zakładać realne zagrożenie dla obecnych metod szyfrowania. Dlatego instytucje i firmy powinny już teraz przygotowywać się do ery postkwantowej i zabezpieczać kluczowe systemy. Takie działania podejmują w Polsce już sektor wojskowy, służby publiczne i nauka, natomiast część biznesu i administracji wciąż ogranicza się jedynie do analiz i wstępnych zapytań. Tymczasem to ostatni moment, by rozpocząć realne wdrożenia, choćby w formie pilotaży.

Jak więc rozpocząć przygotowania do ery postkwantowej?

Najbardziej racjonalnym punktem startu jest zabezpieczenie transmisji danych między kluczowymi systemami, np. bazami danych. Jako Alma od ponad 20 lat w największych polskich instytucjach – bankach, ministerstwach, centrach danych – wdrażamy technologię DWDM (Dense Wavelength Division Multiplexing), która sprawia, że przez ten „rdzeń kręgowy” systemu

mogą przemieszczać się nawet nie gigabajty, lecz terabajty danych na sekundę. W takiej architekturze można stosunkowo łatwo wdrożyć dwa uzupełniające się rozwiązania. Po pierwsze, kryptografię postkwantową, czyli nowe algorytmy odporne na ataki komputerów kwantowych, które zastępują obecne mechanizmy uzgadniania kluczy. Po drugie, dystrybucję klucza kwantowego, czyli QKD, opartą na właściwościach fotonów, która pozwala wykryć próbę podsłuchu i zwiększa bezpieczeństwo transmisji.

Które sektory gospodarki powinny jednak już dziś realnie myśleć o pierwszych wdrożeniach tych zabezpieczeń?

Przede wszystkim sektor finansowy, który jest szczególnie narażony na potencjalne ataki, a dla którego wprowadzenie tego typu zabezpieczeń nie jest dużym wysiłkiem finansowym. Alma od lat dostarcza te rozwiązania wielu bankom działającym w Polsce, dzięki czemu mamy wiedzę dotyczącą architektury systemów używanych przez banki. Również instytucje rządowe i publiczne, gromadzące dane obywateli, muszą już dziś myśleć o tego typu zabezpieczeniach. Dodałbym jeszcze sektor medyczny, który posiada wrażliwe dane pacjentów, oraz podmioty zarządzające infrastrukturą krytyczną z sektora energetyki, transportu czy przemysłu. Ważne, żeby

zacząć zabezpieczać systemy, zanim dojdzie do ataków – a przecież ich ryzyko w ostatnich latach znacząco wzrosło. Projekty związane z budową infrastruktury komunikacji kwantowej są już realizowane w Europie i na świecie. Jakie najważniejsze wnioski z takich inicjatyw płyną do Polski? Widzimy potężne zaangażowanie w rozwój systemów kwantowych oraz poprawę ich bezpieczeństwa w Chinach, gdzie już powstały ogromne ilości sieci do komunikacji kwantowej. Chińczycy inwestują też w komunikację satelitarną, by mieć alternatywę dla łączy naziemnych. Europa pozostaje nieco z tyłu, ale również widzimy duże zainteresowanie łącznością kwantową – w trakcie realizacji jest chociażby projekt EuroQCI, który ma spiąć krajowe sieci kwantowe w jedną wspólną sieć paneuropejską.

Ważne, żeby zacząć zabezpieczać systemy, zanim dojdzie do ataków.

Ochrona systemów OT kluczowa dla bezpieczeństwa organizacji

Na cyberbezpieczeństwo składają się trzy komplementarne obszary: technologia, procesy i ludzie. Polskie firmy wciąż niedostateczny nacisk kładą na ochronę systemów OT, choć to podstawa dla bezpieczeństwa procesów w całej organizacji.

Katarzyna Berbeć

Współzałożyciel ICsec, Dyrektor ds. Strategii i Rozwoju, pełnomocnik zarządu ds. zintegrowanego systemu zarządzania zgodnego z normami ISO 9001, 27001 oraz 22301, Cybersecurity Certified (certyfikat CC, ICS2)

Jakie są największe luki w podejściu polskich organizacji przemysłowych do cyberbezpieczeństwa systemów OT, czyli technologii operacyjnej?

Przede wszystkim brakuje inwentaryzacji zasobów w formie cyfrowego rejestru, przez co wiele organizacji wciąż nie zna architektury swoich sieci OT. Dużą luką w świadomości osób zarządzających systemami w firmach jest też brak oddzielenia systemów OT od systemów IT. Tymczasem maszyny i urządzenia, niezbędne w procesach produkcyjnych, narażone są na cyberataki głównie przez sieć IT, do której dostęp mają osoby z zewnątrz. Powszechnym błędem jest też brak segmentacji systemów OT, co zwiększa ryzyko zakłóceń działania części operacyjnej przedsiębiorstw. Tymczasem, segmentując poszczególne elementy w oddzielne bloki, separujemy je od siebie, dzięki czemu cyberatak na jeden segment nie paraliżuje pracy pozostałych.

Jednym z kluczowych elementów ochrony sieci przemysłowych jest budowanie tzw. świadomości sytuacyjnej. Dlaczego to tak ważne?

Budowanie świadomości sytuacyjnej jest kluczowe, aby organizacje mogły zrozumieć, co w ogóle chcą chronić. Z pomocą specjalistycznych narzędzi należy zinwentaryzować cały zasób OT, dzięki czemu możliwe jest nie tylko zidentyfikowanie wszystkich urządzeń,

ale też nakreślenie mapy, która pokaże, jak te urządzenia łączą się ze sobą i jak optymalnie je wysegmentować. Zbudowanie świadomości sytuacyjnej jest też konieczne do określenia, które z urządzeń powinny mieć status krytycznych, by objąć je szczególną ochroną. Tak przeprowadzona inwentaryzacja zasobów OT to podstawowy krok w budowie systemu zabezpieczeń zgodnie z nowymi dyrektywami, które nakładają na firmy obowiązki dotyczące cyberbezpieczeństwa.

Wiele założeń cyberbezpieczeństwa odwołuje się do NIST Cybersecurity Framework. Jakie inne dyrektywy powinny mieć na uwadze przedsiębiorstwa? NIST Cybersecurity Framework w wersji 2.0 ma dość ogólne zapisy i jest uniwersalny, dzięki czemu pasuje do wielu organizacji. To punkt wyjścia, tym bardziej że jest łatwy do wdrożenia. Natomiast wraz z rozwojem operacyjnym i implementacją bardziej zaawansowanych procesów organizacje muszą swoje zabezpieczenia pogłębiać. Kolejnym krokiem może być norma ISO 27001, która pomaga firmom chronić poufność i integralność danych. Z kolei podmioty z mocno rozbudowanymi sieciami OT powinny kierować się normą inżynierską IEC 62443, która kładzie nacisk właśnie na OT.

Jak w prosty sposób organizacje mogą podnieść poziom bezpieczeństwa OT?

Podkreślę, że cyberbezpieczeństwo to proces ciągły, a nie jednorazowe działanie. Na cyberbezpieczeństwo składają się trzy komplementarne obszary: technologia, procesy i ludzie. Żeby mówić o wysokiej jakości zabezpieczeń, firmy muszą szkolić swoje kadry, tworzyć interdyscyplinarne zespoły i właściwie rozdzielić między

Budowanie świadomości sytuacyjnej jest kluczowe, aby organizacje mogły zrozumieć, co w ogóle chcą chronić.

nie odpowiedzialność za poszczególne elementy systemów OT. Od strony procesowej należy przeprowadzić audyty bezpieczeństwa i na tej podstawie wybrać odpowiedni system ochrony, który będzie dopasowany do zasobów organizacji. Z kolei technologia powinna odpowiadać skali działalności przedsiębiorstwa – tak, by organizacja zawsze była w stanie tę technologię nadzorować i zabezpieczać.

WAŻNE

Doradca cyberbezpieczeństwa

– nowy filar w podmiotach

systemu cyberbezpieczeństwa

Nowelizacja ustawy o Krajowym Systemie Cyberbezpieczeństwa oraz implementacja do polskiego porządku prawnego dyrektywy NIS2 kreują zupełnie nową, sformalizowaną rolę w podmiotach krajowego systemu cyberbezpieczeństwa – kierownika ds. cyberbezpieczeństwa. Zmiana ta nie jest przypadkowa – wynika z konieczności ujednolicenia standardów ochrony w sektorach o krytycznym znaczeniu dla państwa, gdzie dotychczasowe, rozproszone podejście do zabezpieczeń okazało się niewystarczające wobec ataków hybrydowych i ransomware.

Michał Giziński Ekspert ds. cyberbezpieczeństwa Krajowego Instytutu Cyberbezpieczeństwa

Wprowadzenie funkcji kierownika w zakresie cyberbezpieczeństwa stanowi naturalną ewolucję oraz uzupełnienie mechanizmów znanych z RODO. O ile Inspektor Ochrony Danych (IOD) koncentruje się na prywatności i legalności przetwarzania danych osobowych osób fizycznych, o tyle kierownik ds. cyberbezpieczeństwa ma znacznie szerszy mandat. Jego zadaniem jest ochrona całego ekosystemu informacyjnego w podmiocie ważnym lub kluczowym – w tym tajemnic przedsiębiorstwa, ciągłości procesów technologicznych i integralności systemów IT/OT.

Kim jest kierownik ds. cyberbezpieczeństwa w świetle przepisów?

Fundamentem nowej roli są przepisy znowelizowanej ustawy, które wprost nakładają na podmioty kluczowy i ważny obowiązek wyznaczenia osoby odpowiedzialnej m.in. za utrzymywanie kontaktów z podmiotami krajowego systemu cyberbezpieczeństwa. Zgodnie z art. 15 ust. 1 pkt 3 UKSC podmioty te muszą wyznaczyć osobę pełniącą funkcję punktu kontaktowego i koordynatora działań ochronnych. To nie jest jedynie formalność. Ustawodawca wymaga, aby osoba ta posiadała wiedzę i kompetencje pozwalające na skuteczne zarządzanie Systemem Zarządzania Bezpieczeństwem Informacji (SZBI). W podmiotach kluczowych (m.in. energetyka, bankowość) oraz ważnych (m.in.

gospodarka odpadami, woda i ścieki, produkcja żywności) rola ta staje się strategicznym ogniwem łączącym operacyjną technologię z poziomem zarządczym.

Outsourcing funkcji dzięki art. 14 UKSC Jednym z najważniejszych zapisów nowelizacji jest art. 14 ustawy o KSC, który wskazuje, że zadania związane z zapewnieniem cyberbezpieczeństwa mogą być realizowane przez zewnętrzny podmiot świadczący usługi z zakresu cyberbezpieczeństwa. Oznacza to, że funkcja kierownika ds. cyberbezpieczeństwa nie musi być obsadzona przez etatowego pracownika. Organizacja może zdecydować się na model outsourcingu usług od zewnętrznej firmy. Jak czytamy w ustawie: „Podmiot kluczowy lub podmiot ważny w celu realizacji zadań, o których mowa w art. 8 oraz w art. 9–13, powołuje wewnętrzne struktury odpowiedzialne za cyberbezpieczeństwo lub zawiera umowę z dostawcą usług zarządzanych w zakresie cyberbezpieczeństwa”. Wybór zewnętrznego partnera nie zdejmuje jednak z organizacji odpowiedzialności za nadzór nad realizacją tych zadań. Partner ten musi gwarantować najwyższe standardy, co potwierdza Michał Giziński, ekspert ds. cyberbezpieczeństwa Krajowego Instytutu Cyberbezpieczeństwa: „Rola kierownika ds. cyberbezpieczeństwa w nowych strukturach to nie tylko zarządzanie firewallami czy

systemami antywirusowymi. To przede wszystkim rola dyplomaty i stratega, który musi przekonać zarząd, że wydatki na cyberbezpieczeństwo to nie koszt, lecz inwestycja w przetrwanie firmy”.

Wprowadzenie funkcji kierownika w zakresie cyberbezpieczeństwa stanowi naturalną ewolucję i uzupełnienie mechanizmów znanych z RODO.

Obowiązki i odpowiedzialność zarządu Rola kierownika (własnego lub zewnętrznego) jest ściśle powiązana z katalogiem obowiązków wymienionych w art. 8–15 UKSC. Należą do nich m.in. zarządzanie incydentami (z raportowaniem w ciągu 24 h), analiza ryzyka oraz audyty podatności.

Kluczowym elementem nowelizacji jest art. 12a UKSC, który wprowadza osobistą odpowiedzialność członków organów zarządzających za zatwierdzanie i nadzór nad środkami bezpieczeństwa.

Czy twój produkt jest naprawdę bezpieczny? Europa zaczyna to sprawdzać

Klikasz „zaakceptuj”, logujesz się do banku, podpisujesz dokument online. Wszystko działa – ale czy na pewno jest bezpieczne? W Europie kończy się era zaufania „na słowo”. Nadchodzi czas certyfikacji.

Czytaj więcej na stronie: poradnikbiznesu.info

Jeszcze do niedawna cyberbezpieczeństwo było dla wielu organizacji czymś w rodzaju deklaracji: system „jest bezpieczny”, bo spełnia określone wymagania lub przeszedł testy. Problem w tym, że użytkownik – ani często nawet instytucja – nie ma jak tego realnie zweryfikować.

Dlatego Unia Europejska zmienia podejście. Nowe regulacje, takie jak dyrektywa NIS2, Cybersecurity Act czy Cyber Resilience Act, coraz częściej odwołują się do certyfikacji jako obiektywnego potwierdzenia poziomu bezpieczeństwa. W tym kontekście powstał EUCC – europejski system certyfikacji cyberbezpieczeństwa dla produktów ICT. Zamiast wielu krajowych schematów pojawił się jeden,

rozpoznawalny w całej Unii i prawnie skuteczny we wszystkich krajach członkowskich. Co ważne – certyfikacja nie będzie tylko formalnością, ale procesem opartym na rzeczywistych testach i analizie odporności systemów na ataki.

W Polsce jedną z kluczowych ról w tym procesie odgrywa Instytut Łączności – PIB. To tutaj, w Laboratorium Oceny Bezpieczeństwa (LOB), rozwijane są metody i techniki badawcze, które pozwalają sprawdzić, czy system faktycznie „wytrzyma” próbę cyberataku, a nie tylko dobrze wygląda w dokumentacji.

Jak to wygląda w praktyce? Specjaliści projektują realistyczne scenariusze ataków, analizując czas potrzebny na ich przygotowanie, wymaganą wiedzę napastnika oraz potrzebne narzędzia.

Dopiero taka wielowymiarowa ocena pozwala określić rzeczywisty poziom bezpieczeństwa systemu.

Równie ważne jest to, jak działa samo laboratorium. W LOB wdrożono zintegrowane podejście do zarządzania jakością i bezpieczeństwem informacji – chroniony jest nie tylko badany system, ale także cały proces jego oceny i dane, które w nim powstają. Cyberbezpieczeństwo to dziś nie jeden test ani jedno rozwiązanie, ale cały ekosystem regulacji, kompetencji i technologii. Dla użytkownika końcowego oznacza to większą pewność, że rozwiązania cyfrowe zostały sprawdzone rzetelnie i porównywalnie w całej Europie. A dla rynku – początek nowej ery, w której bezpieczeństwo nie jest obietnicą, lecz potwierdzoną normą.

Instytut Łączności – PIB

Najgorszy błąd to działanie bez ustalenia, co

dokładnie się wydarzyło, ale błędów jest wiele.

Większość organizacji nie przegrywa z atakującymi dlatego, że są słabe – przegrywa dlatego, że nie widzi.

Paula Januszkiewicz

CEO & Founder CQURE Inc. Ekspertka cyberbezpieczeństwa, założycielka CQURE oraz CQURE Academy. Laureatka tytułu Enterprise Security Microsoft MVP i Microsoft Regional Director. Jedna z najwyżej ocenianych prelegentek konferencji RSAC, Black Hat, Microsoft Ignite, GISEC i LEAP. Absolwentka Harvard Business School.

Bezpieczeństwo to nie narzędzia – to przemyślane decyzje

WYWIAD

Gdyby miała pani w kilku krokach opisać typowy scenariusz ataku na polską firmę – od pierwszego punktu wejścia do pełnego przejęcia infrastruktury – jak by to wyglądało?

Najpierw pozwolę sobie nieco wyjaśnić postrzeganie samego ataku, ponieważ ma on podstawy, które najpierw musimy zrozumieć. W cyberbezpieczeństwie wciąż funkcjonuje wygodny mit, że organizacje przegrywają, bo napastnicy są coraz bardziej zaawansowani. W praktyce jest odwrotnie. Większość incydentów nie wynika z przełomowych technik, tylko z przewidywalnych błędów w projektowaniu środowiska, zarządzaniu tożsamością i braku kontroli nad przepływem uprawnień. Z perspektywy osoby, która regularnie symuluje ataki na środowiska enterprise, widać wyraźnie, że atak nie jest chaotycznym zdarzeniem. To proces poruszania się po systemie zależności, który organizacja sama stworzyła. Właśnie dlatego można go przewidzieć. Atak jest często konsekwencją architektury, a nie tylko klasycznie postrzeganym incydentem. Największy błąd strategiczny polega na traktowaniu ataku jako „wejścia do systemu”. W rzeczywistości wejście jest tylko momentem inicjalnym. Kluczowe jest to, co środowisko pozwala zrobić dalej. W praktyce oznacza to, że pojedynczy punkt wejścia rzadko jest problemem sam w sobie, a decydujące znaczenie ma sposób, w jaki tożsamości są zarządzane i wykorzystywane w infrastrukturze. Atak rozwija się zgodnie z logiką środowiska, a nie tylko kreatywnością napastnika. Jeżeli infrastruktura umożliwia nadużycie jednej tożsamości do uzyskania kolejnych, to atak nie musi być wyrafinowany. Wystarczy, że jest konsekwentny.

Z jakimi najbardziej zaskakującymi lukami w zabezpieczeniach spotyka się pani zespół podczas audytów? Czy są błędy, które wciąż panią zaskakują?

W planowaniu strategii cyberbezpieczeństwa najważniejsze jest osiągnięcie stanu pełnej transparentności, czyli identyfikacja źródeł danych, dzięki którym wiemy, co dzieje się w infrastrukturze, a w dalszym etapie korelacja tych danych w odpowiednim systemie SIEM. Jest to dla mnie takie „hello world” w cyberbezpieczeństwie. Brak tego uważam za jedną z większych luk w zabezpieczeniach.

Teoretycznie bezpieczna chmura dzisiaj wymaga gruntownego spojrzenia na to, jakie w niej logujemy informacje, żeby np. w trakcie incydentu móc zrozumieć, co się wydarzyło. Praktycznie nigdy nie widzimy chmury dostosowanej do aktualnych standardów bezpieczeństwa, podobnie jak Active Directory. W obu obszarach nadawane są uprawnienia do obiektów, które są często zbędne i zbyt wysokie – to prowadzi do eskalacji. W Active Directory mamy uprawnienie GenericWrite, które może być nadawane np. przez jakąś aplikację zewnętrzną; w większym obrazie okazuje się to zabójcze dla infrastruktury.

Kiedy atak już nastąpił – jaki jest najczęstszy błąd, który organizacje popełniają w pierwszych godzinach po wykryciu naruszenia?

Najgorszy błąd to działanie bez ustalenia co dokładnie się wydarzyło, ale błędów jest wiele. Większość organizacji nie przegrywa z atakującymi dlatego, że są

słabe – przegrywa dlatego, że nie widzi. Dlatego należy jak najszybciej odizolować zainfekowane komponenty i odciąć dostęp do internetu, aby zatrzymać potencjalne dalsze działania hakerów. Konieczne jest również odpowiednie zabezpieczenie dowodów (na pewno nie odtwarzanie maszyn w tym samym miejscu), ale też skupienie się na odtworzeniu usługi biznesowej. Konieczne jest również znalezienie persystencji, czyli miejsc, w których hakerzy mogą pozostawać w ukryciu do czasu, aż infrastruktura zostanie częściowo odtworzona i przywrócony zostanie dostęp do internetu. Trzeba działać szybko, nie tylko ze względu na konieczność zmieszczenia się w 72 h, aby zaraportować incydent oraz ogólną odpowiedzialność zarządów względem dostawców, ale również dlatego, że trzeba ustalić, co się wydarzyło, żeby móc dobrze zareagować. Zajmuję się profesjonalnie odpowiadaniem na globalne incydenty od wielu lat i jeśli nie jesteśmy w stanie odpowiedzieć na trzy pytania:

• Co się wydarzyło?

• Gdzie to się rozprzestrzeniło?

• Do czego uzyskano dostęp, czy wyciekły dane i – jeśli tak – to jakie? to nie ma gotowości do reagowania na

Pytanie brzmi: czy dzisiaj bylibyśmy w stanie udzielić odpowiedzi, jeśli zasymulujemy atak? W Unii Europejskiej odpowiedzi na te pytania w większym lub mniejszym stopniu są wymagane prawem. Pamiętajmy, że podczas incydentów jedna rzecz staje się boleśnie oczywista: brak transparentności zabija reakcję. Typowe problemy to brak widoczności w logach, brak jasnej osi czasu, brak wspólnego zrozumienia sytuacji między zespołami. Nagle zamiast prowadzić analizę, zaczyna się zgadywanie. Atakujący nie muszą być niewidzialni – wystarczy, że organizacja nie widzi. Z rzeczywistych przypadków wynika, że największe wyzwania są zawsze takie same:

• Rozproszona telemetria

• Niespójne logowanie

• Brakujący lub ukryty kontekst

• Opóźniony dostęp do krytycznych danych

Dlatego transparentność nie dotyczy raportowania – dotyczy kontroli. Transparentność zamienia chaos w dowody, dowody w decyzje, a decyzje w działania ograniczające skutki. I to właśnie tam wygrywa się prawdziwą walkę.

Cyfrowe fundamenty wolności:

dlaczego suwerenność technologiczna to sprawa każdego z nas

Współczesne państwo działa równolegle w dwóch światach. Fizycznym – z granicami i instytucjami – oraz cyfrowym, gdzie granice się zacierają. Bankowość, ochrona zdrowia, administracja – to wszystko opiera się dziś na technologii. Problem w tym, że rzadko zadajemy sobie pytanie, kto tę technologię kontroluje. Coraz częściej jesteśmy „u siebie”, ale dostęp do kluczowych systemów zależy od podmiotów z zewnątrz. Na tym w praktyce polega cybersuwerenność.

Łukasz Gawron

CEO Polskiego Klastra

Cyberbezpieczeństwa

#CyberMadeInPoland

To nie jest koncepcja o odcinaniu się od świata ani budowie „cyfrowej twierdzy”.

Chodzi o zdolność państwa do realnego wpływu na własną infrastrukturę krytyczną – czyli kto ją dostarcza, kto nią zarządza i na jakich zasadach działa. Ostatnie lata jasno pokazały, że technologia stała się narzędziem nacisku. Dostawcy podlegają konkretnym jurysdykcjom, a decyzje podejmowane poza Polską mogą bezpośrednio wpływać na działanie naszych instytucji. Bez własnych kompetencji technologicznych lub możliwości stawiania jasnych i twardych warunków współpracy jesteśmy zależni od cudzych decyzji. Polska ma potencjał, żeby tę sytuację zmieniać. Mamy firmy i specjalistów, którzy budują rozwiązania konkurencyjne wobec globalnych graczy. Mamy dynamicznie rozwijające się ekosystemy technologiczne. Mamy duży rynek i ogromny potencjał do ekspansji zagranicznej. Potrafimy tworzyć technologie działające na dużą skalę i realnie użyteczne. Problem nie leży w kompetencjach, tylko w systemie.

Niestety dziś w zamówieniach publicznych wciąż zbyt często wygrywa marka, a nie jakość. Kryteria oparte

na międzynarodowych rankingach czy rozpoznawalności automatycznie premiują największe korporacje. W efekcie decyzje zakupowe nie zawsze odzwierciedlają realny poziom bezpieczeństwa czy dopasowania technologii do potrzeb. Tym samym zamykamy polskim innowatorom dostęp do rynku i możliwość skalowania swojej działalności w Polsce, a tym samym zdobycia odpowiednich referencji. Rola państwa jest tu kluczowa. Nie jako regulator, który zamyka rynek, tylko jako świadomy klient. Taki, który daje lokalnym firmom szansę na zdobycie referencji i budowę skali. Bez tego trudno konkurować globalnie, niezależnie od jakości produktu.

Drugi element to współpraca branży. Pojedyncze firmy często nie mają zasobów, żeby samodzielnie konkurować z dużymi dostawcami. Dlatego znaczenie mają inicjatywy takie jak klaster #CyberMadeInPoland. Konsolidacja kompetencji, wspólne projekty i jeden głos wobec administracji realnie zwiększają siłę oddziaływania całego sektora. Na końcu sprowadza się to do prostego pytania: czy jesteśmy w stanie utrzymać działanie kluczowych

systemów na własnych warunkach?

Jeśli nie, to nie mówimy o pełnej niezależności, tylko o zarządzaniu ryzykiem zależności.

Mamy firmy i specjalistów, którzy budują rozwiązania konkurencyjne wobec globalnych graczy.

Inwestycja w krajowe technologie to nie jest tylko wsparcie gospodarki. To element bezpieczeństwa państwa. W świecie, w którym konflikt coraz częściej toczy się w przestrzeni cyfrowej, własne kompetencje i kontrola nad systemami stają się równie istotne jak tradycyjne zdolności obronne. Cybersuwerenność to w praktyce możliwość podejmowania decyzji u siebie bez ryzyka, że ktoś z zewnątrz wyłączy nam kluczowe elementy systemu.

WAŻNE

Nowe oblicza phishingu i deepfake – jak nie dać się oszukać w erze AI?

Fałszywe wiadomości, wygenerowany głos i realistyczne nagrania wideo sprawiają, że współczesne cyberoszustwa są trudniejsze do rozpoznania niż kiedykolwiek wcześniej. W erze AI zagrożeniem nie jest już wyłącznie technologia, ale także sposób, w jaki reagujemy na komunikaty pod presją czasu.

Alicja Marzec

IT Program & Project Manager, specjalizująca się w obszarze transformacji cyfrowej, cyberbezpieczeństwa oraz zarządzania projektami technologicznymi; Stowarzyszenie Women Go Cyber

Dlaczego phishing stał się dziś bardziej niebezpieczny?

Jeszcze kilka lat temu wiadomości phishingowe można było rozpoznać po błędach językowych lub podejrzanych linkach. Obecnie sztuczna inteligencja umożliwia tworzenie wiadomości poprawnych stylistycznie, dopasowanych do branży, stanowiska i konkretnego odbiorcy. Atak coraz częściej wygląda jak zwykła wiadomość od współpracownika lub partnera biznesowego.

A deepfake?

To jedno z największych wyzwań dla cyberbezpieczeństwa. Deepfake pozwala wygenerować obraz lub głos osoby, która wydaje się autentyczna. Wystarczy kilkadziesiąt sekund próbki głosu, aby stworzyć realistyczne nagranie przypominające przełożonego czy członka zarządu.

Skala zjawiska Według raportu Signicat liczba oszustw z deepfake wzrosła o 2137 proc. w ciągu trzech lat, a 42,5 proc. prób fraudowych w sektorze finansowym ma charakter AI-driven. Sztuczna inteligencja wspiera działania przestępców nie w przełamywaniu systemów, ale w manipulowaniu decyzjami ludzi.

Badania Harvard Kennedy School pokazują, że wiadomości phishingowe generowane przez modele językowe osiągają 54 proc. skuteczności kliknięć, podczas gdy klasyczne kampanie

tworzone ręcznie – ok. 12 proc. Równie wysoki wynik uzyskały wiadomości przygotowane przez doświadczonych specjalistów social engineeringu. AI pozwala osiągnąć skuteczność ekspertów znacznie szybciej, taniej i na dużą skalę – w kilka sekund analizuje publicznie dostępne informacje o odbiorcy i tworzy komunikat dopasowany do jego roli i kontekstu zawodowego.

Dlaczego te ataki są skuteczne?

Najsilniej działa presja czasu. Komunikaty zawierające słowa „pilne”, „natychmiast” lub „tylko teraz” ograniczają refleksję i zwiększają prawdopodobieństwo automatycznej reakcji. Współczesny cyberatak coraz częściej nie próbuje włamać się do systemu – próbuje skłonić człowieka do wykonania określonej czynności.

Jak możemy chronić się przed nowymi zagrożeniami?

Nietypowe polecenia finansowe, zmiany danych lub pilne prośby powinny być zawsze potwierdzane drugim kanałem komunikacji. Coraz więcej organizacji wdraża zasadę podwójnej autoryzacji decyzji oraz dodatkowej weryfikacji komunikatów od osób decyzyjnych. Co to oznacza dla firm? Ataki z wykorzystaniem AI będą coraz bardziej spersonalizowane oraz trudniejsze do wychwycenia. Przewagę

zyskają firmy, które potraktują bezpieczeństwo nie wyłącznie jako obszar technologiczny, lecz element kultury organizacyjnej. Kluczowe stają się procedury komunikacyjne: potwierdzanie nietypowych poleceń drugim kanałem, podwójna autoryzacja decyzji finansowych oraz nawyk weryfikacji nawet pozornie wiarygodnych komunikatów.

Liczba oszustw z deepfake wzrosła o 2137 proc. w ciągu trzech lat.

Można zakładać, że w przyszłości standardem staną się narzędzia automatycznie wykrywające manipulację głosem, obrazem i treścią generowaną przez AI, jednak nawet najlepsze systemy nie zastąpią czujności człowieka. To właśnie połączenie technologii, procedur i świadomości pracowników będzie decydować o realnej odporności organizacji. Firmy już dziś powinny uczyć pracowników nie tylko rozpoznawania cyberzagrożeń, ale także rozumienia mechanizmów cyfrowej manipulacji.

Cyberbezpieczeństwo danych to fundament państwa

W dobie nasilających się zagrożeń dla cyberbezpieczeństwa danych nie możemy myśleć o państwie jako strukturze rozsianych odpowiedzialności. Potrzeba nam wspólnego działania, bo obszar cyfrowy to dzisiaj pole największego ryzyka.

Konrad Komornicki

Zastępca Prezesa

Urzędu Ochrony Danych Osobowych

Wojna hybrydowa, suwerenność cyfrowa – to pojęcia dziś odmieniane przez wszystkie przypadki. Nie bez przyczyny. Od jakiegoś czasu, a już na pewno od czterech lat, żyjemy w świecie niepewności, w którym nasze najdrobniejsze ruchy w sferze cyfrowej mogą zyskać znaczenie w działaniach wymierzonych przeciwko nam – obywatelom. Z kolei skoordynowane działania przeciwko obywatelom mogą się okazać o wiele bardziej skuteczne w atakowaniu całego państwa niż akcje militarne. W tej perspektywie przywołam słowa prezesa UODO Mirosława Wróblewskiego z 2025 r., dotyczące konieczności reagowania na zagrożenia cyfrowe: „To jest nie mniej ważne dla zapewnienia narodowego bezpieczeństwa niż budowanie fizycznych murów”. Trudno się pod nimi nie podpisać. Co zatem możemy zrobić? Obserwujemy galopujący rozwój nowych technologii, w tym sztucznej inteligencji. Pamiętajmy więc, że proces ten musi iść w parze z poszanowaniem prawa do ochrony danych oraz budowaniem zaufania do usług publicznych. Bez tego niełatwo wyobrazić sobie odporność na kryzysy.

Jeśli zaś chodzi o usługi publiczne i tak często z nimi łączony numer PESEL, zwróćmy uwagę na to, że większość Polaków nie korzysta jeszcze z możliwości zastrzeżenia numeru

PESEL, mimo że aplikacja mObywatel to ułatwia. Co prawda liczba obywateli, którzy decydują się na zastrzeżenie, systematycznie wzrasta, ale warto o tym przypominać, bo PESEL to dana podstawowa – co się stanie, jeżeli nieprzyjazne nam państwo przejmie informacje o nas już na takim poziomie? Problem ten wiąże się też ze zbyt łatwym dostępem do rejestrów publicznych w Polsce oraz z coraz szerszym łączeniem baz danych różnego typu. Powinno to zostać uznane za fundamentalne ryzyko dla państwa. To niezwykle istotne, że Strategia Cyberbezpieczeństwa RP oraz Strategia Cyfryzacji Państwa na najbliższe lata ujmują te zagadnienia, lecz warto poddać je jeszcze raz refleksji. Cyberbezpieczeństwo należy również rozumieć jako dziedzinę z kategorii działań zespołowych, wymagających nie tylko nadzoru organów ochrony danych i innych instytucji państwa w ramach skoordynowanego działania podmiotów UE, lecz także współpracy krajowych oraz międzynarodowych przedsiębiorstw technologicznych. Dopiero tak rozumiana struktura kooperacji – przepływ informacji na każdym szczeblu – posłuży jako element bezpieczeństwa RP oraz całej Unii. To ważne także, jeśli zastanowimy się nad bezpieczeństwem gospodarczym. Wiemy, że platformy internetowe znajdujące się poza Europejskim Obszarem Gospodarczym, a zatem omijające wymogi UE, zbierają informacje o nas

i naszych zachowaniach. Nie chodzi tylko o szpiegostwo gospodarcze, ale też o pozyskiwanie wiedzy o tym, jak można nami manipulować.

Większość Polaków nie korzysta jeszcze z możliwości zastrzeżenia numeru PESEL, mimo że aplikacja mObywatel to ułatwia.

W tym kontekście potrzeba nam też działań w walce z dezinformacją.

Musimy w tym względzie nauczyć się łączyć kompetencje instytucji różnych dziedzin życia społecznego. Szczęśliwie na polskim gruncie mamy już tutaj pierwsze sukcesy. Nauczmy się również wykorzystywać możliwości, które oferuje nam nowe prawo. Ustawa o Krajowym Systemie Cyberbezpieczeństwa, implementująca zasadnicze unijne przepisy i wchodząca właśnie w życie, to jedna z takich szans. Postarajmy się ją wykorzystać.

Jak cyberbezpieczeństwo buduje wartość przedsiębiorstwa

Małe i średnie firmy przez długi czas postrzegały bezpieczeństwo cyfrowe jako dodatkowy koszt lub przeszkodę w prowadzeniu działalności. Dziś ta perspektywa diametralnie się zmienia – właściwa ochrona informacji wiąże się z realnym potencjałem biznesowym. Dane są jednym z najcenniejszych zasobów, a zdolność do ich zabezpieczania przekłada się bezpośrednio na wiarygodność wobec klientów, partnerów i inwestorów.

Krzysztof Gulda

Prezes PARP

Cyberbezpieczeństwo przestało być kosztem IT, a stało się jednym z kluczowych czynników wartości przedsiębiorstwa. Dziś mówimy o realnych liczbach: tylko w 2024 r. odnotowano ponad 600 tys. zgłoszeń incydentów, a ponad 80 proc. firm deklaruje gotowość zapłacenia okupu po utracie dostępu do danych. To pokazuje, że brak inwestycji w bezpieczeństwo oznacza konkretne ryzyko finansowe i operacyjne. Z drugiej strony firmy, które wdrażają skuteczne mechanizmy ochrony i potrafią to komunikować, zyskują przewagę konkurencyjną, łatwiejszy dostęp do partnerów i finansowania oraz wyższy poziom zaufania klientów. Cyberbezpieczeństwo nie tylko chroni – ono dziś realnie zarabia na rozwój firmy – podkreśla Krzysztof Gulda, prezes PARP.

Cyberatak czy okup?

W 2024 r. liczba zgłoszeń zarejestrowanych przez CERT wyniosła 600 990, z czego 103 449 to obsłużone incydenty. W porównaniu z 2023 r. liczba zgłoszeń wzrosła o 62 proc., a liczba zarejestrowanych incydentów – o 29 proc., co potwierdza utrzymujący się trend wzrostowy zagrożeń. Badanie VECTO z 2025 r. tylko dopełnia ten obraz: ponad 80 proc. polskich firm byłoby gotowych zapłacić okup w przypadku całkowitego zaszyfrowania danych

przez hakerów. Koszty przestojów, odzyskiwania danych i odbudowy zaufania klientów okazują się dla wielu przedsiębiorstw trudne do oszacowania – i właśnie ta niepewność napędza skłonność do ustępowania szantażowi.

Rosnąca świadomość rynku Z raportu PARP „Wybrane technologie cyfrowe i stopień ich wykorzystania w przedsiębiorstwach w latach 2019–2025” wynika, że polskie firmy coraz poważniej traktują kwestie ochrony cyfrowej infrastruktury. W analizowanym okresie ponad 90 proc. przedsiębiorstw stosowało co najmniej jeden środek cyberbezpieczeństwa. Rośnie też popularność uwierzytelniania wieloskładnikowego – odsetek firm korzystających z co najmniej dwóch metod weryfikacji przekracza 40 proc. Najczęściej stosowanym rozwiązaniem pozostaje silne hasło, które w 2025 r. wykorzystywało 81 proc. badanych firm. Rosnąca liczba cyberzagrożeń kształtuje świadomość nie tylko przedsiębiorców, ale i konsumentów. Klienci coraz częściej pytają nie tylko o cenę i jakość produktu, lecz także o to, jak firma chroni ich dane i czy działa odpowiedzialnie w środowisku cyfrowym. Dla MŚP oznacza to konieczność zmiany podejścia – cyberbezpieczeństwo powinno stać się elementem oferty i komunikacji marki. Transparentność

w tym obszarze może być realną przewagą konkurencyjną, szczególnie na rynkach wymagających wysokich standardów zgodności.

Cyberbezpieczeństwo jako fundament zaufania

Aby skutecznie wykorzystać cyberbezpieczeństwo jako element wizerunku firmy, nie są potrzebne ogromne budżety. Kluczowe jest podejście systemowe: edukacja pracowników, wdrożenie podstawowych standardów

Rosnąca liczba cyberzagrożeń kształtuje

świadomość nie tylko przedsiębiorców, ale i konsumentów.

ochrony, regularne testy oraz konsekwentne komunikowanie tych działań na zewnątrz. Nawet proste informacje o stosowaniu szyfrowania danych czy polityce prywatności mogą skutecznie budować zaufanie klientów i wzmacniać pozycję firmy na rynku.

MFA a nowelizacja KSC: jak zabezpieczyć dostęp oraz wspierać zgodność?

Podpisana przez Prezydenta w lutym 2026 r. znowelizowana ustawa o Krajowym Systemie Cyberbezpieczeństwa (KSC), wdrażająca w Polsce założenia unijnej dyrektywy NIS2, przenosi nacisk z ogólnych deklaracji na konkretne środki zarządzania bezpieczeństwem w systemach informacyjnych. W praktyce oznacza to większą odpowiedzialność organizacji za kontrolę dostępu, autentyczność logowań oraz ochronę danych przed nieuprawnioną zmianą.

Art. 8 ustawy o KSC nie wymienia uwierzytelniania wieloskładnikowego (MFA) wprost, ale część opisanych w nim obowiązków dotyczących wdrożenia systemu zarządzania bezpieczeństwem najskuteczniej realizuje się właśnie poprzez MFA. Wdrożone środki techniczne i organizacyjne muszą zapewniać m.in. bezpieczną eksploatację systemów, kontrolę dostępu, zapewnienie poufności, integralności, dostępności i autentyczności informacji oraz ochronę przed nieuprawnioną modyfikacją. W praktyce uwierzytelnianie wieloskładnikowe wspiera realizację tych wymogów, ograniczając ryzyko przejęcia kont i nieautoryzowanych zmian w systemach informacyjnych.

„Art. 8 ustawy o KSC nie wymienia uwierzytelniania wieloskładnikowego (MFA) wprost, ale część opisanych w nim obowiązków dotyczących wdrożenia systemu zarządzania bezpieczeństwem najskuteczniej realizuje się właśnie poprzez MFA”.

Znowelizowana ustawa ustanowiła również terminy na osiągnięcie

zgodności: 6 miesięcy na zgłoszenie do wykazu podmiotów kluczowych i ważnych oraz 12 miesięcy na wdrożenie wymaganych mechanizmów zarządzania ryzykiem i rozpoczęcie pracy z państwowym systemem do zgłaszania incydentów i wymiany informacji o zagrożeniach S46. Z perspektywy zarządzania dostępem oznacza to konieczność uporządkowania procesów uwierzytelniania tam, gdzie ryzyko przejęcia konta może wpływać na ciągłość działania usług, a czasu na dostosowanie się do wymogów wcale nie ma dużo.

W kontekście ustawy o KSC uwierzytelnianie MFA pełni funkcję praktycznego mechanizmu ograniczającego ryzyko przejęcia konta i nieautoryzowanego dostępu. MFA utrudnia przejęcie kont pracowników, wzmacnia kontrolę dostępu do systemów informacyjnych i pomaga potwierdzić, że dostęp uzyskują wyłącznie osoby uprawnione. Ma to znaczenie zarówno dla ochrony danych, jak i dla ograniczenia ryzyka nieautoryzowanych zmian w konfiguracji, logach czy usługach zależnych od systemów krytycznych.

„MFA utrudnia przejęcie kont pracowników, wzmacnia kontrolę dostępu do

systemów informacyjnych i pomaga potwierdzić, że dostęp uzyskują wyłącznie osoby uprawnione”.

Praktycznym przykładem podniesienia poziomu bezpieczeństwa poprzez wdrożenie MFA jest zabezpieczenie zdalnego dostępu administratorów do serwerów, firewalli, VPN-ów i środowisk zdalnego pulpitu za pomocą polskiego Rublon MFA. Dostęp uprzywilejowany stanowi jeden z najważniejszych wektorów ryzyka – przejęcie takiego konta może prowadzić do naruszenia poufności danych, zakłócenia dostępności usług i utraty integralności systemów. Rublon MFA umożliwia centralne zarządzanie dodatkowymi składnikami logowania oraz objęcie dodatkową weryfikacją dostępu pracowników do infrastruktury IT organizacji, co pomaga spełnić wymogi art. 8 ustawy o KSC dotyczące kontroli dostępu i autentyczności logowań. Rublon MFA można także wykorzystać do zabezpieczenia wewnętrznych systemów łączności i aplikacji firmowych, do czasowego przydzielania dostępu specjalistom wykonującym jednorazowe zadanie oraz do ochrony dostępu dostawców do systemów organizacji.

Michael Wendrowski
Prezes zarządu, Rublon sp. z o.o.

Cyberbezpieczeństwo jako fundament rozwoju technologii i odporności państwa

Wraz z eskalacją napięcia międzynarodowego i rosnącym znaczeniem cyberprzestrzeni jako domeny operacyjnej, a także dynamicznie rosnącym znaczeniem nowych i przełomowych technologii o charakterze dual-use obserwujemy fundamentalną zmianę w postrzeganiu cyberbezpieczeństwa w sektorze naukowo-badawczym. Zapewnienie wysokiego poziomu bezpieczeństwa procesom R&D&I przestało być zagadnieniem teoretycznym, a stało się konkretnym wyzwaniem systemowym dla państwa oraz zadaniem strategicznym dla każdej uczelni i organizacji naukowo-badawczej.

Izabela Albrycht Centrum Cyberbezpieczeństwa, Akademia Górniczo-Hutnicza w Krakowie, pełnomocniczka

Rektora AGH

ds. NATO DIANA, współzałożycielka

Women4Cyber

Ztych względów cyberbezpieczeństwo sektora naukowo-badawczego stało się jednym z kluczowych wymiarów bezpieczeństwa narodowego, gospodarczego i technologicznego państw. Technologie podwójnego zastosowania, takie jak sztuczna inteligencja, technologie kwantowe czy biotechnologia, są dziś zarówno motorem wzrostu gospodarczego, jak i fundamentem nowoczesnych zdolności obronnych. To sprawia, że proces ich rozwoju musi być ściśle powiązany z budową odporności na wielorakie zagrożenia.

Z perspektywy strategicznej widzimy wyraźnie, że NATO, Unia Europejska oraz państwa członkowskie podejmują działania zmierzające do wzmocnienia bezpieczeństwa badań, rozwoju i innowacji. Rekomendacje Rady ds. Cyfryzacji przy Ministerstwie Cyfryzacji, szeroko zakrojone dyskusje w instytucjach Unii Europejskiej oraz inicjatywy takie jak NATO DIANA pokazują, że ochrona technologii o znaczeniu strategicznym stała się elementem szeroko pojętej geopolityki. W tym kontekście szczególne znaczenie mają również projekty takie jak SOCCER, które koncentrują się na budowie systemowych zdolności cyberbezpieczeństwa w sektorze nauki i badań. W dłuższej perspektywie to właśnie

zdolność do ochrony własnych zasobów wiedzy, danych i innowacji będzie wpływać na pozycję państw na arenie międzynarodowej.

Sektor naukowo-badawczy znajduje się w centrum tych procesów. Uczelnie i ośrodki badawcze odpowiadające za rozwój technologii coraz częściej stają się ofiarami działań o charakterze hybrydowym i cyberszpiegostwa.

Sektor badań i edukacji jest w tym momencie jednym z najczęściej narażonych na cyberataki – oprócz sektora rządowego, wojskowego oraz opieki zdrowotnej.

Niech o skali zjawiska świadczy to, że w 2024 roku liczba cyberataków na sektory naukowo-badawcze wzrosła o 75 proc. w stosunku do 2023 r. Tak duża intensyfikacja ataków sprawia, że zapewnienie cyberbezpieczeństwa w procesie B+R+I (Badania, Rozwój i Innowacje) nie może być traktowane jako kwestia drugorzędna. To warunek utrzymania suwerenności technologicznej oraz ochrony przewagi konkurencyjnej.

Dlatego kluczowe jest stworzenie systemowych mechanizmów, procedur i instrumentów wsparcia, które umożliwią podniesienie poziomu cyberodporności w sektorze nauki. Implementacja dyrektywy NIS2 oraz zmiany w krajowych regulacjach będą wymagały od uczelni i instytutów badawczych osiągnięcia wysokich standardów

w zakresie zarządzania ryzykiem, reagowania na incydenty oraz ochrony infrastruktury krytycznej. Jednak regulacje same w sobie nie wystarczą. Potrzebne są specjalne programy wsparcia finansowego, rozwój kompetencji, tworzenie uczelnianych i regionalnych centrów operacji bezpieczeństwa (SOC – Security Operations Center), a także wzmocnienie współpracy między środowiskiem naukowym a administracją publiczną, szczególnie w obszarze cyberbezpieczeństwa. Kluczowe w sektorze akademickim jest także zbudowanie świadomości i wrażliwości na zagadnienia związane z cyberbezpieczeństwem. Chodzi o to, aby znaleźć złoty środek między otwartością badań a koniecznością ochrony wrażliwych danych i technologii mogących mieć wpływ na bezpieczeństwo. Bez systemowego wypracowania takiego balansu nie będziemy potrafili skutecznie zabezpieczyć procesów innowacyjnych przed ingerencją zewnętrzną ani ograniczyć ryzyka kradzieży wiedzy. Cyberbezpieczeństwo w procesie rozwoju nowych technologii to dziś element strategicznego zarządzania państwem. Jeżeli chcemy budować konkurencyjną, odporną i suwerenną technologicznie Polskę oraz szerzej – Europę, musimy traktować bezpieczeństwo badań jako integralną część polityki rozwoju, a nie wyłącznie jako jej techniczny dodatek.

WYZWANIA

Turn static files into dynamic content formats.

Create a flipbook
Cyberbezpieczeństwo Q1 2026 by Mediaplanet PL - Issuu