Skip to main content

CRN Polska 3/2026

Page 1


INFORMATYCZNE MISTRZOSTWA POLSKI

Termin 12-14 czerwca 2026 r.

EMOCJE GWARANTOWANE!

Miejsce Port 110, Iława nad jeziorem Jeziorak

Wystartuj w największej żeglarskiej imprezie branżowej z Twoimi najlepszymi partnerami lub współpracownikami. 2026

Jachty N’FUN 30, Omega, Twister 800

ZAREJESTRUJ SIĘ TERAZ

Do wygrania Puchar Polska!

Na regaty można zapisać się na stronie organizatora www.sailingevent.pl/regaty-it/ lub wysyłając e-mail na adres: regatyit@sailingevent.pl.

Fot. Michał Tomaszewski.

Spis treści 3/2026

8 | Energy Connect 2026: „wsiedliśmy do pociągu AI”

Energy Logserver zapowiada dalszą ekspansję technologiczną i geograficzną

10 | Dagma Bezpieczeństwo IT: za nami wyjątkowy rok

Ubiegły rok okazał się dla czołowej spółki w sektorze cyberbezpieczeństwa czasem wzrostów i rekordów sprzedażowych

12 | Zdalne etaty w USA: wielkie pieniądze dla Kima

Pracownicy z Korei Północnej zarabiają w Stanach Zjednoczonych duże pieniądze, a lwia ich część zasila reżim Kim Dzong Una

13 | Arrow ECS dystrybutorem roku

Microsoft 2025

Na tym osiągnięciu skorzystają również polscy partnerzy

14 | Cyberbezpieczeństwo w erze autonomicznej AI

Relacja z konferencji CyberSec Asia 2026

16 | Zamówienia na pozór otwarte Microsoft na rynku dostaw oprogramowania biurowego dla polskiej administracji

17 | Razem do klienta

Rozmowa z Grzegorzem Maczugą, Indirect Sales Managerem Sharp w regionie CEE

18 | Państwowa sztuczna inteligencja

Rozmowa z Jarosławem Protasiewiczem, dyrektorem Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego

21 | Rok 2026: bez fajerwerków, za to z konsekwencjami

Felieton Dominika Laskowskiego

22 | UPS-y trzymają się mocno

Rośnie zapotrzebowanie na systemy zasilania awaryjnego

26 | Vertiv: nowe UPS-y do domu i biura Seria PowerUPS 200

27 | CyberPower: rozwiązania UPS o wysokiej gęstości

Zasilacz UPS elementem strategicznego planowania przestrzennego infrastruktury

28 | SOC na trzy sposoby Wdrażanie centrów operacji bezpieczeństwa przyspiesza zarówno w Polsce, jak i na świecie

31 | Koniec gry w chowanego

Trellix NDR znajduje hakerów w sieci (Arrow)

32 | OpenText SMAX Rozwiązanie do zarządzania usługami w firmie (Prianto)

33 | AI: nie tylko automatyzacja

Felieton Aleksandry Przegalińskiej i Tamilli Triantoro

34 | Chmura publiczna w UE

Felieton Artura Kmiecika

35 | Ambitne plany polskiego dostawcy

Rozmowa z Adamem Suhakiem, Channel Sales Directorem w Axence

36 | Wideokonferencje "Wszystko w jednym" i BYOD zyskują na znaczeniu

39 | Chcemy być liderem rynku przełączników ProAV Rozmowa z Piotrem Dudkiem, dyrektorem regionalnym Netgeara na Europę Wschodnią

40 | IT bez fanfar Biznes na sprawdzonych technologiach

42 | Od gazeciarza do milionera Rozmowa z Aaronem Schneiderem, CEO Helixstormu, kalifornijskiego dostawcy usług zarządzanych

44 | IT w retailu Wdrożenia z nogą na hamulcu

46 | Shadow AI to już norma Użycie sztucznej inteligencji przez pracowników – raport Red Hat

47 | Cyfrowy strzał w kolano Felieton Krzysztofa Jakubika

48 | Tworzymy archiwum, które rozumie Rozmowa z Grzegorzem Deniszczukiem, kierownikiem Działu IT w Muzeum Historii Polski

50 | Prezent o wartości miliarda dolarów Felieton prof. Marka Kowalkiewicza

52 | Współdziałanie w kontrakcie wdrożeniowym IT

Felieton Mateusza Kozieła

53 | Cooka taniec na linie

Felieton Leszka Ślazyka

54 | Książki dla analityków

Felieton Pawła Cyzmana

56 | Świat algorytmów: ciekawość i determinacja

Kiedy naukowcy wstrzyknęli algorytmom ciekawość jako motor napędowy, rezultaty były spektakularne

58 | Logika myślenia strategicznego

Felieton Krzysztofa Obłója

60 | 16 prognoz na najbliższe lata

Felieton Michała Sadowskiego

61 | Skutki uboczne inflacji inwestycji

Felieton Szymona Janiaka

66 | Plugin zamiast pracownika

Felieton Wojciecha Urbanka

22

UPS-y trzymają się mocno Rośnie zapotrzebowanie na systemy zasilania awaryjnego, a konstrukcje UPS-ów są rozwijane w zakresie sprawności i lepszych baterii.

40

IT bez fanfar W świecie zafascynowanym przełomami technologicznymi pojawiają się firmy, które budują przewagę na sprawdzonych fundamentach.

44 50

IT w retailu: wdrożenia z nogą na hamulcu Największym wyzwaniem dla przedsiębiorców pozostają wysokie koszty technologii oraz brak elastycznych form finansowania.

Prezent o wartości miliarda dolarów IBM rozwinęło rynek IT, otwierając swoją architekturę. W przypadku AI będzie podobnie.

„JEŻELI HANDEL TOWARAMI PRZYNOSI POKAŹNE ZYSKI, TO I TAK

David S. Landes, „Bogactwo i nędza narodów”

Tomasz Gołębiowski

Redaktor naczelny

Dwie wiadomości

Analitycy Contextu mają dla polskiego sektora dystrybucji dwie wiadomości – dobrą i złą. Ta pierwsza jest istotna i ciekawa, ale na ten moment kluczowa wydaje się ta niedobra. Zacznijmy jednak od pozytywnych wieści, a mianowicie wyjątkowego, bo 11-procentowego wzrostu wartości sprzedaży w 2025 r. Biorąc pod uwagę, że w roku 2024 wzrost wartości sprzedaży zwiększył się (w stosunku do 2023 r.) o zadowalające, choć nie imponujące 4 proc., ubiegłoroczny wynik należy uznać za znakomity. Tym bardziej, że w omawianym okresie jedynie hiszpański sektor dystrybucji uzyskał lepszy wynik (15 proc. na plusie). Warto dodać, że taki sam łączny rezultat jak w przypadku Polski uzyskały kraje nordyckie. Na uwagę zasługuje przy tym rezultat niemieckiego sektora dystrybucji, który po słabym 2024 r. (3-procentowy spadek rok do roku), zaczął odrabiać straty, notując z kolei 3-procentowy wzrost w roku ubiegłym. Wartość (value) zaś całego europejskiego rynku dystrybucji zwiększyła się w 2025 r. o nieco ponad 5 proc. Z kolei tempo wzrostu pod względem wielkości sprzedaży (volume) sięgnęło w tym przypadku poziomu 4,5 proc. Dwa główne silniki wzrostu na Starym Kontynencie to oprogramowanie i usługi (+13 proc.), a także pecety (+12 proc.). Słabo szła sprzedaż infrastruktury (zaledwie 1-procentowy wzrost), a w przypadku peryferiów oraz urządzeń z grupy telko mieliśmy do czynienia ze spadkami (odpowiednio o 1 oraz 3 proc.).

SPADEK Z

WYSOKIEGO KONIA?

To oznacza, że w ciągu minionej dekady ubiegły rok był dla europejskiej dystrybucji trzecim najlepszym pod względem wzrostu wartości sprzedaży. Począwszy od 2015 roku, jedynie dwa lata (2018 oraz 2020) okazały się korzystniejsze (po 7 proc. wzrostu). Co przy tym znamienne, jedynie rok 2023 zamknął się rezultatem minusowym (spadek o ponad 3 proc.). Optymistycznie brzmią też zapowiedzi na rok obecny. Analitycy Contextu spodziewają się wzrostu o 2,1 proc. i choć może prognostyk ten nie zwala z nóg, to na tle coraz bardziej bezradnego europejskiego przemysłu i rosnących wskaźników bezrobocia, sektor dystrybucji prezentuje się dość korzystnie. Przy czym, inaczej niż zazwyczaj, najlepszy ma być I kw. 2026 r. (plus 3,2 proc.), po którym ma nastąpić słaby II kw. (plus 1 proc.), a następnie możemy spodziewać się około 2-procentowego przyspieszenia w drugiej połowie tego roku.

I teraz czas na drugą, gorszą wiadomość, a więc prognozę Contextu na 2026 r. Otóż według analityków wartość polskiego sektora dystrybucji pozostanie w tym czasie bez zmian, a być może nawet pojawi się minimalny spadek. Rzecz jasna, przewidywania te nie muszą się spełnić, a w związku ze znakomitym wynikiem w roku ubiegłym nie dziwiłby nawet wyraźny spadek sprzedaży. Krótko mówiąc, jak to się mówi w świecie futbolu, zerowy wynik roku 2026 można by uznać w sumie za zwycięski remis. Z drugiej strony nie ma co się oszukiwać: w biznesie jak w życiu, kto się nie rozwija, ten się cofa, a więc zamiast brać zapowiadany wynik w ciemno czy liczyć na „niedzielę cudów”, dystrybutorzy na polskim rynku z pewnością zakaszą rękawy – oby z dobrym rezultatem. Tym bardziej, że większość europejskich sektorów dystrybucji (z wyjątkiem UK oraz Włoch) ma przed sobą przyjemny okres stabilnych wzrostów – w przypadku Hiszpanii ma to być 3 proc., na rynku francuskim 4 proc., zaś w Niemczech nawet 5 proc. na plusie. Pożyjemy, zobaczymy.

MIESIĘCZNIK CRN POLSKA www.CRN.pl

Rok 29, numer 3 (517), 11 marca 2026 PL ISSN 2080-8607

REDAKCJA

Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl

Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl

Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl

Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl

Andrzej Gontarz ag andrzej.gontarz@crn.pl

Krzysztof Jakubik kj krzysztof.jakubik@crn.pl

Krzysztof Pasławski kp krzysztof.paslawski@crn.pl

Tomasz Janoś tj tomasz.janos@crn.pl

FELIETONY

Paweł Cyzman, Wojciech Furmankiewicz, Szymon Janiak, Artur Kmiecik, Marek Kowalkiewicz, Mateusz Kozieł, Dominik Laskowski, Krzysztof Obłój, Aleksandra Przegalińska, Michał Sadowski, Leszek Ślazyk, Tamilla Triantoro, GRAFIKA, LAYOUT, Tomasz Baziuk

FOTOGRAFIE

Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, archiwum

PRENUMERATA prenumerata@crn.pl

REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl

Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl

WYDAWCA Peristeri Sp. z o.o.

Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa

Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2026 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone. CRN Polska contains articles under license from The Channel Company. © 2026 The Channel Company. All rights reserved.

Miesiąc na plusie miesiąc na minusie

Black Point w IV kw. 2025 r. osiągnął 0,31 mln zł zysku netto wobec straty przed rokiem. Osiągnięty wynik według spółki jest efektem poprawy marży oraz istotnej redukcji kosztów sprzedaży i ogólnego zarządu. Przychody producenta materiałów eksploatacyjnych z podwrocławskich Bielan w IV kw. 2025 r. wyniosły natomiast 5,6 mln zł wobec 5,8 mln zł rok wcześniej. Jednocześnie w całym 2025 r. spółka ograniczyła stratę netto, stabilizując sytuację operacyjną i finansową. W całym 2025 roku przychody Black Pointa wyniosły 18,5 mln zł.

Dell Technologies Polska, Fundacja SpeakLeash i Dowództwo Komponentu Wojsk Obrony Cyberprzestrzeni podpisały porozumienie o współpracy, którego celem jest wykorzystanie przez CISI (Centrum Implementacji Sztucznej Inteligencji DKWOC) infrastruktury obliczeniowej on premise, w tym platform Edge AI. Zapowiedziano warsztaty, testy i działania eksperymentalne, które pomogą w rozwoju kompetencji i weryfikacji rozwiązań AI w środowiskach zbliżonych do warunków operacyjnych. Z kolei współpraca ze SpeakLeash ma umożliwić CISI pozyskanie wiedzy i kompetencji w zakresie rozwoju polskiego modelu językowego Bielik oraz budowy własnych modeli językowych działających lokalnie (on-premise/Edge AI), dostosowanych do specyfiki środowiska operacyjnego.

Konsorcjum Euvic i krakowskiej spółki yarrl zawarło z Aplikacje Krytyczne – spółką IT resortu finansów – umowę na body leasing specjalistów IT. Kontrakt obejmujący „świadczenie przez wykonawcę kompleksowych usług z zakresu zapewnienia zasobów ludzkich z branży IT” podpisano na 12 miesięcy. Maksymalne wynagrodzenie uzgodniono w kwocie 15 mln zł brutto. Kontrakt zawarto do 3-letniej umowy ramowej, podpisanej po megaprzetargu z budżetem 184,5 mln zł. Został on rozstrzygnięty w czerwcu 2024 r. Spółka IT ministerstwa wybrała wówczas 10 wykonawców, a wśród nich Euvic i yarrla.

Europejskie startupy z branży AI pozyskały w ubiegłym roku 36,7 mld dol. inwestycji firm venture capital. Stanowiło to aż 43,4 proc. z 85 mld dol. zainwestowanych przez firmy VC na Starym Kontynencie – wynika z danych BestBrokers. To największa kwota finansowania młodych firm AI w Europie w historii, która jest ponad dwukrotnie wyższa niż w przypadku azjatyckich start-upów, zajmujących się rozwiązaniami sztucznej inteligencji (15,3 mld dol.). Numerem 1 okazała się Ameryka Północna (214,5 mld dol. w 2025 r.).

Grupa Komputronik w IV kw. 2025 r. (III kw. roku obrachunkowego) zwiększyła sprzedaż o 2 proc., do poziomu 528,8 mln zł. Z kolei w pierwszych trzech kwartałach roku obrachunkowego 2025 (1 kwietnia 2025 r. – 31 grudnia 2025 r.) przychody Grupy wzrosły o około 4,2 proc. rok do roku (wyniosły 1,35 mld zł). Zysk ze sprzedaży poprawił się w większej skali, o 18,8 proc. (do 179,3 mln zł). Koszty sprzedaży i ogólnego zarządu zwiększyły się o 8,6 proc.

Powiedzieli

„Przyszłość handlu jest agentyczna” – Nitin Mangtani, SVP & GM, Commerce and Retail w Salesforce.

Grupa przestępcza licząca 11 osób wyłudzała dane do logowania na Facebooku za pomocą phishingu. Jej łupem padło ponad 100 tys. loginów i haseł. Po przejęciu kont na portalu społecznościowym, podejrzani wyłudzali kody BLIK od innych użytkowników portalu. Kontaktowali się z nimi za pośrednictwem komunikatorów internetowych. Gang działał od maja 2022 r. do maja 2024 r. na terenie Polski i Niemiec. Rozbiła go cyberpolicja – funkcjonariusze Centralnego Biura Zwalczania Cyberprzestępczości z Białegostoku.

Czwórka młodych ludzi: 17-latek i trzech 18-latków sprzedawała fałszywą aplikację mObywatel za pośrednictwem popularnego serwisu internetowego. Handel trwał przez rok. Nabywców było ponad 3 tys. – ustaliła cyberpolicja, która zatrzymała podejrzanych. Akcja miała miejsce w województwie mazowieckim, małopolskim i pomorskim. Zatrzymani usłyszeli zarzuty podrobienia aplikacji i jej sprzedaży za pośrednictwem internetu, za co grozi do 5 lat pozbawienia wolności.

Badacze Cybernews odkryli niezabezpieczone bazy danych, które ich zdaniem wyciekły z IDMerit. Jest to amerykański dostawca rozwiązań do weryfikacji tożsamości cyfrowej, opartych na sztucznej inteligencji. Według ustaleń zbiory zawierały ok. 1 miliard rekordów (ponad 1 terabajt), obejmujących wrażliwe dane osobowe. Są to: imiona i nazwiska, numery telefonów, adresy e-mail, adresy pocztowe, daty urodzenia, numery dowodów tożsamości. Wyciek miał globalny zasięg. Znaleziono w nim osoby z 26 krajów, w tym najwięcej z USA (ok. 200 mln rekordów). W Europie najwięcej poszkodowanych to Niemcy (61 mln rekordów), Włosi (53 mln) i Francuzi (53 mln).

Acer i Asus wstrzymały sprzedaż komputerów w Niemczech. To efekt wyroku monachijskiego sądu, który rozpatrywał skargę patentową Nokii – informuje heise.de. Sprawa dotyczy patentu na kodek wideo H.265, który jest wykorzystywany do przetwarzania wideo przez GPU i CPU w laptopach i desktopach. Z doniesień wynika, że strony nie doszły do porozumienia, gdyż Nokia chce opierać swoje koszty na gotowych urządzeniach – komputerach stacjonarnych lub notebookach, a nie tylko na komponentach. Dla obu marek PC oznaczałoby to wyższe koszty licencji. Nokia uzyskała tymczasowe wykonanie wyroku przeciwko Acerowi i Asusowi, co oznacza wstrzymanie sprzedaży PC przez obie marki w Niemczech.

Cyberpolicja rozbiła grupę przestępczą, która oszukiwała nabywców na popularnej platformie ogłoszeniowej, oferując różne produkty, w tym telefony, konsole do gier, aparaty fotograficzne, głośniki, a także wózki dziecięce, hulajnogi i wkrętarki. Kupujący zamiast zamówionych przedmiotów otrzymywali jednak paczki soli lub mąki. Oszukanych mogło zostać ponad 1,3 tys. osób na łączną kwotę 1 mln zł.

„W 2026 roku spodziewamy się dalszego dynamicznego wzrostu wydatków na IT w Europie” – Wolfgang Krainz, CEO Also Holding.

„To ogromna szansa rynkowa” – Ken Xie, CEO Fortinetu, o suwerennym SASE.

WYDARZENIA

Nowe informacje

z branży IT

550 mln zł na serwerownię resortu

finansów

Centrum Informatyki Resortu Finansów otrzyma wsparcie z KPO w wysokości blisko 550 mln zł na budowę dwóch systemów informatycznych w serwerowni. Jeden to HA CIRF. Obejmie on urządzenia takie jak serwery, pamięć masową, urządzenia sieciowe i bezpieczeństwa oraz oprogramowanie. Ma zapewnić wysoką dostępność systemów informatycznych.

Z kolei IaaS CIRF wiąże się z wdrożeniem urządzeń infrastruktury IT, które umożliwią budowę, rozwój i migrację rozwiązań sprzętowych jako usługi przez różne instytucje. Nowe systemy mają usprawnić funkcjonowania e-usług i publicznych systemów informatycznych.

Powstał Trusted Tech Alliance

15 koncernów z różnych kontynentów powołało Trusted Tech Alliance. Celem jest wypracowanie wspólnego standardu bezpiecznej i przejrzystej architektury informatycznej, niezależnie od kraju pochodzenia dostawcy. Sygnatariuszami TTA są: Anthropic, AWS, Cassava Technologies, Cohere, Ericsson, Google Cloud, Hanwha, Jio Platforms, Microsoft, Nokia, Nscale, NTT, Rapidus, Saab i SAP. Firmy uczestniczące w aliansie są zobowiązane do przestrzegania uzgodnionych praktyk i zasad bezpieczeństwa. „Żadna firma ani kraj nie jest w stanie samodzielnie zbudować bezpiecznego i zaufanego stosu cyfrowego” – podsumował Börje Ekholm, CEO Ericssona.

590 mln zł na Cyberbezpieczne Wodociągi

W konkursie „Cyberbezpieczne Wodociągi” dofinansowanie otrzyma 688 projektów z najwyższą punktacją. Łączna wartość grantów wynosi 590,3 mln zł. W sumie pozytywnie oceniono 759 wniosków. Jak zapewniono, pozostałe 71 również uzyska wsparcie, co będzie możliwe dzięki zwiększeniu alokacji o dodatkowe 40 mln zł. Zainteresowanie konkursem przekroczyło oczekiwania. Wnioski złożyło aż 896 podmiotów na łączną kwotę 730 mln zł. O granty mogły starać się podmioty KSC – przedsiębiorstwa wod.-kan. i jednostki wykonujące zadania użyteczności publicznej. Dofinansowanie można przeznaczyć na wsparcie organizacyjne w obszarze cyberbezpieczeństwa (np. wdrożenia, audyty), kompetencyjne (podnoszenie wiedzy i umiejętności pracowników), techniczne IT oraz techniczne OT.

16 oskarżonych o wyłudzenia VAT

Już 16 osób ma zarzuty popełnienia 27 przestępstw, w tym wystawiania i przyjmowania nierzetelnych faktur. Opiewały one łącznie na blisko 5 mln zł brutto – ustaliła Prokuratura Regionalna w Szczecinie. Do sądów w Szczecinie i Warszawie trafiły dotyczące tej sprawy trzy akty oskarżenia o wyłudzenia VAT. Nierzetelne faktury wykorzystywano także do wyłudzeń dotacji z PARP w ramach programu Innowacyjna Gospodarka (2007 – 2013). Śledztwo trwa od 2020 r. Są to kolejne akty oskarżenia w tej sprawie. Od początku postępowania zarzuty usłyszało już ponad 80 podejrzanych. W tym wobec 24 osób skierowano sprawy do sądu.

Euvic chce przejmować w Rumunii

Euvic rozmawia o przejęciu centrum produkcyjnego Yalos Software Labs w Bukareszcie. Strony podpisały w tej sprawie list intencyjny. Przewiduje on przejęcie najpierw 51 proc. udziałów w rumuńskiej firmie, a w kolejnych latach pozostałej części. Nie ujawniono przewidywanej wartości transakcji. Yalos Software Labs w 2024 r. miał 2,8 mln euro przychodów i 0,49 mln euro zysku netto. List intencyjny oraz umowa inwestycyjna zostaną zawarte na czas 10 lat. Jak zaznacza Euvic, postanowienia listu intencyjnego są niewiążące.

Przetarg na body leasing warty 100 mln zł

Centralny Ośrodek Informatyki w lutym br. rozstrzygnął przetarg na body leasing specjalistów IT. Oferty przyjmowano do początku czerwca 2025 r., czyli na wybór wykonawców trzeba było czekać przez 8 miesięcy. Na sfinansowanie projektu COI zamierzał przeznaczyć blisko 100 mln zł. Przetarg cieszył się dużym zainteresowaniem – wpłynęło aż 31 ofert. Ostatecznie państwowy ośrodek wybrał osiem firm do podpisania umowy ramowej na trzy lata. Są to: Billennium, Pentacomp Systemy Informatyczne, Euvic, Transition Technologies – Software, Sii, yarrl, Eyzee i Sedivio. Wykonawcy ci zasilą zespoły COI fachowcami 45 specjalizacji.

Comarch Polska stał się

CGI Polska

Comarch Polska SA oficjalnie zmienił nazwę na CGI Polska SA. To skutek przejęcia sfinalizowanego w grudniu 2025 r. Kanadyjska korporacja CGI poprzez swoją polską firmę zależną nabyła dotychczasową spółkę Comarchu, specjalizującą się w rozwiązaniach dla sektora publicznego. Wartości transakcji nie ujawniono. Prezesem zarządu CGI Polska SA został Bartłomiej Nieścierowicz, który zarządza biznesem CGI w Polsce i krajach bałtyckich. Tym samym działalność kanadyjskiej grupy w naszym kraju poszerzono o sektor publiczny, uzupełniając o ten biznes dotychczasowe obszary: bankowość i ubezpieczenia, sektor komercyjny oraz energetykę i przemysł. Z kolei Grupa Comarch w ramach optymalizacji biznesu sprzedała ostatnio w kraju spółkę Comarch Healthcare.

Wpadł sprawca ataku na Morele.net

Cyberpolicja w końcu namierzyła hakera, który w 2018 r. doprowadził do wycieku danych 2,2 mln osób. Okazał się nim 29-letni obywatel Polski. Przyznał się do zarzucanych mu czynów. Śledztwo jest prowadzone pod nadzorem Prokuratury Okręgowej w Krakowie. Dotyczy przełamania zabezpieczeń teleinformatycznych i pozyskania bazy danych klientów Morele.net. Pierwotnie postępowanie umorzono z powodu niewykrycia sprawcy. Jednak śledczy nie odpuścili. Eksperci CBZC we współpracy z detalistą zidentyfikowali wektor ataku i ustalili przebieg zdarzenia.

Zmiany na stanowiskach

W dynamicznej branży IT personalna karuzela kręci się

szybciej niż w innych. Prezentujemy kilka najważniejszych zmian, które nastąpiły w minionych tygodniach.

Zmiany w kierownictwie

Microsoftu w Polsce

Ilona Tomaszewska objęła stanowisko dyrektor odpowiedzialnej za kanał partnerski (EPS Lead). Natomiast Tomasz Wilecki dołączył do ścisłego kierownictwa firmy jako dyrektor sektora publicznego. Ilona Tomaszewska to liderka z ponad 20-letnim doświadczeniem w branży technologicznej i sprzedaży. Od 16 lat pracuje w Microsofcie. Wcześniej pełniła funkcję dyrektor sektora publicznego w Polsce. Tomasz Wilecki w nowej roli odpowiada za rozwój strategicznej współpracy Microsoftu z instytucjami publicznymi w Polsce. Z Microsoftem jest związany od ponad 19 lat. Pełnił funkcje sprzedażowe i liderskie w różnych obszarach organizacji. Dotychczas pracował jako AI Business Solutions Sales Lead.

Honor:

od globalnego

Anna Mazurek na czele Fundacji Startup Poland

Anna Mazurek objęła funkcję prezesa Fundacji Startup Poland. Dotychczas pracowała na stanowisku Head of Community – od 2023 r. oraz w latach 2016 – 2018. Jednocześnie do Rady Fundacji dołączyli praktycy biznesu i inwestorzy. Są to: Aleksandra Pedraszewska (Founding Partner vastpoint. vc), Andrzej Targosz (współzałożyciel i partner zarządzający Bitspiration Booster), Paulina Muszyńska (Head of Startup Wroclaw) oraz Zbigniew John Woznowski (CEO i założyciel Reality Games). Wraz ze zmianami personalnymi Startup Poland redefiniuje swoją rolę: „przechodzi od roli obserwatora rynku do huba dostarczającego gotowe rozwiązania prawne” – informuje nowa CEO i Rada Fundacji.

Dreslerski prezesem ProService Finteco

Tomasz Dreslerski został prezesem ProService Finteco. Ostatnio przez ponad 3 lata pełnił rolę Enterprise Commercial Lead w Microsofcie. Odpowiadał za strategiczne partnerstwa i transformację cyfrową największych klientów korporacyjnych w Polsce. Wcześniej przez blisko 20 lat pracował w Orange, pełniąc różne role dyrektorskie. W ostatnich latach był między innymi Enterprise Executive Directorem i szefem sprzedaży B2B. Ma ponad 25-letnie doświadczenie w branży.

dyrektora do szefa w Polsce

Hang Yang (Addison Yang) objął stanowisko Country Managera Honor Polska. Ma ponad 17 lat doświadczenia w sprzedaży, zarządzaniu kluczowymi klientami oraz w sektorze telekomunikacyjnym, zarówno w Azji, jak i w Europie. Od 2011 r. pracował w Huawei, a w 2019 r. dołączył do marki Honor. Dotychczas, od 2022 r., pełnił rolę Global Key Account Director, odpowiadając za współpracę z największymi operatorami telekomunikacyjnymi na świecie.

Patryk Krajewski szefem Twisto w Polsce

Patryk Krajewski dołączył do Twisto jako Country Manager w Polsce. Rola ta w naszym kraju została przywrócona po blisko dwóch latach przerwy. Fintech z centralą w Czechach informuje, że jest to elementem długofalowego zaangażowania firmy w rozwój polskiego rynku. Patryk Krajewski jest odpowiedzialny za rozwój biznesu w Polsce, współpracę z partnerami B2B oraz wsparcie w realizacji strategii firmy w całej Europie Środkowo-Wschodniej. Wnosi do Twisto 15 lat doświadczenia w bankowości, usługach finansowych i rozwiązaniach mobilnych. Wcześniej był Country Managerem Axxes w Europie Środkowej (2022–2025).

Jarocki dyrektorem w Marcova Biznes

Radek Jarocki w styczniu br. został dyrektorem Działu Handlowego w Marcova Biznes. Działem handlowym firmy kieruje natomiast od września 2025 r. Przez kilka miesięcy poprzedzających awans uczestniczył w opracowaniu strategii rozwoju spółki na rok 2026 i kolejne lata. Dyrektor zapowiada, iż już w kwietniu br. spółka planuje ogłosić pierwsze znaczące zmiany. W Marcova Biznes pracuje od ponad 5 lat. Wcześniej doświadczenie zdobywał między innymi w Konica Minolta Business Solutions Polska.

Z T-Mobile do zarzą- du Tide Software

Urszula Katarzyna Kruczek dołączyła do zarządu Tide Software na stanowisko wiceprezesa. Będzie odpowiadać za sprzedaż B2B, relacje z najważniejszymi klientami oraz marketing i współtworzenie strategii rozwoju spółki, która jest dostawcą platformy komunikacyjnej CPaaS. Dotychczas przez 13 lat Urszula Katarzyna Kruczek była związana z T-Mobile Polska. Przez ostatnie lata odpowiadała za sprzedaż B2B dla najwyższego sektora klientów T-Mobile Polska jako dyrektor sprzedaży na rynek enterprise. Doświadczenie zdobywała także między innymi w GTS Telecom i Exatelu.

Marcin Pabich dołą- czył do Grupy Asbis

Marcin Pabich z początkiem stycznia 2026 r. objął stanowisko dyrektora sprzedaży w ASBC Poland. Jest to spółka celowa, należąca do Grupy Asbis, która zarządza siecią Samsung Brand Store w Polsce. Została ona przejęta przez dystrybutora w końcu 2025 r. Marcin Pabich wcześniej przez ponad 8 lat był dyrektorem sprzedaży w poznańskiej spółce Matrix Media, od której Asbis nabył salony Samsunga. Ma blisko 20-letnie doświadczenie w zarządzaniu sprzedażą detaliczną.

Energy Connect 2026:

„wsiedliśmy

do pociągu AI”

Energy Logserver, polski producent z sektora cybersecurity, zapowiada dalszą ekspansję technologiczną i geograficzną, a jednocześnie rozwija swoją ofertę usług dla partnerów.

Podczas tegorocznej konferencji partnerskiej Energy Logserver omówiono szereg zmian, jakie zaszły w ofercie polskiego producenta, w tym jej centralizację. Strategia rodzimego producenta zakłada, że trzy flagowe rozwiązania – ELS SIEM, ELS SOAR i ELS XDR – będą coraz bardziej komplementarne pod względem technicznym, a jednocześnie poszerzone zostały możliwo-

POLSKI PRODUCENT, WBREW TRENDOM ŚWIATOWYM, NIE REZYGNUJE Z LICENCJI WIECZYSTEJ.

ści sprzedaży łączonej (cross-sellingu), w czym mają pomóc nowe pakiety wdrożeniowe i szkoleniowe. Towarzyszy temu zastosowanie możliwości AI na potrzeby systemu ELS SIEM, z myślą o wsparciu dla analityków nie tylko w dużych, ale też w niewielkich organizacjach. Nowe narzędzie AI On-Prem ma być ich lokalnym asystentem, przy czym dotyczy to zarówno „wyjadaczy”, którzy docenią kompletną paczkę informacyjną na temat zaistniałych incydentów, jak też nowicjuszy, którzy dotąd polegali głównie na UTM-ach. Każdy z nich może liczyć na kompleksową informację o zaistniałych

incydentach – czego dotyczą i jakie działania powinni w związku z tym podjąć. Przedstawiciele Energy Logserver podkreślają, że nowe narzędzie to sposób na „wejście” do działów nieinformatycznych u klientów, służąc na przykład do analizowania umów prawnych czy dokumentacji finansowej.

– Jak widać, na dobre wsiedliśmy do pociągu AI. Dzięki AI On-Prem ci nasi partnerzy, którzy oferują usługi MSSP czy SOC, mogą je usprawnić, a tym samym znacznie łatwiej poradzić sobie z obecnymi wyzwaniami nawet, jeśli nie stać ich na pozyskanie pożądanej liczby najbardziej wykwalifikowanych analityków –  zaznacza Łukasz Nieborek, Head of Channel Sales w Energy Logsever.

W przypadku omawianego rozwiązania dane nie są wysyłane poza organizację, jak ma to miejsce w przypadku narzędzi chmurowych. Z tego względu jednym z sektorów, który wyjątkowo przychylnie zareagował na AI On-Prem jest wojsko i służby mundurowe. Jeśli jednak użytkownik nie dysponuje wystarczającą mocą obliczeniową, Energy Logserver daje swoim klientom możliwość podłączenia AI On-Prem do swojej warszawskiej serwerowni.

Wyróżnikiem Energy Logserver jest między innymi fakt, że wbrew światowym tendencjom polski producent nie opiera

się jedynie na modelu subskrypcyjnym, ale zamierza utrzymywać „instytucję” licencji wieczystej, co jest ukłonem przede wszystkim w stronę mniejszych klientów. – Klienci nie kupują SIEM-a, ale święty spokój, na który zasługują organizacje każdej wielkości. W tym kontekście AI On-Prem to odpowiedź na takie problemy, jak: niedobór analityków, wysoka rotacja w SOC-ach, wydłużony MTTR, bądź presja ze strony ustawodawców – podsumowuje Łukasz Nieborek.

Zalety licencji wieczystej podkreślała też Karolina Kwiatkowska – Channel Partner Manager na Polskę, Czechy i Słowację, omawiając ofertę Energy Monitor, zaawansowanego rozwiązania przeznaczonego do monitorowania infrastruktury IT.

– Poza tym oferujemy także subskrypcję licencji na określony czas, chociażby dla partnerów świadczących usługi MSSP. Warto ponadto zwrócić szczególną uwagę na darmową licencję na 50 adresów IP, dzięki której klienci mogą na próbę, bez ponoszenia dodatkowych kosztów, monitorować swoje zasoby krytyczne. Nie muszą wtedy prosić swoich zarządów o dodatkowe budżety, ogłaszać przetargu etc. Nasi partnerzy potwierdzają, że to znacznie ułatwia przekonanie klientów do testów Energy Monitora. Do czego zachęcamy tym bardziej, że najnowsza wersja tego rozwiązania będzie korzystać z możliwości AI –  przekonuje Karolina Kwiatkowska.

Z kolei możliwości nowej wersji – w tym przypadku Energy SOAR 2.0 – omówił Jonatan Kasperczak, SOC Analyst w Energy Logserver. Podkreślał zalety wysokiej dostępności (HA – High Availability) systemu, który zapewnia w pełni gotowe raporty na temat środowiska IT w or-

ganizacji, „czyli to, co najwyższy szczebel menedżerski lubi najbardziej”.

Kapitał ma narodowość

W końcu ubiegłego roku Energy Logserver stało się współwłaścicielem Polskiego Klastra Cyberbezpieczeństwa Cyber Made in Poland, gromadzącego kilkudziesięciu producentów i integratorów z tego właśnie segmentu rynku. Artur Bicki, CEO Energy Logserver, zamierza wykorzystać możliwości silnej,

lokalnej organizacji do promocji polskich rozwiązań bezpieczeństwa IT na rynkach zagranicznych.

– Marzy mi się współpraca polskich vendorów z polskimi uczelniami. Edukacja studentów na początku ich drogi to wkład w wielkie zmiany dotyczące funkcjonowania całego sektora cybersecurity w Polsce – podkreśla Artur Bicki. Kwestię promocji polskich marek cybersecurity na światowych rynkach omówiono podczas debaty pt. „Kiedy technologia współpracuje: dlaczego razem łatwiej w ekosystemie Cyber Made in Poland”, którą moderował Łukasz Gawron, CEO Polskiego Klastra CMiP.

– Obecnie postrzeganie polskich produktów w kraju i zagranicą jest dużo lepsze niż jeszcze kilka lat temu. Trend jest absolutnie pozytywny. Jednocześnie z polskimi użytkownikami mamy podobne spojrzenie na wiele różnych spraw, co bardzo ułatwia nam współpracę –  mówiła Mariola Jańczy, Cybersecurity Manager w firmie InfoProtector, dodając, że rodzimy producent prędzej pochyli się nad potrzebą polskiego użytkownika dotyczącą nieistniejącej jeszcze funkcjonalności niż producent zagraniczny.

Z kolei Maciej Salamoński, Business Development Manager w NacView, za-

uważa wzrost świadomości, że kapitał ma narodowość. Dzięki temu polskie instytucje publiczne stopniowo zmieniają swoje nastawienie odnośnie do wymagań przetargowych, nie preferując tak często jak kiedyś rozwiązań światowych korporacji – chociażby w kontekście krytykowanego przez lokalnych producentów kosztownego wymogu obecności w rankingach Gartnera. – W przypadku głównych światowych gospodarek narodowa świadomość przy wyborze rozwiązań stoi na bardzo wysokim poziomie. Dlaczego więc my, jako dwudziesta gospodarka świata, mielibyśmy pod tym względem odstawać od reszty – podkreślał Maciej Salamoński. Uczestnicy debaty zgodzili się co do tego, że powoli w zapomnienie odchodzi zasada, zgodnie z którą „duzi kupują dużych” (znana też pod hasłem: „nikt jeszcze nikogo nie wyrzucił z pracy za kupno serwerów IBM”). Obecnie mali producenci nie tylko nie ustępują tym dużym pod względem technologicznym, ale – zdaniem uczestników debaty – czasem potrafią sprawniej doradzić czy zareagować w odpowiedzi na konkretne potrzeby lokalnego klienta. A klienci to coraz częściej dostrzegają i doceniają. – W kontekście możliwości polskich firm bardzo nam się podoba na przykład holistyczna oferta, jaką stworzyło czterech rodzimych producentów na potrzeby programu „Cyberbezpieczne wodociągi”. Polscy dostawcy są technologicznie lepsi od światowych graczy. Bez milionowych budżetów na marketing, musimy bronić się jakością i dbałością o klienta. Oferta dla wodociągów pokazuje, że polscy producenci są w stanie szybciej dostosować się do lokalnych wymogów i oczekiwań – podkreślił Grzegorz Gierałtowski, Dyrektor Presales w Suntarze.

Warto poza tym zwrócić uwagę na prognozy Wiktora Stalińskiego, SOC Managera w Softinet, według którego po wejściu w życie ustawy o krajowym systemie cyberbezpieczeństwa popyt na usługi SOC

CEO Energy Logserver

Polska jest dla nas bardzo ważnym punktem startowym do dalszego rozwoju, z pomocą partnerów, w innych regionach świata. Mamy już przedstawicieli w Kazachstanie, Nigerii, Rwandzie i Wietnamie. Nasze rozwiązania są dobrze przyjmowane na tych rynkach poprzez naturę polskiego inżyniera i jakość jego pracy. W ekspansji zagranicznej widzimy szansę na lepszą rozpoznawalność w Polsce, zwłaszcza w sektorze publicznym, gdzie zbyt często preferowane są zagraniczne koncerny. Nie rozumiem, dlaczego na przykład w Kazachstanie tamtejszy resort obrony nie wymaga od nas poddawania się ocenie Gartnera, a w Polsce to przetargowe wykluczenie? Zamiast płacić Gartnerowi za udział w ich rankingach, wolimy te środki przeznaczyć na rozwój AI, na edukację studentów czy wsparcie lokalnych inicjatyw jak współpraca z młodzieżowym klubem kolarskim. Krótko mówiąc, postawiliśmy na polskość.

Energy Logserver zdobyło certyfikat Channel Master 2026

czy MSSP nie tylko znacząco wzrośnie, ale wyraźnie wzrosną przy tym ceny takich usług. Jak wiadomo, nowe przepisy miały wejść w życie w ubiegłym roku, ale wciąż ich nie ma. Natomiast z nieoficjalnych informacji wynika, że vacatio legis z pierwotnych 6 miesięcy ma być, rzekomo, wydłużone do 12 miesięcy. A to oznacza, że choć na eldorado trzeba jeszcze poczekać, to partnerzy zyskują w ten sposób czas na jak najlepsze przygotowanie się do żniw, jakie mają nastąpić w związku z tzw. „polskim NIS 2”.

OBECNIE MALI PRODUCENCI

NIE USTĘPUJĄ TYM DUŻYM.

DAGMA Bezpieczeństwo IT:

za nami wyjątkowy rok

Ubiegły rok okazał się dla czołowej spółki w sektorze cyberbezpieczeństwa czasem wzrostów i rekordów sprzedażowych. Na dorocznym spotkaniu z partnerami firma podzieliła się pomysłami na to, aby podobnie było w roku bieżącym. Jednym z głównym tematów była cyfrowa suwerenność Europy i kwestia miejsca pochodzenia technologii.

Tomasz Janoś

Styczniowa DAGMA Top Partner Summit, która stała się już coroczną tradycją, tym razem odbyła się w Krakowie. Towarzyszyły jej znakomite nastroje, czemu sprzyjała bardzo dobra ubiegłoroczna passa. Jedną z jej przyczyn był (niestety) wzrost ilości zagrożeń i niepewna sytuacja geopolityczna, skutkująca m.in. wzmożeniem ataków na infrastrukturę krytyczną. Ponieważ stan zagrożeń staje się wiedzą powszechną, więc w zakresie cyberbezpieczeństwa rośnie świadomość decydentów zarówno na poziomie Unii Europejskiej, jak i w Polsce. Naturalną konsekwencją zwiększonej świadomości są regulacje (np. NIS 2 czy DORA) i kolejne inicjatywy ustawodawcze.

KOŃCZY SIĘ MODEL BEZTROSKIEJ GLOBALIZACJI W IT.

– W rezultacie cyberbezpieczeństwo przestało być w firmowych finansach pozycją „do cięcia”. Dziś to jedna z kluczowych pozycji w budżecie każdej organizacji. I raczej nie będzie już powrotu do dawnych zachowań i schematów –  mówi Stanisław Horak, dyrektor działu handlowego w DAGMA Bezpieczeństwo IT.

Drugim filarem ubiegłorocznego sukcesu było dodatkowe finansowanie wynikające z KPO, funduszy celowych, różnych programów i grantów. Na cyberbezpieczeństwo przeznaczono realnie więcej środków, co przełożyło się na wzrosty sprzedaży.

– Odczuliśmy to wyraźnie w ubiegłym roku. Zarówno środki publiczne, jak i budżety firm wykorzystywane są coraz efektywniej, a wkład partnerów w ten proces jest nie do przecenienia. W końcu to, w jaki sposób środki finansowe trafiają do klientów, w dużej mierze zależy właśnie od partnerów, a konkretnie od tego, jak potrafią pokazać użytkownikom realną wartość i możliwości wykorzystania ich budżetów – uważa Stanisław Horak.

Bez współpracy z partnerami trudno byłoby mówić o jakimkolwiek sukcesie, a sednem tej współpracy są wspólne działania sprzedażowe. Robi wrażenie fakt, że w zeszłym roku spółka odnotowała aż 16 tys. aktywnych projektów sprzedażowych, co stanowi wzrost o 23 proc. rok do roku. Coraz częściej proces nie kończy się na sprzedaży produktu, ale obejmuje także usługi świadczone przez DAGMA Bezpieczeństwo IT, w tym SOC, szkolenia, pentesty, audyty

czy kompleksowe wsparcie (które samo w sobie staje się usługą).

– Odnotowujemy przy tym wyraźny wzrost usługowej oferty MSP. Sprzedaż w tym modelu w zeszłym roku wręcz się podwoiła, czemu towarzyszył rosnący popyt na coraz wyższe pakiety – podkreśla Stanisław Horak.

Bardzo wyraźnym trendem było także budowanie wraz z partnerami oferty wokół rozwiązań z portfolio DAGMA Bezpieczeństwo IT, która konsekwentnie stawia na europejskich producentów.

Suwerenność, czyli oferta odporna na politykę

Blok prezentacji produktowych obejmował decyzje klientów dotyczące cyberbezpieczeństwa są obecnie silnie powiązane z geopolityką. Wydarzenia 2025 r. i emocje wokół nich realnie wpłynęły na to, jak kształtuje się rynek i skąd klienci chcą kupować technologie, aby zapewnić sobie bezpieczeństwo i ciągłość działania. W związku z tym coraz częściej pojawia się pytanie o suwerenność cyfrową, o to, z jakiej części świata pochodzi technologia.

– Przypomnę tylko, że amerykańskie regulacje, takie jak Patriot Act czy Cloud Act, dają rządowi USA szeroki dostęp do danych, niezależnie od zapisów umownych. To sprawia, że model beztroskiej globalizacji w IT po prostu się kończy – mówi Paweł Jurek, Business Development Director w DAGMA Bezpieczeństwo IT.

Niedawno Parlament Europejski przytłaczającą większością głosów opowiedział się za wytyczeniem nowego kierunku dla cyfrowej przyszłości kontynentu, przyjmując obszerny raport wzy-

wający do zmniejszenia zależności od technologii amerykańskich. I jeśli temat suwerenności był wcześniej zdominowany w UE przez kwestie lokalizacji danych, to teraz w związku z napięciami geopolitycznymi przesunął się w stronę ograniczania zagranicznej zależności cyfrowej w całym stosie technologicznym. Europejscy CIO stoją dziś przed zadaniem przeprojektowania swojego podejścia do sprzętu, chmury, oprogramowania i sztucznej inteligencji.

W tym kontekście komunikat z tegorocznego Top Partner Summit jest następujący: DAGMA Bezpieczeństwo IT stawia na europejskie portfolio rozwiązań, w oparciu o które partnerzy mogą tworzyć dla swoich klientów bezpieczną oraz wiarygodną ofertę produktowo-usługową.

I rzeczywiście, wywodzący się ze Słowacji ESET to obecnie prawdopodobnie największy europejski dostawca cyberbezpieczeństwa. Z kolei francuski Stormshield dysponuje certyfikatami NATO i EU Restricted. Są jeszcze Sekoia i Gatewatcher, także pochodzące z Francji, silnie obecne w europejskich strukturach rządowych i NATO. W portfolio jest także czeska Safetica i szwedzki Holm Security, a Acronis – po różnych przejściach – jest dziś kontrolowany przez europejski kapitał i ma centralę w Szwajcarii.

Partnerzy DAGMA Bezpieczeństwo IT muszą jeszcze pamiętać, że same technologie nie wystarczą. Przykładowo, NIS 2 jasno mówi o budowaniu odporności poprzez kompetencje i usługi. Dlatego spółka oferuje pełne wsparcie usługowe: Kompas NIS2, audyty KSC, systemy zarządzania bezpieczeństwem informacji, pentesty, szkolenia, Auditor as a Service, usługi ciągłości działania oraz SOC, cieszące się coraz większym zainteresowaniem klientów. W tych zmiennych czasach europejskie portfolio i usługi tworzą razem kompletną odpowiedź na potrzebę dbania o ciągłość biznesową klientów.

Zmiana zasad gry

Jak tłumaczył Paweł Jurek, DAGMA Bezpieczeństwo IT traktuje Top Partner Summit jako okazję do „aktualizacji systemu”. Zespół spotyka się z partnerami i słucha opinii, ustalając co dzieje się na rynku. Potem przez kolejne tygodnie analizuje sytuację, wyciągając konkretne wnioski na przyszłość. W takim właśnie trybie spółka działała przez cały ubiegły rok, który można nazwać czasem zmiany zasad gry. 2025 rok był bowiem czasem szczególnie dużej „aktualizacji”, którą przyniósł nowy

program partnerski. Co zrozumiałe, taka zmiana na początku wywoływała pewne obawy i pytania.

– Za nami długie konsultacje i dziś, rok później, działamy już w zupełnie innym modelu. Program przyniósł nowe funkcjonalności w portalu dla partnerów, ale zapewnił również bezpieczeństwo prawne, jasne zasady projektowe, transparentną politykę cenową i pełną zgodność z wymaganiami kontrolnymi, w tym w zamówieniach publicznych. Partnerom należą się serdeczne podziękowania, bo to dzięki nim nasz program jest coraz lepszy. My mieliśmy wizję, ale to w rozmowach na spotkaniach, i warsztatach była ona korygowana i dopracowywana – mówi Paweł Jurek. Nowy program partnerski DAGMA Bezpieczeństwo IT wspiera partnerów akcjami sprzedażowymi i marketingowymi, optymalizując aktywności handlowe zarówno wewnętrzne, jak i zewnętrzne.

CHAMPION MSP IT-LOGIC BLACKICE NETWORKS

PIONIER SAFETICA SERVCOMP

LIDERZY STORMSHIELD

Reseller roku: SERVCOMP

Wschodząca gwiazda: NSI

Projekt roku: NOWA SYSTEM

Zgodność z NIS 2: TEKNISKA

W efekcie działań z partnerami wartość zrealizowanych projektów obejmujących całe portfolio wzrosła w ubiegłym roku o 33 proc. Udział w tym miała zarówno sprzedaż u nowych klientów, jak i większa wartość sprzedaży u klientów już istniejących (poprzez dodatkowe produkty, wyższe pakiety oraz wdrożenia).

TYTANI ESET

Tytan sprzedaży kluczowego pakietu biznesowego : NETCOMPLEX

Tytan nowej sprzedaży biznesowej: PERCEPTUS

Tytan sprzedaż XDR: SERVCOMP

Tytan sprzedaży SMB: MIECZNET

Tytan sprzedaży ENTERPRISE: POINT

Tytan sprzedaży subskrypcji dla domu: ACTION

Tytan utrzymania klienta biznesowego: IKARIA

Opinie partnerów z DAGMA Top Partner Summit

Grzegorz Godlewski, dyrektor sprzedaży w Fast IT Solutions

DNAGMA Top Partner Summit to doskonała okazja do rozmów z ekspertami oraz wymiany doświadczeń z obszaru cyberbezpieczeństwa. Wspólnie mogliśmy skonfrontować nasze obserwacje i przemyślenia dotyczące aktualnych trendów rynkowych oraz kierunków, w jakich rozwija się branża.

asza współpraca to nie tylko relacja biznesowa, ale także przyjaźń i zaufanie wypracowane przez lata wspólnej realizacji wielu projektów. Dzięki jej niezawodności i profesjonalizmowi, każda wspólna inicjatywa staje się dowodem na to, że w relacjach długofalowych największą wartością jest wzajemne poleganie na swoim doświadczeniu.

CPaweł Krzemiński, CTO - Chief Technology Officer w Suntar

oraz więcej polskich firm wybiera MSP – potrzebują kompleksowej obsługi, oszczędności czasu i doświadczonych ekspertów, którzy uzupełnią ich zasoby. To nie tylko efekt rosnących zagrożeń cybernetycznych, ale też tempa ich ewolucji i coraz wyższych wymagań regulacyjnych. Dlatego też obserwujemy, że klienci chętniej sięgają

Karol Girjat, Business Development Manager w NetComplex po bardziej zaawansowane pakiety usług, które łączą monitorowanie, wykrywanie zagrożeń i proaktywne działania w jednym, kompleksowym modelu. DAGMA Bezpieczeństwo IT jest z nami praktycznie od początku – to partner biznesowy, na którym można polegać. Od lat rozwijamy się ramię w ramię i szczerze cieszy nas to, że dzięki wzajemnej współpracy wspólnie osiągamy coraz lepsze wyniki.

Najlepsi partnerzy ubiegłego roku

Zdalne etaty w USA,

wielkie pieniądze dla Kima

Pracownicy z Korei Północnej zarabiają w Stanach Zjednoczonych duże pieniądze, a lwia ich część zasila reżim Kim Dzong Una.

Wojciech Urbanek

Dziennik „The Wall Street Journal” dotarł do Koha, który należał do elitarnego grona północnokoreańskich specjalistów szkolonych i wysyłanych za granicę przez Kim Dzong Una. Ich misja polega na zdobywaniu twardej waluty dla Pjongjangu poprzez podszywanie się pod cudzoziemców i obejmowanie w ich imieniu zdalnych etatów w branży IT, najlepiej takich, które wiążą się z wyższymi stawkami niż przeciętne oferty dostępne w USA.

Koh jednak uciekł do Korei Południowej, gdzie ujawnił się jako jeden z „cyfrowych wojowników” północnokoreańskiego reżimu, któremu udało się zinfiltrować setki firm z listy Fortune 500. Cyberagenci bezwzględnego Kima wzięli na cel 40 krajów,

REŻIM PRZEJMUJE NAWET 90 PROCENT ZAROBKÓW SWOICH AGENTÓW.

prowadząc swoje działania z Chin i Rosji, gdzie połączenia internetowe są znacznie lepsze niż w Korei Północnej. Szacuje się, że w 2024 r. wygenerowali dla azjatyckiego reżimu około 800 mln dol.

rych wysyłany jest sprzęt wydany przez firmy, a następnie zdalnie użytkowany przez Koreańczyków z Północy. Pozwala im to sprawiać wrażenie, że logują się z  terenu Stanów Zjednoczonych. W listopadzie Departament Sprawiedliwości poinformował, że czterech Amerykanów przyznało się do pomocy północnokoreańskim pracownikom IT w zdobyciu zatrudnienia w ponad 136 amerykańskich przedsiębiorstwach. Ci zagraniczni pracownicy IT pomagają kierować zasoby do programu nuklearnego Pjongjangu. Reżim przejmuje nawet 90 proc. zarobków każdego z nich. Kilka takich osób może z łatwością sfinansować budowę jednego pocisku. Jak dotąd jedynie garstka zdecydowała się na dezercję, a nieliczni rozmawiali z mediami.

Życie w luksusie

Koh przyznał, że oddelegowanie za granicę pozwoliło mu korzystać z luksusów niedostępnych w ojczyźnie: stałej energii elektrycznej, pożywnych posiłków i swobodnego dostępu do internetu. „To było jak oglądanie kolorowej telewizji po raz pierwszy po całym życiu spędzonym przed czar-

dawców zaczęła przeprowadzać rozmowy kwalifikacyjne na żywo. Koh starał się rozwiązać ten problem, werbując zachodnich programistów do ubiegania się o pracę we własnym imieniu, a nawet do uczestniczenia w rozmowach wideo. Nie musieli wykonywać faktycznej pracy, zazwyczaj otrzymywali jednorazowe wynagrodzenie w wysokości 500 dol. lub prowizję wynoszącą co najmniej 30 proc. Całą pracę związaną z kodowaniem i debugowaniem brał na siebie Koh. Niektórych tak skusiły jego propozycje, że udostępniali skany swoich dowodów tożsamości, które następnie były wykorzystywane przez innych północnokoreańskich pracowników IT do pozyskiwania zleceń.

Lockdowny podniosły poprzeczkę Przełomem dla takich pracowników jak Koh okazał się czas lockdownów i boomu na pracę zdalną, oraz pojawienie się narzędzi AI. Reżim Kim Dzong Una uznał wówczas, że należy podnieść miesięczny limit dla pracowników IT do 8 tys. dol.

Relacja Koha pokrywa się z obserwacjami Mun Czong-Hjuna, południowokoreańskiego eksperta ds. cyberbezpieczeństwa, który od ponad dwóch dekad śledzi zachowanie byłych północnokoreańskich pracowników IT i utrzymuje z nimi kontakt online. „Większość tych ludzi pochodzi z elitarnych uczelni, posługuje się językami obcymi i dąży do podjęcia pracy w USA. Działają w trybie online w weekendy i noce, generując znaczne środki finansowe, które pomagają utrzymać reżim” – podsumowuje Mun Czong-Hjun.

Jak wynika z zeznań uciekinierów opublikowanych w raporcie PSCORE z 2025 r. (poświęconym cyberzagrożeniom ze strony reżimu Kim Dzong Una), północnokoreańscy pracownicy IT żyją pod nieustannym nadzorem, w warunkach chronicznego niedoboru snu i pod presją nieprzerwanego działania. W ciągu tygodnia mogą opuszczać swoje kwatery jedynie na krótkie codzienne spacery. Co dwa lub trzy lata wracają jednak do Pjongjangu na miesięczny obóz reedukacyjny, mający przywrócić lojalność nadszarpniętą kontaktem z zagranicznymi treściami.

Artykuł powstał na podstawie materiałów The Wall Street Journal.

Arrow

Arrow Enterprise Computing Solutions otrzymało prestiżową nagrodę Microsoft Distributor Partner of the Year 2025. Dla polskich partnerów Microsoft oznacza to dostęp nie tylko do lokalnego wsparcia, ale przede wszystkim do globalnych zasobów, programów i rozwiązań dystrybutora wyznaczającego standardy w branży.

Nagroda Microsoft Distributor Partner of the Year przyznawana jest firmom, które osiągnęły wybitne rezultaty we wdrażaniu rozwiązań chmurowych i AI. W tegorocznej edycji, która zgromadziła 4,6 tys. zgłoszeń ze stu krajów, wyróżniono Arrow między innymi za platformę ArrowSphere Cloud wraz z narzędziem ArrowSphere Assistant. To zaawansowane rozwiązanie wykorzystuje agentów AI do wspierania partnerów Microsoft w podejmowaniu strategicznych decyzji biznesowych opartych na analizie danych oraz budowaniu trwałego wzrostu sprzedaży. Współpracując z Arrow Enterprise Computing Solutions Polska, partnerzy zyskują bezpośredni dostęp do tych samych na-

dystrybutorem roku Microsoft 2025

rzędzi i wiedzy, które przyniosły globalny sukces. To połączenie lokalnej obecności z globalną ekspertyzą stanowi przewagę konkurencyjną niemożliwą do osiągnięcia przez mniejszych dystrybutorów działających wyłącznie w regionie.

Złożoność środowisk chmurowych: prawdziwe wyzwanie resellerów

Country Manager,

Arrow Enterprise

Computing Solutions Polska

T

ytuł Microsoft Distribution Partner of the Year to prestiżowe, globalne wyróżnienie, które nabiera szczególnego znaczenia w Polsce. Dzięki platformie ArrowSphere Cloud nasi partnerzy jako pierwsi korzystają z rozwiązań AI, wspierając rozwój ekosystemu Microsoft na rynku lokalnym. Codziennie otrzymujemy pozytywne opinie o tym, jak ArrowSphere Cloud pomaga im skuteczniej odpowiadać na potrzeby klientów. To wyróżnienie jest także efektem zaangażowania naszych lokalnych zespołów oraz dedykowanych programów, które wspierają rozwój i sukces partnerów Microsoft.

Usługi chmurowe oferują elastyczność kosztową, skalowalność, dostępność i mobilność. Wraz z rozwojem biznesu pojawia się jednak poważne wyzwanie: zarządzanie dziesiątkami różnych procesów, skomplikowanymi modelami rozliczeń i rozrastającym się portfolio usług dla wielu klientów jednocześnie. Ta złożoność operacyjna sprawia, że resellerzy i integratorzy wchodzący w biznes chmurowy stają przed poważnym wyzwaniem. ArrowSphere Cloud przychodzi im z pomocą. Jest to zaawansowane rozwiązanie do zarządzania usługami Microsoft, oferujące „single pane of glass” eliminujące wielość portalów i systemów rozliczeniowych. Platforma zapewnia intuicyjne ofertowanie, kompleksowe zarządzanie subskrypcjami Microsoft, analitykę FinOps, SecOpps i GreenOps oraz white-label Customer Portal.

Platforma wykorzystuje też generatywną AI. ArrowSphere Assistant automatyzuje analizę rozliczeń, aktualizacje i tworzenie propozycji biznesowych dla klientów; wspiera zarządzanie usługami. Co istotne, Cloud Assistant potrafi samodzielnie rozwiązywać zgłoszenia wsparcia na poziomie 1 i 2, eliminując potrzebę eskalacji typowych problemów.

Należy podkreślić, iż Arrow Enterprise Computing Solutions Polska działa w ramach globalnej organizacji obsługującej partnerów w 38 krajach. Dzięki temu polscy partnerzy Microsoft korzystają z wydarzeń,

TO WYRÓŻNIENIE JEST TAKŻE EFEKTEM ZAANGAŻOWANIA LOKALNYCH ZESPOŁÓW ARROW.

programów szkoleniowych i innowacji dostępnych w całej sieci Arrow.

Cloud Amplification Program: od analizy do działania

Arrow oferuje Cloud Amplification Program (CAP) – kompleksowy program wspierający firmy w przyspieszeniu wdrożeń rozwiązań chmurowych, identyfikacji nowych źródeł przychodów i budowaniu przewagi konkurencyjnej. To szczególnie ciekawa propozycja dla rodzimych partnerów Microsoft, szczególnie działających w obszarze AI Business Solutions oraz Cloud & AI Platform. Co istotne, Arrow oferuje dostęp do rozwiązań realnie przekładających się na wzrost przychodów. Partnerzy uczestniczący w CAP zwiększyli przychody z Microsoft o 72 proc. w ciągu roku, podczas gdy ci spoza programu osiągnęli wzrost o 25 proc. Pierwszym krokiem firm przystępujących do programu jest quiz diagnostyczny, oceniający dojrzałość partnera w zakresie wiedzy i obsługi rozwiązań chmurowych. Następnie Arrow dostosowuje szkolenia i śledzi dalsze postępy partnera. Polscy partnerzy Microsoft mają okazję stać się częścią globalnej sieci dystrybutora roku, zachowując pełne lokalne wsparcie. To połączenie to klucz do sukcesu w dynamicznie zmieniającym się świecie technologii. Arrow zaprasza partnerów Microsoft do współpracy opartej o najlepsze praktyki branżowe, innowacyjne narzędzia i sprawdzone programy rozwojowe.

Porozmawiaj o możliwościach współpracy bucloud.ecs.pl@arrow.com

Marcin Reczyński

Cyberbezpieczeństwo

w erze autonomicznej AI

Strategiczne powiązanie cyberbezpieczeństwa oraz sztucznej inteligencji w kontekście polityki publicznej i odporności państwa – były głównymi tematami dorocznej konferencji CyberSec Asia 2026.

Krzysztof Jakubik, Bangkok

Otwierający konferencję przedstawiciele tajskiej administracji publicznej podkreślali, że w dobie powszechnej cyfryzacji – obejmującej finanse, ochronę zdrowia, administrację i infrastrukturę krytyczną – cyfrowe bezpieczeństwo przestało być zagadnieniem technicznym, a stało się elementem stabilności gospodarczej i zaufania publicznego. Istotnym podnoszonym

ZACHODZI POTRZEBA CIĄGŁEGO ZARZĄDZANIA RYZYKIEM ORAZ BUDOWANIA ODPORNOŚCI NA WSPÓŁCZESNE ZAGROŻENIA.

wątkiem była zmiana paradygmatu: od podejścia bazującego na zgodności z regulacjami i okresowych audytach, do modelu ciągłego zarządzania ryzykiem oraz budowania odporności na współczesne zagrożenia. Wskazywano, że obecnie mają one charakter systemowy, transgraniczny i zautomatyzowany, a ich tempo rośnie wraz z wykorzystaniem AI przez atakujących. Jednocześnie sztuczna inteligencja może i powinna być wy-

korzystywana do wzmocnienia ochrony poprzez zabezpieczanie modeli, danych i łańcuchów dostaw.

Przedstawiciele organizacji branżowych i administracji mówili o konieczności wielostronnej współpracy, wykraczającej poza wymianę informacji o zagrożeniach, a obejmującej wspólne budowanie kompetencji, standardów oraz zdolności reagowania na incydenty. Wskazywano na potrzebę koordynacji na poziomie krajowym, regionalnym i międzynarodowym, co wpisuje się w globalną debatę o interoperacyjności regulacji, suwerenności cyfrowej i ochronie infrastruktury krytycznej. Podkreślano rozwój lokalnych ekosystemów produktowych – jako element wzmacniania niezależności technicznej.

AI jako nowy aktor operacyjny w cyberatakach

Jednym z najmocniejszych akcentów konferencji była teza, że wchodzimy w erę agentic AI – systemów zdolnych do samodzielnego planowania i realizowania złożonych operacji. Zaprezentowano model ataku, w którym człowiek wyznacza jedynie cel, natomiast kolejne fazy

– rekonesans, skanowanie podatności, generowanie exploitów, tworzenie malware’u i eskalacja uprawnień – są realizowane przez agenty AI. Rola operatora ogranicza się do walidacji efektów.

Szczególnie niepokojące jest skrócenie czasu między wykryciem podatności, a jej uzbrojeniem. To, co wcześniej zajmowało tygodnie, obecnie może zostać zautomatyzowane i zrealizowane w ciągu minut. Oznacza to przejście do modelu „machine-speed attacks”, w którym infrastruktura podłączona do internetu jest nieustannie testowana przez autonomiczne systemy. W praktyce przestaje być to konfrontacja ludzi z ludźmi – coraz częściej jest to AI kontra AI.

Dla przedsiębiorstw oznacza to konieczność odejścia od reaktywnego modelu bezpieczeństwa. Narzędzia wspierane przez AI nie mogą pozostawać wyłącznie dodatkiem marketingowym; muszą realnie wzmacniać zdolności wykrywania podejrzanych zdarzeń, korelacji informacji oraz automatycznego reagowania. Jednocześnie konieczne staje się testowanie systemów pod kątem odporności na autonomiczne ataki, a nie realizowanie wyłącznie klasycznych scenariuszy penetracyjnych.

Kwantowe odliczanie trwa

Drugim kluczowym wątkiem była postępująca komercjalizacja obliczeń kwantowych. Prelegenci podkreślali, że chociaż

horyzont pełnej dojrzałości tej technologii pozostaje niepewny, wyścig już trwa – zarówno w warstwie sprzętowej, jak i programistycznej.

W centrum dyskusji znalazło się zagrożenie dla obecnych standardów kryptograficznych, takich jak RSA czy ECC. Model „zbieraj teraz, odszyfruj później” (harvest now, decrypt later) przestaje być teoretycznym, gdy dostępność odpowiednio wydajnych komputerów kwantowych ułatwi nieuprawnione odszyfrowywanie zgromadzonych danych. Szczególnie narażone są tu archiwa danych o długim cyklu życia, takie jak dokumentacja medyczna, dane finansowe czy informacje rządowe.

W prezentacjach wielokrotnie odwoływano się do potrzeby natychmiastowego rozpoczęcia inwentaryzacji zasobów kryptograficznych i planowania migracji do standardów post-quantum cryptography (PQC). Z perspektywy Europy jest to wątek bezpośrednio powiązany z regulacjami NIS 2, DORA czy wymogami branżowymi – kryptograficzna „zwinność” (crypto agility) staje się elementem strategicznego zarządzania ryzykiem, a nie jedynie zagadnieniem technicznym.

Incident response jako proces, nie produkt

Wystąpienia praktyków – zwłaszcza specjalistów od reagowania na incydenty – koncentrowały się na krytyce podejścia „kupmy kolejne narzędzie”. Podkreślano, że bezpieczeństwo nie jest produktem, lecz cyklem obejmującym przygotowanie, identyfikowanie i eliminowanie zagrożeń, ograniczanie skutków ataków, odtwarzanie systemów oraz analizowanie wniosków.

Zwracano uwagę na elementarne braki w wielu organizacjach: nieaktualne inwentarze zasobów, brak

Trzy pytania do...

Czy wasza obecność na międzynarodowych konferencjach poświęconych cyberbezpieczeństwu stanowi odzwierciedlenie strategicznej decyzji ekspansji poza Polskę? Polska to dla nas nadal kluczowy, chociaż trudny rynek. Konkurujemy z dużymi dostawcami, zwłaszcza tymi silnie osadzonymi w ekosystemach chmurowych. Tymczasem naszą przewagą jest agnostyczne podejście do chmury i pozostawienie pełnej decyzyjności co do zarządzania systemami ochronnymi po stronie klienta. Dlatego rzeczywiście, podjęliśmy strategiczną decyzję rozwoju

Artur Bicki, CEO Energy Logserver działalności poza Europą. Mamy świetnych, interdyscyplinarnych inżynierów i szkoda byłoby ograniczać się do jednego rynku. Rozwijamy obecnie działalność na wielu zaniedbanych przez dużych dostawców rynkach afrykańskich, jak Rwanda czy Nigeria, a także w krajach Azji Centralnej i Południowo-Wschodniej, jak ZEA, Kazachstan, Tajlandia, Wietnam czy Indonezja. Budujemy w nich lokalne kompetencje tak, aby partnerzy byli w stanie samodzielnie wdrażać nasze systemy.

Dlaczego koncentrujecie się na rynkach wschodzących, a nie na Europie Zachodniej?

W wielu krajach rozwijających się jest istnieje silna potrzeba suwerenności technicznej. Klienci chcą mieć system „u siebie”, bez uzależnienia od zagranicznych centrów danych czy polityk korporacyjnych, co trochę przypomina Polskę sprzed kilkunastu lat. W Europie Zachodniej rynek jest mocno zamknięty i zdominowany przez globalnych graczy. W krajach, w których działamy, większe znaczenie ma partnerskie podejście i szacunek dla lokalnych uwarunkowań. Naszą przewagą konkurencyjną jest to, że nie zmuszamy do „wchodzenia” w określoną platformę ani do budowania wokół niej całej infrastruktury. Dla przykładu, nasz system Energy Logserver może działać całkowicie lokalnie, bez uzależnienia od zewnętrznych usług. We współpracy z nami nie ma ryzyka, że za rok cała infrastruktura klienta musi być włączona w naszą linię produktową. Klient tworzy własne ustawienia konfiguracyjne i listy reputacyjne – z uwzględnieniem kontekstu operacyjnego. Nie zmuszamy też do kupowania wsparcia serwisowego, jest ono opcjonalne.

W waszych rozwiązaniach dostępne są także funkcje bazujące na sztucznej inteligencji. Czy one również uruchamiane są w lokalnej infrastrukturze?

W rozwiązaniu Energy Logserver AI działa w dwóch warstwach – w obu wyłącznie on-premise. Zaimplementowany przez nas model językowy pełni funkcję asystenta analitycznego. Wspiera analizę bezpieczeństwa, rozszerza kontekst informacji o incydencie, sugeruje możliwe scenariusze i środki zaradcze. Można go rozszerzać o dodatkową wiedzę wspomagającą analizę. Ale oprócz LLM stosujemy też podejście matematyczne i modele budowane wspólnie z klientami dla określonych źródeł danych. Natomiast nie traktujemy AI jako deterministycznego mechanizmu ani jako zamiennika specjalisty, którego rolą pozostaje krytyczna ocena wyników. Sztuczna inteligencja w naszym systemie to konsultant, skłonny odpowiedzieć natychmiast na każde pytanie operatora, co pozwala na szybką naukę zespołu. Przekonujemy, że za jej pomocą operatorzy pierwszej linii wsparcia szybko przejdą poziom wyżej, a ich rutynowe czynności można zautomatyzować. AI nie zastąpi człowieka, ale wykona za niego pracę, którą on zamodeluje.

szczegółowych diagramów sieci, niewystarczające logowanie zdarzeń czy brak scentralizowanego SIEM. W sytuacji ataku ransomware brak tych fundamentów znacząco wydłuża czas reagowania oraz zwiększa koszty incydentu. Równie istotne jest ćwiczenie scenariuszy kryzysowych – między innymi prowadzenie warsztatów typu tabletop, obejmujących nie tylko IT, ale również zarządy, działy prawne i inne, które są odpowiedzialne za komunikację wewnątrz i na zewnątrz przedsiębiorstw.

Wspólnym mianownikiem wszystkich prezentacji była odporność, rozumiana szerzej niż ochrona przed incydentem – taka, która obejmuje zdolność do szybkiego wykrycia zagrożenia, ograniczenia strat, utrzymania ciągłości działania i wyciągnięcia wniosków. W realiach, w których sztuczna inteligencja przyspiesza ofensywę, a obliczenia kwantowe podważają fundamenty kryptografii, odporność staje się kluczową kategorią strategiczną zarówno dla firm, jak i całych państw. n

Zamówienia na pozór otwarte

W 99 proc. zamówień na dostawy oprogramowania biurowego polska administracja dyskryminuje dostawców innych niż Microsoft i na własne życzenie uzależnia się od jednego dostawcy – to główne wnioski z raportu „Zamówienia na pozór otwarte”, opracowanego przez Fundację Instrat.

Raport Fundacji Instrat wskazuje, że 99 proc. przeanalizowanych zamówień publicznych bezpośrednio lub pośrednio wyklucza produkty inne niż oferowane przez Microsoft. Do zamówień wprost wykluczających konkurencję eksperci zaliczyli aż 20 proc. zamówień. Prawie cała reszta zawierała zapisy, które wykluczały konkurencję na inne sposoby, w tym wymagając, by interfejs zawierał elementy 3D. W zasadzie, jak się okazuje, tylko jedno (sic!) postępowanie zaklasyfikowano jako nie preferujące Microsoftu (przeprowadził je Narodowy Instytut Fryderyka Chopina).

Takie wyniki analizy oznaczają, że Microsoft zmonopolizował rynek dostaw oprogramowania biurowego dla polskiej administracji. To ryzykowne dla urzędników każdego szczebla z kilku powodów. Pierwszym, oczywistym, jest ryzyko nagłego wzrostu cen, gdyż monopolista nie

Metodologia raportu

Ze względu na obszerność i niejednorodność danych oraz konieczne wykluczenia, finalnie analiza została oparta o 72 postępowania dotyczące zamówień publicznych na dostawy oprogramowania biurowego wszczęte od początku do 24 listopada 2025 r. Projekt jest realizowany w latach 2025–2026 dzięki dofinansowaniu Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach programu „Rządowy Program Rozwoju Organizacji Obywatelskich na lata 2018–2030 PROO”.

musi się bać, że klienci przejdą do konkurencji. Nie jest też dobrze, gdy amerykańska korporacja, a nie polski rząd, kontroluje lwią część polskiej infrastruktury technologicznej i może nam ją po prostu wyłączyć. Ponadto w przypadku awarii, wycofania się dostawcy z oferowania usługi lub innych problemów, ryzyko obejmie całą administrację, a nie tylko część jej jednostek – w praktyce może oznaczać to znacznych rozmiarów paraliż państwa.

Kolor dowolny, byle czarny

Choć prawo zamówień publicznych zabrania wykluczania konkurencji przez wskazywanie konkretnych producentów oprogramowania, to konstrukcja zamówień preferuje produkty Microsoftu. Zamawiający w większości przypadków dopuszczają alternatywne oprogramowanie, o ile spełnia ono szereg specyficznych wymogów, ale natrafiamy na przypadki wymogów kompatybilności z technologiami należącymi właśnie do spółki z Redmond. Raport opisuje też inne sposoby wykluczania, które mają sens i uzasadnienie tylko w sytuacji, w której zamawiający chce wykluczyć rywali Microsoftu.

Jak wyjść z uzależnienia?

Zależność polskiej administracji od jednego dostawcy (tzw. vendor lock-in) może sugerować, że nie ma żadnej lepszej alternatywy. Jednak, jak pokazuje raport Instrat Foundation, pojedyncze rządy narodowe i lokalne w UE rozpoczynają już procesy wdrażania oprogramowania

open source — to chociażby miasto Lyon, austriackie ministerstwo gospodarki czy niemiecki kraj związkowy Szlezwik-Holsztyn.

MICROSOFT ZMONOPOLIZOWAŁ RYNEK DOSTAW OPROGRAMOWANIA BIUROWEGO DLA POLSKIEJ ADMINISTRACJI.

Potrzebę większego wykorzystania otwartego oprogramowania w administracji publicznej zauważa samo Ministerstwo Cyfryzacji w projekcie Strategii Cyfryzacji Państwa do 2035 r. Tym bardziej potrzebna jest nowa, lepsza polityka zakupowa i przepisy dotyczące zamówień publicznych. Zwłaszcza że stanowią one ogromny strumień finansowania, który mógłby trafiać do europejskich przedsiębiorstw, które zainwestują te środki w Polsce, będą w pełni podległe polskiemu prawu i zapłacą w Polsce podatki. Microsoft sam przyznaje, że nie prowadzi w Polsce prac badawczo-rozwojowych, a jego polskie spółki kontroluje spółka z Irlandii. Temu wszystkiemu towarzyszy potrzeba lepszej edukacji urzędników i poważniejsze traktowanie suwerenności technologicznej. Infrastruktura cyfrowa powinna być traktowana równie serio jak energetyczna czy zbrojeniowa. Jak groźne są skutki uzależnienia się od jednego dostawcy dowiedzieliśmy już, gdy Rosja najechała Ukrainę.

Opracowanie: Tomasz Gołębiowski

Przejęcia, których dokonał Sharp w ciągu ostatnich lat, znajdują swój finał w strategii One Sharp ogłoszonej na początku roku. Co w praktyce dla waszych partnerów oznacza konsolidacja szerokiego wachlarza produktów i usług w ofercie jednego producenta?

Zacznijmy od tego, że w kwietniu powitamy na naszym pokładzie zespół profesjonalistów z NEC, doświadczonych w projektach, których elementem są rozwiązania audiowizualne. Sam proces przejęcia tej firmy trwał kilka lat i rynek zdążył się przyzwyczaić do idei połączenia obu naszych marek. Warto przypomnieć, że wcześniej w Europie doszło do wcielenia w struktury Sharp Electronics portfolio Sharp Display Solutions Europe. Przejęliśmy także duże europejskie firmy technologiczne, jak brytyjski Complete IT, szwajcarski ITpoint Systems oraz francuska Apsia, których domeną są usługi IT w zakresie chmury, cybersecurity i oprogramowania.

To wyjątkowo znacząca zmiana w zakresie waszych możliwości… Mamy teraz do dyspozycji około pięciuset wysokiej klasy inżynierów IT i ogromny potencjał w zakresie szeroko rozumianych projektów i usług dla odbiorców biznesowych. Dla naszych partnerów oznacza to, że razem jesteśmy w stanie już nie tylko dostarczać klientom urządzenia drukujące, ale całe środowiska IT i AV. Tym samym zaczyna się liczyć praca w modelu konsultingowym i projektowym, zaś sam hardware schodzi na nieco dalszy plan. To bardzo ważna zmiana: partnerzy nie muszą czerpać z oferty różnych firm, aby stworzyć rozwiązanie dla odbiorcy – wszystko znajdą u nas. Ważne jest, aby nie bali się rozmawiać z klientami o kompleksowej ofercie i szerzej spojrzeli na możliwości biznesowe, jakie stwarza im kontakt z odbiorcą, któremu do tej pory dostarczali rozwiązania druku.

Tu pojawia się pytanie o luki kompetencyjne w firmach partnerskich. Również samo współistnienie kanałów sprzedaży IT

DO KLIENTA Razem

„Planuję wraz z moim zespołem położyć większy nacisk na współprojektowanie z partnerami rozwiązań dla klienta. To oznacza więcej spotkań i współpracy koncepcyjnej dotyczącej obsługi odbiorców” – mówi Grzegorz Maczuga, Indirect Sales Manager Sharp w regionie CEE.

i AV w ramach jednej marki Sharp to wyzwanie, przynajmniej na początku. Chcemy, aby normą stała się obsługa klientów od sal konferencyjnych i digital signage poprzez bezpieczeństwo dokumentów oparte na zabezpieczeniach sprzętowych urządzeń i wysokiej klasy oprogramowaniu. Ci partnerzy, którzy będą w stanie połączyć szerokie kompetencje, będą wygrywać rywalizację na rynku. My jednak nie zostawiamy ich samym sobie, ale zamierzamy wspomagać poprzez szkolenia i konsultacje. Jednocześnie myślimy o mniejszych partnerach, z dobrymi relacjami u klientów końcowych, których od lat obsługują w zakresie druku. Jeśli dostrzegą możliwość sprzedawania rozwiązań AV, czy świadczenia usług z dziedziny cybersecurity, bądź helpdesk, to jesteśmy w stanie ich wesprzeć kompetencyjnie, aby wspólnie rozszerzyć naszą obecność u ich klientów. Ma to również działać w drugą stronę – partnerzy z branży AV dostaną wsparcie zespołu „drukarkowego” Sharp, jeśli dostrzegą możliwości sprzedaży rozwiązań i usług spoza swojej dziedziny. Więcej informacji na temat tego modelu współpracy przekażemy już w kwietniu.

Na jakie potrzeby klientów biznesowych należy obecnie zwrócić uwagę?

Widzimy, że duża grupa odbiorców biznesowych z sektora MŚP jest skłonna korzystać z szerokiej oferty Sharp na zasadzie wynajmu – czy to sprzętu, oprogramowania, usług, a nawet specjalistów. W tym widzimy duży potencjał – outsourcingu za opłatą kilkuset złotych miesięcznie dla klientów, którzy nie dysponują dużymi działami IT, a potrzebują nowoczesnych rozwiązań.

Chyba outsourcing na dobre zagościł w obszarze druku biurowego, który do niedawna stanowił core business firmy Sharp. Bardzo dużo naszych urządzeń drukujących działa u klientów biznesowych na zasadzie wynajmu. Obecnie zdecydowana większość biznesu dotyczy usługi wydru-

ku, a nie sprzedaży drukarki. To sytuacja zupełnie odwrotna niż jeszcze 15 lat temu. Dzięki temu jesteśmy także w stanie monitorować liczbę wydruków, która nieznacznie spada. Spadek liczby drukowanych stron dotyczy głównie wydruków monochromatycznych i jest nieco łagodzony wzrostem liczby wydruków kolorowych. Można powiedzieć więc, że o „drukarkową” część biznesu jestem spokojny w perspektywie najbliższych lat. Jednak sam model transakcyjny odchodzi w zapomnienie.

Jak pan się odnajduje w tym takim ważnym dla producenta okresie?

Dzieje się dużo ciekawych rzeczy, zarówno jeśli chodzi o nowe produkty, jak i nowych ludzi, których za chwilę zobaczymy w naszym zespole. Oczywiście z wieloma się znamy, przecież działamy w jednej branży od lat. Co ważne, również kanał partnerski wzbogaci się o nowych resellerów, wraz z którymi przyjdą nowi klienci. W trakcie połączenia dwóch organizacji i dwóch kanałów partnerskich jedną z najważniejszych spraw jest jasna, transparentna komunikacja i oczywiście pozostawanie blisko klienta końcowego. Mam zamiar kontynuować to, co robiłem wcześniej i oprzeć się na swoim doświadczeniu, ponieważ wyrosłem na obsłudze kanału partnerskiego. Dalej chcę być u partnerów i ich wspierać. To konieczne, bo planuję wraz z moim zespołem położyć większy nacisk na współprojektowanie z partnerami rozwiązań dla klienta. To oznacza więcej wspólnych spotkań i współpracy koncepcyjnej dotyczącej obsługi odbiorców. To wyzwanie, któremu musimy razem z partnerami sprostać.

Z

Sharp zdobył certyfikat Channel Master 2026.

Państwowa sztuczna

od laboratoriów

inteligencja: do realnych wdrożeń

„Biorąc pod uwagę plany polskiego rządu, aspirujemy do tego, aby w zakresie sztucznej inteligencji Polska weszła do wąskiej grupy 20–25 państw budujących AI na świecie” – mówi dr hab. inż.

Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania

Informacji – Państwowego Instytutu Badawczego.

Jak można scharakteryzować działalność OPI oraz waszą rolę w krajowym ekosystemie cyfrowym?

Jarosław Protasiewicz Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy to nowoczesne centrum technik informatycznych, sztucznej inteligencji i analiz, które odgrywa ważną rolę w polskim ekosystemie cyfrowym. Instytut wspiera wdrażanie polityki rządowej w zakresie nauki i szkolnictwa wyższego, przez co pomaga budować innowacyjną gospodarkę bazującą na wiedzy, a także wspiera rozwój polskiej nauki i szkolnictwa wyższego poprzez dostarczanie zaawansowanych narzędzi cyfrowych, prowadzenie rzetelnych badań i analiz oraz pomoc w rozwoju

KWESTIE PRAWNE I ETYCZNE

W OPI TRAKTUJEMY JAKO INTEGRALNĄ CZĘŚĆ PROCESU PROJEKTOWEGO, A NIE DODATEK NA ETAPIE WDROŻENIA.

infrastruktury badawczej. Ekspertki i eksperci instytutu zajmują się także badaniami w takich dyscyplinach jak informatyka techniczna i komunikacja oraz nauki społeczne. Tworzymy również innowacyjne rozwiązania z wykorzystaniem sztucznej inteligencji oraz rozwijamy medycynę cyfrową. Pracownicy instytutu prowadzą także zaawansowane badania dotyczące interakcji człowiek-komputer (HCI). Ich rezultaty są

istotne, gdyż pozwalają tworzyć rozwiązania techniczne bardziej intuicyjne, dostępne i dopasowane do rzeczywistych potrzeb użytkowników. OPI dostarcza też nowoczesne narzędzia i ekspercką wiedzę z zakresu e-learningu. Oferujemy między innymi otwarte kursy online z różnych dziedzin oraz prowadzimy szkolenia z metodyki i tworzenia kursów internetowych.

W jaki sposób zagadnienia związane ze sztuczną inteligencją wpisują się dziś w strategiczne kierunki rozwoju Instytutu?

Sztuczna inteligencja wpisana jest w DNA OPI. Nasz instytut, jako jeden z liderów rozwoju AI w Polsce, podejmuje innowacyjne inicjatywy, które wspierają nie tylko rozwój polskiej nauki, ale i całej branży IT. W OPI działa nowoczesne laboratorium – AI Lab. Koncentrujemy się w nim na badaniach nad sztuczną inteligencją, z naciskiem na zastosowania biznesowe i przemysłowe. Ale oczywiście nadal realizujemy wiele projektów wspierających polskie uczelnie i jednostki naukowe. Zapewniamy systemy bazujące na AI agencjom, uczelniom i firmom. Ciągle wdrażamy nowe rozwiązania i pozyskujemy nowych partnerów biznesowych. To właśnie eksperci z AI Labu pracowali wraz z partnerami nad modelem PLLuM (Polish Large Language Model).

Jak można ocenić obecny poziom wykorzystania rozwiązań AI w szeroko rozumianym sektorze publicznym w Polsce?

W Polsce wiele branż z sukcesem wykorzystuje AI w swojej działalności. Biorąc pod uwagę plany polskiego rządu, aspirujemy do tego, aby w zakresie sztucznej inteligencji Polska weszła do wąskiej grupy 20–25 państw budujących AI na świecie. Myślę, że plany te zrealizujemy. Warte podkreślenia jest także to, że sektor publiczny w naszym kraju coraz chętniej sięga po rozwiązania wykorzystujące sztuczną inteligencję. Także my staramy się wspierać rozwój AI w tym obszarze, najlepszym przykładem jest wspomniany model PLLuM, a w szczególności jego kontynuacja – projekt HIVE AI, który zakłada właśnie rozwój i pilotażowe wdrożenie dużych modeli językowych w polskiej administracji publicznej.

Które projekty zrealizowane przez OPI można wskazać jako przykłady praktycznego i dojrzałego zastosowania tych technologii?

Jeżeli chodzi o praktyczny przykład wykorzystania AI w branży nauki i szkolnictwa wyższego, to warto wspomnieć o Jednolitym Systemie Antyplagiatowym (JSA), który powstał w OPI. W związku z szybko rosnącą popularnością narzędzi takich jak ChatGPT i wzrostem ryzyka wykorzystywania go przez studentów w trakcie pisania prac dyplomowych, postanowiliśmy pomóc wszystkim promotorom w kraju. Dodaliśmy przydatną funkcję do Jednolitego Systemu Antyplagiatowego, dzięki której od lutego 2024 r. każda jednostka prowadząca studia wyższe może całkowicie bezpłatnie zbadać, czy dana praca dyplomowa została napisana z użyciem sztucznej inteligencji.

W jaki sposób Instytut podchodzi do kwestii wykorzystania danych gromadzonych przez podmioty publiczne do trenowania modeli AI? Jakie ograniczenia prawne, organizacyjne i jakościowe mają tu kluczowe znaczenie?

W OPI podchodzimy do rozwoju sztucznej inteligencji w sposób bardzo etyczny. Kończymy właśnie pracę nad szczegółowymi wytycznymi dla naszych pracowników, w jaki sposób właściwie korzystać z AI. Jeżeli chodzi o korpusy tekstów do trenowania modeli neuronowych, to wykorzystujemy publikacje typu Open Access. Korzystamy przykładowo z bazy DOAJ (Directory of Open Access Journals) i w tym przypadku oczywiście korzystamy wyłącznie z publikacji naukowych, które mają wspomniany status

Open Access. W OPI szanujemy prawa autorskie i nie przetwarzamy ani nie indeksujemy innych publikacji. Wybór tekstów do uczenia modeli wynika z zapisów aktów prawnych oraz praw twórców zbioru, którzy opracowywali dane bazy.

Jak wyglądają kryteria oraz realia współpracy OPI z podmiotami prywatnymi przy projektach związanych ze sztuczną inteligencją? Na jakich zasadach budowane są takie partnerstwa i jakie modele współpracy sprawdzają się najlepiej? We współpracy z biznesem stawiamy przede wszystkim na partnerską relację bazującą na jasnym podziale ról i obowiązków. Takie partnerstwa budujemy na zasadach współodpowiedzialności i koordynacji, gdzie partner prywatny przygotowuje dane, procesy i scenariusze użycia, natomiast OPI jako partner badawczy realizuje algorytmy, eksperymenty i wdrożenia modelowe. Najlepszym tego przykładem jest nasza współpraca z branżą bankową. Od ubiegłego roku eksperci z AI Labu w OPI i pracownicy PKO BP rozwijają specjalistyczne neuronowe modele językowe pod kątem adaptacji i zastosowania ich w bankach – wspólnie realizują projekt „Budowa innowacyjnych polskich domenowych modeli językowych i platformy usługowej do serwowania modeli wielozadaniowych wewnątrz Banku PKO BP”. Inicjatywa otrzymała dofinansowanie z UE w kwocie 9,2 mln złotych, w ramach programu Fundusze Europejskie dla Nowoczesnej Gospodarki 2021–2027. Jednym z głównych kryteriów współpracy jest zapewnienie komplementarności zasobów. W tej kwestii OPI wnosi know-how naukowe i zespoły badawcze, zaś PKO BP – dane domenowe i potrzeby biznesowe. Ważne jest również spełnienie stawianych przez UE warunków dofinansowania, co jest często kluczowym elementem przy projektach realizowanych w formule partnerstwa publiczno-prywatnego. Dzięki swojej skali inicjatywa ta będzie przełomowa dla branży finansowej w Polsce. Klienci banku zyskają bardziej intuicyjną i efektywną obsługę, a pracownicy dostaną dodatkowe narzędzia usprawniające ich pracę.

Jakie konsekwencje dla prowadzonych i planowanych projektów badawczo-wdrożeniowych może mieć wdrożenie AI Act? Czy nowe regulacje zmienią sposób projektowania i implementacji systemów AI w sektorze publicznym? Transformacja cyfrowa oraz rozwój sztucznej inteligencji to zjawiska, które w coraz większym stopniu wpływają na społeczeństwa, gospodarki i systemy prawne na całym świecie. W centrum dyskusji znajdują

NAJWIĘKSZYM

WYZWANIEM NIE

JEST SAM NIEDOBÓR

SPECJALISTÓW, ALE

PRZEDE WSZYSTKIM

ICH EFEKTYWNE

WYKORZYSTANIE

I UMIEJĘTNOŚĆ

TRANSFERU WIEDZY

POMIĘDZY NAUKĄ, BIZNESEM ORAZ

ADMINISTRACJĄ.

się pytania o równowagę między innowacją, ochroną praw jednostki a zbiorową odpowiedzialnością. Kluczowe jest, by człowiek – a nie maszyna – pozostawał w centrum podejmowania decyzji. Ośrodek Przetwarzania Informacji prowadzi szereg badań związanych ze sztuczną inteligencją oraz transformacją cyfrową, także analizując ich skutki prawne. Widzimy potrze-

KLUCZOWE JEST, BY CZŁOWIEK — A NIE MASZYNA — POZOSTAWAŁ W CENTRUM PODEJMOWANIA DECYZJI.

bę stworzenia ram regulacyjnych, które zapewnią bezpieczeństwo obywateli i zachowanie podstawowych praw, gdyż brak przemyślanych zasad grozi powstaniem dużej nierównowagi, w której zwyciężą najsilniejsi – niekoniecznie działający w interesie wspólnym. AI Act należy traktować jako cenne narzędzie do regulacji rynku IT w Europie, które wprowadza klasyfikację systemów AI według poziomu ryzyka oraz określa obowiązki twórców i użytkowników.

A jak w praktyce funkcjonuje współpraca pomiędzy nauką, biznesem a administracją publiczną?

W praktyce ta współpraca wokół AI polega na budowaniu wspólnych projektów i narzędzi, które integrują wiedzę badawczą z  potrzebami praktycznymi oraz regulacyjnymi. Pomocne są np. takie inicjatywy jak Science4Business, które mają usprawnić komercjalizację wyników badań i łączą instytuty badawcze, przedsiębiorstwa oraz organy publiczne. Nasz instytut działa również jako moderator i pośrednik informacji, tworząc platformy i bazy danych, które ułatwiają kontakt między naukowcami a firmami oraz instytucjami administracji, co ma skrócić drogę od pomysłu do zastosowania technologii w praktyce.

Jakie bariery najczęściej utrudniają skuteczny transfer wiedzy i technologii między tymi środowiskami?

Najczęściej wymienianą przeszkodą w transferze wiedzy i technologii są kwestie strukturalne i komunikacyjne – różne tempo pracy oraz inne priorytety nauki oraz biznesu. Utrudniają one synchronizację działań i zrozumienie wzajemnych potrzeb. Dodatkowo, po stronie części naukowców kolejnymi przeszkodami w skutecznym wdrażaniu rozwiązań AI bywają brak kompetencji biznesowych oraz ograniczona świadomość potencjalnych zastosowań technologii w administracji publicznej.

W jaki sposób OPI podchodzi do komercjalizacji rezultatów badań w obszarze sztucznej inteligencji? Czy w przypadku projektów realizowanych dla administracji publicznej istnieje tam przestrzeń na rynkowe wdrożenia i skalowanie rozwiązań? W przypadku projektów realizowanych dla administracji publicznej dostrzegamy przestrzeń na rynkowe wdrożenia i skalowanie rozwiązań, zwłaszcza jeśli dana technologia potwierdzi swoją wartość w praktyce, uzyska zainteresowanie międzynarodowe lub zostanie zaadaptowana do szerszych zastosowań poza pierwotnym kontekstem urzędowym. Dobrym przykładem jest projekt ARBUZ, który AI Lab realizował na zlecenie Urzędu Ochrony Konkurencji i Konsumentów. W jego ramach powstało narzędzie do automatycznej analizy umów konsumenckich pod kątem niedozwolonych klauzul. Działa ono już w praktyce od kilku lat i oszczędza czas pracy urzędników. ARBUZ powstał w projekcie publicznym, współfinansowanym z UE (INFOSTRATEG I). Naszym narzędziem zainteresowała się Komisja Europejska, co pokazuje, że rozwiązania OPI mogą wykraczać poza pierwotne zastosowania administracyjne i znaleźć implementacje w innych krajach lub instytucjach, co jest istotnym krokiem w stronę ich rynkowego wykorzystania.

Jak można ocenić zasadność stosowania rozwiązań open source w projektach AI realizowanych dla sektora publicznego w porównaniu z technologiami zamkniętymi? Jakie kryteria powinny decydować o wyborze jednego z tych podejść? Staramy się aktywnie wpływać na rozwój polskiej branży IT, dlatego wiele narzędzi udostępniamy bezpłatnie dla wszystkich. Jesteśmy instytucją publiczną i uważam za zasadne, aby w ramach naszej działalności udostępniać niektóre produkty bezpłatnie. Na przykład, w 2021 roku udostępniliśmy bezpłatnie trzy modele Polish RoBERTa. Rozwijaliśmy je nadal i w 2025 roku razem z PKO BP wydaliśmy Polish RoBERTa 8k. Ostatnio na bazie tego modelu zbudowano narzędzie Sójka (Bielik Guard), przeznaczone do identyfikowania toksycznych treści oraz mowy nienawiści w środowisku cyfrowym. Sójka została stworzona w odpowiedzi na rosnący problem przemocy w sieci, który szczególnie dotyka dzieci i młodzież. Zadaniem narzędzia jest wykrywanie takich zagrożeń i ich minimalizowanie – szybko, skutecznie oraz bez potrzeby korzystania z kosztownej infrastruktury. Model jest lekki, otwarty (czyli bezpłatny) i może być wykorzystywany przez instytucje publiczne, organizacje społeczne oraz

firmy. Model OPI i PKO BP jest dostępny publicznie na platformie Hugging Face.

Jakimi kompetencjami dysponują zespoły zajmujące się AI w Polsce – zarówno w administracji publicznej, jak i w sektorze prywatnym? Czy największym wyzwaniem jest dziś niedobór specjalistów, czy raczej ich właściwe wykorzystanie? Na podstawie dostępnych analiz, w tym raportu OPI „Sztuczna inteligencja a sektor nauki i szkolnictwa wyższego. Przegląd dokumentów strategicznych i osiągnięć na świecie”, który jest dostępny bezpłatnie na portalu RAD-on, można powiedzieć, że zespoły zajmujące się sztuczną inteligencją w Polsce mają solidne podstawy naukowe i publikacyjne. Założenie to potwierdza wysoki poziom dorobku w badaniach AI oraz aktywność polskich naukowców w tej dziedzinie w UE 27. Jednocześnie raporty krajowe, chociażby te publikowane przez PFR lub niezależne instytucje badające rynek, wskazują na wyraźną lukę kompetencyjną — zarówno w administracji publicznej, jak i w sektorze prywatnym brakuje specjalistów z głęboką wiedzą dotyczącą sztucznej inteligencji, co utrudnia pełne wykorzystanie jej potencjału. Jednak największym wyzwaniem nie jest sam niedobór specjalistów, ale przede wszystkim ich efektywne wykorzystanie i umiejętność transferu wiedzy pomiędzy nauką, biznesem i administracją, aby talenty te przekładały się na realne wdrożenia i innowacje.

Jakie znaczenie w projektach państwowych wykorzystujących sztuczną inteligencję mają kwestie zachowania etyki, przejrzystości i odpowiedzialności? Jak OPI zapewnia, że wdrażane rozwiązania są zgodne z zasadami odpowiedzialnego rozwoju technologii?

Jak już wspominałem, OPI podchodzi etycznie do rozwoju narzędzi wykorzystujących sztuczną inteligencję. Nasz instytut dba o zgodność rozwiązań z obowiązującymi regulacjami prawnymi, zasadami ochrony danych oraz dobrymi praktykami odpowiedzialnego rozwoju technologii. Istotnym elementem jest też ścisła współpraca z administracją publiczną już na etapie definiowania problemu, co pozwala uwzględnić kontekst prawny, społeczny i etyczny zastosowania AI. Dzięki temu wdrażane systemy są nie tylko skuteczne technicznie, ale także społecznie akceptowalne i bezpieczne w długiej perspektywie. Podsumowując, kwestie prawne i etyczne w OPI traktujemy jako integralną część procesu projektowego, a nie dodatek na etapie wdrożenia.

Rozmawiał Krzysztof Jakubik

Rok 2026:

bez

fajerwerków, za to z konsekwencjami

W tym roku w dziedzinie finansów przejdziemy z poziomu „AI coś pomaga” do trybu „AI realnie robi robotę”.

Co roku ktoś ogłasza, że „AI zmieni finanse”. Zwykle kończy się to nowym slajdem w prezentacji i chatbotem, który wie, gdzie kliknąć „drukuj”. Tym razem będzie inaczej. Rok 2026 nie będzie rokiem obietnic, tylko rokiem przyzwyczajenia. AI przestanie być atrakcją, a stanie się infrastrukturą. Jak prąd: zauważasz dopiero wtedy, gdy go nie ma. Pierwsza predykcja jest najmniej kontrowersyjna, a najbardziej niedoceniana. AI zacznie księgować sama. Nie wszystko, nie zawsze, ale większość standardowych przypadków – tak. Faktury za media, SaaS-y, leasingi, usługi stałe, powtarzalne koszty operacyjne. System odczyta dokument, sprawdzi NIP, konto, powiązanie z umową, zgodność z polityką i… zaksięguje. Bez pytania. Bez kliknięcia. Człowiek zobaczy tylko to, co nietypowe. W praktyce oznacza to, że 60–80 proc. dokumentów zniknie z codziennego radaru księgowości. Zamiast trzysta kliknięć dziennie – kilkadziesiąt decyzji. I to jest moment, w którym „AI w księgowości” przestaje być hasłem, a staje się po prostu nowym standardem pracy.

Druga predykcja: schematy księgowe przejdą na zaplecze. Nie zniknie logika księgowa – zniknie konieczność ręcznego jej obsługiwania. Zamiast wybierać z listy „schemat 27 A – marketing krajowy”, użytkownik powie: „To jest faktura za kampanię X, rozbij na trzy miesiące i przypisz do projektu Alfa”. AI przetłumaczy to na konta, MPK, VAT i rozliczenia międzyokresowe zgodnie z polityką firmy. Księgowość przestanie być językiem obcym dla biznesu. W 2026 AI stanie się tłumaczem między tym, jak mówi zarząd, a tym, jak liczy plan kont.

Trzecia predykcja: raporty zarządcze zaczną pisać się same. I nie chodzi tylko o wykresy. Chodzi o komentarz. „Marża na projekcie X spadła o 4 p.p. z powodu wzrostu kosztów kampanii w Q2”. „Wydatki na SaaS wzrosły o 18 proc., głównie w dziale sprzedaży”. W 2026 CFO i kontroler nie będą już ręcznie sklejać slajdów i dopisywać wniosków po godzinach. Otworzą draft od AI, poprawią 10–20 proc. i przejdą do rozmowy o decyzjach. Raportowanie przesunie się z opisywania przeszłości do dyskusji o tym, co dalej. Mniej PowerPointa, więcej sensu. Czwarta predykcja jest tą, o której mówi się najmniej, a która zmieni najwięcej: AI stanie się pierwszą linią audytu – na bieżąco. System będzie pilnował duplikatów, limitów, nietypowych zmian, faktur bez umów, podejrzanych kont. Część rzeczy poprawi sama, część oznaczy do weryfikacji. Audyt przestanie być jednorazowym stresem, a stanie się cichym procesem w tle. Dla zarządu – mniej niespodzianek. Dla finansów – mniej gaszenia pożarów na ostatnią chwilę.

I teraz ważna rzecz: to nie jest science fiction na 2035. Zalążki tych zmian już działają. W 2026 po prostu przestaniemy je nazywać „testami” i zaczniemy traktować jak codzienność. Tak samo, jak nikt dzisiaj nie mówi, że „testuje e-maila”.

Podsumujmy bez patosu. 2026 będzie rokiem, w którym w finansach przejdziemy z „AI coś pomaga” do „AI realnie robi robotę”. Standardowe faktury będą księgować się same. Schematy księgowe znikną za kurtyną. Z systemami zaczniemy rozmawiać normalnym językiem. Raporty będą pisały się w tle. A audyt stanie się procesem ciągłym, a nie corocznym szokiem. Nie będzie rewolucji. Będzie zmiana nawyków. A to zawsze boli bardziej.

Dominik Laskowski

UPS-y

trzymają się mocno

W miarę jak świat staje się coraz bardziej zależny od infrastruktury

cyfrowej, równolegle rośnie zapotrzebowanie na systemy zasilania awaryjnego.

Tomasz Janoś

Zobserwacji różnych branż wynika jak dotąd, że dodatkowe finansowanie wynikające z KPO, funduszy celowych, różnych programów i grantów, ma różne przełożenie na wzrost sprzedaży rozwiązań IT. A jak wygląda to z perspektywy zasilania gwarantowanego? Jakie branże obecnie najwięcej inwestują w UPS-y?

- Sprzedaż UPS-ów jest w dużej mierze pochodną aktywności w innych segmentach branży IT. Inwestycje w infrastrukturę krytyczną, na przykład w laboratoriach,

BARDZO WIDOCZNYM

TRENDEM JEST

EKSTREMALNA

GĘSTOŚĆ MOCY.

ochronie zdrowia, sektorze finansowym czy w przemyśle, niemal zawsze wiążą się z koniecznością zakupu zasilania gwarantowanego – mówi Paweł Poziemski, Senior Application Engineer w Vertivie.

Z kolei z doświadczeń polskiego oddziału Schneider Electric wynika, że dodatkowe finansowanie z KPO i funduszy celowych powoli zaczyna przekładać się na wzrost in-

westycji w zasilanie gwarantowane. Francuski producent odnotowuje taki właśnie trend w realizowanych przez jego partnerów projektach.

– Pierwszy nurt tworzy sektor publiczny, gdzie KPO i fundusze europejskie faktycznie uruchomiły kapitał. W szpitalach, administracji, infrastrukturze krytycznej z jednej strony stare systemy UPS funkcjonują już na skraju swoich możliwości oraz wymagają pilnej modernizacji, zaś z drugiej cyfryzacja i rozbudowa generują zapotrzebowanie na zupełnie nowe instalacje. Dla bloków operacyjnych czy systemów e-doręczeń ciągłość zasilania jest warunkiem podstawowym. KPO daje wreszcie narzędzia finansowe, żeby nadrobić te zaległości infrastrukturalne – twierdzi Mirosław Pisaniec, Channel Sales Manager Secure Power w Schneider Electric.

Drugim nurtem są centra danych i infrastruktura obliczeniowa, gdzie dynamika jest jednak zupełnie inna. W tym przypadku finansowanie pochodzi głównie z budżetów rozwojowych firm, nie zaś z programów publicznych.

– AI i GPU całkowicie zmieniły wymagania dotyczące gęstości mocy. Klienci przychodzą z pytaniem: czy wasza infrastruktura

to udźwignie? Pytają o to, bo ich dotychczasowe systemy po prostu się nie skalują do nowych parametrów. To nie jest wymiana 1:1 na nowe, ale re-design całej architektury zasilania i chłodzenia – tłumaczy Mirosław Pisaniec.

Konserwatywna branża, która stale się zmienia

Choć funkcje i powody stosowania UPS-ów pozostają od wieków te same, to wobec zmieniających się potrzeb biznesu, centrów danych i infrastruktury krytycznej także branża zasilania musi ewoluować.

Przykładowo, konstrukcje UPS-ów są rozwijane w zakresie sprawności i lepszych baterii. Ponieważ sprawności systemów UPS zbliżają się dziś do fizycznych limitów, uwaga producentów coraz częściej przesuwa się z marginalnych zysków energetycznych na funkcje, które realnie wspierają zmieniające się potrzeby biznesu i centrów danych.

– Co interesujące, bateria ołowiowa, będąca wynalazkiem XIX-wiecznej rewolucji przemysłowej, ma się zaskakująco dobrze. Równocześnie rynek szturmują baterie litowe, a nawet rozwiązania oparte na sodzie (Na). Baterie sodowe, bazujące na pierwiastku, którego pełne są morza, jak też nasze solniczki, obiecują połączenie przystępności cenowej akumulatorów ołowiowych z trwałością technologii litowej. Kiedy pojawią się na rynku? Prawdopodobnie szybciej niż się wydaje, choć wciąż musimy na nie jeszcze poczekać – mówi Paweł Poziemski. Z punktu widzenia ewolucji zasilania istotnym zjawiskiem jest również impulsowy charakter poboru energii przez zastosowanie AI. Współcześnie projektowane systemy UPS mają pełnić rolę dynamicznego rezerwuaru energii – dostarczającego energię „na żądanie” aplikacjom AI, a jednocześnie będącego stabilnym odbiornikiem energii z punktu widzenia zakładu energetycznego lub lokalnych systemów generowania energii elektrycznej. Takie rozwiązania już dziś są dostępne na rynku. – Bardzo widocznym trendem jest ekstremalna gęstość mocy. Obserwujemy wzrost wymagań do poziomu gęstości rzędu 30–50 kW na szafę, a w klastrach AI nawet powyżej 100 kW. To wymaga zupełnie innego podejścia do architektury, przy czym nie tylko samych UPS-ów, ale całego zasilania, dystrybucji mocy i chłodzenia. Potrzeba rozwiązań projektowanych właśnie z myślą o tych ekstremalnych parametrach. Klient nie może sobie pozwolić na sytuację, gdzie infrastruktura energetyczna staje się wąskim gardłem biznesu – uważa Cezary Gutowski, Sales Support Manager w Schneider Electric.

archiwum

Kolejnym trendem jest efektywność energetyczna jako imperatyw biznesowy. Różnica w sprawności systemów UPS ma bezpośrednie przełożenie na koszty energii w perspektywie wieloletniej eksploatacji.

– Do tego dochodzą rosnąca presja ESG i wymogi raportowania śladu węglowego. Klienci pytają już nie tylko o PUE, ale o całkowity koszt posiadania w całym cyklu życia systemu. Ważnym obszarem rozwoju jest też predykcyjna konserwacja oparta na danych. Dzisiaj nie wystarcza wiedzieć, że system działa, ale potrzebna jest wiedza, kiedy może wystąpić problem, jeszcze zanim się zdarzy – mówi Cezary Gutowski.

Suwerenność (także) w zasilaniu

Z obserwacji polskiego producenta UPS-ów wynika, że w obliczu cyberzagrożeń, takich jak ransomware, DDoS czy ataki hybrydowe, administracja publiczna coraz lepiej rozumie, że brak zasilania oznacza brak dostępności systemów, a nagły zanik napięcia może prowadzić do uszkodzenia systemów bezpieczeństwa, danych i serwerów. – Rośnie świadomość, że systemy cyberbezpieczeństwa same wymagają stabilnego i ciągłego zasilania. Dlatego UPS-y zaczynają być traktowane nie tylko jako element infrastruktury energetycznej, ale wręcz jako część architektury cyberbezpieczeństwa – mówi Janetta Sałek, dyrektor marketingu w Everze.

W dobie nasilających się zagrożeń zewnętrznych i rosnącej liczby incydentów cybernetycznych bezpieczeństwo inf rastruktury krytycznej – zarówno w obiektach użyteczności publicznej, jak i prywatnych – nabiera szczególnego znaczenia. Kluczowym elementem tej odporności jest nie tylko niezawodność zasilania, ale także kontrola nad danymi.

– Ważne staje się zapewnienie nie tylko wysokiego poziom bezpieczeństwa, ale także suwerenności technologicznej i  pełnej kontroli nad infrastrukturą zasilania. To szczególnie istotne dla instytucji publicznych i firm, dla których ochrona danych oraz ciągłość działania mają kluczowe znaczenie. Jeśli systemy nie łączą się poprzez aplikacje z serwerami producentów poza obszarem Unii Europejskiej, to ogranicza się ryzyko niekontrolowanego transferu danych poza Polskę i UE – twierdzi Janetta Sałek.

A jeśli UPS-y są postrzegane także jako dopełnienie cyberochrony, to wraz z rosnącym skomunikowaniem systemów zasilania z siecią potrzeba stosowania w nich solidnych środków cyberbezpieczeństwa staje się kluczowa. Dlatego nowe UPS-y są wyposażane w silniejsze protokoły cyberbezpieczeństwa, co ma chronić warstwę zasilania przed potencjalnymi zagroże-

KONSTRUKCJE UPS-ÓW

SĄ ROZWIJANE W ZAKRESIE SPRAWNOŚCI I LEPSZYCH BATERII.

niami cybernetycznymi. Obejmuje to bezpieczne kanały komunikacji, szyfrowaną transmisję danych oraz systemy wykrywania włamań. Wraz z rosnącą konwergencją technologii informatycznych (IT) i technologii operacyjnych (OT), zapewnienie cyberbezpieczeństwa infrastruktury UPS staje się jednym z ważniejszych priorytetów.

Magazyny energii nie zastępują UPS-ów!

W ostatnim czasie z różnych powodów wzrosła popularność magazynów energii. Na pewno przyczyniają się do tego inicjatywy wykorzystania OZE i ich skutki. Zapewne swoje też dokłada psychologiczny efekt toczącej się za naszą granicą wojny. Czy wobec skończonych budżetów klientów nie można wykluczyć tego, że pieniądze, które mają być wydane na zasilanie gwarantowane mogą być wykorzystane na zakup takich backupów energii? Krótko mówiąc, czy rosnąca popularność magazynów energii wpływa na sprzedaż UPS-ów? Jak tłumaczą dostawcy, magazyny energii nie konkurują z UPS-ami. To rozwiązania komplementarne, które doskonale się uzupełniają. Każde z nich spełnia jednak nieco inną funkcję.

– Systemy UPS działają jak polisa ubezpieczeniowa, zapewniając natychmiastową ochronę przed zakłóceniami zasilania, z czasem reakcji mierzonym w milisekundach. To rozwiązanie krytyczne w momencie awarii – wyjaśnia Cezary Gutowski. Magazyny energii z kolei oferują znacznie dłuższy czas podtrzymania i pełnią inną rolę w zarządzaniu energią. Mogą optymalizować koszty energii poprzez przesunięcia szczytów zapotrzebowania, wspierać mikrosieci, uczestniczyć w programach Demand Side Response czy zarządzać energią z OZE.

– W praktyce te technologie często współpracują. UPS chroni przed momentalnymi zakłóceniami, a magazyn energii zapewnia dłuższą autonomię i elastyczność operacyjną. Magazyny nie wpływają negatywnie na rynek UPS-ów. Wręcz przeciwnie, poszerzają definicję tego, czym nowoczesny system zasilania gwarantowanego może być i jaką wartość biznesową potrafi dostarczać – mówi Cezary Gutowski.

Z obserwacji Evera wynika, że rosnąca popularność magazynów energii wpływa na rynek UPS-ów, ale nie wprost i nie w sposób, który oznacza ich zastępowanie. Z perspektywy praktyka widać raczej przesunięcie struktury popytu, a nie jego spadek.

– Magazyny energii przejmują część zastosowań, w których wcześniej stosowano proste UPS-y głównie jako „dużą baterię”, chociażby na potrzeby długich podtrzymań

Zdaniem specjalisty

Janetta Sałek, dyrektor marketingu, Ever

Dodatkowe finansowanie wynikające z KPO, funduszy celowych, różnych programów i grantów ma wyraźne przełożenie na wzrost sprzedaży rozwiązań zasilania gwarantowanego. Dzięki temu przedsiębiorstwa i instytucje mają większe środki na modernizację infrastruktury krytycznej, poprawę odporności na przerwy w zasilaniu oraz digitalizację procesów, co bezpośrednio napędza popyt na systemy UPS. Dostęp do środków publicznych i programów wsparcia ułatwia inwestycje w infrastrukturę techniczną, szczególnie tam, gdzie wymagana jest wysoka niezawodność zasilania. Fundusze celowe i KPO mają wesprzeć modernizację szpitali, laboratoriów, centrów danych i zakładów produkcyj-

nych i zapewnić ciągłość działania. Z kolei granty na rozwój technologii oraz automatyzacji pozwalają firmom szybciej wdrażać nowe rozwiązania, w tym zaawansowane UPS-y i systemy zarządzania energią. Najsilniejszy popyt na zasilanie gwarantowane obserwujemy w tych sektorach, w których kluczowa jest ciągłość działania.

Boom na centra danych AI przyspiesza innowacje. Pracujemy nad prefabrykowanymi modułami zasilania – to kompleksowe systemy, które można wdrożyć znacznie szybciej niż tradycyjne rozwiązania. Rozwijamy nowe architektury dla maksymalnej efektywności przy wysokich mocach. Kluczowy obszar rozwoju to obecnie chłodzenie cieczą. Coraz częściej rozmawiamy właśnie o liquid coolingu i rozwiązaniach hybrydowych, które stają się koniecznością przy gęstościach rzędu 30–50 kW na szafę, a w klastrach AI nawet powyżej 100 kW. Integrujemy systemy chłodzenia cieczą bezpośrednio z architekturą zasilania – to nie są osobne komponenty dokładane później, tylko rozwiązania projektowane od podstaw jako jeden ekosystem. Współpracujemy blisko z operatorami centrów

Schneider Electric zdobył

certyfikat Channel Master 2026

Paweł Poziemski, Senior Application Engineer, Vertiv

Mirosław Pisaniec, Channel Sales Manager Secure Power, Schneider Electric

danych, testujemy hybrydowe układy chłodzenia, rozwiązania direct-to-chip. Rynek AI wymusza tempo i skalowalność na zupełnie innym poziomie niż kiedykolwiek wcześniej.

Nie należy mieszać pojęć: magazyny energii odpowiadają za dostępność energii oraz jej optymalizację, natomiast systemy UPS zapewniają ciągłość i jakość zasilania. Podobnie, agregatów spalinowych nie postrzegamy jako konkurencji, lecz jako elementy komplementarne ekosystemu zasilania. Sam fakt, że mamy wiadro pełne wody, nie oznacza jeszcze, że nadaje się ona do spożycia. W tej metaforze przenośny magazyn energii lub agregat prądotwórczy jest wiadrem, natomiast UPS pełni rolę filtra. Konstrukcja UPS-ów opiera się na koncepcji poprawy jakości i niezawodności zasilania, w tym jego ciągłości. Magazyny energii zapewniają niezależność – tak jak od lat robią to generatory spalino-

we – przy czym charakteryzują się niższym śladem węglowym niż paliwa kopalne. Oba podejścia można skutecznie łączyć, jednak sprzedaż systemów zasilania wymaga odpowiednich kompetencji i dlatego nie znajdziemy ich na półce w supermarkecie.

w obiektach technicznych czy PV. W takich scenariuszach inwestorzy częściej wybierają falownik z magazynem energii zamiast klasycznego UPS-a, bo liczy się czas pracy i optymalizacja kosztów energii, a nie idealna jakość napięcia – tłumaczy Janetta Sałek. Jednocześnie segment UPS-ów on-line dla odbiorników krytycznych pozostaje stabilny lub rośnie. Magazyny energii nie zapewniają jakości zasilania, zerowego czasu przełączenia ani separacji od sieci, więc nie są alternatywą dla UPS-ów w IT, medycynie, automatyce czy telekomuni-

Vertiv zdobył certyfikat Channel Master 2026

kacji. Co więcej, w wielu nowoczesnych instalacjach magazyn energii wzmacnia sprzedaż UPS-ów, bo pracuje jako zewnętrzny zasób energii wydłużający autonomię systemu UPS. – W praktyce rynek ewoluuje w stronę rozwiązań hybrydowych: UPS odpowiada za jakość i ciągłość zasilania, a magazyn energii za pojemność i elastyczność. To oznacza nie tyle spadek sprzedaży UPS-ów, co zmianę ich roli i konfiguracji w kierunku mniej prostych urządzeń na rzecz systemów klasy profesjonalnej – twierdzi Janetta Sałek. n

Vertiv: nowe kompaktowe UPS-y do domu i biura

PowerUPS 200 to seria nowoczesnych i funkcjonalnych zasilaczy awaryjnych, które skutecznie chronią cenny sprzęt przed nagłą utratą prądu i wahaniami napięcia.

Nowa seria rozszerza ofertę jednofazowych UPS-ów Vertiv przeznaczonych głównie do środowisk domowych, biurowych oraz handlu detalicznego. Modele Vertiv PowerUPS 200 są dostępne w wersjach o mocy od 600 do 2200 VA, łącząc nowoczesne wzornictwo z dużą funkcjonalnością. Zostały zaprojektowane z myślą o zabezpieczaniu stacji roboczych i komputerów, kas i systemów sprzedażowych POS, konsol do gier, urządzeń smart czy domowego sprzętu audio-wideo. – Zapotrzebowanie na najróżniejsze usługi cyfrowe stale rośnie, więc klienci coraz częściej poszukują rozwiązań zasilających, które będą niezawodne i nie wymagają skomplikowanej obsługi. Na te potrzeby odpowiada seria zasilaczy Vertiv PowerUPS 200, która łączy solidną wiedzę inżynieryjną z intuicyjną w obsłudze budową. W dodatku świetnie pasującą do nowoczesnych przestrzeni, w których ludzie żyją i pracują – mówi Paweł Poziemski, Senior Application Engineer.

Seria obejmuje modele Vertiv PowerUPS 200 Standard oraz Vertiv PowerUPS 200 Essential. Zostały one zaprojektowane tak, aby były proste w obsłudze i niezawodne w codziennym użytkowaniu. Dzięki temu ochrona zasilania staje się bardziej intuicyjna. Konstrukcja urządzeń umożliwia samodzielną wymianę akumulatorów przez użytkownika, co pozwala w bezpieczny sposób wydłużyć okres eksploatacji UPS-a. W serii Essential zastosowano intuicyjny interfejs z diodami LED informującymi o przewidywanym pozostałym czasie pracy na baterii. Z kolei modele Standard

SERIA VERTIV POWERUPS

wyposażono w kolorowy wyświetlacz LCD, który w przejrzysty sposób prezentuje aktualny stan systemu.

UPS-y serii Power UPS 200 Standard o mocach 1000 i 1600 VA oraz wyższej posiadają dodatkowo porty ładowania USB typu A i C, co umożliwia wygodne zasilanie urządzeń mobilnych. Zarówno w modelach Standard, jak i Essentials przewidziano również specjalny przycisk pozwalający wyciszyć aktywny sygnał alarmowy. Jak na UPS-a w architekturze line-interactive przystało, uklad automatycznej regulacji napięcia (AVR) dba o stabilne parametry mocy wyjściowej. Zoptymalizowana budowa wewnętrzna zapewnia stabilną pracę urządzeń w szerokim zakresie napięcia wejściowego, co jest szczególnie istotne w pobliżu miejsc wytwarzania energii przy użyciu fotowoltaiki.

Najważniejsze cechy Vertiv PowerUPS 200

n Elastyczne opcje wydajności od 600 do 2200 VA spełniają wymagania dotyczące wydajności i czasu pracy podłączonych urządzeń. n Od 4 do 8 gniazd wyjściowych z podtrzymaniem akumulatorowym i ochroną przeciwprzepięciową podłączonego sprzętu (dostępne w standardach IEC i Schuko).

n Automatyczna regulacja napięcia (AVR)

stabilizuje napięcie wyjściowe podczas wahań w sieci, wydłużając żywotność baterii i zapewniając stałe, wolne od zakłóceń zasilanie dla wszystkich podłączonych urządzeń.

n Możliwość łatwej wymiany baterii przez użytkownika pozwala wydłużyć żywotność zasilacza UPS i ograniczyć koszty eksploatacji.

n Wskaźniki LED czasu pracy lub kolorowy ekran LCD obrazujące status akumulatora, poziom obciążenia, alerty systemowe oraz szacowany czas pracy na baterii.

n Dwu- lub trzyletnia gwarancja zapewnia pełną ochronę urządzenia (łącznie z akumulatorem) oraz wygodną i zaawansowaną wymianę serwisową.

Seria Vertiv PowerUPS 200 obejmuje modele oferujące maksymalnie osiem gniazd wyjściowych w standardzie IEC lub Schuko – w zależności od konfiguracji. Dzięki kompaktowym wymiarom urządzenia dobrze sprawdzają się w nowoczesnych przestrzeniach pracy, gdzie liczy się zarówno funkcjonalność, jak i estetyka. Seria Essential objęta jest dwuletnią gwarancją, natomiast seria Standard – trzyletnią. W obu przypadkach gwarancja obejmuje również akumulatory, co daje użytkownikom dodatkowe poczucie bezpieczeństwa. W połączeniu z modelami wyposażonymi w kartę sieciową, takimi jak Vertiv Edge Line-Interactive UPS oraz Vertiv Liebert GXT5 UPS, stanowi element kompleksowego ekosystemu Vertiv do zarządzania energią, wspierającego rozwój nowoczesnej, cyfrowej działalności przygotowanej na wyzwania przyszłości.

n Porty ładowania USB-A i USB-C umożliwiają wygodne ładowanie smartfonów, tabletów i innych urządzeń mobilnych bez potrzeby korzystania z dodatkowych ładowarek.

n Ochrona linii danych przed przepięciami zabezpiecza sprzęt przed przepięciami przenoszonymi przez kable sieciowe i zwiększa poziom ochrony całej infrastruktury.

n Plan ochrony sprzętu (EPP) gwarantuje zwrot kosztów lub wymianę sprzętu uszkodzonego wskutek przepięcia, o ile był on podłączony do zasilacza Vertiv PowerUPS 200.

n Bezpłatne oprogramowanie do zarządzania

Vertiv Power Assist umożliwia bezpieczne i automatyczne wyłączanie urządzeń podczas przerw w zasilaniu; program jest łatwy w instalacji i pomaga chronić sprzęt przed utratą danych oraz uszkodzeniami.

Dodatkowe informacje

pawel.poziemski@vertiv.com

Rozwiązania UPS

Infrastruktura IT rozwija się w dwóch kierunkach równocześnie: rośnie zapotrzebowanie na moc obliczeniową, a jednocześnie maleje dostępna przestrzeń instalacyjna. Szafy rack w serwerowniach, kolokacjach i rozproszonych instalacjach firmowych są dziś projektowane z maksymalnym wykorzystaniem przestrzeni. W takich warunkach zabezpieczenie zasilania to dziś decyzja strategiczna, łącząca wymagania energetyczne, optymalizację przestrzeni oraz efektywność kosztową. Dotyczy to zarówno centrów danych, jak i tzw. środowisk edge, które coraz częściej funkcjonują w oddziałach firm, sklepach, placówkach medycznych czy zakładach produkcyjnych. W każdym z tych miejsc ciągłość zasilania przekłada się bezpośrednio na ciągłość działania biznesu – od obsługi transakcji, przez dostęp do systemów ERP, aż po utrzymanie procesów produkcyjnych.

Wysoka gęstość mocy – realna oszczędność przestrzeni i kosztów

Seria CyberPower OL KERTHD została zaprojektowana z myślą o środowiskach, w których kluczowe znaczenie ma zarówno moc, jak i oszczędność miejsca w szafie rack. Wysoka gęstość mocy oznacza możliwość dostarczenia dużej mocy wyjściowej przy relatywnie niewielkiej wykorzystanej przestrzeni wyrażonej w jednostkach U.

W praktyce model 6–10 kVA może zajmować mniej miejsca niż porównywalne rozwiązania na rynku i choć różnica 1–2U w szafie rack może wydawać się niewielka, to w środowisku kolokacyjnym przekłada się bezpośrednio na realne koszty. W firmowej serwerowni natomiast oznacza możliwość instalacji dodatkowego serwera, macierzy czy przełącznika bez konieczności rozbudowy infrastruktury.

Modele OL KERTHD pracują w topologii online, zapewniając stałą konwersję energii i pełną separację odbiorników od zakłóceń sieciowych. Stabilne napięcie wyjściowe, eliminacja przepięć oraz zerowy czas przełączenia na baterię mają kluczowe znaczenie w środowiskach

Dobór zasilacza UPS przestaje być wyłącznie kwestią parametrów technicznych – staje się elementem strategicznego planowania przestrzennego infrastruktury.

o wysokiej gęstości

o wysokiej dostępności – takich jak platformy e-commerce, systemy ERP czy klastry wirtualizacyjne.

Skalowalność dopasowana do wymagań organizacji

Seria OL KERTHD umożliwia współpracę z dodatkowymi modułami bateryjnymi (EBM), co pozwala wydłużyć czas podtrzymania zgodnie z wymaganiami organizacji. Co istotne, moduły bateryjne są wyposażone w ładowarki, dlatego pomimo rozbudowy o dodatkowe moduły czas przywrócenia systemu do pełnej sprawności jest stały i wynosi 6 godzin. W środowiskach, w których kluczowe jest utrzymanie jak najdłużej pracy systemów w razie awarii zasilania, możliwość skalowania bez wydłużania czasu powrotu systemu do pełnego naładowania stanowi istotną przewagę. Dodatkowo wysoka gęstość rozwiązania sprawia, że nawet rozbudowany system zasilania może zostać wdrożony przy zachowaniu optymalnego wykorzystania jednostek U, co przekłada się na większą efektywność inwestycji w infrastrukturę.

1U i energooszczędność – przewaga

w środowiskach rozproszonych

Nie każda infrastruktura wymaga topologii online i dużych mocy. W wielu przypadkach – szczególnie w oddziałach firm i środowiskach edge – kluczowe znaczenie ma kompaktowa konstrukcja oraz wysoka efektywność energetyczna. Tu szczególnie wyróżniają się modele serii CyberPower OR 1U o mocach 600–1500 VA oraz CP EIPFCRM2U o mocach 1200 – 2000 VA i głębokości poniżej 30 cm.

Rozwiązania 1U pozwalają na minimalne wykorzystanie przestrzeni w szafie rack, dzięki czemu użytkownicy uzyskują miejsce na dodatkowe urządzenia. Mogą też zmieścić UPS w niemal całkowicie wypełnionej szafie albo przeprowadzić modernizację bez reorganizacji całej infrastruktury.

Zasilacze OR i CP EIPFCLCD bazują na topologii line-interactive, która charakteryzuje się wysoką sprawnością pracy i niskim zużyciem energii w normalnym trybie. W praktyce oznacza to mniejsze straty energii oraz niższe koszty eksploatacyjne w porównaniu do klasycznych rozwiązań dostępnych na rynku. Dla użytkowników biznesowych przekłada się to na realne oszczędności w rachunkach za energię elektryczną oraz niższy całkowity koszt użytkowania (TCO).

Co ważne, kompaktowa głębokość urządzeń umożliwia ich instalację w płytkich szafach rack, także wiszących. Dzięki temu modernizacja systemu zasilania nie wymaga wymiany istniejącej infrastruktury montażowej, co dodatkowo obniża koszty inwestycyjne.

Zasilanie awaryjne jako element strategii business continuity Rozwiązania CyberPower OL KERTHD umożliwiają uzyskanie wysokiej mocy przy relatywnie niewielkim wykorzystaniu przestrzeni, wspierając środowiska o istotnym znaczeniu. Modele OR (1U) oraz kompaktowe CP EIPFCLCD zapewniają natomiast elastyczność instalacji w płytkich szafach rack oraz energooszczędną ochronę infrastruktury rozproszonej. W efekcie organizacja zyskuje nie tylko bezpieczeństwo zasilania, ale również niższe koszty użytkowania i większą elastyczność rozwoju środowiska IT, a dobrze dobrane zasilanie gwarantowane staje się fundamentem optymalizacji kosztowej biznesu – zarówno w dużym centrum danych, jak i w pojedynczej szafie rack.

Dodatkowe informacje

Dariusz Głowacki, Business Development Manager, CyberPower Poland, dariusz.glowacki@cyberpower.com

SOC

na trzy sposoby

Wdrażanie centrów operacji bezpieczeństwa (Security Operations Center) przyspiesza zarówno w Polsce, jak i na świecie. Składają się na to trzy czynniki. Pierwszy to regulacje. Dyrektywa NIS 2 i oczekiwana nowelizacja Ustawy o Krajowym Systemie Cyberbezpieczeństwa (UoKSC) nakładają na podmioty kluczowe i ważne obowiązki monitorowania bezpieczeństwa, które trudno spełnić bez zorganizowanego centrum operacyjnego. Drugi to kapitał publiczny. Część środków z Krajowego Planu Odbudowy przeznaczono na cyberbezpieczeństwo, w tym na budowę sektorowych centrów bezpieczeństwa. Popyt na konkretne wdrożenia jest największy właśnie tam, gdzie są dostępne środki. – Największe zainteresowanie SOC obserwujemy wśród podmiotów uprawnionych do pozyskania środków z KPO poprzez progra-

Zdaniem integratora

Budowa własnego centrum bezpieczeństwa kosztuje kilka milionów złotych i większość polskich organizacji nie stać na taką inwestycję. Rozwiązaniem tego problemu mogą być modele usługowy i hybrydowy.

my finansujące cyberbezpieczeństwo. Są to głównie podmioty związane z wodociągami oraz szpitale. Branże wskazane w NIS 2 wyczekują na nowelizację UoKSC i aktualnie sondują rynek pod kątem ofert – mówi Dawid Zięcina, dyrektor działu technicznego w Dagma Usługi Cyberbezpieczeństwa. Trzeci czynnik to geopolityka. Trwający konflikt zbrojny za naszą wschodnią granicą bezpośrednio przekłada się na aktywność grup APT i wzrost liczby ataków na polską infrastrukturę krytyczną. To argument, który w rozmowie z decydentem często przemawia skuteczniej niż raport finansowy.

Efektywny SOC: jak połączyć ludzi i narzędzia

Z technicznego punktu widzenia SOC to nie produkt, lecz ekosystem wzajemnie zintegrowanych warstw, takich jak: SIEM (Secu-

Zainteresowanie integratorów usługami SOC systematycznie rośnie, a rynek cyberbezpieczeństwa w Polsce rozwija się szybciej niż tradycyjne projekty infrastrukturalne. Przy czym klienci coraz częściej oczekują stałej, ciągłej ochrony zamiast jednorazowych wdrożeń. Nie każdy integrator jest jednak realnie przygotowany do świadczenia SOC w trybie 24/7. To przede wszystkim operacja, proces i odpowiedzialność – nie sama platforma SIEM i kilka pulpitów nawigacyjnych. Największą barierą pozostają kadry: rotacja pracowników oraz utrzymanie kompetencji i jakości detekcji na stałym poziomie wymaga dojrzałych playbooków i nieprzerwanego dostrajania reguł korelacji. Regulacje takie jak NIS 2 i KSC dodatkowo podnoszą Sebastian Strzelak, prezes zarządu, NetFormers poprzeczkę, wymuszają szczegółowe raportowanie, gromadzenie dowodów, gotowość do audytów oraz odpowiedzialność na poziomie zarządczym. Rynek będzie się zatem konsolidował wokół podmiotów, które potrafią połączyć kompetencje techniczne, ciągłość operacyjną oraz wyraźnie zdefiniowaną odpowiedzialność kontraktową i realistyczne SLA.

NetFormers zdobył tytuł IT Master 2026

rity Information and Event Management), narzędzia do monitorowania sieci, systemy wykrywania i blokowania włamań (IDS/IPS), rozwiązania EDR (Endpoint Detection and Response) oraz platforma SOAR (Security Orchestration, Automation and Response). Kluczowa jest ich integracja, bo samo wdrożenie pojedynczych komponentów nie tworzy jeszcze sprawnego centrum.

Różnica między przestarzałym a nowoczesnym SOC jest mierzalna. W modelu reaktywnym, gdzie analityk czeka na alert, wykrycie incydentu w najbardziej optymistycznym wariancie zajmuje przeciętnie dwa dni. Choć w praktyce atakujący może przebywać w sieci przez tygodnie. Dobrze zintegrowany ekosystem (SIEM + EDR + SOAR) skraca ten czas do godzin, a wysoki stopień automatyzacji pozwala zejść nawet do minut.

Ewolucja SOC przebiega dziś pod presją dwóch trendów. Pierwszym jest upowszechnienie filozofii Zero Trust, zakładającej weryfikację każdego użytkownika i każdego urządzenia – niezależnie od tego, czy znajdują się wewnątrz, czy na zewnątrz sieci korporacyjnej. W środowiskach pracy hybrydowej i przy powszechnym korzystaniu z aplikacji SaaS tradycyjna „granica sieci” przestała istnieć. Zero Trust generuje jednak ogromne wolumeny danych: każde żądanie dostępu jest logowane, każde urządzenie oceniane. Bez odpowiedniej automatyzacji SOC może utonąć w strumieniu danych.

Drugi trend to AI i automatyzacja w warstwie analitycznej. Sztuczna inteligencja stopniowo przejmuje najbardziej żmudne zadania: segregację alertów, filtrowanie fałszywych alarmów, sugerowanie play-

Wojciech Urbanek

booków. Redukuje to zapotrzebowanie na analityków pierwszego poziomu (Tier 1), jednocześnie uwalniając ekspertów wyższego szczebla do pracy proaktywnej, polowania na zagrożenia i badania zaawansowanych wektorów ataku. Dla integratora oznacza to jedno: klienci będą oczekiwać platform z wbudowaną automatyzacją, nie kolejnej kolekcji osobnych narzędzi.

To tym ważniejsze, że skala narzędziowego chaosu w działach bezpieczeństwa jest poważna. Z badania Vectra AI z 2024 r. wynika, że 73 proc. praktyków SOC pracuje równolegle z ponad dziesięcioma narzędziami, a 45 proc. z ponad dwudziestoma. Przy czym aż 71 proc. obawia się, że pewnego dnia przeoczy prawdziwy atak.

Ekonomika wdrożenia: ludzie najdrożsi

Budowa własnego SOC to inwestycja rzędu 2–4 mln zł w pierwszym roku. Co ważne dla integratorów tworzących ofertę w tym zakresie: 50–70 proc. tego budżetu pochłaniają koszty osobowe. Dawid Zięcina wylicza, że w klasycznym modelu potrzeba co najmniej 11 osób o różnym poziomie kompetencji – i realnie tyle samo niezależnie od wielkości organizacji. Nie wszyscy jednak specjaliści zgadzają się z takim podejściem. – Eksperci wyposażeni w kilka systemów detekcji muszą chronić organizację 24 godziny na dobę. Skala tej operacji, narzędzia i grupa specjalistów powodują, że wdrożenie SOC dla małej i dużej organizacji to podobny koszt. Różnica widoczna jest dopiero w koncernach, ponieważ tam zespoły muszą być jeszcze liczniejsze – mówi Artur Bicki, CEO Energy Logserver.

Na to wszystko nakłada się ogólnopolski deficyt kadrowy, szacowany na 10–15 tysięcy

specjalistów ds. cyberbezpieczeństwa, którego konsekwencje odczuwają nawet największe organizacje.

– Polski rynek od kilku lat boryka się z deficytem wykwalifikowanych analityków SOC oraz inżynierów odpowiedzialnych za automatyzację i integrację. Skutkiem są rosnące koszty rekrutacji, presja płacowa oraz wysoka rotacja specjalistów. W takich warunkach utrzymanie stabilnego zespołu SOC staje się dla wielu organizacji wyzwaniem porównywalnym z samym wdrożeniem technologii – mówi Patryk Kwaśny, Sales Manager w Net Complex.

SOC jako usługa

Dziś niemal każda firma potrzebuje systemu monitorowania bezpieczeństwa, jednak SOC to rozwiązanie przeznaczone dla określonych grup odbiorców. Korzystają z niego instytucje finansowe, telekomy, globalne korporacje, sektor publiczny, przemysł i energetyka oraz dostawcy zarzą-

Zestawienie porównawcze

dzanych usług bezpieczeństwa (MSSP), oferujący SOC w modelu outsourcingowym. – Monitoring bezpieczeństwa, nawet podstawowy, jest dziś praktycznie obligatoryjny, natomiast SOC nie jest minimalnym standardem dla wszystkich. W praktyce firmy zaczynają od mniejszych narzędzi klasy XDR, EDR czy MDR, zarządzania logami i procesu obsługi incydentów. O skali dalszych zmian decydują przede wszystkim ryzyko biznesowe, wrażliwość danych, wymogi prawne oraz zdolność do reakcji w trybie całodobowym – tłumaczy Paweł Kacprzak, IT Manager w Engave.

W polskich realiach własny SOC pozostaje dla zdecydowanej większości organizacji celem długoterminowym, a nie punktem startowym. Alternatywą jest SOC as a Service. Model subskrypcyjny eliminuje barierę wejścia: nie wymaga budowania infrastruktury ani rekrutowania zespołu. Klient otrzymuje natychmiastowy dostęp do ekspertów, aktualnej wiedzy o zagrożeniach i sprawdzonych procesów. Dostawca bierze na siebie selekcję alertów, do klienta trafiają już zweryfikowane zdarzenia wymagające reakcji, a nie surowe logi. Dodatkowym atutem jest elastyczność: zakres ochrony można szybko rozszerzyć o nowe

ROŚNIE POPULARNOŚĆ ŁĄCZENIA WŁASNEGO SOC Z USŁUGAMI ZEWNĘTRZNYMI.

środowiska, na przykład chmurę lub rozproszone oddziały.

– SOC-as-a-Service opłaca się każdej organizacji poniżej kilku tysięcy pracowników. Analizując ten model, warto spojrzeć na aktualny zespół IT. Zakładając pracę w trybie 24/7, zespół SOC to minimum sześć osób. Jeżeli aktualny zespół IT to pojedyncze osoby, od razu widać, że nie powiększymy go o kolejne sześć. Gdy nasze IT liczy kilkanaście osób,

Kryterium Własny SOCSOC as a ServiceCo-managed SOC

Koszt wejścia bardzo wysoki niski średni

Koszt operacyjny wysoki przewidywalny umiarkowany

Kontrola pełna ograniczona częściowa

Czas wdrożenia miesiące/latadni/tygodnie tygodnie

Pokrycie 24/7 trudne i kosztowne standardowe możliwe dzięki partnerowi

Skalowalność ograniczona wysoka wysoka

Ryzyko vendor lock-in brak wysokie średnie

Użytkownicy korporacje, banki, sektor publiczny

MŚP, startupy rozwijające się organizacje z istniejącym zespołem IT

budowa własnego SOC staje się realnym projektem – mówi Artur Bicki.

Na globalnym rynku widać wyraźny wzrost popytu. Według prognoz MarketsandMarkets średnioroczny wzrost wydatków na SOC as a Service sięgnie poziomu 12,2 proc. do 2030 r., dając kwotę 14,66 mld dol., co oznacza niemal podwojenie wartości rynku licząc od 2024 r. Choć duże korporacje wciąż często inwestują we własne struktury, czynniki ekonomiczne i kadrowe sprawiają, że rynek naturalnie ewoluuje w kierunku usług zewnętrznych.

Na ciekawe zjawisko, z jakim mamy do czynienia na polskim rynku, zwraca uwagę Dawid Zięcina. Zainteresowanie usługami, napędzane presją regulacyjną i realnymi zagrożeniami, szybko rośnie, ale czas wdrożeń się wydłuża. Dzieje się tak z kilku powodów. Na rynku pojawiają się nowi dostawcy, którzy dopiero rozwijają swoje kompetencje. Ponadto rosnąca konkurencja zmusza usługodawców do akceptowania wygórowanych wymagań po stronie zamawiających. Wreszcie sami usługobiorcy, borykając się z problemami kadrowymi, próbują przerzucić ciężar wdrożenia na dostawcę, minimalizując własne zaangażowanie.

Co-managed SOC, czyli hybryda W świecie IT dużą popularnością cieszą się rozwiązania hybrydowe, a podobna tendencja widoczna jest w centrach operacji bezpieczeństwa. Model ten nosi nazwę Co-managed SOC i coraz częściej sięgają po niego nawet duże organizacje dysponujące własnymi zespołami.

– Łączenie własnego SOC z usługami zewnętrznymi jest w pełni możliwe i coraz powszechniej stosowane w praktyce. Model hybrydowy pozwala połączyć wewnętrzne zasoby, zespół analityków wyższego szczebla, narzędzia klasy SIEM i EDR/XDR oraz wypracowane procesy z zewnętrznym wsparciem obejmującym całodobowy monitoring, wstępną selekcję alertów i polowanie na zagrożenia –  tłumaczy Artur Bicki.

Szczególnie cennym elementem jest dostęp do rzadkich kompetencji i wsparcia eksperckiego. Zewnętrzny partner może jednocześnie przejąć najprostsze czynności: segregację alertów i filtrowanie fałszywych alarmów. Wdrożenie modelu Co-managed SOC niesie jednak pewne trudności. Specjaliści wskazują w tym przypadku na brak ujednoliconych standardów, niejasny podział odpowiedzialności oraz kwestie kosztowe, które koniecznie trzeba uwzględnić już na etapie projektowania architektury oraz zakresu współpracy.

Zdaniem specjalisty

Maciej Iwanicki, Business Development Manager, Fortinet

Koszty wdrożenia i utrzymania SOC zmieniają się wraz ze skalą przedsiębiorstwa, ale nie wprost proporcjonalnie do liczby pracowników. Różnice między środowiskiem obsługującym około 100 a 1000 użytkowników wynikają przede wszystkim z przyjętego modelu operacyjnego, zakresu automatyzacji oraz stopnia dojrzałości procesów bezpieczeństwa. W przypadku organizacji zatrudniających około 100 pracowników główne nakłady finansowe obejmują licencje na podstawowe technologie, takie jak SIEM, EDR/NDR czy SOAR, a także integrację źródeł logów i zapewnienie minimalnej widoczności środowiska. Niezbędne jest również utrzymanie niewielkiego zespołu operacyjnego, który odpowiada za bieżący monitoring i reagowanie na incydenty.

Przy tej skali szczególnie trudne jest pogodzenie kosztów stałych z potrzebą zapewnienia ciągłości nadzoru, zwłaszcza w trybie 24/7. W większych organizacjach, liczących około 1000 pracowników, całkowite koszty są wyższe, ale pojawia się efekt skali. Centra SOC tej wielkości częściej wykorzystują zaawansowaną automatyzację, mechanizmy threat intelligence oraz wyraźny podział ról na zespoły pierwszej, drugiej i trzeciej linii wsparcia.

Mniejsze firmy czasem próbują prowadzić SOC tylko w godzinach pracy, ale nasze dane pokazują, że niemal 90 procent incydentów ma miejsce poza standardowymi godzinami. Prawdopodobnie jest to celowe działanie cyberprzestępców, którzy wiedzą, że wtedy czujność jest mniejsza. Część firm wybiera więc model, w którym korzysta z usług MDR, a wewnętrznie utrzymuje mniejszy zespół SOC, który lepiej zna biznes i wspiera działania dostawcy. Dzięki temu nie trzeba obsadzać pełnego SOC tak, jak w dużych przedsiębiorstwach, a jednocześnie można zachować ochronę 24/7. To też o tyle ważne, że największym kosztem w SOC są zazwyczaj wynagrodzenia dla specjalistów. Warto dodać, że choć wiele firm usługowych wchodzi na ry-

Chester Wisniewski, dyrektor ds. technologii, Sophos

nek MDR/SOC as a Service, to poziom skuteczności tych usług bywa bardzo zróżnicowany. Z mojego doświadczenia wynika, że najlepiej radzą sobie ci dostawcy, którzy koncentrują się na konkretnych branżach, ponieważ są w stanie dostarczyć usługę lepiej dopasowaną i uwzględniającą realne potrzeby danego sektora.

Monika Bakura, Country Manager, GreyCortex

Tempo uruchamiania SOC w Polsce wyraźnie przyspieszyło w ostatnich kilkunastu miesiącach. Największe zainteresowanie obserwuję wśród dużych organizacji sektora przemysłowego i energetycznego, ale także wśród integratorów IT. Ci ostatni, świadcząc usługi w modelu SOC-as-a-Service, pokrywają potrzeby mniejszych podmiotów w tym zakresie, jak też potrzeby modelu hybrydowego. O wyborze SOC-as-a-Service decydują głównie: koszty, brak dostępnych specjalistów oraz potrzeba wdrożenia monitoringu 24/7. Dla wielu organizacji to najszybszy i najbardziej efektywny sposób spełnienia

wymagań regulacyjnych oraz podniesienia poziomu cyberbezpieczeństwa bez konieczności budowy własnych struktur.

Biznes dla integratora

Rynek zmierza w kierunku modeli zarządzanych i hybrydowych. Dla kanału partnerskiego oznacza to zarówno szansę, jak i konieczność transformacji oferty: od jednorazowych projektów w kierunku trwałych usług ciągłych. Integratorzy, którzy już teraz zbudują powtarzalne modele świadczenia SOC-as-a-Service lub Co-managed SOC, zajmą najlepsze pozycje w segmencie, który w Polsce dopiero się kształtuje. – W Polsce nie widać jeszcze dużego zainteresowania świadczeniem takich usług. Pozornie ofert na rynku jest dużo, ale znacz- Fot. archiwum

na ich cześć stanowi jedynie opis na stronie integratora i nie są w tym kierunku czynione inwestycje. Dla porównania, w Azji integratorzy w zasadzie nie sprzedają licencji i klasycznych wdrożeń systemu bezpieczeństwa, lecz rozmawiają z klientami o obsłudze serwisowej – zauważa Artur Bicki. Warto dodać, że o ile duzi integratorzy już świadczą usługi SOC-as-a-Service i posiadają w tym zakresie wysokie kompetencje, o tyle mniejszych przytłacza złożoność systemów SIEM oraz wkład pracy przy integracji źródeł, budowanie reguł detekcyjnych i utrzymywanie środowiska. n

Koniec gry w chowanego:

jak Trellix NDR znajduje

hakerów w sieci

Haker może działać niewykryty w sieci przez kilka tygodni, a nawet miesięcy. Zwłaszcza, że tradycyjne systemy bezpieczeństwa i przestarzałe paradygmaty mają coraz większe trudności z identyfikacją intruzów. Tym bardziej trzeba sięgnąć po nowe rozwiązania, takie jak NDR.

Cyberataki ewoluują błyskawicznie. Wobec braku odpowiednich narzędzi bezpieczeństwa, napastnicy mogą działać niezauważeni przez długie miesiące, wykradając dane, sabotując systemy i przygotowując grunt pod kolejne ataki. Średni czas wykrycia naruszenia bezpieczeństwa wynosi ponad 200 dni. Według raportu JupiterOne, przeciętne przedsiębiorstwo zarządza dziś ponad 1,5 mln zasobów cybernetycznych. To nie tylko serwery i laptopy, ale konta użytkowników, pliki konfiguracyjne, czy też urządzenia IoT. Każde z wymienionych może stać się furtką dla cyberprzestępców.

Dekadę temu infrastruktura IT była prosta – składało się na nią przeciętnie kilka serwerów, kilkanaście, góra kilkadziesiąt komputerów, jeden firewall… Dziś ta sama firma ma infrastrukturę w chmurze, pracowników zdalnych, urządzenia mobilne, systemy IoT i OT. Tradycyjne narzędzia bezpieczeństwa nie nadążają za tempem zmian. Przez lata strategia była prosta: zbudować wysoki mur wokół sieci i pilnować, kto wchodzi. Jednak zasadniczy problem polega na tym, że hakerzy przestali szturmować główną bramę i odkryli inne punkty wejścia.

Współczesne ataki są subtelniejsze. Cyberprzestępcy wykorzystują phishing, włamują się na konta pracowników, infiltrują łańcuch dostaw. Gdy znajdą się wewnątrz, tradycyjny firewall jest w takich przypadkach bezużyteczny, bowiem patrzy tylko na ruch z zewnątrz.

Nowoczesne podejście Zero Trust sprowadza się do prostej, lecz dość bezwzględnej zasady: nikt nie jest godny zaufania, nie ufaj nikomu, nawet wewnątrz własnej sieci. Ta filozofia wymaga ciągłej weryfika-

cji. W tę strategię wpisują się systemy NDR (Network Detection and Response), monitorujące ruch sieciowy w czasie rzeczywistym, wykrywając anomalie i podejrzane zachowania, co jest zgodne z regułą „nigdy nie ufaj, zawsze weryfikuj”.

Trellix NDR: koniec z fałszywymi alertami bezpieczeństwa

Trellix Network Detection and Response to nie kolejny system zasypujący analityków alertami. Problem ten jest znany każdemu kto pracował w SOC: tysiące powiadomień dziennie, a większość z nich stanowią fałszywe alarmy. W rezultacie analitycy tracą cenne godziny na weryfikację.

Trellix NDR zmienia ten stan rzeczy. System posiada czytelny pulpit filtrujący szum i pokazuje tylko krytyczne dane: najbardziej zagrożone zasoby, podejrzane połączenia, alerty najwyższego priorytetu. System koreluje techniki ataku z macierzą MITRE ATT&CK, uwzględnia krytyczność aktywów i znane luki. Analitycy koncentrują się na realnych zagrożeniach.

W tradycyjnym środowisku analityk musi przeskakiwać między dziesiątkami narzędzi. Trellix NDR kończy z tym chaosem, zbierając wszystko w jednym miejscu: taktyki hakerów, podatności (CVE), dane threat intelligence i całą historię aktywności. Organizacje zainwestowały setki tysięcy dolarów w różne rozwiązania bezpieczeństwa IT. Niestety, często nie współpracują ze sobą, tworząc osobne wyspy. Trellix NDR integruje produkty w jeden spójny system. Dzięki integracji z produktami firmy Tenable, Trellix NDR może pozyskać informacje o wykrytych w infrastrukturze podatnościach. Te informacje wykorzystuje następnie moduł Attack Patch Discovery w procesie typowania potencjalnych

ścieżek ataku, co z kolei pozwala lepiej ocenić faktyczne ryzyko i podjąć działania naprawcze lub precyzyjniej zareagować na zagrożenie. Z kolei integracja ze Splunkiem i innymi SIEM-ami zapewnia centralizację danych. Informacje pochodzące z Trellix łączą się z logami z całej infrastruktury w jednym interfejsie. Natomiast połączenie z Nozomi Networks pomaga zrozumieć alerty z sieci OT kontrolujących linie produkcyjne i systemy SCADA.

Trellix Wise: AI, które pracuje za pięciu analityków

Jednym z najnowszych rozwiązań w portfolio firmy jest Trellix Wise – platforma GenAI usprawniająca pracę zespołów bezpieczeństwa poprzez automatyzację segregowania alertów, badania incydentów, korelacji danych i dokumentacji.

Liczby mówią same za siebie: Trellix Wise analizuje alerty w niecałe 3 minuty, wykonując pracę pochłaniającą normalnie kilka godzin czasu 3–5 analityków. Platforma wykorzystuje duże modele językowe (LLM) i agentów AI. Każdy agent ma specjalizację: analiza ruchu, sprawdzanie reputacji IP, korelacja z bazami zagrożeń. Trellix Wise nie zastępuje analityków, lecz wzmacnia ich, odciążając od rutyny i pozwalając skupić się na bardziej ambitnych zadaniach.

Krajobraz zagrożeń zmienia się każdego dnia. Tradycyjne NDR-y radzą sobie z wykrywaniem znanych zagrożeń, ale to za mało. W połączeniu z Trellix Wise organizacje otrzymują broń skuteczną, szybką i gotową na przyszłe wyzwania.

Kontakt dla partnerów

OpenText SMAX:

zarządzanie usługami

OpenText wykorzystuje agentów AI, inteligentną automatyzację oraz precyzyjne mapy usług, zmieniając reaktywne „gaszenie pożarów” z lawiną ticketów serwisowych w proaktywne zapobieganie incydentom z samoobsługą użytkowników.

Bardzo często przedsiębiorstwa dysponują wieloma narzędziami do monitorowania i zarządzania usługami. Mimo to nie są w stanie zapobiegać awariom. Mają trudności z utrzymywaniem map usług, z zarządzaniem i aktualizowaniem baz wiedzy. A to przekłada się na frustrację obsługiwanych użytkowników. Rozwiązaniem mogłaby być oparta na AI platforma, która po pierwsze połączy mechanizmy discovery, CMDB, zarządzania usługami i obserwowalności w celu uzyskania pełnego wglądu w zasoby. Dzięki temu będzie dokładnie wiadomo, jakie aktywa są w organizacji. Po drugie będzie zapobiegać incydentom poprzez wykorzystanie technologii AI oraz kompetencji w obszarze AIOps i automatyzacji. Po trzecie pomoże w eliminacji ticketów serwisowych dzięki inteligentnej samoobsłudze, umożliwiającej użytkownikom samodzielne rozwiązywanie problemów.

Izabela

Sokołowska-Nowak

Senior Account

Executive, OpenText

Najlepsze rozwiązanie ESM to takie, które – dzięki AI i self-service – eliminuje tickety serwisowe. Dobrze zorganizowana, zgodna z ITIL organizacja ma pełną widoczność infrastruktury, śledzi trendy i przewiduje problemy, minimalizując awarie. Pracownicy korzystają z wirtualnych agentów, samodzielnie rozwiązując sprawy – bez zgłaszania ticketów. Tak działa OpenText SMAX, generując duże oszczędności operacyjne. Filozofia ticketless OpenText rewolucjonizuje IT: proaktywnie wychwytuje anomalie, automatycznie je diagnozuje i naprawia, zanim trafią na service desk. „Najlepszy ticket to ten, który nigdy nie powstanie” – to ewolucja od reaktywności do prewencji.

Taka platforma już istnieje

OpenText Service Management Automation X (SMAX) to rozwiązanie do zarządzania usługami w firmie, które pomaga organizacjom sprawnie obsługiwać zgłoszenia, problemy, zmiany i zasoby IT oraz inne usługi – zarówno dla użytkowników wewnętrznych, jak i zewnętrznych. Bazuje na automatyzacji, analizie danych i uczeniu maszynowym, co pozwala lepiej i szybciej rozwiązywać problemy, nawet zanim się pojawią.

SMAX pełni funkcję inteligentnej platformy, która obsługuje ITSM (w tym help desk, zarządzając zgłoszeniami, incydentami, problemami i zmianami). Zarządza także zasobami IT (ITAM) — śledzi sprzęt i oprogramowanie oraz ich cykle życia. Co więcej, zapewnia obsługę nie tylko IT, ale też np. HR czy finansów, a także wsparcie biznesowe, realizując ESM (Enterprise Service Management). Oferuje przy tym portal samoobsługowy i chatbot z AI, dzięki czemu użytkownicy mogą szybciej rozwiązywać problemy bez kontaktu z supportem. Robi to wszystko, wykorzystując AI i analitykę do szybszego rozwiązywania zgłoszeń i automatyzowania rutynowych zadań.

Dodatkowo platforma oferuje środowisko low-code/no-code, które umożliwia szybkie dostosowanie procesów i tworzenie nowych aplikacji bez konieczności programowania. Dzięki temu wdrożenie SMAX jest wyjątkowo łatwe i elastyczne, pozwalając organizacjom w krótkim czasie uruchomić w pełni funkcjonalne rozwiązanie gotowe do skalowania wraz z rozwojem biznesu.

Partnerzy mogą liczyć na wsparcie

OpenText

SMAX jest rozwiązaniem dla organizacji dowolnych rozmiarów, głównie dla tych, które potrzebują nowoczesngo narzędzia do zarządzania usługami IT i operacjami biznesowymi. Może być wdrażany

Jakie korzyści daje SMAX?

l Szybsze i bardziej efektywne rozwiązywanie zgłoszeń, dzięki automatyzacji i inteligentnym algorytmom.

l Zwiększona samoobsługa użytkowników – mniej pracy dla zespołów wsparcia.

l Lepsza kontrola nad zasobami IT i procesami biznesowymi.

l Usprawniona współpraca w firmie –jedno narzędzie do różnych działów.

l Nowoczesny portal i aplikacje mobilne – pracownicy mogą zgłaszać i śledzić sprawy z dowolnego miejsca.

l Niższe koszty operacyjne dzięki automatyzacji rutynowych zadań.

w chmurze (SaaS) lub lokalnie, a modele licencyjne są bardzo elastyczne i dostosowane do potrzeb różnych firm. Co ważne i nietypowe dla producenta oprogramowania, OpenText ma dział BVC (Business Value Consulting). Dzięki niemu partnerzy mogą w ramach projektu bezpłatnie skorzystać ze wsparcia konsultanta (także polskojęzycznego), który rozmawia z klientem i doradza, jak najlepiej wykorzystać oferowaną technologię, aby np. poprawić ROI albo obniżyć TCO. Konsultant łączy perspektywę technologiczną z biznesową i dzieli się doświadczeniami z innych krajów i projektów. BVC pomaga również dobrać optymalny model licencjonowania, zarówno w krótkim, jak i długim okresie.

OpenText podejmuje wyzwanie

Wychodząc z założenia, że przykład trzeba dawać samemu, OpenText wykorzystuje własne technologie, aby tworzyć wyjątkowe doświadczenia zarówno dla użytkowników wewnętrznych, jak i zewnętrznych. Korzystając ze swoich produktów, nie tylko zwiększa efektywność operacyjną w całej organizacji, ale także udoskonala swój ekosystem oprogramowania. Dostawca postawił sobie przy tym cel, jakim jest osiągnięcie oszczędności na poziomie 1 mld dol. w ciągu najbliższej dekady poprzez strategiczne wykorzystanie własnych produktów.

Mariusz Bajgrowicz, Business Development Manager, Prianto Polska tel.: +48 785 403 220, mail: mariusz.bajgrowicz@prianto.com

AI: nie tylko automatyzacja

Rok 2026 nie będzie rokiem coraz mądrzejszej sztucznej inteligencji, ale rokiem, w którym zacznie liczyć się kto, a przede wszystkim jak nią zarządza.

Patrząc wstecz, rok 2025 potoczył się zgodnie z naszymi oczekiwaniami. Był to rok ponownej kalibracji, kiedy to wiele organizacji odeszło od abstrakcyjnych debat o sztucznej inteligencji ogólnej (AGI) i skupiło się na systemach, które faktycznie można wdrożyć i utrzymać. W miarę jak „rozpędza” się rok 2026, sztuczna inteligencja zaczyna zmieniać sposób funkcjonowania instytucji, podejmowania decyzji oraz organizacji uwagi i wysiłku ludzi.

W biznesie rok 2026 będzie oznaczał odejście od myślenia o sztucznej inteligencji głównie jako o narzędziu automatyzacji. Bardziej znacząca zmiana nastąpi w sposobie, w jaki sztuczna inteligencja przekształca procesy decyzyjne. Organizacje będą coraz częściej oddzielać szybkie, zautomatyzowane reakcje od wolniejszych, ludzkich osądów. Maszyny będą zajmować się rozpoznawaniem wzorców, optymalizacją i realizacją na dużą skalę; ludzie będą interweniować tam, gdzie kontekst, wartości i odpowiedzialność mają znaczenie. W miarę jak granice te staną się krytyczne dla założonej misji, będziemy świadkami wzrostu liczby dedykowanych ról w zakresie zarządzania, audytu i nadzoru nad sztuczną

staną się mniej abstrakcyjne. Media syntetyczne i dezinformacja pozostaną poważnym problemem, ale nie będą jedynym przedmiotem zainteresowania decydentów i opinii publicznej. Rozwój infrastruktury sztucznej inteligencji będzie obciążał sieci energetyczne, podwyższał ceny energii elektrycznej i wymuszał kompromisy na poziomie lokalnym. Społeczności zaczną odczuwać koszty dużych centrów danych i wpływ sztucznej inteligencji na działanie, zarówno pod względem ekonomicznym, jak i środowiskowym. To zmieni debatę polityczną. Kandydaci będą musieli wyjaśnić, jak zarządzana jest sztuczna inteligencja i jak rozdzielane są jej korzyści.

Życie prywatne

inteligencją w firmach. Zespoły te będą monitorować uprzedzenia, dryf modeli i zgodność z wartościami organizacji, a także będą rozstrzygać, kiedy systemy powinny zostać wstrzymane, zmienione lub pominięte. Firmy, które wyraźnie określą te granice — i zinstytucjonalizują odpowiedzialność za nie — zyskają na szybkości i przejrzystości. Firmy, które pozostawią je niejasne, będą zmagać się z nadmierną ufnością w rezultaty działania sztucznej inteligencji i związanym z tym, ukrytym ryzykiem.

Z kolei w obszarze polityki debaty polityczne na temat sztucznej inteligencji

W życiu prywatnym idea pojedynczego, uniwersalnego asystenta ustąpi miejsca ekosystemowi wyspecjalizowanych systemów. Narzędzia żywieniowe powiązane z danymi zdrowotnymi czy agenci fitnessu dostosowani do wskaźników regeneracji staną się powszechne. Jednocześnie postępująca fragmentacja stworzy nową potrzebę: koordynatorów sztucznej inteligencji. Zamiast zastępować specjalistyczne narzędzia, te metasystemy będą je koordynować, rozwiązywać sprzeczne zalecenia i przekładać wiele różnych sygnałów na spójne działania. Kiedy kondycja fizyczna mówi „próbuj mocniej”, a regeneracja mówi „odpocznij”, to orkiestracja – a nie surowe zdolności – będzie decydować o rezultatach. Systemy te będą coraz częściej działać w naszym imieniu: planując, porządkując, przygotowując i dostosowując otoczenie przy minimalnym nakładzie pracy.

Geopolityka i talenty w dziedzinie AI

W 2026 roku uwaga decydentów przesunie się z konkurencji sprzętowej na kapitał ludzki. Rządy będą coraz częściej postrzegać utrzymanie i rekrutację talentów w dziedzinie sztucznej inteligencji jako kwestię bezpieczeństwa narodowego, co doprowadzi do wojen wizowych (imigracyjnych), a konkretnie przyspieszonych i preferencyjnych

ścieżek wizowych dla czołowych badaczy i inżynierów w dziedzinie sztucznej inteligencji. Po drugie należy się spodziewać wewnętrznego drenażu mózgów: duże firmy technologiczne będą współpracować bezpośrednio z uniwersytetami, czasami przenosząc badaczy z powrotem do ich krajów ojczystych lub tworząc laboratoria satelitarne za granicą, aby pozyskać talenty spoza tradycyjnych centrów technologicznych. Przyspieszy to decentralizację badań nad sztuczną inteligencją.

Generalnie, rok 2026 będzie w mniejszym stopniu dotyczył tego, co sztuczna inteligencja potrafi, a bardziej tego, kto decyduje, jak jest wykorzystywana i co pozostaje dziełem człowieka. W edukacji, polityce, biznesie i życiu osobistym wciąż pojawia się ten sam problem. W miarę jak sztuczna inteligencja przejmuje coraz większą kontrolę nad realizacją zadań, ludzie są zmuszani do ustalania reguł, definiowania granic i odpowiedzialności. Ich rola staje się trudniejsza, a nie łatwiejsza do odegrania, wymagając właściwego osądu i odpowiedniego zaprojektowania instytucji.

Aleksandra Przegalińska

jest adiunktem i prorektorem ds. innowacji i AI w Akademii Leona Koźmińskiego.

jest profesorem Quinnipiac University (Hamden, Connecticut).

Tamilla Triantoro

Chmura publiczna w UE:

między innowacją a odpowiedzialnością

Architektura IT w naszym regionie musi uwzględniać nie tylko skalę i moc obliczeniową, ale także wymagania stawiane przez Unię Europejską.

Wminionych miesiącach rozwój usług chmurowych w Unii Europejskiej odbywa się równolegle z debatą o suwerenności danych, etycznym przetwarzaniu informacji i potrzebie budowania rozwiązań zgodnych z tzw. europejskimi wartościami. Według Komisji Europejskiej inwestycje w infrastrukturę obliczeniową i rozwiązania wykorzystują-

ENISA PRZYGOTOWUJE EUCS – EUROPEJSKI SCHEMAT CERTYFIKACJI.

ce AI będą jednym z najważniejszych motorów wzrostu. Stanie się tak jednak tylko wtedy, gdy przedsiębiorstwa i instytucje będą miały przekonanie, że chmura jest środowiskiem bezpiecznym, przewidywalnym i zgodnym z regulacjami. W kontekście tych ostatnich, władze UE coraz mocniej akcentują potrzebę budowania rozwiązań, które zapewniają kontrolę nad przepływem danych i ograniczają zależność od pozaeuropejskich jurysdykcji. Europejski model zakłada, że architektura IT musi wspierać audytowalność, kontrolę nad danymi i interoperacyjność. To nie jest koszt regulacyjny, lecz inwestycja w europejską gospodarkę, która nie ogranicza w dłuższej perspektywie jej rozwoju, ale sprawia że utrzymujemy swoją tożsamość gospodarki europejskiej.

Z myślą o uporządkowaniu wymagań wobec dostawców chmury, Agencja Unii Europejskiej ds. Cyberbezpieczeństwa (ENISA) przygotowuje EUCS – europejski schemat certyfikacji, który ma ujednolicić zasady oceny bezpieczeństwa i zgodności usług. Dla użytkowników ma to oznaczać jaśniejsze kryteria wyboru

dostawcy, a dla administracji publicznej – możliwość korzystania z usług o przewidywalnym poziomie ochrony. Zadaniem EUCS jest ponadto uproszczenie dokumentacji oraz integracja systemów, które muszą spełniać rygorystyczne normy branżowe.

Sztuczna inteligencja w chmurze

Sztuczna inteligencja naturalnie rozwija się w środowiskach chmurowych, które zapewniają skalę, moc obliczeniową i możliwość szybkich aktualizacji. Jednocześnie AI Act tworzy ramy prawne, które mają zagwarantować bezpieczeństwo użytkowników i transparentność modeli. Organizacje, które chcą korzystać z bardziej zaawansowanych systemów, muszą przygotować się na obowiązki dokumentacyjne, testy zgodności oraz ocenę ryzyka, zwłaszcza w sektorach o wysokiej odpowiedzialności. Dzięki temu rozwój sztucznej inteligencji nie odbywa się kosztem jakości danych ani praw użytkowników. Regulacje nie spowalniają innowacji – porządkują ją i nadają jej jasne zasady działania.

Zaufanie jako waluta cyfrowej gospodarki

Złożoność środowisk cloud powoduje, że organizacje coraz częściej oczekują nie tylko zabezpieczeń, ale także pełnej audytowalności operacji. Możliwość śledzenia aktywności, wglądu w logi, analizowania uprawnień i weryfikowania procesów staje się jednym z kluczowych kryteriów wyboru dostawcy. Firmy i instytucje chcą mieć pewność, że wiedzą, kto i w jaki sposób przetwarza ich dane – a transparentość staje się równie istotna jak techniczne zabezpieczenia.

Przy czym architektura IT w naszym regionie musi uwzględniać nie tylko skalę i moc obliczeniową, ale także wymagania stawiane przez Unię Europejską. W praktyce zaufanie do chmury staje się walutą cyfrowej gospodarki – organizacje, które potrafią je zdobyć poprzez kontrolę nad przepływem danych i odpowiedzialne wykorzystanie AI, zyskają realną przewagę konkurencyjną. Przyszłość europejskiej chmury to nie tylko interoperacyjność, ale także etyczna innowacja, która chroni użytkowników i wzmacnia gospodarkę opartą na danych.

Przyszłość europejskiej chmury

Inicjatywy takie jak GAIA-X czy europejskie przestrzenie danych pokazują, że przyszłość chmury w UE to rozwój systemów, które mogą współpracować ze sobą niezależnie od dostawcy. Interoperacyjność ma ułatwić tworzenie projektów międzysektorowych, automatyzację procesów i wymianę danych w sposób zgodny z najwyższymi standardami etycznymi. Jednocześnie rośnie znaczenie zasad odpowiedzialnej innowacji, które mają chronić użytkowników i wzmacniać gospodarkę opartą na danych. To kierunek, który pozwoli Europie rozwijać nowoczesne technologie bez rezygnacji z wartości, które definiują jej podejście do cyfryzacji.

pełni rolę Head of Cloud and Infrastructure w polskim oddziale Capgemini.

Artur Kmiecik

Axence Partner Roadshow: ambitne plany polskiego dostawcy

„W 2026 roku wprowadzamy nowy Program Partnerski Axence. Został stworzony z myślą o partnerach, którzy cenią prostotę, bezpośredniość i efektywność” – mówi Adam Suhak, Channel Sales Director w Axence.

Zacznijmy od tego, że już od 20 lat projektujecie narzędzia wspierające pracę działów IT, kierując się przekonaniem, że to technologia powinna wspierać człowieka i mu pomagać, a nie odwrotnie… Tak, to między innymi dlatego zaufało nam już 3500 organizacji w 40 krajach. Obecnym i przyszłym klientom oferujemy trzy narzędzia z myślą o ich działach IT: nVision – narzędzie wspierające wszystkie obszary pracy w IT; SecureTeam – platformę szkoleniową umożliwiającą zdobywanie wiedzy na temat cyberzagrożeń oraz RODO; a także ConnectPro – narzędzie do zdalnej pomocy i zdalnego dostępu.

Mamy początek roku. W sam raz na podsumowania. Jeśli miałbyś jednym zdaniem podsumować rok 2025 dla kanału partnerskiego w Axence, to byłoby to… W 2025 roku w dziale współpracy partnerskiej działo się naprawdę wiele — i to na bardzo różnych poziomach. Dlatego, odpowiadając na tak postawione pytanie, do głowy przychodzi mi tytuł filmu: „Wszystko wszędzie naraz!”.

Możesz to rozwinąć?

Jasne. Po pierwsze, zwiększyliśmy liczebność działu partnerskiego. Zbudowaliśmy silny zespół — prawdziwy dream team — który doskonale się uzupełnia i wspiera. Dzięki temu możliwe było odważne wyjście na rynki zagraniczne, gdzie w stu procentach opieramy się na modelu sprzedaży partnerskiej. Już na tym etapie rozwoju międzynarodowego udało nam się pozyskać pierwszych partnerów dystrybucyjnych nie tylko w Europie, lecz także w Ameryce Południowej,

W UBIEGŁYM ROKU NASZ

EKOSYSTEM PARTNERSKI ZYSKAŁ NOWYCH OPIEKUNÓW.

na Bliskim Wschodzie oraz w Azji. Jesteśmy przekonani, że sprzedaż partnerska to najszybsza, najprostsza i najbardziej efektywna droga do docierania do nowych klientów na całym świecie. W minionym roku prowadziliśmy wiele spotkań i szkoleń dla naszych obecnych partnerów oraz znacząco zwiększyliśmy sprzedaż przez kanał partnerski. Zorganizowaliśmy także Partner Day w Łodzi — konferencję podsumowującą dwie dekady obecności Axence na rynku oraz współpracę partnerską na przestrzeni tego czasu.

Firma odważnie patrzy w przyszłość. Jak na tym skokowym rozwoju mogą zyskać partnerzy Axence?

Nie będę krył, że firma ma bardzo ambitne, a jednocześnie mocno osadzone w realiach biznesowych plany ekspansji. Rozwijamy wszystkie trzy produkty. nVision to nasz flagowy produkt — ceniony i nagradzany — który aktualizujemy na bieżąco, tak aby nie tylko spełniał wymagania rynku, lecz wręcz je wyprzedzał, wyznaczając trendy. Nasza platforma szkoleniowa SecureTeam, która zyskuje coraz większe grono entuzjastów w branży, również zostanie rozbudowana o nowe kursy, tworzone we współpracy z najlepszymi ekspertami na polskim rynku. Również w przypadku ConnectPro, czyli naszej autorskiej odpowiedzi na potrzeby szybkiego zdalnego dostępu i zdalnej pomocy, w 2026 roku nadejdą istotne zmiany, których rynek wyraźnie oczekuje.

W 2026 roku wprowadzamy także nowy Program Partnerski Axence. Został on stworzony z myślą o partnerach przedsiębiorczych, konkretnych i nastawionych na działanie — takich, którzy cenią prostotę, bezpośredniość i efektywność. Dokładnie takie wartości reprezentuje nasz zespół sprzedaży partnerskiej i właśnie je odzwierciedla program: prosty, przejrzysty, z atrakcyjnymi rabatami na start

i minimalnymi wymaganiami wejścia. Jednocześnie niezmiennie stawiamy na najwyższą jakość. W ramach programu oferujemy szeroki pakiet szkoleń sprzedażowych i technicznych, które pozwalają partnerom szybko poznać nasze rozwiązania i skutecznie rozwijać biznes oparty na technologiach Axence.

Co planujecie na 2026 rok? Szkolenia, eventy dla partnerów? W lutym wyruszyliśmy na Axence Partner Roadshow i byliśmy już obecni w pięciu miastach Polski. Odwiedziliśmy: Katowice, Gdańsk, Warszawę, Poznań, Wrocław, a przed nami jeszcze spotkanie w Krakowie. Wydarzenia te łączą praktyczne spojrzenie na sprzedaż rozwiązań IT z prezentacją nowego Programu Partnerskiego oraz aktualnego portfolio produktów. Spotkania mają swobodną formułę i są okazją do zdobycia konkretnych wskazówek sprzedażowych, wymiany doświadczeń oraz bezpośredniego networkingu z zespołem Axence i innymi partnerami.

Dlaczego Axence? Podaj trzy powody, dla których współpraca w modelu partnerskim jest korzystna. Po pierwsze — jesteśmy solidnym i wiarygodnym partnerem. Po drugie — oferujemy nagradzane, cenione produkty najwyższej jakości. Po trzecie — zapewniamy pełne wsparcie na każdym etapie współpracy, budując relacje oparte na zaufaniu.

Szczegółowe informacje o Programie Partnerskim Axence

Wideokonferencje:

„wszystko w jednym”

i BYOD zyskują na znaczeniu

Rynek będzie rozwijał się w dwóch głównych kierunkach: sale natywne oraz systemy BYOD. Nadchodzi czas wymiany sprzętu na rozwiązania nowej generacji.

Zwiększy się wykorzystanie ekranów LED.

Krzysztof Pasławski

Na rynku wideokonferencji i rozwiązań do sal spotkań postępuje zmiana, związana ze zdalną pracą współdzieloną. Z danych Futuresource Consulting, wynika, że tak działa globalnie już 70 proc. organizacji. W efekcie rośnie odsetek firm, które oczekują rozwiązań elastycznych, a także łatwych w użyciu i zarządzaniu. Z drugiej strony w salach spotkań projekty często polegają na odnawianiu już istniejących instalacji, gdyż w biznesie korzystanie z wideokonferencji stało się już standardem. – Rynek po dynamicznych wzrostach stabilizuje się i modernizuje. Wideokonferencje nie są już jedynym narzędziem do komunikacji, ale sposobem na hybrydowe miejsca pracy, redukcję kosztów delegacji i podniesienie efektywności komunikacji – mówi Grzegorz Pawlak, Business Development Manager Poland w Newline Interactive.

Zanosi się zatem na to, że zapotrzebowanie na rozwiązania do wideokonferencji i sal spotkań będzie podobne, jak w 2025 r.

– Spodziewam się co najwyżej wzrostu o około 10 procent – mówi Maciej Dzidzik, Sales Manager w BenQ Austria. Przy czym nasycenie firm rozwiązaniami do zdalnych spotkań wykorzystującymi obraz nadal jest niskie, co sugeruje wzrost w długim terminie. Mianowicie według badania HP z 2024 r. globalnie jedynie 10 proc. spośród 90 mln pomieszczeń konferencyjnych ma opcję wideo. Jednocześnie praca poza biurem to już standard. Według danych GUS 10 proc. wszystkich pracujących w Polsce (ok. 1,76 mln osób) wykonuje swoje obowiązki zdalnie. Co oznacza, że w zawodach „biurowych” odsetek ten jest wyższy. Z badania Randstad Workmonitor Pulse 2025 wynika, że w Polsce 65 proc. pracow-

ników biurowych wykonuje swoje obowiązki wyłącznie z siedziby firmy, a pozostałe pracuje hybrydowo lub zdalnie. Wskazuje to na potrzebę korzystania z rozwiązań do zdalnych spotkań. Odnosi się ona nie tylko do pracowników i współpracowników, lecz kontrahentów, partnerów i ogólnie, szeregu interesariuszy. Przy czym w przedsiębiorstwach, jak w poprzednich latach, największą popularnością cieszą się rozwiązania do małych i średnich sal spotkań.

– Przewidujemy, że trend ten utrzyma się w 2026 roku. Obecnie najintensywniej w technologie wideo inwestują branże nowoczesne: e-commerce oraz software house’y, a tuż za nimi plasują się sektor produkcyjny i handel – mówi Jacek Kalczyński, B2B Country Lead PL w Logitechu.

Inwestuje także sektor publiczny, gdzie preferowane są jednak większe projekty – wdrożenia w dużych salach spotkań.

– Przy wyborze sali klienci korporacyjni skłaniają się raczej ku pomieszczeniom małym i średnim, czyli 2–10-osobowym. Z kolei administracja publiczna nadal preferuje większe przestrzenie – zaznacza Ernest Walasek, Hybrid Work Solutions Expert w HP. Dużym rynkiem dla rozwiązań do współpracy jest edukacja, choć tutaj rytm inwestycji – w szkołach podstawowych i średnich – wyznaczają głównie programy publiczne. Wyzwaniem dla popytu i dostępności mogą być też zawirowania w łańcuchach dostaw. Jako czynniki spowalniające wdrożenia wskazywano też obawy o prywatność danych i integrację coraz bardziej złożonych systemów w ramach istniejącej infrastruktury IT. Jednak rozwój krajowego rynku hamują też tanie produkty, bez odpowiednich zabezpieczeń czy certyfikatów.

– Niestety pojawia się ich coraz więcej. Z tego powodu użytkowników należy uświadamiać, że sprzęt powinien spełniać wymogi bezpieczeństwa. Warto zwrócić uwagę na dostępność producenta, serwisu i aktualizacji w przyszłości – podkreśla Grzegorz Pawlak.

Klienci chcą łatwego zarządzania

W związku z obserwowanymi zmianami, użytkownicy oczekują – obok prostej instalacji (najlepiej plug and play) – łatwego zarządzania, zwłaszcza zdalnego.

– Rozmawiając z klientem słyszymy zwykle pytania o łatwość obsługi, kompatybilność z różnymi platformami, jak Windows, Mac OS, Android, iOS, a także o dostęp do zasobów chmurowych – informuje Radosław Łabędzki, Technical Product Specialist w Optoma Europe.

Na popularności zyskują systemy All-in-One, czyli monitor, kamera, mikrofon w jednym, a także BYOD/BYOM (Bring Your Own Device/Meeting), które współpracują z popularnymi platformami do komunikacji bez potrzeby korzystania z dedykowanego komputera.

– W biznesie wyraźnie widzimy większe zainteresowanie monitorami interaktywnymi All-in-One, bo dzięki temu za pomocą jednego urządzenia można kompletnie wyposażyć każdą salę. Firmy szukające oszczędności chętnie sięgają po zintegrowane rozwiązania, które ostatecznie są tańsze i nie niosą ryzyka braku kompatybilności urządzeń – mówi Grzegorz Pawlak.

Z uwagi na zapotrzebowanie na komunikację z pomocą BYOD i z dowolnego miejsca, obserwowana jest również popularność rozwiązań bezprzewodowych, umożliwiających szybkie bezprzewodowe podłączenie

notebooka kolejnego uczestnika telekonferencji do wielkoformatowego monitora – bez sterowników i aplikacji. Użytkownicy wymagają głównie bardzo stabilnego dźwięku i coraz wyższych parametrów obrazu, nawet rozdzielczości 4K. Znaczenie mają funkcje poprawiające dźwięk i wideo.

– Oprócz aspektów związanych z jakością audio i obrazu klienci zwracają szczególną uwagę na potrzebę automatycznego eliminowania i redukowania hałasów. Często podkreślają także kwestię kadrowania grupy osób, osoby mówiącej lub osoby prezentującej – informuje Ernest Walasek.

Coraz większe znaczenie ma centralne zarządzanie urządzeniami, co dotyczy zwłaszcza zamówień publicznych.

– W przetargach edukacyjnych i administracyjnych pojawia się wymóg systemu DMS, który pozwala administratorowi zdalnie kontrolować status wszystkich ekranów, wgrywać aktualizacje i zmieniać ustawienia – informuje Robert Tomaszewski, Business Development Manager Professional Displays w iiyama International.

Coraz więcej LED-ów

Jeśli chodzi o technologie, to w salach spotkań coraz częściej instalowane są ekrany LED. Wynika to ze spadku cen tych wyświetlaczy i rozwoju samej ich konstrukcji.

– Z naszej perspektywy dla rozwoju rynku kluczowy będzie dalszy szybki rozwój i upowszechnianie LED. Będzie to jednak raczej ewolucja parametrów i dostępności, niż przełom –  przewiduje Patryk Pakosz, Product Specialist w polskim oddziale Sharp Display Solutions.

Co ważne, dzięki technologiom LED-owym poprawia się nie tylko jakość obra-

zu (kontrast, kolory). Nowe rozwiązania LED COB (Chip-on-Board) cechuje też niższe zużycie energii. To z kolei wpisuje się w dążenie do ograniczenia kosztów przez użytkowników w sytuacji, gdy ceny prądu idą w górę. Energooszczędność rozwiązań staje się więc istotnym czynnikiem wyboru. – Stały rozwój rynku oznacza coraz więcej urządzeń w każdej firmie, a ich efektywność energetyczna nigdy nie była bardziej istotna. Energooszczędne urządzenia AV pozwolą więc stale rozwijać rynek, podczas gdy te o wysokim zużyciu prądu będą powoli wypierane – uważa Radosław Łabędzki. Rosnące zainteresowania LED-ami obserwowane jest także w sektorze publicznym, w tym w szkolnictwie wyższym. Jednocześnie rośnie zainteresowanie coraz większymi ekranami. Przekątna 65 cali to obecnie minimalny rozmiar, jakiego oczekują użytkownicy w sali spotkań. W nowych projektach biurowych standardem staje się

Zdaniem integratora

Karol Krajewski, Regional Commercial Sales Director, Statim Integrator

powoli sprzęt 75 i 86-calowy. W edukacji i administracji publicznej obserwowany jest przy tym wzrost zapotrzebowania na ekrany. Zmienił się pod tym względem zwłaszcza segment edukacji. – Projektory praktycznie znikają z nowych inwestycji. Zastąpiły je monitory interaktywne 65–86 cali z systemem Android i certyfikacją Google – twierdzi Robert Tomaszewski. Jednocześnie zdaniem dostawców rosnący udział LED-ów nie spowoduje, że z rynku będą znikać ekrany LCD czy projekcja laserowa. Specjaliści przewidują dalszy wzrost rynku ekranów LED, przy jednoczesnym utrzymaniu popytu na LCD i projekcję laserową. Zatem wszystkie te technologie pozostaną na rynku, a o wyborze będzie decydował budżet, miejsce i cel wdrożenia. Tym samym dostawcy z całym portfolio tych rozwiązań będą w stanie odpowiedzieć na różne potrzeby użytkowników końcowych. Warto zaznaczyć, że równolegle z systemami do wideokonferencji rozwijać się będą ekosystemy „inteligentnego biura”, jak czujniki obecności i systemy rezerwacji sal wraz z pełną automatyzacja procesów. – Wizja sali, która rozpoznaje użytkownika po wejściu i automatycznie paruje się z jego kalendarzem, staje się coraz bardziej realna. Rozwój rynku przyspieszać będzie dążenie do pełnej automatyzacji, która zdejmuje ciężar obsługi z użytkownika – uważa Jacek Kalczyński z Logitecha.

Rośnie

znaczenie bezpieczeństwa

Infrastruktura AV stała się częścią infrastruktury krytycznej firm. Dla użytkowników istotna będzie więc stabilność systemów i możliwość zdalnego diagnozowania, monitorowania i naprawy. W ciągu kilku lat oprogramowanie do zarządzania systemem może zatem stać się równie ważne, co sprzęt AV. Dotyczy to chociażby kontroli nad własnymi danymi. W tym kontekście konkretne znaczenie ma fakt, czy

Zmoich obserwacji rynku wynika, że klienci oczekują od rozwiązań AI przede wszystkim oszczędności czasu i poprawy doświadczeń użytkowników. Kluczowy wpływ na decyzje zakupowe mają rozwiązania umożliwiające automatyzację procesów oraz ich personalizację. Dużym zainteresowaniem cieszą się również funkcje rekomendacji, a także transkrypcje i tłumaczenia w czasie rzeczywistym. Nie bez znaczenia pozostaje zaawansowana analityka danych. W praktyce jednym z najczęściej pojawiających się oczekiwań użytkowników jest możliwość błyskawicznego podsumowania, przeanalizowania lub wygenerowania potrzebnych treści. W wielu firmach istotnym czynnikiem wpływającym na wybór konkretnego rozwiązania jest również jego zdolność do bezproblemowej integracji z istnie-

jącymi systemami IT. Rośnie znaczenie bezpieczeństwa danych. Klienci zwracają również uwagę na elastyczność wdrażanych narzędzi i użyteczność funkcji AI dla ich firmy.

RYNEK

są wysyłane do chmury czy przechowywane lokalnie.Należy też zwrócić uwagę, czy połączenia bezprzewodowe są szyfrowane. – Im więcej damy klientowi możliwości kontroli i customizacji, tym bardziej go zadowolimy, pozwalając mu się uodpornić na cyberataki – twierdzi Radosław Łąbędzki.

AI na razie nie jest kluczowe

W rozwiązaniach do wideokonferencji i sal spotkań implementowanych jest coraz więcej aplikacji AI, jednak przeważa opinia, iż póki co, nie decydują one o skali popytu. Tym niemniej nie są bez znaczenia dla zainteresowania ze strony klientów, gdyż wpisują się w oczekiwanie łatwej obsługi i zarządzania rozwiązaniami. Są to chociażby takie funkcje jak inteligentne kadrowanie, śledzenie uczestników, podsumowanie spotkań, transkrypcje i rozpoznawanie odręcznego pisma. Ostatnio pojawiły się nawet tłumaczenia głosowe w czasie rzeczywistym. – W naszej ocenie AI nie ma znaczącego wpływu na wzrost sprzedaży, jest jednak atutem przy wyborze sprzętu dla konkretnej branży – twierdzi Grzegorz Pawlak. Organizacje międzynarodowe częściej wybierają sprzęt z funkcjami wielojęzycznymi, z automatycznym tłumaczeniem i transkrypcją. Dla firm organizujących wydarzenia oraz dla hoteli znaczenie ma inteligentne kadrowanie i śledzenie mówcy. Mamy przy tym do czynienia z zapotrzebowaniem na interaktywne monitory z procesorem 10 TOPS NPU, który zwiększa sprawność i wydajność AI.

– Największy wpływ na decyzje zakupowe mają funkcje związane z jakością spotkań hybrydowych. Automatyczne kadrowanie, śledzenie osoby mówiącej i redukcja szumów to elementy, które poprawiają komfort uczestników i podnoszą jakość komunikacji – twierdzi Robert Tomaszewski. Jacek Kalczyński dodaje, że fundamentalną zasadą, która wpływa na decyzje zakupowe, jest podejście: AI ma pomagać, a nie przeszkadzać. Jak zauważa, jakość audio, zaraz po wideo, jest decydującym czynnikiem wpływającym na efektywność spotkania i komfort uczestników. Stąd najważniejsze dla użytkowników są algorytmy poprawiające dźwięk, jak redukcja zbędnych odgłosów. Z kolei co do obrazu, liczą się funkcje poprawiające płynność i szybkość w pokazywaniu osób na sali. – Klienci oczekują sztucznej inteligencji, która oszczędza czas, choćby poprzez notatki, podsumowania, transkrypcje – przy zachowaniu bezpieczeństwa danych. Poza AI wygrywają: prostota obsługi, niezawodność, bezpieczeństwo, spójny wygląd i możliwość standaryzacji i serwisowania w skali organizacji – podsumowuje Patryk Pakosz. n

/ CRN / marzec 2026

Zdaniem specjalisty

Jacek Kalczyński, B2B Country Lead PL, Logitech

WRchodzimy w kluczowy okres cyklu technologicznego – czas wymiany zamortyzowanego sprzętu na rozwiązania nowej generacji. Na rynku utrzymają się dwa główne kierunki: sale natywne oraz systemy BYOD (Bring Your Own Device). Bez względu na wybrany model, priorytetem dla organizacji staje się standaryzacja floty urządzeń. Klientom zależy na zapewnieniu identycznego, wysokiego poziomu doświadczenia użytkownika w każdej lokalizacji, co upraszcza zarządzanie i eliminuje bariery technologiczne dla pracowników. Prawdziwym przełomem w perspektywie kilku lat będą zaawansowane tłumaczenia symultaniczne.

ynek wideokonferencyjny ma już za sobą największy boom, ale wciąż stabilnie rośnie. Wśród urządzeń do wyświetlania obrazu w dużych salach konferencyjnych, w salach spotkań zarządu czy kadry zarządzającej z pracownikami, coraz częściej wykorzystywane są ekrany LED. Wynika to z trendu spadku cen i udoskonalonej technologii. Do biur będą nadawać się przede wszystkim wyświetlacze w technologii COB. Cechuje je nawet 40 procent mniejsze zużycie energii niż starsze diody GOB czy SMD, a przy tym lepszy kontrast, wysoka trwałość i estetyka. Ekrany LED COB są po prostu eleganckie – idealnie nadają się do przestrzeni, gdzie użytkownik stawia zarówno na funkcjonalność, jak i efekt wizualny.

Grzegorz Pawlak, Business Development Manager Poland, Newline Interactive

ZWSharp Display Solutions zdobył certyfikat Channel Master 2026

Radosław Łabędzki, Technical Product Specialist, Optoma Europe

awsze game-changerem będzie narzędzie, które ułatwia pracę, zapewnia komfort użytkowania i pozwala oszczędzać czas. Są to choćby rozwiązania All-in-One, w tym interaktywne monitory z wbudowanymi kamerami i mikrofonami. Preferują je średnie i duże organizacje, by unikać dodatkowych kabli i konfiguracji. Innym przykładem są systemy BYOD/BYOM – Bring Your Own Device/Meeting. Firmy oczekują w tym przypadku sprzętu działającego z takimi programami, jak Teams, Zoom czy Google Meet bez konieczności dedykowanych komputerów. Łatwa konfiguracja i oszczędność czasu jest zawsze doceniana przez użytkowników. Przykładem rozwiązań ułatwiających współpracę są kamery AI z automatycznym kadrowaniem, dostosowujące się do liczby uczestników.

sektorze korporacyjnym najszybszy wzrost dotyczy wdrożeń z kompleksowym wyposażeniem sali. Mam na myśli ekran zainstalowany na stałe, kamerę i system audio, a wszystko to umożliwiające proste uruchomienie spotkania i współdzielenia treści — szczególnie w małych i średnich pomieszczeniach oraz tam, gdzie firmy ujednolicają standard między lokalizacjami. W przestrzeniach reprezentacyjnych dynamicznie rośnie segment LED, bo daje praktycznie nieograniczoną skalę i swobodę zabudowy. Możliwe są niestandardowe przekątne, dowolny format ekranu, pełna customizacja produktu itd. W typowych salach nadal często wygrywają profesjonalne monitory dzięki niezawodności, prostemu wzornictwu, łatwej obsłudze i niższej cenie.

Robert Tomaszewski, Business Development Manager, iiyama

GNewline Interactive zdobył certyfikat Channel Master 2026

Patryk Pakosz, Product Specialist, Sharp Display Solutions

ame changerem na rynku w perspektywie kilku lat będzie pełna integracja tłumaczeń w czasie rzeczywistym z systemami wideokonferencyjnymi i monitorami interaktywnymi. Moment, w którym prowadzisz spotkanie po polsku, a uczestnicy na świecie słyszą je w swoim języku bez dodatkowej infrastruktury, zmieni sposób globalnej komunikacji. Drugim kluczowym kierunkiem będzie automatyczna transkrypcja, podsumowania i zapis spotkań do chmury jako natywna część systemu, a nie dodatkowa usługa. W przypadku wyświetlaczy kluczowe będzie bezpieczeństwo ich użytkowania – certyfikacja Google lub całkowity brak powiązań z technologiami chmurowymi, które mogą zwiększyć ryzyko włamania.

Chcemy być liderem rynku przełączników ProAV

NETGEAR obchodzi 30-lecie działalności na polskim rynku. Jakie istotne działania podejmowaliście w ostatnim czasie i jakie są najważniejsze plany na kolejne lata?

Przez trzy dekady budujemy pozycję firmy, która upraszcza łączność – od domu po biznes i projekty profesjonalne. W ostatnim dziesięcioleciu największy wysiłek włożyliśmy w rozwój linii produktowej dla rynku ProAV. W segmencie ProAV kluczowe było natomiast przeniesienie kompetencji sieciowych do świata audio i wideo po IP. Mam na myśli wprowadzenie takich produktów jak przełączniki AV Line, AV UI oraz podejście oparte o dedykowane profile. Na polskim rynku najważniejsze jest dziś przyspieszenie adopcji AVoverIP i konwergencja AV/IT, tak aby sieć była jednocześnie

W 2026 ROKU CHCEMY ROZWIJAĆ NASZ PROGRAM PARTNERSKI

NETGEAR DRIVE. MIĘDZY INNYMI ZWIĘKSZYMY LICZBĘ SZKOLEŃ.

zrozumiała dla integratora AV i akceptowalna dla działu IT. W 2026 roku chcemy rozwijać nowy program partnerski Netgear Drive. Będziemy zwiększać liczbę szkoleń, warsztatów projektowych i laboratoriów demo, jak również mocniej wspierać standaryzację wdrożeń i konfiguracji. W kolejnych latach priorytetem pozostanie rozwój portfolio ProAV dla ogólnie pojętego broadcastu, jak również inwestycje w narzędzia ułatwiające planowanie i utrzymanie instalacji.

Jakie są obecnie najważniejsze potrzeby klientów i jak staracie się na nie odpowiadać?

„Koncentrujemy się na rozwiązaniach ProAV, które skracają czas wdrożenia oraz minimalizują ryzyko błędów. Temu służą choćby dedykowane profile AV i predefiniowane scenariusze konfiguracji” – mówi Piotr Dudek, Country Manager NETGEAR Enterprise Eastern Europe.

W świecie AV obserwujemy przechodzenie z matryc/SDI na protokoły IP (jak NDI, SMPTE 2110). Widoczna jest presja ze strony użytkowników na szybkie uruchomienie rozwiązania. Chcą, by czas od rozpakowania urządzeń do przesłania obrazu i dźwięku liczony był w minutach, a nie w dniach. Użytkownicy oczekują też powtarzalności w wielu lokalizacjach, co oznacza standaryzację sal spotkań, nagłośnienia, starowania oświetleniem. Do tego wzrosły wymagania dotyczące niezawodności i bezpieczeństwa fizycznego połączeń w warunkach terenowych, na przykład podczas eventów. Wszystkie nasze nowości, nie tylko w sprzętowe, w rodzinie przełączników M4350, ale także w oprogramowaniu, będą starały się sprostać tym wymaganiom. Do kolejnych nowości, które pojawią się w najbliższym czasie, będzie należeć wersja sprzętowa kontrolera Engage, czyli centralnego narzędzia do konfiguracji oraz monitoringu z możliwością pracy w trybie HA.

Na jakich rozwiązaniach Pro AV chcecie się skoncentrować? Które segmenty rynku mają największy potencjał?

Koncentrujemy się na takich cechach rozwiązań, które skracają czas wdrożenia i minimalizują ryzyko błędów. Temu służą choćby dedykowane profile AV i predefiniowane scenariusze konfiguracji, spójna konfiguracja QoS i multicast w całej sieci, oraz funkcje dające możliwość „szybkiego startu” infrastruktury, zaraz po wyjęciu z pudełek – takie jak AutoTrunk i AutoLAG. W naszej ocenie rynki wertykalne o największym potencjale w 2026 roku to nowoczesne wideokonferencje na potrzeby pracy hybrydowej, edukacja i sektor publicz-

ny – aule, kampusy, systemy nagłośnienia i dystrybucji wideo, a ponadto eventy i rynek „rental”, gdzie liczy się krótki czas montażu, odporność na awarie oraz szerokie zastosowanie PoE, jak również broadcast oraz produkcja – w tym przypadku istotna jest wysoka przepustowość, deterministyczny transport wielu strumieni, rosnące wymagania rdzenia i ST2110.

Na rynku ProAV panuje silna konkurencja. Jak chcecie się wyróżnić?

Jaką strategię przyjęliście?

Na rynku AV jest duża konkurencja, ale tylko wśród urządzeń końcowych. Obecnie mamy certyfikowanych ponad 500 producentów AV. Jeśli jednak mówimy o przełącznikach, to liczących się producentów będzie maksymalnie pięciu. Przy czym NETGEAR spokojnie może powiedzieć, że walczy o pierwsze miejsce. Jakie są tego powody? Nasze przełączniki od początku powstają pod projekty AV, z interfejsem AV UI i profilami, które eliminują dużą część ręcznej, podatnej na błędy konfiguracji. Obudowy są natomiast dedykowane dla szaf, w których dominuje sprzęt audio. Drugi element naszej przewagi to spójne narzędzia wdrożeniowe, takie jak Engage Controller. Scala on konfigurację wielu urządzeń – przełączników, routerów, punktów dostępowych, ułatwiając powtarzalne wdrożenia. Trzeci wyróżnik to koncentracja na ekosystemie: współpraca z producentami, o czym wspomniałem wcześniej i społecznością ProAV (kompatybilność, gotowe receptury, szkolenia), tak żeby integrator dostawał nie tylko sprzęt, ale też metodykę wdrożenia i przewidywalny rezultat. Strategicznie stawiamy na mniej godzin spędzonych na konfiguracji, mniej niespodzianek w obiekcie, łatwiejsze skalowanie i serwis.

IT bez fanfar:

biznes na sprawdzonych technologiach

W świecie zafascynowanym przełomami technologicznymi pojawiają się firmy, które budują przewagę na sprawdzonych fundamentach.

Wojciech Urbanek, Palo Alto

Większość startupów rodzi się z chęci wywrócenia stolika. Ich założyciele mają nową ideę, rewolucyjny produkt i ambitny plan, by rzucić wyzwanie rynkowym gigantom. Jednak The Lustre Collective wybrało zupełnie inną, nieoczywistą ścieżkę. Firma założona w ubiegłym roku przez weteranów z branży IT – Petera Jonesa (CEO), Andreasa Dilgera (CTO) oraz Colina Fabera (głównego dyrektora ds. inżynierii) – postawiła sobie za cel rozwój i wsparcie systemu plików Lustre. To oprogramowanie open source, które na karku ma już ćwierć wieku, ale wciąż stanowi kręgosłup najpotężniejszych maszyn obliczeniowych świata.

– Kiedy zakładasz typowy startup, masz pomysł i próbujesz do niego przekonać ludzi. My działamy na odwrót. Sprawę komplikuje fakt, że nasz produkt jest dostępny dla każdego całkowicie za darmo – przyznaje Peter Jones.

Lustre to wysokowydajny, rozproszony system plików, znajdujący zastosowanie w superkomputerach i klastrach HPC. Jego znaki firmowe to wysoka wydajność (przepustowość rzędu 10 TB/s przy liczbie ponad 100 milionów operacji IOPS), skalowalność (ponad 700 petabajtow pojemności i obsługa 100 miliardów plików). System bez trudu poradzi sobie z obsługą 20 tys. równoległych klientów i współpracuje ze 100 tys. procesorów graficznych (GPU) w ramach jednej struktury. Dziś szacuje się, że Lustre napędza aż 60 proc. spośród stu najszybszych superkomputerów na świecie oraz stanowi fundament kluczowych infrastruktur sztucznej inteligencji.

The Lustre Collective nie wymyśla koła na nowo, lecz myśli o naoliwieniu mechanizmu. Amerykański startup oferuje szeroką gamę usług dostosowanych do potrzeb firm wdrażających lub już korzystających z Lustre: doradztwo eksperckie, szkolenia, optymalizacja wydajności, rozwój określonych funkcji oraz usługi wdrażania i migracji.

– Naszą główną misją jest skupienie się na Lustre i zapewnienie, że oprogramowanie to pozostanie aktualne w nadchodzących dziesięcioleciach. Najlepszym sposobem na osiągnięcie tego jest rozwój oparty na współpracy open source – mówi Peter Jones. Historia kierowanego przez niego startupu jest dość ciekawa. Przechodził on przez ręce wielu właścicieli (Cluster File Systems, Sun Microsystems, Whamcloud, Intel, DDN). Obecnie jest jednym z największych komercyjnych dostawców i deweloperów Lustre. Niemniej, zdaniem Petera Jonesa, Lustre stało się elementem szerszej strategii DDN, aczkolwiek ten

DŁUGA HISTORIA NIE MUSI BYĆ BALASTEM – MOŻE BYĆ ATUTEM. POD WARUNKIEM, ŻE PRODUKT NADĄŻA ZA RYNKIEM.

dostawca koncentruje się przede wszystkim na własnym portfolio produktów. Dość istotny wkład w rozwój tego systemu mają też AWS, Oak Ridge National Laboratory, Whamcloud, Hewlett Packard Enterprise, Nvidia, Oracle, Google oraz Microsoft. – Chcemy utrzymać neutralną pozycję, współpracując, a nie konkurując z różnymi podmiotami, aby wnosić konkretne wartości. Nasze podejście ma na celu rozszerzenie systemu, a nie fragmentaryzację społeczności. Jesteśmy tu, aby zwiększyć rozmiar ciasta, a  nie zabrać jego kawałki należące od innych. Chcemy mieć pewność, że Lustre nadal będzie wyborem głównych systemów w przyszłości – tłumaczy Peter Jones.

ZettaLane: chmura dla małych

Supramani Sammandam, CEO i współzałożyciel startupu ZettaLane, nie ma wątpliwości: mniejsi gracze są systematycznie dyskryminowani przez największych dostawców usług chmurowych. I ma na to dowody. Na przykład firmy poszukujące chmurowego systemu NAS stają przed brutalnym wyborem: albo przepłacają za wygodę, albo godzą się na poważne ograniczenia. Doskonale ilustruje to WS EFS. Samo przechowywanie bloków w AWS kosztuje około 0,08 dol. za gigabajt miesięcznie. Jednak gdy klient potrzebuje zarządzanego syste-

mu plików, cena skacze do 0,30 dol. za GB miesięcznie. Przy 100 terabajtach danych roczny rachunek sięga 360 tys. dol.

Ceny to jednak tylko część problemu. AWS EFS i Google Cloud Filestore narzucają twarde limity przepustowości dla każdego klienta. Usługobiorca płaci ekstra za IOPS, niezależnie od tego, ile miejsca faktycznie zajmują jego pliki. Do tego przy wolumenach poniżej 100 TB korzystanie z usług większości dostawców po prostu przestaje się kalkulować.

– Jeśli klient potrzebuje zaledwie jednego terabajta przestrzeni, staje przed poważnym problem. Mali gracze są po prostu pomijani przez największych dostawców chmury – mówi Supramani Sammandam. ZettaLane celuje tam, gdzie chmurowi giganci nie zaglądają – w świat mniejszych firm, które zbyt często pozostają poza ich zasięgiem. Startup oferuje dwa produkty. MayaNAS łączy system plików ZFS z obiektową pamięcią masową w chmurze. Metadane i małe pliki konfiguracyjne trafiają na dyski NVMe, natomiast dane masowe wędrują do magazynów obiektowych AWS S3 lub Google Cloud Storage. Takie podejście pozwala osiągnąć przepustowość 4 GB/s na węzeł i obniżyć koszty o 70 proc. w porównaniu z tradycyjnymi rozwiązaniami chmurowymi. MayaScale to odpowiedź na potrzeby

aplikacji nietolerujących opóźnień – baz danych i systemów analitycznych. Platforma osiąga 2,3 miliona IOPS przy latencji zaledwie 129 mikrosekund i dostępna jest w różnych konfiguracjach wydajnościowych, dopasowanych zarówno do wybranego dostawcy chmury, jak i do budżetu klienta. Supramani Sammandam zapewnia, że produkty można wdrożyć w kilka minut za pomocą skryptów Terraform, bez skomplikowanej konfiguracji i konieczności korzystania z konsoli poszczególnych dostawców chmury. Wystarczy zdefiniować wymagania w kodzie, a infrastruktura jest gotowa do użycia. Zgodnie z filozofią firmy pamięć masowa powinna być niewidzialna.

– Badacz potrzebujący pamięci masowej dla swojego obciążenia roboczego na ogół nie zna się na tym i  nie powinien się znać. Po prostu uruchamia skrypt i  pamięć jest dostępna. Zero interakcji. Nie musi konfigurować jednostek LUN ani przydzielać przestrzeni dyskowej – tłumaczy Supramani Sammandam.

ZettaLane jest dostępny na platformach głównych dostawców chmury: AWS, Google Cloud Platform i Microsoft Azure. Startup rozważa również partnerstwa OEM. Częścią modelu biznesowego jest integracja rozwiązania z większymi platformami technologicznymi. Supramani Sammandam skupia się obecnie na małych firmach, ale nie zamierza całkowicie zamykać drogi do klientów korporacyjnych, choć dotarcie do tej grupy docelowej zajmie nieco czasu. Sama strategia wejścia ma polegać na budowaniu partnerstw z kluczowymi graczami w branży. Jak na razie firma liczy 10 osób, a baza klientów powoli rośnie. Startup powstał w 2019 r., a jego założyciel przyznaje, że rozwój firmy mocno spowolnił okres lockdownów.

Cloud Software Group stawia na 40-latka

Cloud Software Group (CSG) to stosunkowo nowy gracz, który w swoim portfolio kryje zaskakująco znane marki. Firma powstała w 2022 r. z połączenia Citrix Systems i TIBCO Software – transakcja opiewała na 16,5 mld dol. i została przeprowadzona przez Vista Equity Partners oraz Evergreen Coast Capital. Trzy lata później CSG ogłosiło przejęcie Arctery od Carlyle Group. Żeby zrozumieć wagę tej decyzji, trzeba cofnąć się o rok do głośnego przejęcia Veritasa przez Cohesity. Nowy właściciel interesował się wyłącznie działem NetBackup. Pozostałe produkty: InfoScale, Backup Exec i Insight, trafiły do nowo powołanej spółki Arctera pod skrzydłami funduszu Carlyle Group.

CSG duże nadzieje wiąże z InfoScale – oprogramowaniem do zarządzania do-

stępnością aplikacji i infrastrukturą IT, stworzonym przez Veritasa. Produkt ma czterdzieści lat na karku, co w branży technologicznej brzmi trochę jak wyrok. CSG uważa inaczej.

– Byliśmy świadkami najważniejszych punktów zwrotnych w  branży przez ostatnie 35–40 lat. Przejście z infrastruktury fizycznej do wirtualnej, ewolucja pamięci masowej, adopcja chmury, konteneryzacja, hiperkonwergencja – wylicza Joseph D’Angelo, dyrektor ds. produktu w zakresie bezpieczeństwa i ciągłości danych w InfoScale. Jak wiadomo, długa historia nie musi być balastem – może być atutem. Pod warunkiem, że produkt nadąża za rynkiem.

MALI

GRACZE SĄ POMIJANI PRZEZ DOSTAWCÓWNAJWIĘKSZYCH CHMURY.

W świecie IT to wyjątkowo trudna sztuka. InfoScale zamiast odtwarzać środowisko po awarii, chroni infrastrukturę krytyczną bezpośrednio w miejscu jej działania. System wykrywa problem w kilka sekund i uruchamia procedury przełączenia awaryjnego, zanim użytkownicy zdążą zauważyć przestój. W środowiskach, gdzie ciągłość procesów jest absolutnym wymogiem, zwykły restart po prostu nie wchodzi w grę. Platforma obsługuje tradycyjne systemy Unix (Solaris, AIX, HP-UX), Linux (Red Hat, SUSE, Oracle Enterprise Linux, Rocky Linux) oraz Windows. Jednym z najważniejszych ostatnich ruchów CSG jest partnerstwo z Red Hat OpenShift Virtualization. InfoScale może teraz zastępować funkcjonalności VMware – VMFS, vSAN, Storage vMotion, vSphere Replication i SRM – bezpośrednio w środowisku OpenShift. To bezpośrednia odpowiedź na powszechne poszukiwanie alternatyw po przejęciu VMware przez Broadcom. Bruce Scheibe, globalny dyrektor ds. sprzedaży InfoScale, przytacza przykład instytucji finansowej migrującej 20 tys. maszyn wirtualnych.

– Typowo taka operacja zajmuje od 18 miesięcy do trzech lat. Z  InfoScale zrobili to w kilka weekendów i zaoszczędzili około 480 tysięcy dolarów – nie musieli dokupować nowej infrastruktury SAN.

Dokąd zmierza produkt? Joseph D’Angelo kreśli kierunek od reaktywnej dostępności ku autonomicznej odporności. Na mapie rozwoju znajdują się analityka predykcyjna, inteligentna optymalizacja obciążeń, symulacja awarii oraz konfiguracja systemu za pomocą języka naturalnego, bez znajomości skomplikowanych komend. n

Californian dream: od gazeciarza

do milionera

„Nasz średni staż pracy z klientem wynosi ponad 8 lat, a nasz wskaźnik churn to jedynie 2,7 procenta, a więc kilkakrotnie mniej niż w całej branży” – mówi Aaron Schneider, CEO Helixstorm, kalifornijski dostawca usług zarządzanych.

Dzisiaj w Warszawie kilkanaście stopni mrozu, podczas gdy w San Diego, gdzie prowadzisz biznes, wspaniała letnia aura. W Kalifornii jest też dużo lepszy klimat dla dostawców usług zarządzanych niż w Polsce. Zanim jednak zacząłeś je z powodzeniem świadczyć, zdobywałeś doświadczenie jako handlowiec u retailera, a następnie „zwykły” VAR… Aaron Schneider To później, bo pierwsze pieniądze zarobiłem w szkole średniej, jako gazeciarz w San Jose, roznosząc „The Mercury News”. To był czas, gdy korzystaliśmy z mamą z bonów żywnościowych, które wyglądały trochę jak pieniądze w grze „Monopoly”, choć nas to wtedy nie bawiło… Stąd pomysł na pracę, którą można było pogodzić ze szkołą. Mu-

W MODELU MSP NIE MA

siałem wstawać o czwartej rano, żeby posegregować gazety, które zostawiano mi w paczkach przed domem. Zanosiłem je do garażu, sortowałem, odpowiednio zawijałem, a w deszczowe dni dodatkowo wkładałem do plastikowych toreb i dopiero potem rozwoziłem po domach. Pamiętam, jak pierwszego dnia załadowałem

sobie na plecy tak dużo „towaru”, że po przejechaniu kilku metrów spadłem z roweru. Co gorsza, nie mogłem się podnieść, bo worek z gazetami wprost przygniótł mnie do asfaltu. W końcu sąsiad, który był świadkiem mojego upokorzenia, podbiegł i mi pomógł. Obiecałem sobie wtedy, że to mój pierwszy i zarazem ostatni dzień w tej pracy. W rzeczywistości spędziłem w niej długie trzy lata, po czym dostałem się na uniwersytet stanowy w San Jose i już nigdy nie musiałem w ten sposób zarabiać na życie.

Nie od razu jednak postawiłeś na własny biznes. Zacząłeś jako sprzedawca u retailera… W trakcie studiów – na kierunku nauk matematycznych i komputerowych – często myślałem nad kolejnymi krokami w życiu. Ciągnęło mnie do sprzedaży i obsługi klientów. Z ciekawością przyglądałem się, jak robią to bardzo przedsiębiorczy Wietnamczycy. Wtedy San Jose było miastem z największą na świecie wietnamską diasporą. Kiedy zobaczyłem, że w jednym miejscu prowadzą pralnię chemiczną i sklep z telefonami komórkowymi, zrozumiałem, że biznes nie ma ograniczeń i jeśli ktoś ci mówi, że czegoś tam nie da się zrobić, to wcale nie znaczy, że tak jest. To znaczy tylko tyle, że nie możesz tego

zrobić z tym kimś. Do dzisiaj trzymam się tej zasady.

Zanim jednak zastosowałeś ją w branży IT, obsługiwałeś kierowców w Circuit City.

Moją pierwszą poważną pracą była sprzedaż samochodowych zestawów audio. To była wspaniała robota, czysta przyjemność. Nauczyłem się jak odpowiadać na potrzeby klientów, czasem wyrafinowane. Pamiętam niesamowitą radość, kiedy klient wsiadał do samochodu, włączał swoją ulubioną piosenkę i słyszał ją tak, jak nigdy wcześniej. Robiłem to do 2000 roku, aż w końcu otworzyłem własny biznes. Pomysł był prosty: sprzedaż sprzętu i oprogramowania z myślą o klientach biznesowych. Kupiłem biurko i telefon VoIP. Ustawiłem połączenia przychodzące na zasadzie: naciśnij jeden, aby połączyć się z działem sprzedaży, naciśnij dwa, aby połączyć się z serwisem etc. Z tym, że w każdym przypadku połączenie przychodziło do mnie samego. Następnie, z książką telefoniczną w ręku, zacząłem dzwonić do potencjalnych klientów. Pytałem, czy potrzebują komputera, drukarki, routera… Większość nie chciała nawet ze mną rozmawiać. Okazało się, że doświadczenia z sektora B2C, gdzie klient przychodzi z gotowym pomysłem na to, co chce kupić,

UZNAŁEM, ŻE DOKONAMY TRANSFORMACJI DO MODELU USŁUG POWTARZALNYCH, W KTÓRYM WARTOŚĆ FIRMY JEST

WYCENIANIA INACZEJ NIŻ

W PRZYPADKU ZWYKŁEJ FIRMY HANDLOWEJ.

nijak mają się do sektora B2B, gdzie trzeba za klientami biegać. Na szczęście zainteresowałem się ofertą VMware’a, która umożliwiała wirtualizację infrastruktury i zmniejszenie kosztów jej utrzymania. Wtedy zmieniłem swoją „gadkę handlową”, pytając klientów czy chcieliby, żebym obniżył ich opłaty za infrastrukturę IT o 75 procent. I nagle większość chciała ze mną rozmawiać, co było przyczyną nowych wyzwań.

Klęska urodzaju?

Coś w tym rodzaju. Jednym z moich pierwszych klientów było publiczne akwarium z północnej Kalifornii, które zgodziło się na wdrożenie warte około 100 tysięcy dolarów, z czego moje koszty wynosiły jakieś 70 tysięcy. Zgłosiłem się po wsparcie do Ingram Micro, gdzie spodziewałem się fanfarów, ale zamiast tego zapytali mnie o moją linię kredytową. Powiedziałem, że nie mam u nich jeszcze kredytu kupieckiego, ale mam klienta na 100 tysięcy dolarów, więc zamiast tracić cenny czas, załatwmy ten biznes od ręki. Facet po drugiej stronie słuchawki roześmiał się i powiedział, że to tak nie działa. Uznałem, że w porządku, skoro tego wymagają procedury, to ustalmy warunki kredytu etc. Wtedy gość poprosił mnie o historię finansową Helixstorm, co okazało się kło-

potliwe, bo ja wtedy nie miałem jeszcze właściwie żadnej historii, dopiero się rozkręcałem. W tej sytuacji uznali, że nie dadzą mi kredytu, bo nie jestem wiarygodny finansowo. I nie pomogło tłumaczenie, że przecież klient po wdrożeniu zapłaci. Facet z Ingrama zauważył przytomnie, że nie mogę być tego wcale taki pewien…

Sytuacja jak w „Paragrafie 22”… Mam ciarki, jak to wspominam. Moja żona również… Krótko mówiąc, żeby zdobyć te 70 tysięcy, zastawiłem dom i zrobiłem debet na siedmiu różnych kartach kredytowych. To był emocjonalny koszmar, ale wszystko skończyło się happy endem. Klient zapłacił następnego dnia po wystawieniu faktury i wszystkie długi zostały spłacone. Potem mój biznes spokojnie się rozwijał i przybywało pracowników. Byliśmy wtedy VAR-em i tak, jak inne takie firmy, mieliśmy kilku wiodących sprzedawców. Wydawało mi się wtedy, że firma jest bardzo dużo warta, ale z czasem zacząłem się zastanawiać co się z nią stanie, gdy najlepsi handlowcy odejdą, z takiego czy innego powodu. Uświadomiłem sobie, że z dnia na dzień wartość mojej firmy spadnie o rząd wielkości.

Jak rozumiem, to właśnie wtedy zacząłeś myśleć o modelu usług zarządzanych?

Tak, wtedy uznałem, że dokonamy transformacji do modelu usług powtarzalnych, w którym wartość firmy jest wyceniania inaczej niż w przypadku zwykłej firmy handlowej. Oczywiście transformacja nie była łatwa. Początkowo nie wiedzieliśmy nawet, ile brać za takie zlecenia. Nasza pierwsza oferta MSP była, jak się okazało, zupełnie niedoszacowana. Liczyliśmy sobie, przykładowo, trzy tysiące dolarów za zarządzanie pamięciami masowymi w sytuacji, gdy powinniśmy to wyceniać na czterdzieści tysięcy dolarów. W efekcie początkowo wręcz traciliśmy na tym biznesie. Z czasem jednak nauczyliśmy się, jak to robić dobrze. Teraz mamy bardzo stabilne przychody i dużą wiedzę, a do codziennej obsługi klientów korzystamy z 27 różnych narzędzi.

Jak definiujecie stabilność biznesu? Jak ją „mierzycie”?

czasem absurdalną marżę zysku. Z kolei w przypadku większości dostawców usług zarządzanych zysk netto wynosi od 12 do 18 procent. Dla MSP, który ma obroty rzędu miliona dolarów miesięcznie, oznacza to, że co roku konsekwentnie jest do przodu o jakieś półtora miliona dolarów. A przy tym nie martwi się ciągle o dowiezienie wyniku w każdym kolejnym kwartale. Owszem, nie ma tu, by tak rzec, „blichtru”, jak w biznesie VAR-owym. Nie ma tu przybijania piątek, bo ktoś, dajmy na to, dopiął kontrakt na 25 milionów dolarów z Qualcommem. U nas to będzie raczej umowa na siedem tysięcy miesięcznie. Za to jest to bardzo stabilne i powtarzalne siedem tysięcy. Jak się do tego dołoży kolejne pięć tysięcy i dalsze dwanaście tysięcy, zaczyna się z tego robić może nie największa, ale za to bardzo zyskowna kopalnia złota, którą ze spokojem można dalej rozwijać.

Pomówmy chwilę o roli dystrybutorów w biznesie MSP. Czy i na ile jest istotna?

Przykładowo, w przypadku Microsoftu, jest kluczowa. Wynika to z faktu, że Microsoft nie chce mieć bezpośrednio do czynienia z małymi graczami, a takim wciąż jest Helixstorm, przynajmniej w warunkach amerykańskich. Do tego delegowani są dystrybutorzy, bez których nie moglibyśmy kupować dla klientów licencji chmurowych. Siłą rzeczy są zatem dla nas istotnymi partnerami.

Czy zgadzasz się, że sztuczna inteligencja staje się kluczowa dla dalszego rozwoju modelu MSP?

Mi osobiście, dzięki automatyzacji zadań, oszczędza półtora, może nawet dwa dni w miesiącu. W oparciu o AI zbudowaliśmy bota HR, którego używamy sami, jak też korzystają z niego nasi klienci. Zamiast wertować 600 stron dokumentacji, w ciągu kilku sekund dostajemy konkretne dane. To samo może dotyczyć systemów finansowych i innych w firmie. Przykładowo, wstępnej analizy informacji o problemie technicznym, żeby przekierować sprawę do konkretnego specjalisty. Wiem, że teraz wiele mówi się o wykorzystaniu AI przede wszystkim w niemądrych celach, ale dobrze pomyślane rozwiązania na jej bazie mogą być nie tylko przydatne, ale nawet przełomowe. Życzyłbym sobie tego chociażby w medycynie.

Nasz średni staż pracy z klientem wynosi ponad 8 lat, a nasz wskaźnik churn to jedynie 2,7 procenta, a więc kilkakrotnie mniej niż w całej branży. Owszem, w świecie VAR-ów można zarobić mnóstwo pieniędzy na jednej transakcji – dobra baza lojalnych klientów, którzy składają regularne zamówienia, przekłada się na wysoką, Rozmawiał Tomasz Gołębiowski

IT w retailu:

wdrożenia z nogą na hamulcu

Jeden na trzech retailerów w Polsce skarży się na chaos legislacyjny, czemu towarzyszą narzekania na wysokie koszty wdrożeń IT oraz braki kompetencyjne.

Opr. Tomasz Gołębiowski

Jak pokazuje raport RetailTech 2025, przygotowany przez Exorigo-Upos, sektor retailu znajduje się w nieco paradoksalnej sytuacji. Z jednej strony ponad 75 proc. takich firm planuje utrzymać lub zwiększyć nakłady na IT, z drugiej zaś ograniczenia budżetowe, brak zewnętrznego finansowania czy chaos prawny hamują wdrożenia nowoczesnych rozwiązań.

Największym wyzwaniem dla przedsiębiorców pozostają wysokie koszty technologii oraz brak elastycznych form finansowania – wskazuje na nie aż 40 proc. firm. Kolejne 36 proc. przeszkodę widzi w niewystarczającej pomocy zewnętrznej w postaci dotacji, grantów, czy funduszy unijnych. W połączeniu z rosnącymi kosztami prowadzenia działalności – w tym pracy, energii i logistyki – sprawia to, że wiele organizacji musi wybierać między inwestycją w roz-

75 PROC. FIRM DEKLARUJE, ŻE W TYM ROKU BĘDZIE KONTYNUOWAĆ

wój a utrzymaniem bieżącej płynności. Mimo świadomości, że automatyzacja, chmura i sztuczna inteligencja realnie podnoszą odporność operacyjną i konkurencyjność, część firm odkłada decyzje inwestycyjne, traktując je jako zbyt obciążające finansowo w obecnych warunkach.

Chaos prawny hamuje inwestycje

Kolejnym czynnikiem wpływającym na decyzje budżetowe jest niestabilne otoczenie regulacyjne. Aż 31 proc. badanych firm wskazuje chaos prawny i częste zmiany przepisów jako jedną z kluczowych barier rozwojowych. W mijającym roku przedsiębiorcy musieli równocze-

śnie przygotowywać się do przesuniętego KSeF, dostosowywać do nowych przepisów dotyczących cyberbezpieczeństwa i AI, uwzględniać kolejne etapy raportowania ESG, reagować na zmiany w systemie kaucyjnym czy wprowadzenie e-paragonów. Jednocześnie istotna podwyżka płacy minimalnej– obok energii i logistyki – najmocniej dociążyła budżety handlu.

– W kontekście stałych zmian, niepewność prawna stała się w yjątkowo dotkliwa, a każda zmiana terminu kluczowego wdrożenia, takiego jak KSeF, podważa zaufanie przedsiębiorców do stabilności regulacji. Ten brak stałości przekłada się na ostrożność, która w  czasach, gdy biznes p owinien w ykorzystywać p otencjał i przyspieszać, staje się hamulcem strategicznych inwestycji – mówi Grzegorz Rogaliński, CEO Exorigo-Upos. Trudnemu otoczeniu regulacyjnemu towarzyszą napięcia geopolityczne, które w ostatnich miesiącach ponownie znalazły się w centrum uwagi przedsiębiorców. Sytuacja za naszą wschodnią granicą pozostaje niestabilna, a obawy potęgują dodatkowo wzmożone ataki dronowe czy problemy na granicach i lotniskach. Handel, jako sektor oparty na sprawnych i przewidywalnych łańcuchach dostaw, szczególnie silnie odczuł wzrost niepewności. Ryzyko zakłóceń wymusiło budowanie większych zapasów bezpieczeństwa, modyfikacje tras transportowych, wzrost kosztów ubezpieczeń i większą presję. W konsekwencji

konieczność tworzenia alternatywnych scenariuszy operacyjnych spowodowała, że firmy działały bardziej zachowawczo. Niestabilność geopolityczna nie jest już odległym czynnikiem makroekonomicznym, stała się elementem codziennego funkcjonowania branży. W tegorocznym raporcie aż 25 proc. przedstawicieli handlu wskazuje ją jako czynnik ograniczający inwestycje — i z każdy miesiącem odsetek ten może rosnąć.

W nowy rok z optymizmem

Mimo tych wyzwań dane z raportu jasno pokazują, że handel nie zatrzymał się mentalnie w miejscu. Ponad 75 proc. firm deklaruje, że w 2026 r. będzie kontynuować lub zwiększać inwestycje w IT. Oznacza to, że przedsiębiorcy nie rezygnują z cyfryzacji, lecz rozkładają ją na etapy i realizują ją ostrożniej. Na pierwszy plan wysuwają się projekty wzmacniające odporność operacyjną: rozbudowa chmury, integracja danych między kanałami, automatyzacja procesów sklepowych i magazynowych, a przede wszystkim inwestycje w bezpieczeństwo – zarówno danych, jak i systemów transakcyjnych. Tegoroczna dynamika pokazuje, że technologia nie jest traktowana już jako narzędzie rozwoju, lecz jako filar stabilności.

– Końcówka 2025 roku unao czniła, że technologia jest dziś strategiczną warstwą odporności operacyjnej. Mimo niestabilnego otoczenia i  konieczności bieżącego reagowania na zmieniające

się warunki, rosły oczekiwania konsumentów. W takiej rzeczywistości firmy, które potrafią inwestować w chmurę, automatyzację i integrację danych, będą bardziej elastyczne i szybciej poradzą sobie z wyzwaniami, jakie przyniesie 2026 rok. Widzimy wyraźnie, że przewagi konkurencyjne przesuwają się z poziomu marży i skali na poziom technologicznej dojrzałości– mówi Grzegorz Rogaliński. W końcu ubiegłego roku sektor handlu znajdował się w stanie podwyższonej ostrożności. Towarzyszyła temu rosnąca świadomość, że zdolność do adaptacji będzie kluczowym czynnikiem przewagi w bieżącym roku. W najbliższych miesiącach decydujące będzie nie tylko to, kto jest największy, ale kto najszybciej potrafi reagować na zmiany, integrować dane, automatyzować procesy i utrzymywać stabilność działania w warunkach niepewności. W tej perspektywie rok ubiegły był dla retailu przede wszystkim testem odporności — a rok 2026 będzie testem konsekwencji inwestycyjnych. Omawiany raport powstał na podstawie badania 100 średnich i dużych przedsiębiorstw handlowych w Polsce, których obrót roczny przekracza 100 mln zł. Badanie objęło firmy działające w handlu detalicznym, żywnością, farmaceutykami, kosmetykami, meblami, sprzętem RTV/AGD, odzieżą i obuwiem oraz paliwami.

Pełna wersja dokumentu jest dostępna pod adresem: www.exorigo-upos.pl/ raport-retailtech

Wyzwania zewnętrzne

Wysokie koszty technologii i brak elastycznych form finansowania

Brak finansowej pomocy zewnętrznej

Chaos prawny i zmiany legislacyjne

Zmieniające się trendy konsumenckie

Niestabilna sytuacja geopolityczna

Brak gotowości dostawców do integracji

1-2% obrotów przeznaczonych na rozwój IT 3-4% obrotów przeznaczonych na rozwój IT

Wyzwania wewnętrzne

Braki kadrowe i kompetencyjne

Integracja różnych systemów w firmie

Niewystarczający budżet

Niewystarczająca świadomość znaczenia nowych technologii

Brak czasu na takie inwestycje i wdrożenia

Brak elastyczności centrali i nieuwzględnianie lokalnej specyfiki

Firmy zatrudniające powyżej 250 osób Firmy zatrudniające od 50 do 249 osób

to już norma Shadow AI

Tylko 9 proc. przedsiębiorstw deklaruje, że utrzymuje całkowitą kontrolę nad użyciem sztucznej inteligencji przez swoich pracowników – wynika z danych Red Hat.

WDZIAŁY IT CZĘSTO NIE WSPIERAJĄ WDROŻEŃ AI.

sumie 72 proc. firm w regionie EMEA uznaje rozwój narzędzi bazujących na sztucznej inteligencji za priorytet strategii IT na najbliższe 18 miesięcy – wynika z badania Red Hat. Jednocześnie 21 proc. deklaruje, że w perspektywie pięciu lat chce wykorzystywać AI do realnego tworzenia wartości dla klientów. Dziś na tym etapie znajduje się jednak zaledwie 7 proc. podmiotów. Skutkiem tego rozdźwięku są niezaspokojone ambicje biznesowe, ale także zjawisko „shadow AI”. Aż 91 proc. firm przyznaje, że ich pracownicy korzystają z narzędzi AI poza formalnymi ramami organizacji. Sztuczna inteligencja przestała być w przedsiębiorstwach europejskich tematem niszowym. Raport Red Hat wskazuje, że tylko jedna na dziesięć firm nie uwzględnia dziś AI w swoich planach strategicznych na najbliższe półtora roku. Dla większości ankietowanych podmiotów (72 proc.) rozwój tej technologii jest priorytetem, który w przyszłości powinien przełożyć się na poprawę konkurencyjności biznesu. Jednocześnie, choć przedsiębiorstwa są już na etapie wdrażania AI, to skala i tempo tych działań wciąż pozostają ograniczone. Co czwarta firma w regionie EMEA (26 proc.) znajduje się obecnie w fazie przygotowań do wdrażania sztucznej inteligencji, a kolejne 34 proc. przedsiębiorstw jest na etapie poszukiwania konkretnych zastosowań AI, testując jej potencjał w wybranych obszarach działalności. Tylko 7 proc. podmiotów deklaruje, że ta technologia już teraz realnie przekłada się na wymierną wartość biznesową.

AI odizolowane od IT

Wśród najczęściej wymienianych barier w skalowaniu sztucznej inteligencji w firmach z regionu EMEA, na pierwszym miejscu znalazł się brak współpracy mię-

dzy zespołami rozwijającymi narzędzia AI a działami IT. Na problem silosów organizacyjnych zwróciło uwagę 30 proc. ankietowanych przedsiębiorstw. Rozdzielenie kompetencji, danych i procesów pomiędzy różne zespoły utrudnia płynne przechodzenie od projektów eksperymentalnych do rozwiązań wykorzystywanych na szerszą skalę oraz ogranicza możliwość spójnego zarządzania środowiskiem AI w firmie. Do kolejnych wyzwań należą wysokie koszty wdrożenia i utrzymania rozwiązań bazujących na sztucznej inteligencji (29 proc.), obawy o bezpieczeństwo i prywatność danych (28 proc.) oraz trudności z integracją modeli AI z istniejącymi w firmie systemami IT (27 proc.). Co czwarta firma zwraca również uwagę na problemy z przejrzystością modeli AI oraz brak jasnych kryteriów oceny zwrotu z inwestycji (ROI), co utrudnia uzasadnianie projektów AI z perspektywy biznesowej. W efekcie, nawet tam, gdzie technologia jest dostępna, decyzje o jej rozwijaniu często napotykają na bariery organizacyjne i finansowe. Ograniczenia we wdrażaniu AI mają też wyraźny wymiar kompetencyjny, choć sprowadza się on nie tyle do braku specjalistów, co niedoboru konkretnych kompetencji w obszarze AI w firmach. Połowa przebadanych przez Red Hat przedsiębiorstw wskazuje na problem z łączeniem sztucznej inteligencji z danymi gromadzonymi w firmach. Niewiele mniej, bo 48 proc. podmiotów dostrzega wyzwanie w efektywnym wykorzystaniu możliwości AI, a 46 proc. nie wie, jak w praktyce wykorzystywać agenty AI. Dane te pokazują, że ważną barierą pozostają kompetencje wdrożeniowe i operacyjne, a nie sama dostępność technologii.

Shadow AI wymyka się

spod kontroli

Konsekwencją rozdźwięku między ambicjami biznesowymi a rzeczywistym tempem wdrażania sztucznej inteligencji w firmach jest rosnące zjawisko tzw. shadow AI. Tak jak spopularyzowane w ostat-

nich latach hasło shadow IT odnosiło się do nieautoryzowanego korzystania przez pracowników ze sprzętu lub oprogramowania poza kontrolą działów IT, tak shadow AI oznacza wykorzystywanie narzędzi sztucznej inteligencji, takich jak popularne i bezpłatnie dostępne duże modele językowe poza formalnymi ramami organizacji. Aż 91 proc. podmiotów w regionie EMEA przyznaje, że ich kadra korzysta z narzędzi AI bez spójnych zasad i nadzoru firmy. W dwóch przypadkach na pięć (42 proc.) proceder ten obejmuje całą organizację, a 38 proc. firm dostrzega go w określonych zespołach. Tylko 9 proc. firm deklaruje, że utrzymuje całkowitą kontrolę nad użyciem sztucznej inteligencji przez swoich pracowników.

Skala zjawiska shadow AI pokazuje, że zapotrzebowanie na rozwiązania oparte na sztucznej inteligencji w codziennej pracy wyraźnie wyprzedza tempo, w jakim firmy są w stanie wdrażać je w sposób uporządkowany. W odpowiedzi na rosnące ambicje w tym obszarze oraz potrzebę ograniczenia niekontrolowanego wykorzystania takich narzędzi przedsiębiorstwa coraz częściej poszukują sposobów na przyspieszenie i usprawnienie własnych wdrożeń. Jednym z wybieranych kierunków jest sięganie po otwarte technologie.

Z badania Red Hat wynika, że aż 92 proc. firm w regionie EMEA uznaje zastosowanie korporacyjnych rozwiązań open source za istotny element strategii AI. Wskazuje to na rosnące znaczenie innowacji zapewniających większą transparentność, możliwość audytu oraz dostosowanie wykorzystywanych narzędzi do własnych potrzeb.

Wojciech Furmankiewicz jest dyrektorem Red Hat ds. technologii i rozwiązań w regionie Europy Środkowo-Wschodniej.

Cyfrowy strzał w kolano

Nie da się wejść na drabinę kariery, jeśli wytnie się jej dolne szczeble.

Branża IT przez lata z zapałem opowiadała światu, że automatyzacja to przyszłość, a algorytmy zrobią wszystko szybciej, taniej i bez marudzenia o podwyżkę. Na konferencjach mówiono o „nieuchronności zmian”, w raportach inwestorskich o „rewolucyjnej poprawie produktywności”, a w prezentacjach dla zarządów – o redukcji kosztów operacyjnych. Dziś, gdy obiecywana cyfrowa transformacja zaczyna transformować również samych jej architektów, entuzjazm wyraźnie przygasa. Okazuje się bowiem, że gdy przez lata uczyliśmy świat, jak zastępować ludzi rozwiązaniami technicznymi, bicz, który ukręciliśmy na księgowych, prawników i pracowników działów marketingu, całkiem sprawnie smaga też programistów czy administratorów niższego szczebla.

Co prawda nie ma jeszcze prowadzonych oficjalnie rejestrów zwolnień z powodu AI, ale istnieją już twarde dane pokazujące, że problem przestał być teoretyczny. Monitorująca redukcje zatrudnienia w USA firma analityczna Challenger, Gray & Christmas raportowała w 2025 r. wyraźny wzrost liczby zwolnień, przy których jako przyczyna wprost wskazywane były automatyzacja i wdrożenie AI. W jednym z letnich miesięcy liczba takich redukcji przekroczyła 10 tys. Nie jest to jeszcze Armagedon, ale trend zarysowuje się wyraźny. Tym bardziej, że w wielu dużych firmach nadal trwają analizy, jak w ich działalności można wykorzystać AI do automatyzacji zadań. Według badania „Future of Jobs 2025”, przygotowanego przez World Economic Forum, związaną z tym redukcję zatrudnienia planuje aż 41 proc. podmiotów.

I chociaż powyższa prognoza jest tą najbardziej katastroficzną w tym raporcie, to znajdują się w nim również pozytywne – przynajmniej teoretycznie – informacje. Do 2030 r. około 92 mln miejsc pracy na całym świecie może zostać zastąpionych przez rozwiązania techniczne (w tym AI), ale jednocześnie powstać ma około 170 mln nowych ról (inżynier promptów, trener modeli, specjalista od etyki algorytmów…). Wynoszący 78 mln bilans netto brzmi optymistycznie, warto jednak podkreślić, że te nowe role niekoniecznie powstaną w tych samych firmach czy wręcz krajach. Ergo, ewidentnie brakuje gwarancji, że znajdzie się praca dla tych samych ludzi, którzy stracą dotychczasowe stanowiska.

Branża IT szczególnie boleśnie odczuwa zmianę na poziomie wejścia do zawodu. Z badań Stanford University wynika, że w okresie po premierze narzędzi generatywnej sztucznej inteligencji zatrudnienie osób w wieku 22–25 lat w obszarach najbardziej „podatnych” na automatyzację spadło o około 16 proc. Trend jest dość wyraźny i w praktyce oznacza jedno: zadania, które przez lata były naturalnym polem treningowym dla młodszych specjalistów (tworzenie prostych modułów, prowadzenie testów, wprowadzanie poprawek, generowanie dokumentacji), coraz częściej wykonują narzędzia GenAI. Modele ję-

zykowe potrafią stworzyć kod, wskazać błędy i zasugerować optymalizację w czasie, w którym człowiek dopiero otwiera edytor.

Oczywiście nie oznacza to, że AI zastąpi wszystkich programistów czy administratorów. Bardziej złożone projekty, architektura systemów, odpowiedzialność za bezpieczeństwo – to wciąż obszary, w których człowiek jest niezbędny. Problem polega na czymś innym i jest oczywisty: jeśli ograniczymy dopływ młodych kadr, to za kilka lat zabraknie ludzi, którzy będą mogli wejść na poziom seniorów. Nie da się wejść na drabinę kariery, jeśli wytnie się jej dolne szczeble.

Trzeba jednak pamiętać, że to właśnie branża IT najgłośniej przekonywała inne do cyfrowej transformacji. Banki, handel, przemysł – wszyscy słyszeli, że trzeba automatyzować, optymalizować i redukować koszty operacyjne. Teraz te same argumenty wracają do działów IT w postaci pytania od zarządu: skoro AI zwiększa produktywność zespołu o kilkadziesiąt procent, to czy naprawdę potrzebujemy tylu etatów?

WEF podkreśla, że dla pracowników kluczowe będą kwalifikacje przyszłości: analiza danych, integracja narzędzi z AI, aplikowanie krytycznego myślenia. To prawda i trudno z tym polemizować, ale kompetencje te nie pojawiają się z powietrza. Wymagają doświadczenia, realizacji projektów, popełniania błędów i nanoszenia poprawek – dokładnie tych czynności, które obecnie coraz częściej przejmuje algorytm.

W tych niesprzyjających generalnie okolicznościach warto pamiętać, aby nie doprowadzić do wyłącznie demonizowania sztucznej inteligencji. AI rzeczywiście przyspiesza innowacje, ułatwia pracę i pozwala tworzyć rzeczy, które jeszcze kilka lat temu były poza zasięgiem mniejszych firm. Problem zaczyna się wtedy, gdy jedyną (i często entuzjastyczną) reakcją na wzrost efektywności jest redukcja zatrudnienia. Wtedy zamiast transformacji nakręca się spirala: mniej ludzi, większa presja, jeszcze większa automatyzacja. Nietrudno bowiem zauważyć, że menedżerowie branży IT – skądinąd ludzie dość inteligentni – doprowadzają do sytuacji, w której firmy zjadają swój własny ogon, przyczyniając się do pogłębienia luki kadrowej. Za kilka lat okaże się, że brakuje doświadczonych specjalistów, bo ci młodsi nigdy nie dostali szansy, by nimi zostać. I wtedy nawet najbardziej zaawansowany model nie rozwiąże problemu braku ścieżki rozwoju.

Krzysztof

Jakubik

dziennikarz CRN Polska

FIRMY ZJADAJĄ WŁASNY OGON, PRZYCZYNIAJĄC SIĘ DO POGŁĘBIENIA LUKI KADROWEJ.

Być może to moment na odrobinę pokory i refleksji nad tym, jak projektować transformację, która nie polega wyłącznie na cięciu kosztów. Bo jeśli jedyną odpowiedzią na wzrost produktywności ma być redukcja etatów, to w pewnym momencie zabraknie nie tylko juniorów, ale i klientów.

Tworzymy archiwum, które rozumie

„Do tej pory żaden z istniejących polskich projektów historii mówionej nie wykorzystywał narzędzi AI do transkrypcji czy wyszukiwania. Narratio wypełni tę lukę” – mówi Grzegorz Deniszczuk, kierownik Działu IT w Muzeum Historii Polski.

Jakie wyzwanie przyczyniło się do powstania projektu Narratio?

Grzegorz Deniszczuk Narratio to kompleksowy projekt, którego realizacja właśnie rozpoczęła się w ramach misji Muzeum Historii Polski. Ma on na celu zgromadzenie, digitalizację i udostępnienie relacji świadków historii mówionej w jednym, spójnym repozytorium. To pierwsza w Polsce próba scalenia silnie rozproszonych archiwów wywiadów, znajdujących się obecnie w wielu niezależnych źródłach, o niespójnych

NARRATIO BĘDZIE SYSTEMEM SKALOWALNYM, ZGODNYM ZE ŚWIATOWYMI STANDARDAMI.

standardach udostępniania. Skutkuje to utrudnionym wyszukiwaniem i niską widzialnością materiałów w popularnych wyszukiwarkach, a dotrzeć do nich mogą głównie osoby, które wiedzą, gdzie szukać. Dodatkowo, wiele relacji nie ma pełnych opisów czy transkrypcji, przez co trudno je analizować.

Jakie są zatem główne cele tej inicjatywy?

Projekt przewiduje opracowanie – we współpracy z ekspertami, między innymi z Polskiego Towarzystwa Historii Mówionej – jednolitych standardów metadanych oraz wdrożenie otwartych interfejsów, co pozwoli na lepsze katalogowanie i porównywanie relacji z różnych źródeł, a także

umożliwi integrację zasobów z krajowym repozytorium Kronik@ oraz europejską platformą Europeana. Dzięki temu unikatowe nagrania staną się szeroko dostępne, a naukowcy, nauczyciele i pasjonaci historii łatwiej znajdą potrzebne materiały, zyskując możliwość przeszukiwania wielu kolekcji jednocześnie przez pojedynczy interfejs. Sam projekt natomiast zabezpieczy je przed utratą, wzbogacając jednocześnie narzędzia edukacyjne oraz umożliwiając chociażby naukę historii na bazie relacji świadków. Finalizacja prac zaplanowana jest na 2028 rok.

W jaki sposób podchodzicie do standaryzacji metadanych?

W ramach projektu opracowany zostanie standard opisowy dla historii mówionej, który pozwoli na efektywniejsze katalogowanie, wyszukiwanie i analizę materiałów. W tym celu powstaną wspólne słowniki i szablony opisów, wypracowane we współpracy z ekspertami oraz organizacjami zajmującymi się historią mówioną. Stworzony i opisany standard pozwoli na odpowiednie zmapowanie danych i dostosowanie do powszechnie wykorzystywanych standardów obiektów cyfrowych, takich jak Dublin Core. Dzięki temu inne instytucje, jak archiwa państwowe, biblioteki czy lokalne muzea, będą mogły łatwo korzystać z tych samych, zgodnych z uznanymi normami reguł opisu oraz włączyć swoje zbiory do Narratio.

Jak w tym projekcie zostaną wykorzystane mechanizmy sztucznej inteligencji?

W ramach Narratio planowane jest wykorzystanie zaawansowanych algorytmów AI do wspierania pracy z materiałami mówionymi. Przede wszystkim wdrożone zostaną systemy automatycznej transkrypcji i rozpoznawania mowy, które przetworzą nagrania audio na tekst, a przez to umożliwią intuicyjne wyszukiwanie według treści oraz bardziej zaawansowane analizy i szybkie dotarcie do interesujących fragmentów nagrań. Dodatkowo przewidziano szkolenia dla pracowników muzeów i archiwów, aby

podnieść ich kompetencje cyfrowe i ułatwić wdrożenie tych rozwiązań. Warto również wskazać korzyści w szerszej skali. Żaden z istniejących polskich projektów historii mówionej nie wykorzystuje narzędzi AI do transkrypcji czy wyszukiwania. Narratio wypełni tę lukę jako pierwsze polskie rozwiązanie z natywnym wsparciem AI i może stać się punktem odniesienia dla podobnych projektów w Europie.

Z jakiego typu rozwiązań AI planujecie korzystać?

Stawiamy przede wszystkim na systemy bazujące na otwartym źródle, działające lokalnie, w naszej własnej infrastrukturze. Nie jest to przypadkowy wybór, bowiem relacje historii mówionej zawierają dane osobowe, często wrażliwe. Jako główny element systemu transkrypcji planujemy wykorzystać również bazujące na otwartym źródle narzędzia, które w testach wykazały się wysoką skutecznością i dokładnością. Do tego dochodzi mechanizm automatycznego rozpoznawania osoby mówiącej w danym momencie, prowadzącego wywiad lub narratora. To kluczowe dla naszych materiałów, ponieważ standardowy wywiad historii mówionej to format rozmowy dwóch osób i musimy precyzyjnie rozróżnić czyje słowa transkrybujemy. System będzie generował znaczniki czasowe na poziomie poszczególnych słów z przypisaniem do konkretnego mówcy.

W jaki sposób realizowane będzie przeszukiwanie tak dużej bazy?

Nie chcemy, aby badacze musieli przeszukiwać tysiące transkrypcji ręcznie, wpisując dokładne frazy. Dlatego planujemy wdrożyć podejście hybrydowe, łączące klasyczne wyszukiwanie pełnotekstowe BM25 – niezbędne, gdy ktoś szuka konkretnej nazwy własnej, daty czy miejscowości – z wyszukiwaniem semantycznym bazującym na modelach embeddingowych. Oznacza to, że transkrypcje zostaną przekształcone w reprezentacje wektorowe (embeddingi), odzwierciedlające znaczenie fragmentów tekstu, co pozwoli systemowi wyszukiwać treści podobne semantycznie, a nie tylko identyczne leksykalnie. Wśród rozważanych kandydatów są między innymi zaawansowane modele wielojęzyczne oraz rozwiązania lokalne zoptymalizowane pod kątem języka polskiego.

Czy wybrane środowisko AI będzie musiało być dodatkowo szkolone, aby zwiększyć poprawność jego pracy?

Tak, bardzo poważnie rozważamy fine-tuning. Obecnie nawet najlepsze modele AI, trenowane głównie na danych anglojęzycznych, mogą nie poradzić sobie wystarczająco dobrze z polską specyfiką językową, z jaką mamy do czynienia w archiwach historii mówionej. W przypadku transkrypcji współczynnik błędów modeli jest znacząco wyższy dla mowy spontanicznej, w porównaniu z mową czytaną. A nasze materiały to w całości mowa spontaniczna, do tego szczególnie wymagająca pod względem akustycznym i językowym. Mamy do czynienia z nagraniami osób starszych, często mówiących wolniej, mniej wyraźnie. Do tego dochodzą dialekty regionalne.

Drugi obszar to rozpoznawanie jednostek nazwanych – nazwisk, miejscowości, organizacji. Polskie archiwa historii mówionej obejmują materiały od okresu międzywojennego po czasy współczesne. Nazwy miejscowości zmieniały się wielokrotnie – te same miasta nosiły różne nazwy w zależności od okresu politycznego. Organizacje pojawiały się i znikały, a formy językowe ewoluowały. Dlatego świadomość kontekstu przekazywanych treści jest kluczowa.

Według jakich kryteriów można rozpatrywać korzyści płynące z wykorzystania AI w tego typu projekcie?

Widzimy je w trzech wymiarach: czasu, kosztów i jakości doświadczenia użytkownika. Oszczędność czasu jest najbardziej oczywista – ręczna transkrypcja jednej godziny nagrania audio to godziny pracy wykwalifikowanego transkrybenta. Projekt Narratio zakłada udostępnienie kilku tysięcy cyfrowych dokumentów. Gdybyśmy mieli ręcznie transkrybować choćby ułamek tej kolekcji, mówilibyśmy o tysiącach roboczogodzin. Oczywiście wynik automatycznej transkrypcji wymaga weryfikacji i korekty przez człowieka, ale taka redakcja to już zupełnie inna skala pracy. Szacujemy, że AI skróci cały proces transkrypcji o ponad połowę w porównaniu z tradycyjnym podejściem. Jeśli chodzi o koszty, to dzięki wykorzystaniu narzędzi open-source nie płacimy za licencje komercyjne obejmujące silniki transkrypcji czy modele językowe, a to w skali projektu z wieloma partnerami instytucjonalnymi daje bardzo znaczące oszczędności.

Doświadczenia użytkownika będą chyba trudniejsze do analizy… Zgadza się, ale strategicznie jest to najbardziej istotny aspekt i w nim upatruję największych korzyści, bowiem dotyczy on jakości i dostępności repozytorium

dla użytkownika końcowego. Wyszukiwanie semantyczne fundamentalnie zmienia sposób korzystania z archiwów historii mówionej. Obecnie, gdy badacz szuka relacji dotyczących, powiedzmy, doświadczeń wysiedleń ludności cywilnej, musi znać konkretne słowa kluczowe. Musi wiedzieć, w których kolekcjach szukać i ręcznie przeglądać opisy katalogowe. Przy wyszukiwaniu semantycznym bazującym na embeddingach może zadać pytanie w języku naturalnym, a system znajdzie fragmenty nawet wtedy, gdy świadek użył zupełnie innych słów niż te w zapytaniu, bo rozumie kontekst znaczeniowy, a nie tylko dopasowuje ciągi znaków. Uzupełnieniem tego podejścia jest diaryzacja mówców, czyli automatyczne rozdzielanie wypowiedzi poszczególnych osób w nagraniu oraz przypisywanie znaczników czasowych do odpowiednich słów. Takie połączenie pozwala budować interfejs, w  którym użytkownik klika na fragment transkrypcji i natychmiast odtwarzany jest właściwy moment nagrania.

To jakościowa zmiana ergonomii pracy z materiałem źródłowym w porównaniu z ręcznym przewijaniem wielogodzinnych rejestracji.

Jakie inne rozwiązania zostaną wdrożone w ramach Narratio?

Zastosowanie otwartego API oraz protokołu OAI-PMH umożliwi łatwą wymianę danych z zewnętrznymi repozytoriami. Przewidzieliśmy integrację z istniejącymi platformami archiwalnymi – w tym z używanym przez Instytut Pileckiego systemem dLibra, z wykorzystywanym w MHP systemem MUZA oraz Otwartym Systemem Archiwizacji – OSA. Z kolei wprowadzane narzędzia cyfrowe, takie jak przeglądarki mediów czy edytory metadanych, usprawnią przetwarzanie i publikowanie materiałów. Wszystko to sprawi, że Narratio będzie systemem skalowalnym, zgodnym ze światowymi standardami i łatwym do integracji z innymi usługami cyfrowymi.

Rozmawiał Krzysztof Jakubik

Prezent o wartości

miliarda dolarów

Pamiętacie jak IBM rozwinęło rynek IT, otwierając swoją architekturę? W przypadku AI będzie podobnie…

Pamiętam, kiedy po raz pierwszy w moje ręce trafił komputer PC. To było około 1985 r., może rok lub dwa wcześniej. Nazywaliśmy go „IBM”, chociaż jestem prawie pewien, że na pudełku nie było logo IBM. Wewnątrz znajdował się procesor Intel 8086 lub 8088: „IBM PC XT”. Bursztynowe znaki świecące na czarnym ekranie były hipnotyzujące. Usiadłem przed nim. Nie robiłem nic poza wpisaniem kilku losowych znaków i naciśnięciem Entera. To była wizyta rodzinna, a ja byłem małym dzieckiem, które ledwo umiało czytać. Kiedy rodzice zauważyli, że bawię się tą wspaniałą maszyną, natychmiast mnie od niej odsunęli. Za późno. Z miejsca stałem się od niej uzależniony. Czterdzieści lat później nadal jestem.

Ta maszyna była prawdopodobnie tajwańskim klonem zbudowanym przez jakąś małą firmę, należącą do kogoś, kto nigdy nie pracował dla IBM, sprzedanym przez kogoś, kto nigdy nie spotkał nikogo z IBM, i uruchamiającym oprogramowanie, którego IBM nie napisał. A jednak specjaliści IBM właśnie to próbowali osiągnąć.

Kilka lat wcześniej, w sierpniu 1981 r., IBM zrobiło coś, co wydawało się kom-

ZA KILKANAŚCIE MIESIĘCY NIE DO POMYŚLENIA BĘDZIE BRAK SERWERA MCP.

pletnie szalone: opublikowało pełną specyfikację techniczną IBM PC. Schematy obwodów, specyfikacje interfejsów, każdy szczegół, jakiego konkurencja potrzebowałaby do zbudowania dokładnej kopii. Dlaczego to zrobili? Ponieważ wierzyli, że nie są wystarczająco duzi, aby opracować cały sprzęt i oprogramowanie, które uczyniłyby komputer osobisty prawdziwie globalnym sukcesem.

W pierwszym roku istnienia IBM PC wygenerował miliard dolarów przychodu. Do 1984 r. wartość ta wzrosła do 4 mld dol.,

mimo że rynek zalały klony, a udział IBM w rynku się skurczył. Otwarta architektura napędzała wzrost rynku tak szybko, że przychody IBM wzrosły czterokrotnie, a konkurencja również prosperowała. Powyższy schemat regularnie się powtarza. Google oddało Androida, aby zdominować rynek mobilny. Sam internet wyłonił się z otwartego protokołu TCP/IP, a później HTTP i HTTPS. USB, Bluetooth i Wi-Fi – to wszystko otwarte standardy, które wyparły zastrzeżone alternatywy i zwiększyły rynki o miliardy. We wszystkich tych przykładach ktoś zdał sobie sprawę, że kontrolowanie standardu jest mniej wartościowe niż rozwijanie rynku. Wymieniono zatem wyłączność na wszechobecność i przekształcono swoje przewagi w towar, aby powiększyć rynek.

Przełomowa decyzja bez echa

Na początku grudnia branża sztucznej inteligencji wykonała podobny ruch. I podobnie jak w 1981 r., większość ludzi go przegapiła. W listopadzie 2024 r. Anthropic, twórcy Claude, wydali MCP, czyli autorski protokół komunikacji. Poza programistami prawie nikt tego nie zauważył. Ja mówię o MCP w moich wystąpieniach od początku 2025 r. MCP to standardowy sposób komunikacji modeli AI z systemami zewnętrznymi: bazami danych, sklepami internetowymi, narzędziami projektowymi i wszystkim, co znajduje się w sieci. Przed wprowadzeniem MCP, połączenie LLM z systemami rzeczywistymi oznaczało konieczność niestandardowej integracji dla każdej kombinacji model-system. Dzięki MCP model uczy się protokołu raz, a on może komunikować się z każdym innym, kto obsługuje MCP. Pomyśl o tym tak: MCP jest dla agentów AI tym, czym HTTP dla przeglądarek internetowych. Standardowym sposobem dostępu do zasobów w internecie.

Wpływ nastąpił szybko. W ciągu kilku miesięcy pojawiły się tysiące wdrożeń.

Grasshopper Bank zbudował serwer MCP, aby klienci mogli sprawdzać saldo, rozmawiając z Claude. Figma dodała serwer do projektowania wspomaganego przez AI. Obecnie mcpmarket.com wymienia ponad 18 tys. serwerów MCP. Jednak protokół działa tylko wtedy, gdy wszyscy go zaadaptują. A zastrzeżone protokoły rzadko kiedy spotykają się z powszechną akceptacją. To wlaśnie dlatego telefony z Androidem nie widzą efektów iMessage: Apple kontroluje protokół.

Anthropic opublikował MCP jako otwartą specyfikację. Każdy mógł ją zaimplementować. Istnieje jednak różnica między „otwartym” a „neutralnym”. Specyfikacja była otwarta: każdy mógł ją przeczytać i zaimplementować, ale Anthropic nadal kontrolował ewolucję protokołu. Decydował o tym, jakie funk-

cje zostaną dodane, jak się zmienią i dokąd zmierzają. Dla Google, Microsoftu i OpenAI, firm konkurujących z Anthropic o dominację w dziedzinie sztucznej inteligencji, stanowi to problem. Czy zbudowałbyś całą infrastrukturę agentów w oparciu o protokół kontrolowany przez konkurenta? Czy zainwestowałbyś miliardy w ekosystem, w którym to rywal ustala reguły?

Otwarte specyfikacje zyskują popularność. Neutralne standardy zyskują powszechną akceptację. Idąc śladem IBM, Anthropic uczynił MCP prawdziwie neutralnym. Oddał go za darmo. A potem naprawdę się otworzył. 9 grudnia 2025 r. Linux Foundation ogłosiła nową inicjatywę: Agentic AI Foundation (AAIF). Anthropic przekazał MCP nowej fundacji, dołączając do dwóch innych projektów: goose (framework agentów AI Blocka)

oraz AGENTS.md (standard OpenAI w zakresie zarządzania projektami).

Fundacja Linux zapewnia neutralne zarządzanie projektami. Kiedy firma przekazuje technologię Fundacji Linux, oddaje nad nią kontrolę. Ewolucja protokołu jest regulowana przez konsensus społeczności. To ten sam model, który uczynił z Linuksa, Kubernetesa i Node.js uniwersalną infrastrukturę. Lista członków założycieli jest imponująca: Amazon Web Services, Anthropic, Block, Bloomberg, Cloudflare, Google, Microsoft i OpenAI, a także dziesiątki innych na poziomie złotym i srebrnym. Wszyscy oni rywalizują w wyścigu o sztuczną inteligencję.

Czy Google zbudowałoby swoją infrastrukturę agentów w oparciu o protokół kontrolowany przez Anthropic? Czy Microsoft? Odpowiedź jest już jasna. Ale

protokół zarządzany przez Linux Foundation, w którym żadna firma nie ustala planu działania? „To zmienia wszystko”, jak powiedziałby Slopfluencer. To ten sam schemat, co w 1981 r. Otwarte udostępnienie technologii, aby udowodnić jej skuteczność. Następnie oddanie kontroli, aby uczynić ją prawdziwie uniwersalną i rozwinąć rynek.

Bez MCP będziesz niewidoczny

W tej chwili nie do pomyślenia jest, aby sprzedawca detaliczny nie miał strony internetowej. Byłbyś niewidoczny dla połowy swoich klientów. Za osiemnaście miesięcy nie do pomyślenia będzie brak serwera MCP. Będziesz niewidoczny dla każdego agenta AI poruszającego się po sieci w imieniu swoich użytkowników. To model B2A2 C z książki „Ekonomia algorytmów: Business-to-Agent-to-Consumer”. Agenci pośredniczą w relacjach. Porównują Twoją ofertę z konkurencją. Negocjują w imieniu swoich użytkowników. Składają zamówienia, umawiają spotkania i proszą o wyceny. A jeśli Twoje systemy nie potrafią komunikować się z agentami? Nie istniejesz w ich świecie. Wczesne wdrożenia już teraz zapewniają swoim firmom dostęp do agentów. Budują serwery MCP i udostępniają swoje dane i usługi za pośrednictwem standardowych protokołów. Późne wdrożenia obejmą 2027 r., wiążąc się z koniecznością płacenia konsultantom za modernizację systemów, które pierwsi użytkownicy wykonali poprawnie za pierwszym razem.

TCP/IP w 1983 r. HTTP w 1991 r. Strony internetowe responsywne na urządzenia mobilne w 2010 r. A teraz: interfejsy dostępne dla agentów w 2025 r. A ta maszyna, której dotykałem w 1985 r.? Mogła zostać wyprodukowana przez Multitech, małą tajwańską firmę produkującą klony, wykorzystującą otwartą architekturę IBM. Dziś Multitech to Acer: jeden z największych producentów komputerów PC na świecie. Istnieją, ponieważ IBM udostępnił wszystkim chętnym swój własny projekt.

prof. Marek Kowalkiewicz

Chair in Digital Economy w Queensland University of Technology, autor szeregu publikacji naukowych i książek, w tym „Sterowani algorytmami? Nie pytaj, czy AI rządzi biznesem, pytaj, jak bardzo”.

w kontrakcie wdrożeniowym IT Współdziałanie

Dobrą praktyką jest wyznaczenie jasnej granicy współdziałania stron i ich zespołów, z przypisaniem wprost w umowie konsekwencji braku takiego działania.

Wdynamicznie rozwijającym się świecie IT – a zwłaszcza w zakresie umów dotyczących wdrożeń oprogramowania – szczególnego znaczenia nabiera szeroko zakrojona, bieżąca współpraca zarówno wewnątrz zespołów deweloperskich, jak i między zespołami programistycznymi a właścicielami biznesowymi projektów. Ta wysoce pożądana (a w projektach realizowanych w metodykach zwinnych „agile” wręcz niezbędna) bardzo ścisła współpraca stron stwa-

ARTYKUŁ 354 KC JEST NIEDOCENIANY, CHOĆ KLUCZOWY.

rza równocześnie specyficzne wyzwania prawne, z którymi muszą się zmierzyć osoby tworzące kontrakt wdrożeniowy. Właściwe opisanie zasad współpracy w umowie jest istotne przede wszystkim dla adekwatnego odzwierciedlenia założeń metodyki, w jakiej realizowany jest kontrakt – z jasnym sprecyzowaniem ról, jakie strony umowy pełnią w procesie wdrożenia. Zasada współdziałania przy wykonywaniu zobowiązań, wyrażona w art. 354 par. 2 Kodeksu cywilnego, nakłada na wierzyciela obowiązek podejmowania działań niezbędnych do

prawidłowego wykonania umowy przez dłużnika. Przepis ten, choć często niedoceniany w praktyce, ma kluczowe znaczenie w projektach informatycznych, które z natury rzeczy opierają się na współpracy obu stron – zamawiającego i wykonawcy. Przygotowując umowę na realizację projektu IT nie można więc zapominać o najistotniejszych elementach każdego z kontraktów na realizację prac informatycznych (niezależnie od tego, w jakiej metodyce jest realizowany – czy to waterfall, czy agile), czyli o: opisie wymaganej współpracy stron, podziale obowiązków umownych, a wreszcie o stopniu zaangażowania poszczególnych stron w wykonanie ich obowiązków (oraz skutkach ich niewykonania).

Zastosuj matrycę RACI

W realizacji powyższych założeń pomocne może okazać się wprowadzenie do umowy matrycy RACI, czyli macierzy odpowiedzialności. Najczęściej przyjmuje ona formę szeregu klauzul umownych lub osobnego dokumentu opisującego odpowiedzialność stron za realizację poszczególnych obowiązków lub zadań. W uproszczonej jej wersji matryca RACI sprowadza się do wylistowania podstawowych obowiązków umownych i przypisania poszczególnych ról RACI do samych stron umowy – bez uszcze-

gółowiania, którzy członkowie zespołów realizują poszczególne role.

W takim przypadku zalecane jest uzupełnienie matrycy poprzez opisanie przyjętych w projekcie kluczowych ról projektowych przewidzianych przez strony oraz przypisanie tym rolom projektowym obowiązków i kompetencji, które będą niezbędne w projekcie, również w zakresie zarządzania komunikacją i eskalacją. Kolejna istotna kwestia to wprowadzenie szerokiego domniemania kompetencji – polegającego na przypisaniu jak najszerszego ich zakresu do osób pełniących rolę tzw. pojedynczego punktu kontaktowego w codziennych sprawach realizacyjnych, operacyjnych i biznesowych.

Należy pamiętać bowiem, że dobrą praktyką jest wyznaczenie jasnej granicy współdziałania stron i ich zespołów, z przypisaniem wprost w umowie konsekwencji braku takiego działania – co powinno przyczynić się do usprawnienia realizacji projektu wdrożeniowego.

Mateusz Kozieł jest radcą prawnym oraz partnerem w kancelarii Barta & Partners.

Cooka

taniec na linie

Tim Cook potwierdził zwiększenie inwestycji Apple’a w Chinach, pomimo napięć na linii USA–Chiny. Decyzja potwierdza strategiczne znaczenie największego rynku azjatyckiego dla giganta z Cupertino, nawet w dobie protekcjonizmu i presji ze strony administracji Donalda Trumpa.

Podczas październikowego spotkania z chińskim ministrem przemysłu Li

Lechengiem w Pekinie, Tim Cook zapewnił, że Apple będzie kontynuować rozwój działalności w Chinach. Choć szczegóły finansowe nie zostały ujawnione, chińskie władze potwierdziły, że

BALANSOWANIE MIĘDZY DWOMA MOCARSTWAMI NIE JEST ŁATWE.

rozmowy dotyczyły dalszej współpracy z lokalnymi dostawcami oraz rozbudowy obecności Apple w Państwie Środka.

„Chiny liczą, że Apple będzie dalej eksplorować potencjał lokalnego rynku i rozwijać się razem z chińskimi partnerami” – stwierdził minister Li, podkreślając, że rząd nadal tworzy przyjazne warunki dla zagranicznych firm. Ta deklaracja nie jest przypadkowa – w marcu 2025 r. Apple uruchomił fundusz energetyki odnawialnej w Chinach o warto-

ści 720 mln juanów (ok. 101 mln dol.), co jest częścią szerszej strategii „in China, for China”, czyli dostosowania lokalnej produkcji i usług do potrzeb chińskich konsumentów.

Sprzedaż iPhone’ów w Chinach

Według najnowszych danych firmy analitycznej IDC, w trzecim kwartale 2025 r. Apple sprzedał w Chinach 10,8 mln smartfonów, co oznacza wzrost o 0,6 proc. rok do roku. W kontekście ogólnego spadku popytu na smartfony w Chinach, Apple okazał się jedynym z trzech największych producentów, który zanotował jakikolwiek wzrost – przypisywany głównie premierze serii iPhone 17. Dodatkowo, 14 października 2025 r. Apple ogłosił, że iPhone Air (nowy model z obsługą eSIM) będzie dostępny do wstępnych zamówień w Chinach, po uzyskaniu zgody chińskiego ministerstwa na integrację z lokalnymi operatorami telekomunikacyjnymi.

Choć Apple rozwija działalność w Chinach, nie zapomina o presji ze strony

amerykańskiej administracji. W sierpniu 2025 r. Tim Cook wręczył prezydentowi Donaldowi Trumpowi specjalnie wykonaną tablicę z podziękowaniami za program „American Manufacturing”, przy okazji deklarując dodatkowe 100 mld dol. inwestycji w produkcję w USA.

To balansowanie między dwoma światowymi mocarstwami nie jest łatwe. Jak zauważają eksperci, firmy amerykańskie obawiają się zarówno represji ze strony Białego Domu za „zbyt bliską współpracę z Chinami”, jak i utraty zaufania w Pekinie, gdzie od lat budują wizerunek lojalnych partnerów lokalnych. Jak powiedział Xie Feng, ambasador Chin w USA: „Amerykańskie korporacje są dziś stabilizatorem stosunków chińsko-amerykańskich”.

Apple wciąż uzależniony

Pomimo prób dywersyfikacji produkcji, między innymi poprzez przenoszenie części montażu do Indii, Chiny pozostają kluczowym ogniwem łańcucha dostaw Apple’a. Tego samego tygodnia, w którym Cook odwiedzał Pekin, Sabih Khan – dyrektor operacyjny Apple’a – spotkał się z przedstawicielami Lens Technology, chińskiego dostawcy szkła do iPhone’ów i Apple Watch, z którym Apple współpracuje od 19 lat. Strategia Apple’a polega na elastycznej obecności globalnej: inwestycje w USA zadowalają polityków w Waszyngtonie, a rozwój w Chinach gwarantuje dostęp do rynku, infrastruktury i talentów. W obliczu długotrwałego konfliktu USA–Chiny, taki podejście może okazać się jedyną drogą do utrzymania stabilności biznesowej.

Leszek Ślazyk jest redaktorem naczelnym portalu Chiny24.com.

Książki dla analityków:

Nowy rok, nowe ambicje… i stary, dobrze znany analitykom problem – wezmę tylko jedną książkę – kończy się koszykiem pełnym tytułów, które „muszą” się przydać.

Sprawcą wspomnianego wyżej „zamieszania” jest wydawnictwo Helion, a konkretnie coroczna promocja, w której można się obkupić na jakiś czas do przodu. Poniżej kilka

edycja 2026

całkiem świeżych tytułów wraz z krótkim komentarzem, dlaczego wybrałem właśnie te z szerokiego portfolio Heliona Przy czym nie tyle rekomenduję, co polecam uwadze.

„Practical Business Process Modeling and Analysis” (Jim Sinur, Zbigniew Misiak, Bartosz Biernatowski) To jedna z książek, która rzuciła mi się w oczy z powodu aktualności poruszanego tematu i praktycznego podejścia do kwestii, z którą wielu analityków musi się dziś mierzyć. Pozycja ta zdaje się łączyć klasyczne podejście do modelowania procesów z perspektywą ich optymalizacji pod kątem transformacji cyfrowej i automatyzacji, w tym z wykorzystaniem AI. Na co liczę? Że nie będzie to kolejna książka „o ładnych diagramach”, tylko realne wsparcie w myśleniu o procesach jako o żywych mechanizmach organizacji z konkretnymi przykładami z projektów, pokazującymi co faktycznie działa, a co kończy się tylko dobrze wyglądającym BPMN-em. Co ważne, autorami są doświadczeni praktycy BPM.

„The Business Analyst’s Career Master Plan” (Jamie Champagne)

Jako analityk często myślę nie tylko o technikach pracy, ale też o tym, jak budować karierę, która ma sens i trwa, nie tylko przez kolejne projekty, ale przez lata rozwoju. Liczę zatem na to, że to nie jest „suchy przewodnik o narzędziach i kompetencjach”, ale praktyczny plan rozwoju zawodowego, który prowadzi od podstawowych zasad BA przez narzędzia, kompetencje miękkie, relacje z interesariuszami, aż po wybór specjalizacji i rozwój przywództwa. Szczególnie zależy mi też na tym, by sprawdzić jak Jamie Champagne próbuje spojrzeć w przyszłość tego zawodu, bo to właśnie takie wizje lubię konfrontować z własnymi obserwacjami i poglądami. Jak obiecuje opis, to książka, która może być nie tylko ściągą do pracy, ale też mapą, którą analityk może wykorzystać, żeby planować swoją drogę zawodową z większą pewnością siebie i jasnością kierunku.

”Agenci AI bazujący na modelach językowych” (Mariusz Hofman)

Tytułowi agenci to jeden z najbardziej dynamicznie rozwijających się tematów w obszarze technologii wspierających analizę biznesową i automatyzację, a jednocześnie wciąż niewiele jest w polskim języku materiałów, które wyjaśniają je w sposób praktyczny i biznesowy. Mariusz Hofman stawia

„Domain-Driven Transformation” (Carola Lilienthal, Henning Schwertner) Z kolei ta książka wydaje się ciekawa dla analityków właśnie teraz, bo dotyka jednego z najważniejszych wyzwań współczesnego IT i biznesu: transformacji przestarzałych systemów i ich dostosowania do zmieniającej się rzeczywistości technologicznej i organizacyjnej. Autorzy prezentują podejście oparte na Domain-Driven Transformation, które łączy analizę procesów biznesowych, wydzielanie bounded contexts i refaktoryzację z narzędziami takimi jak EventStorming, Domain Storytelling czy Modularity Maturity Index, obiecując kompletną strategię od stanu obecnego do stabilnej i gotowej na zmiany architektury. Liczę, że lektura będzie swego rodzaju odtrutką na inną książkę o DDD, którą wciąż „przetwarzam”, być może pozwalając spojrzeć na to samo zagadnienie z perspektywy innego autora i zweryfikować własne wnioski.

sobie za cel rozjaśnienie istoty takich agentów, pokazanie ich architektur, od prostych, wyspecjalizowanych implementacji po złożone systemy współdziałających modułów oraz praktycznych scenariuszy użycia w kontekście realnych potrzeb firm i organizacji. Dlaczego ta książka jest interesująca właśnie teraz? Bo w 2026 r. wielu analityków stoi przed pytaniem: „jak wykorzystać potencjał narzędzi AI w swojej pracy”, a agenci AI są jedną z najczęściej sugerowanych odpowiedzi na to pytanie, nie tylko jako technologiczna ciekawostka, ale jako realna metoda usprawnienia procesów i podejmowania decyzji w biznesie.

„Produkty oparte na sztucznej inteligencji” (Marily Nika) Nie jest to tylko ogólny przewodnik po sztucznej inteligencji, ale podręcznik projektowania, budowy i rozwijania produktów bazujących na AI i GenAI, od fazy ideacji, przez budowanie i testowanie, aż po zarządzanie zespołem produktowym i podejmowanie strategicznych decyzji w kontekście kompromisów technicznych i biznesowych. Na co można liczyć po lekturze? Przede wszystkim na lepsze rozumienie cyklu życia produktów AI i GenAI, listę narzędzi do pracy nad projektami wykorzystującymi modele językowe i agentowe, a także przykłady realnych zastosowań, które mogą inspirować analityków przy planowaniu własnych rozwiązań, szczególnie w czasach, gdy AI coraz bardziej wymaga świadomego podejścia projektowego od samego początku. Wierzę zresztą, że analitycy mają tutaj swoją rolę do odegrania, bo w tle jest też bardzo praktyczne pytanie: jak robić to mądrze, zanim organizacja „utopi” pierwsze (albo kolejne) miliony w źle zaprojektowanych inicjatywach AI?

„Certyfikowany inżynier wymagań” (Karolina Zmitrowicz) To jedyny tytuł z całej listy, który już zdążyłem poznać. I chociaż sięgałem po niego niekoniecznie w kontekście zdawania jakiegoś egzaminu, to i tak uważam ją za wartą swojego miejsca w zestawieniu. Dlaczego? Bo jest czymś więcej niż tylko zbiorem pytań i odpowiedzi przygotowujących do certyfikacji. Każdy rozdział nie ogranicza się tu do suchego testowania pamięci, bowiem autorka tłumaczy podstawowe koncepcje, zasady i mechanizmy stojące za technikami i narzędziami, dzięki czemu nawet osoby niezainteresowane formalną ścieżką certyfikacyjną mogą wynieść z tej lektury coś wartościowego. Książka dodaje ducha mocno teoretycznemu sylabusowi IREB CPRE.

„Myślenie systemowe dla programistów” (Diana Montalion) Ta książka trafiła na listę dlatego, że interesujące jest nie tylko jej przesłanie, ale przede wszystkim to, do kogo jest ono kierowane. Otóż bezpośrednio do programistów, pokazując, jakie spojrzenie na złożoność, nieprzewidywalność i systemy autorzy chcą dziś kształtować po stronie wytwórczej. Dla analityka to cenna okazja, by zajrzeć „na drugą stronę lustra” i zobaczyć, jak programistom tłumaczy się myślenie systemowe, nieliniowe zależności oraz konsekwencje decyzji projektowych w czasie. Taka perspektywa pozwala lepiej zrozumieć sposób myślenia zespołów technicznych, a w efekcie łatwiej budować wspólny język, lepsze modele i bardziej świadome rozwiązania, zamiast ograniczać się do własnych narzędzi i ram analitycznych.

„Postman w praktyce”

(Rafał Podraza) W tej książce moją uwagę przykuł praktyczny fokus na narzędziu Postman jako środowisku do testowania i eksplorowania REST API, co jest tematem coraz bardziej kluczowym dla analityków pracujących z systemami rozproszonymi i integracjami. Czego można się spodziewać, sądząc po spisie treści?

Przede wszystkim tego, że Postman będzie tu traktowany nie jako proste narzędzie do „odpytywania endpointów”, ale jako pełnoprawne wsparcie analizy technicznej. Opis książki sugeruje podejście nastawione na eksplorowanie kontraktów API, świadome testowanie scenariuszy biznesowych (w tym przypadków brzegowych), pracę z kolekcjami, środowiskami i automatyzacją, a także wykorzystywanie API jako źródła wiedzy o faktycznym zachowaniu systemu. Można się więc spodziewać materiału, który pomaga czytać API jak specyfikację, identyfikować niejawne reguły i zależności integracyjne oraz wcześniej wychwytywać ryzyka, jeszcze na etapie analizy, a nie dopiero podczas implementacji czy testów końcowych. Liczę na sporą dawkę wiedzy.

Paweł

Cyzman

jest starszym analitykiem biznesowym w firmie Kruk.

Świat algorytmów:

ciekawość

i determinacja

Kiedy naukowcy wstrzyknęli algorytmom ciekawość jako motor napędowy, rezultaty były spektakularne.

Wswojej książce z 1962 roku zatytułowanej „Profiles of the Future” brytyjski pisarz science fiction Arthur C. Clarke przedstawił trzy słynne prawa. Trzecie prawo jest popularne i często cytowane: „Odpowiednio zaawansowana technologia niewiele różni się od magii”. Każdy, kto pokazał ChatGPT swojej babci, wie, że Clarke miał rację. Pierwsze prawo jest mniej znane, ale bardzo trafne: „Kiedy wybitny naukowiec starej daty twierdzi, że coś jest możliwe, prawie na pewno ma rację. Natomiast kiedy twierdzi, że coś jest niemożliwe, najprawdopodobniej się myli”. Historia pełna jest takich pomyłek – od samolotów („przecież są cięższe od powietrza”), po komputery („światowe zapotrzebowanie na komputery? Może pięć sztuk”). Jednak za najbardziej inspirujące uważam drugie prawo Clarke’a: „Jedynym sposobem odkrycia granic możliwości jest przekroczenie ich o krok i wejście w obszar niemożliwości”. To nie tylko ładnie brzmiące słowa. To, co „nieznane”, znajdujące się tuż

TYLKO NIEKTÓRE

ALGORYTMY MAJĄ CHARAKTER DETERMINISTYCZNY.

poza granicami „możliwego”, jest paliwem napędowym naszej ciekawości – zarówno w życiu, jak i w biznesie.

Czy taką ciekawość można skodyfikować i przedstawić za pomocą algorytmów? Najwyraźniej tak. Może pamiętasz definicję ciekawości zaczerpniętą z dziedziny sztucznej inteligencji (…) – ciekawość to „błąd w przewidywaniu konsekwencji własnych działań”. Mówiąc po ludzku, ciekawość algorytmu pojawia się, gdy nie ma on pojęcia, jakie konsekwencje może mieć dane działanie. Jeśli mimo to decyduje się podjąć wyzwanie i sprawdzić, co się wyda-

rzy, jest to działanie wynikające z ciekawości. Brzmi znajomo? Dokładnie tak działają dzieci. I najlepsi przedsiębiorcy. Jedynie pasja poszukiwań pozwala zboczyć z utartego szlaku.

W 2021 roku Queensland University of Technology wraz z Massachusetts Institute of Technology zainicjowały serię webinarów poświęconych cechom przedsiębiorstwa przyszłości. „Przedsiębiorstwo przyszłości” to termin, który ukuliśmy wraz z moimi współpracownikami, próbując opisać firmy, które jeszcze nie istnieją, ale powinny. Jako specjalista do spraw informatyki i zarządzania zostałem zaproszony do udziału w jednym z webinarów, gdzie moim sparingpartnerem był profesor Steven Eppinger z MIT, ekspert w dziedzinie inżynierii i zarządzania projektami. Dyskutowaliśmy o koncepcji ciekawości jako DNA przedsiębiorstwa przyszłości. Obaj doszliśmy do tego samego wniosku: organizacje odnoszące sukcesy często podejmują pozornie bezcelowe, ale głęboko sensowne działania poszukiwawcze. To jak błądzenie po lesie – wydaje się, że chodzisz w kółko, ale czasem trafiasz na polanę, o której istnieniu nikt nie wiedział. Stwierdziliśmy również, że nawet drobny proces może przynieść ogromne korzyści, a niezbędne jest połączenie myślenia projektowego z brutalną egzekucją. Na koniec podkreśliliśmy znaczenie ciągłej refleksji, która pomaga organizacjom wyciągać wnioski z poszukiwań i nieustannie doskonalić sposób działania.

Ogólny przekaz był prosty. Ciekawość wynika z chęci odkrywania nieznanego. I tu właśnie algorytmy stają się naszymi przewodnikami. Podobnie jak Max Hawkins, który oddał się we władanie algorytmów prowadzących go w nieznane miejsca, każda firma lub osoba może zaryzykować ten sam eksperyment. Czy to przyniesie lepsze

wyniki biznesowe lub lepsze doświadczenia życiowe? Nie mamy bladego pojęcia. Na tym właśnie polega cała zabawa. Dzieci uwielbiają odkrywać świat. Zadają pytania, uczą się metodą prób i błędów, nieustannie nabywają nowe umiejętności. Co je do tego skłania? Z pewnością nie KPI ani premie kwartalne. Nie interesują ich jeszcze wynagrodzenie ani zysk, symbole statusu społecznego czy opinia na LinkedIn. Ich zachowanie wynika z wrodzonej potrzeby poznawania. Ciekawość pozwala im zdobywać doświadczenia jak Pokemony – nigdy nie wiadomo, które okażą się przydatne w późniejszym życiu. Mamy liczne dowody na to, że ciekawość jest najlepszym predyktorem sukcesu w biznesie. Wiele startupów, które są odpowiednikiem dzieci w świecie biznesu, działa w oparciu o szalone hipotezy. Zadają pytania, na które nikt nie zna odpowiedzi: czy ludzie zapłacą za nocleg w domu nieznajomego? Czy kierowcy będą wozić obcych za drobną opłatą? – i wyruszają w nieznane. Dzięki wsparciu inwestorów venture capital, którzy pełnią rolę pobłażliwych rodziców, nie przejmują się na razie zyskami. Mają czas na zabawę, eksplorację, potykanie się i wstawanie. Pomysł, że algorytmy mogą mieć podobną ciekawość, jest sprzeczny z intuicją. Od maszyn oczekujemy działań przewidywalnych i powtarzalnych. W informatyce takie zachowanie określa się mianem deterministycznego. Włączasz blender, kręci się. Wciskasz enter, komputer wykonuje polecenie. Proste. Jednak jak przekonaliśmy się w niniejszym rozdziale, to myślenie jest przestarzałe jak kaseta magnetofonowa z grami na Atari. Tylko niektóre algorytmy mają charakter deterministyczny. Większość z nich, zwłaszcza tych najciekawszych, może wprowadzać element losowości i robi to z premedytacją. Wykazują wtedy zachowania zaskakujące nawet dla

swoich twórców. To niewiarygodnie skuteczna metoda na wprowadzenie nowych pomysłów, zwłaszcza na masową skalę. Być może przeceniamy zdolność ludzi do tworzenia prawdziwie nowych rozwiązań, zwłaszcza jeśli losowe zmiany wprowadzane przez algorytmy czasem dają lepsze efekty.

Naukowcy zajmujący się sztuczną inteligencją postanowili to przetestować. Nadali algorytmowi ciekawość jako wrodzoną siłę napędową – a technicznie rzecz biorąc, mechanizm nagradzający – i zlecono mu rozegranie dwóch gier komputerowych: VizDoom i Super Mario Bros. VizDoom to egzemplarz recenzencki klasycznego Dooma, strzelanki rodem z lat 90., w której gracz porusza się po bazie kosmicznej, odstrzeliwując potwory. VizDoom został stworzony wyłącznie jako poligon doświadczalny dla algorytmów sztucznej inteligencji. Super Mario Bros. to kultowa gra platformowa, w której wąsaty hydraulik Mario skacze po grzybach, pokonuje przeszkody, walczy z wrogami oraz zbiera monety i power-upy.

Kiedy naukowcy wstrzyknęli algorytmom ciekawość jako motor napędowy, rezultaty były spektakularne. Algorytm grający w VizDoom rozpoczął metodyczną eksplorację bazy kosmicznej. Nie poruszał się losowo jak podchmielony student. Jego działania miały wyraźny cel – chciał zobaczyć, co jest za rogiem. Zamiast biegać w kółko jak mucha w słoiku, algorytm systematycznie mapował całą bazę. I to pomimo faktu, że gra nie przewidywała żadnych punktów za taką turystykę kosmiczną. Jedynym motorem działania była czysta, nienasycona ciekawość.

W grze Super Mario Bros. algorytm błyskawicznie nauczył się, jak przejść znaczną część poziomu. Nie potrzebował marchewki ani kija. Podobnie jak w przypadku VizDooma motywowała go wyłącznie ciekawość. Ale potem trafił na ścianę. Na jednym z etapów gry znajduje się przepaść, którą można pokonać jedynie poprzez perfekcyjną sekwencję od piętnastu do dwudziestu skoków i ruchów. Algorytm kierowany samą ciekawością nie był w stanie pokonać tej przeszkody. Zabrakło mu tego, co my nazywamy uporem czy determinacją. Tutaj potrzebny był Mario z jasno określonym celem – dostać się na drugą stronę za wszelką cenę. Ale takiego algorytmu w tym eksperymencie nie było, więc partia została zakończona. Idealna metafora świata biznesu, prawda? Ciekawość zaprowadzi cię daleko, ale czasem potrzebujesz też ślepej determinacji, skupienia na jednym celu, żeby przeskoczyć przepaść. n

Logika

myślenia

strategicznego

Kiedy architektura organizacji jest mało elastyczna, to w połączeniu z utrwalonymi mapami poznawczymi i trwałymi rutynami staje się takim ograniczeniem procesów adaptacyjnych, że w praktyce wiele organizacji woli zginąć niż się zmienić.

Wświecie biznesu mamy coraz lepsze technologie. Wyrafinowane produkty i usługi. Wykwalifikowanych pracowników. Skomplikowane struktury. Wielkie bazy danych i algorytmy decyzyjne. Ogromny repertuar metod i technik zarządzania. Nie mamy zaś więcej tego, czego potrzeba najbardziej – myślenia strategicznego. Możliwe nawet, że mamy go coraz mniej, bo wielu menedżerów ma poczucie, że niezwykle trudno jest nadać sens temu, co się dzieje w otoczeniu organizacji. Głównym tego powodem jest tempo i złożoność

WIEMY, JAK SOBIE RADZIĆ ZE ZŁOŻONOŚCIĄ I NIEPEWNOŚCIĄ.

zmian, których lista jest prawie nieskończona. Na szczęście wiemy, jak sobie radzić ze złożonością i niepewnością – trzeba myśleć strategicznie. Logika tego procesu jest dosyć prosta koncepcyjnie, co nie oznacza, że łatwa w realizacji.

Po pierwsze, trzeba zrozumieć, co i jak w otoczeniu organizacji się naprawdę zmienia. Po drugie, trzeba umieć nazwać kluczowe wyzwania, które te zmiany tworzą dla naszej organizacji. Bo strategia w praktyce

to nie cele, aspiracje i marzenia. Tak, one też są ważne, ale kluczowe jest określenie i zrozumienie wyzwania lub wyzwań, które tworzą zmiany. Bo to wyzwania są przyczyną problemów, jak i szans strategicznych. Po trzecie, trzeba umieć zaadresować te wyzwania. I nie ma w tym procesie magii ani tajemnicy. Jest za to skumulowana wiedza teoretyczna i wypracowana praktyka, która podpowiada, jak to dobrze robić. Oczywiście, że zawsze istnieje margines błędów. Zawsze istnieje możliwość, że zabraknie nam danych lub niewłaściwie odczytamy trendy oraz słabe sygnały z otoczenia. Zawsze emocje mogą nam zaburzyć prawidłową interpretację zebranych danych i informacji. Zawsze może nam zabraknąć wyobraźni, aby nadać obrazowi otoczenia sens i sformułować główne wyzwania. Zawsze może zabraknąć woli, motywacji i kompetencji, aby zaadresować te wyzwania i dokonać skutecznej adaptacji organizacji. Nie oznacza to jednak, że nie wiemy jak sobie radzić ze złożonością i niepewnością wokół nas.

co i jak w otoczeniu organizacji się zmienia, a to wymaga przede wszystkim analizy trendów i słabych sygnałów. Trendy są względnie trwałe, kształtowane latami i definiują centralne tendencje zmian. Trzeba umieć je rozpoznać i zinterpretować kierunek ich ewolucji i wpływ na naszą przyszłość. Słabe sygnały informują z kolei o zmianach wykluwających się na peryferiach naszego otoczenia. Trudniej je zauważyć i interpretować niż trendy. Ich nośnikami są najczęściej trochę nietypowe organizacje, trochę inni odbiorcy i dostawcy, nieoczywiste zmiany kulturowe lub technologiczne. Rozpoznanie słabych sygnałów wymaga wysiłku i wyobraźni, nietypowych technik analizy, wyobrażenia sobie sytuacji, zdarzeń i relacji, których inni nawet nie rozważają. Analizy megatrendów i słabych sygnałów służą do określenia jednej kluczowej dla dobrej strategii idei – kluczowych wyzwań, z którymi organizacja musi sobie poradzić. I menedżerowie, stając w obliczu wyzwań w otoczeniu powinni myśleć o nich tak jak surferzy o nadchodzących falach. Fal nie da się specjalnie zmienić, ale można ich unikać lub odważnie je wykorzystać.

Mapy poznawcze i rutyny działania menedżerów

Trendy i słabe sygnały

Punktem wyjścia myślenia strategicznego jest zrozumienie,

Drugim obszarem myślenia strategicznego są poznawcze oraz strukturalne uwarunkowania zarządzania organizacją: mapy poznawcze menedżerów i innych interesariuszy (np. pracowników, dostawców i odbiorców), stosowane reguły i heurystyki decyzyjne, oraz architektura samej organizacji: główne komponenty i powiązania. Mapy poznawcze są głównie produktem historii organizacji i przyjętych rozwiązań. Stanowią zbiór założeń i przekonań o tym, które elementy rzeczywistości decydenci uznają za najważniejsze. Można powiedzieć, że stanowią menedżerską teorię zarządzania, swoistą dla danej organizacji. Niektóre z tych założeń i przekonań są jawne i oczywiste dla uczestników organizacji, inne są ukryte i niełatwe do diagnozy.

Fot.
Adobe Stock, archiwum

ROZPOZNANIE SŁABYCH SYGNAŁÓW WYMAGA WYSIŁKU I WYOBRAŹNI.

Bez względu jednak na to jak powstały i jaki mają charakter, z czasem stają się coraz trudniejsze do zmiany.

elastyczna, to w połączeniu z utrwalonymi mapami poznawczymi i trwałymi rutynami organizacji właściwie staje się takim ograniczeniem procesów adaptacyjnych, iż w praktyce wiele organizacji woli zginąć niż się zmienić.

Drugim kluczowym elementem są rutyny działania i reguły podejmowania decyzji organizacyjnych i tutaj obserwujemy w praktyce ogromną różnorodność rozwiązań. W niektórych organizacjach mamy wysoki poziom centralizacji i decyzje podejmuje wąska grupa zarządu; w innych proces ten jest zdecentralizowany i organizacje wykorzystują zbiorową mądrość i doświadczenie swoich pracowników. Czasami decyzje są podejmowane w skomplikowanych i formalnych procesach wymagających stosowania starannych procedur zbierania danych, opracowania wariantów, testowania ich skuteczności przed wyborem, zaś w innych przypadkach wiele decyzji jest podejmowanych nieomal w locie. Zawsze jednak, jak wiemy z badań empirycznych, bardzo istotną rolę odgrywają heurystyki czyli pewne uproszczone reguły, którymi posługują się decydenci starając się zapanować nad złożonością, dynamiką i presją czasu. Raz przyjęta i utrwalona mapa poznawcza wraz z rutynami, regułami i heurystykami podejmowania decyzji wyznacza kierunek, sposób myślenia i działania menedżerów i pracowników.

Uwarunkowania tworzone przez otoczenie, proces zarządzania i organizację są osadzone w czasie co można metaforycznie przedstawić jako wędrówkę organizacji po krzywej o kształcie litery ‘S’. Najpierw jest przeszłość. Jej typowym produktem jest wzrost i sukces organizacji, ale także tworzy ona mapy poznawcze menedżerów i rutyny organizacyjne stanowiące kotwicę możliwości adaptacji organizacji w czasie teraźniejszym.

Architektura organizacji

Ostatnim kluczowym elementem naszej układanki uwarunkowań organizacyjnych jest architektura organizacji: jej podsystemy i relacje pomiędzy nimi. Architektura może sprzyjać elastyczności reakcji organizacyjnych, ale najczęściej w praktyce buduje stabilność a nawet inercję. I dlatego to właśnie architektura organizacji jest najsłabiej rozumianym i jednocześnie najbardziej ograniczającym uwarunkowaniem procesów adaptacji. Gdy jest mało

Dlatego najczęściej gdy organizacje osiągają plateau krzywej swojego rozwoju, próbują zachować to, co osiągnęły i ewentualnie dokonać minimalnych adaptacji pozwalających na dalszy wzrost. To jest teraźniejszość zarządzania – czas korzystania z szans i zmian w otoczeniu. Czas dostosowań i usprawnień, ale również iluzji decyzyjnych i rosnącej inercji architektury organizacyjnej. Tu i teraz odbywa się gra o wyniki, ale również o zrozumienie możliwych przyszłości kształtowanych ewolucją otoczenia oraz menedżerskimi eksperymentami i projektami. Przyszłość jest szczególna i trochę inna w swojej logice, bowiem jej tworzenie wymaga od menedżerów decyzji prawdziwie strategicznych. Metaforycznie oznacza to podjęcie decyzji pozwalających na skok na nową krzywą S. Taki przeskok wymaga prawie zawsze akceptacji podwyższonego ryzyka, modyfikacji map poznawczych i reguł działania oraz przebudowy architektury organizacji.

Nie przegap dla Twojego informacji ważnych biznesu!

Masz konto na CRN.pl?

Włącz wysyłkę newslettera CRN na stronie CRN.pl/prenumerata (wymagane wcześniejsze zalogowanie na CRN.pl/logowanie).

Nie masz jeszcze konta na CRN.pl?

Załóż je na stronie CRN.pl/rejestracja

Fragment książki: „Myśl strategicznie!”

prof. Krzysztof

Obłój

jest wykładowcą Akademii Leona Koźmińskiego i autorem książki „Myśl strategicznie!”.

prognoz

na najbliższe lata

Od dłuższego czasu chodziło mi po głowie stworzenie listy prognoz związanych z marketingiem, biznesem, tworzeniem produktów i technologią. Bez hype’u. Bez emotikonek. Bez sci-fi. Bardziej z perspektywy praktyka, który buduje produkty w tej nowej rzeczywistości. No to zaczynamy…

1 Język angielski stanie się najpopularniejszym językiem programowania

Vibe coding to prawdziwa rewolucja, która napędzi mikroprzedsiębiorczość, ale też sprawi, że pojawią się jednoosobowe firmy generujące dziesiątki, a z czasem nawet setki milionów przychodu. Już dziś według GitHub Copilot Survey ponad 55 proc. programistów deklaruje, że AI pisze im znaczącą część kodu, a w najbardziej produktywnych zespołach odsetek ten wynosi nawet 70 proc.

2

Otwartość na zmianę będzie kluczową wygranychkompetencjątransformacji AI

SZCZEGÓLNA KRYTYKA

DOTKNIE TECH-MILIARDERÓW.

Sztuczna inteligencja dla wielu będzie narzędziem wynoszącym pracę na wyższy poziom. Niestety sporo firm potraktuje AI jako pretekst do zwolnień i krótkoterminowych oszczędności. Długoterminowo to gwarancja pozostania w tyle. Wierzę, że AI stworzy więcej szans i miejsc pracy, niż zabierze – problemem będzie transformacja. McKinsey szacuje, że AI może dodać globalnej gospodarce nawet 4,4 bln dol. rocznie, ale tylko przy masowym reskillingu, nie przy redukcjach.

3 Najbliższe lata będą bardzo dobre dla produktowców

Popularyzacja platform no-code oraz rozwiązań AI umożliwiających tworzenie aplikacji dosłownie z telefonu, bez pisania linijki kodu, radykalnie obniża próg wejścia. Gartner prognozuje, że do 2026 r. 80 proc. nowych aplikacji będzie powstawać z użyciem low-code/no-code (według Gartnera).

4

Jedną z najlepszych inwestycji dla programistów będzie rozwój kompetencji produktowych

Migracja w stronę roli product-engineera stanie się naturalnym krokiem dla tych, którzy chcą zachować przewagę w świecie AI.

5

Programowanie coraz częściej będzie odbywać się w tandemach: 1 programista + 1 produktowiec

Model wielu programistów i jednego produktowca pozostanie popularny, ale będzie tracił na znaczeniu. Dwuosobowe zespoły są dziś w stanie robić bardzo dużo, bardzo szybko. Przykład Chatbeat: MVP w kilka dni, beta w kilka tygodni, a po kilku miesiącach ponad 100 klientów i ~600k PLN ARR, czyli lepszy start niż 15 lat temu w przypadku Brand24.

6

Rosnąca dostępność AI zwiększy wagę czysto ludzkich umiejętności

Łatwość generowania gotowych odpowiedzi może prowadzić do zaniku samodzielnego myślenia. Będziemy obserwować wysyp projektów „technicznie poprawnych, kreatywnie meh”. Dobrym przykładem są reklamy, gdzie coraz więcej kampanii bez dobrego pomysłu, próbujących wyróżnić się „efektami specjalnymi” stworzonymi przy użyciu AI.

7 Rekrutacja coraz częściej będzie odbywać się w dwóch trybach

Z jednej strony zadania wykonywane bez wsparcia AI, z drugiej osobna weryfikacja umiejętności pracy z AI. Najlepsze osoby będą łączyć oba te obszary.

8

Wzrośnie niechęć do AI

Zalew „AI slop” będzie to napędzał. To stworzy jeszcze większą przestrzeń na

eksponowanie ludzkiego wymiaru w biznesie. Firmy coraz częściej będą podkreślać, że w obsłudze klienta rozmawiasz z prawdziwym człowiekiem – już dziś widać pierwsze kampanie oparte na tym przekazie.

9

Najsilniejsza niechęć do AI pojawi się u bardzo młodych osób

Często z powodów ideologicznych. Brak wiary w universal basic income (w który też nie wierzę) i obawa przed dalszym wzrostem nierówności są zrozumiałe. Paradoksalnie ta niechęć stworzy furtkę dla młodych, którzy będą bardziej otwarci na AI – np. dzieci uczących się vibe-codingu już w szkole. Istnieją już programy edukacyjne, gdzie 11–12-latkowie tworzą własne aplikacje i gry z pomocą AI.

10 Narastać będzie niechęć do miliarderów i bardzo bogatych ludzi

Kolejne pokolenia są relatywnie biedniejsze niż poprzednie w tym samym wieku, podczas gdy liczba miliarderów rośnie. Szczególna krytyka dotknie tech-miliarderów, którzy coraz jawniej próbują wpływać na życie społeczne i polityczne.

11

W treściach pojawią się niewidoczne watermarki AI Ich celem będzie wyróżnianie treści faktycznie tworzonych przez ludzi. Nad takimi standardami pracują Adobe, Google, Meta i producenci sprzętu fotograficznego w ramach Content Authenticity Initiative. Możliwe, że przy zdjęciach i wideo pojawią się checkmarki informujące, czy treść była modyfikowana przez AI.

12

Ruch z modeli AI stanie się jednym z kluczowych źródeł ruchu

Najpierw drugim po organicznym Google, a w latach 2027/2028 może wyprzedzić klasyczne SEO. Widzimy to w ruchu na naszej domenie, ale też na domenach klientów Brand24.

13

Powstanie ekosystem

marketingu w modelach AI

Agencje, narzędzia i wyspecjalizowane zespoły – będą działać dokładnie tak, jak to jest obecnie w przypadku social mediów. Firmy, które zbudują tu kompetencje i autorytet wcześnie, zyskają ogromną przewagę. Gdybym dziś prowadził agencję, tworzyłbym dział nastawiony ekskluzywnie na marketing w modelach AI, a być może nawet stawiał osobną markę na związane z nimi potrzeby.

14

YouTube jeszcze bardziej zyska na znaczeniu

Dobry materiał wideo dużo trudniej masowo podrobić AI-em niż tekst, audio czy obraz. Mimo narzędzi typu Heygen, AI będzie rozprzestrzeniać się w wideo wolniej niż w w przypadku tekstów.

15

AI stanie się głównym interfejsem do narzędzi

Klienci będą oczekiwać dostępu do danych z Google Analytics, Brand24, Semrush, Hotjar, Heap itd. bezpośrednio z poziomu modeli AI (ChatGPT, Claude, Gemini). Przestaną uczyć się narzędzi – wystarczy integracja. To będzie realizowane przez serwery MCP (właśnie uruchomiliśmy integrację ChatGPT z Brand24).

16

Chat zastąpi onboarding

Nawet użytkownicy logujący się bezpośrednio do narzędzi coraz rzadziej będą chcieli się ich uczyć. Oczekiwanie będzie proste: „zapytam czata, a on przeprowadzi mnie za rękę”. Coraz więcej narzędzi będzie oferować AI asytentów podpowiadających, gdzie co znaleźć w narzędziach.

Skutki uboczne inflacji inwestycji

Przez ostatnie kilka lat mieliśmy na polskim rynku zbyt wiele funduszy i zbyt dużo pieniędzy.

Pewien założyciel startupu zgłosił się do mnie z prośbą o pomoc w pozyskaniu kapitału od funduszy VC. Zamiast przyklaśnięcia i oferty otrzymał informację, żeby dał sobie spokój z inwestorami i skupił się na zarabianiu pieniędzy… Reakcja okazała się dość nietuzinkowa: zdziwienie sięgnęło zenitu! To była podręcznikowa ilustracja sformułowania „zamurowało go”. Zapytałem dociekliwie, co spowodowało u niego tak silną konsternację. Stwierdził, że pierwszy raz usłyszał od kogoś z VC, żeby dał sobie spokój z funduszami…

Z mojej strony nie była to forma jakiejś mniej lub bardziej wyszukanej kokieterii, a tym bardziej tzw. reverse psychology, żeby bardziej zachęcić do współpracy. Jedną z kluczowych lekcji, jaką wyciągnąłem siedząc przez dekadę w inwestycjach jest to, że fundusze VC nie są dla każdego. Z założenia powstają, by wspierać te najlepsze spółki o największym potencjale. Tylko wówczas ten model biznesowy działa i to dla każdej ze stron. Pozostali powinni zdać sobie sprawę, że dla nich uganianie się za inwestorami będzie stratą czasu. Zwłaszcza że w wielu przypadkach staje się to celem samym w sobie i zamiast budować biznes, CEO nieustannie biega za funduszami. Zbierają zamiast zarabiać, marząc o spektakularnych sukcesach, a to logika zupełnie pozbawiona sensu.

Zastanawiałem się, dlaczego tak się dzieje. No cóż, wydaje się, że z jednej strony to kwestia ludzkiej natury, tj. tego, iż każdy woli się uważać za najlepszego, a co najmniej za wyjątkowego i ciężko jest mu zaakceptować przeciętność.

Z drugiej – to wina systemu. Przez ostatnie kilka lat mieliśmy na polskim rynku zbyt wiele funduszy i zbyt dużo pieniędzy. Środki musiały być wydawane, bo tego wymagały instytucje publiczne poprzez umowy zawarte z VC. W efekcie kapitał trafiał do przeciętnych spółek, które na prywatnym rynku nigdy by go nie otrzymały. Te z kolei uwierzyły, że to kierunek dla nich i… przez to wiele z nich zniszczyło bezrefleksyjnie własne biznesy, zapominając o klientach. Taki

ZARABIAJCIE, A NIE ZBIERAJCIE…

efekt uboczny budowania dojrzałego ekosystemu na środkach publicznych. Konkluzja jest taka, że nie ma nic złego w tym, że nasz startup nie ma potencjału do bycia jednorożcem. Nie każdy musi być najlepszy. Bycie dobrym w swojej niszy może przynieść bardzo wiele satysfakcji i korzyści, tylko trzeba umiejętnie budować biznes, na którym i tak można zarobić kilka milionów złotych. Zarabiajcie więc kasę, zamiast uganiać się za inwestorami. Paradoksalnie, jeśli zaczniecie to robić, w pewnym momencie oni sami zaczną uganiać się za wami…

Szymon

Janiak

Autor jest współtwórcą i partnerem zarządzającym funduszu venture capital Czysta3.vc

Michał Sadowski
Autor jest założycielem i CEO Brand24.

Źródło: Cube Research dla EY, badanie „Jak polskie firmy wdrażają AI”, trzecia edycja (IV kw. 2025 r.)

Puls branży IT

Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.

Obawy o bezpieczeństwo hamują wdrożenia AI

Z danych EY wynika, że 96 proc. średnich i dużych firm w Polsce, w procesie wdrażania narzędzi AI, analizuje kwestie związane z cyberbezpieczeństwem. W tym 60 proc. respondentów zapewnia, że prowadzone w tym celu analizy są szczegółowe. To oznacza, że przedsiębiorcy wykazują się wysoką świadomością odnośnie do ryzyka, z jakim wiążą się takie projekty. Polskie firmy najczęściej reagują na ryzyko wdrożeń AI zwiększaniem świadomości i kompetencji pracowników. Zwykle aktualizują polityki bezpieczeństwa i organizują szkolenia (38 proc. organizacji). Natomiast 34 proc. wprowadziło rozwiązania narzędziowe poprawiające bezpieczeństwo. Z kolei ponad 1/5 połączyła oba podejścia, podczas gdy tylko 2 proc. twierdzi, że nie zrobiło nic. Analitycy EY stwierdzili ponadto, że coraz więcej średnich i dużych organizacji na polskim rynku wdraża politykę korzystania z AI (53 proc. w 2025 r. wobec 40 proc. w 2023 r.), obejmującą wewnętrzne i publiczne – ogólnodostępne systemy. Natomiast 30 proc. ma politykę dotyczącą jedynie publicznych narzędzi. Jednocześnie obawy o bezpieczeństwo okazują się większym problemem niż trudności techniczne. Co ciekawe, niewielu przedsiębiorców ma wątpliwości co do biznesowej zasadności tego rodzaju inwestycji.

Co stanowiło największe bariery w podjęciu decyzji o wprowadzeniu w firmie rozwiązań z zakresu sztucznej inteligencji?

Obawy o bezpieczeństwo (w tym danych, cyberbezpieczeństwo)

Trudności technologiczne

Ograniczenia regulacyjne/niepewność regulacyjna

Trudności procesowe lub organizacyjne

Zbyt wysokie koszty

Brak pewności, co do jakości rezultatów/dojrzałościotrzymanych technologii

Brak dostępu do odpowiednich ekspertów

Brak pewności co do zasadności inwestycji biznesowej

Trudności z wykorzystaniem danych (np. z ich dostępnością, jakością)

Polski rynek cyberbezpieczeństwa na dużym plusie

Analitycy Contextu ustalili, że rynek cyberbezpieczeństwa w Europie odnotował wyjątkowo wysoki wzrost. Szczególnie wyróżniła się Polska, gdzie odnotowano skok na poziomie 59  proc. Co do segmentów rynku, to kluczowym czynnikiem wzrostu na kontynencie było bezpieczeństwo danych (+13 proc. r/r). W tym przypadku Polska okazała się europejskim liderem z wydatkami na poziomie +168 proc., do czego przyczyniły się rządowe i unijne programy finansowania tego rodzaju inwestycji. Generalnie wydatki w tym obszarze w Europie były napędzane przez wymagania regulacyjne oraz potrzebę zabezpieczania danych, wykorzystywanych do trenowania modeli AI. Największą kategorią na rynku pozostało bezpieczeństwo sieci (+7 proc. r/r). Z kolei ochrona infrastruktury oraz zarządzanie tożsamością i dostępem skorzystały na wymaganiach NIS 2 i przejściu organizacji na Zero-Trust. Cały europejski rynek cyberbezpieczeństwa odnotował w  2025 r. wzrost na poziomie 5,2 proc., z tym że po solidnej dynamice w I półroczu, III kw. i IV kw. były na lekkim minusie (-3 proc. i -1,8 proc.). Wynik ten pociągnęły w dół spadki na największych rynkach: w Wielkiej Brytanii oraz Niemczech.

Wzrost na rynku cyberbezpieczeństwa w Europie w 2025 r. w wybranych kategoriach

2025 r. wobec 2024 r. (proc.)

Bezpieczeństwo danych 13

Ochrona infrastruktury 10

Zarządzanie tożsamością i dostępem 9

Bezpieczeństwo sieci 7

Cały rynek 5,2

Globalny rynek oprogramowania dla przedsiębiorstw czeka ponad dwukrotny wzrost w najbliższych latach – z 341,4 mld dol. w 2024 r. do 762,1 mld dol. do 2031 r. – wynika z danych Futurum Group. Średnio rocznie (CAGR) wydatki powinny zwiększać się o 12,1 proc. Z tym, że „rynek oprogramowania dla przedsiębiorstw nie jest już monolitem, gdzie rosnąca fala unosi wszystkie łodzie” – twierdzi Keith Kirkpatrick, wiceprezes Futurum Group. Otóż dane wskazują na istotną zmianę struktury popytu – kapitał przepływa od oprogramowania opartego na stanowi-

oprogramowania

skach do infrastruktury sztucznej inteligencji. Wzrost będą napędzać zwłaszcza systemy agentowe. Ta zmiana jest widoczna szczególnie w segmencie CRM, który do 2031 r. ma osiągnąć wartość 248,7 mld dol., tj. prawie dwukrotnie

większą niż ERP (140 mld dol.). Dobiegł też końca „Boom na Zoom” – widać nasycenie rozwiązaniami do współpracy. Inny istotny trend to ekspansja SaaS. Wdrożenia chmurowe mają przejąć aż 86 proc. rynku software’u dla firm do 2031 r.

Prognozowany na 2026 rok wzrost na rynku oprogramowania dla przedsiębiorstw w poszczególnych segmentach

Aplikacje specyficzne dla branży

Usługi komunikacyjne

Niezły rok dla europejskiego rynku IT Wydatki na suwerenną chmurę IaaS w poszczególnych regionach (w mln dol.) Region 20252026*2027*

Globalne wydatki na IT zwiększą się o 7,8 proc. w 2026 r., osiągając poziom 5,6 biliona dol., zaś Europa może spodziewać się wzrostu o 6,3 proc. (do kwoty 1,75  bln dol.) – prognozuje Forrester. Coraz wyższe nakłady odzwierciedlają zwłaszcza inwestycje w AI i jej wdrażanie w organizacjach z kilku kluczowych branż. Przewiduje się, że inwestycje w AI będą napędzać wydatki w sektorze obronnym, finansowym, opiece zdrowotnej, przemyśle i handlu detalicznym. W sztuczną inteligencję mają też nadal inwestować branże, w których złożoność, koszty i konkurencja są wysokie. Co istotne, ponad 70 proc. wzrostu wydatków na tę technologię w latach 2025–2030 będzie wynikać z inwestycji przedsiębiorstw i  rządów w sprzęt komputerowy i oprogramowanie. Ten sektor rynku odnotuje najwyższą dynamikę wydatków w 2026 r. (+16,8 proc.), ze względu na rosnące zapotrzebowanie na serwery AI. Co więcej, komputery wyspecjalizowane w sztucznej inteligencji – zaliczając do nich również serwery AI – będą generować ponad 80 proc. wydatków na sprzęt komputerowy do 2030 r. – w porównaniu z 43 proc. w  roku 2024. Chmura i AI powiększą się dwukrotnie szybciej niż cały rynek oprogramowania, który ma w tym roku osiągnąć dynamikę rzędu 11,5 proc.

Globalnie na sile przybiera tzw. geopatriacja z chmury. Wraz ze wzrostem napięć geopolitycznych, organizacje spoza USA i Chin inwestują więcej w suwerenną chmurę IaaS, aby uzyskać niezależność cyfrową i technologiczną. Z kolei rządy chcą w ten sposób spełnić wymogi regulacyjne oraz bezpieczeństwa narodowego. Gartner szacuje, iż wydatki na suwerenne usługi IaaS będą skutkować przeniesieniem 20 proc. obecnych obciążeń z platform globalnych koncernów chmurowych do lokalnych graczy. Tym samym zyskają oni udziały w rynku IaaS, a hiperskalerzy stają w obliczu rosnącej presji. Przy czym Europa ma w przyszłym roku prześcignąć Amerykę Północną pod względem wydatków na suwerenne rozwiązania IaaS. Mają one wynieść 23,1 mld dol., co oznaczałoby kwotę ponad trzy razy większą niż rezultat uzyskany w 2025 r. (6,9 mld dol.). W 2026 r. wzrost rok do roku powinien sięgnąć 83 proc. Zdaniem ekspertów rządy pozostaną głównymi nabywcami suwerennych usług w chmurze. Ponadto chętnie będą w nie inwestować regulowane branże i sektory infrastruktury krytycznej, takie jak energetyka, usługi komunalne, telekomunikacja. Trzykrotny wzrost suwerennej chmury w Europie?

Chiny (region) 375394737958544

Ameryka Północna 126671639421127 Europa 68681258723118

Azja/Pacyfik rynki dojrzałe 85115933155

Japonia (region) 5199321816

rynki wschodzące 4307551326

Łacińska 278506946

Bliski Wschód i Północna Afryka 132250515 Afryka

Co miesiąc sprawdzamy,

biznesowym

portalu społecznościowym

Dawid Paczka, CEO emiteo, odniósł się do tego, że „w pewnym momencie GoPro miał prawie każdy podróżnik. Kamera była symbolem nowej ‘religii’ – kultu naszego indywidualizmu. Rynek uwierzył, że to będzie ‘kolejne Apple’. Tak się nie stało. Dlaczego? Smartfony przejęły rynek masowy. Jakość kamer w smartfonach rosła błyskawicznie. Dla większości użytkowników telefon ‘wystarczał’. GoPro zostało z niszą: sport, outdoor, twórcy. Jednoproduktowy model biznesowy. Firma przez lata była uzależniona od sprzedaży hardware’u. Sprzęt to konkurencja, cykle, presja cenowa i spadające marże. Brak silnej, wysokomarżowej platformy usługowej ograniczył skalę i stabilność. Wycena oderwana od fundamentów. IPO było wycenione jak spółka technologiczna z potencjałem platformowym. W praktyce okazało się, że to producent elektroniki użytkowej (zupełnie inny potencjał na przyszłe wzrosty). Od ATH spółka straciła ponad 97 proc. wartości. Ale w tej historii jest jeden wyraźny zwycięzca – założyciel Nick Woodman. W momencie IPO w 2014 roku posiadał ok. 45 proc. udziałów. Przy debiucie jego pakiet był wart blisko 3 mld dolarów, a w pierwszych miesiącach po wejściu na giełdę sprzedał akcje warte ok. 700–800 mln dolarów. Timing is the king. Niezależnie, ja jestem Nick’owi niezmiernie wdzięczny – bo gdyby nie on to nie miałbym kilkunastu filmów z mojej podróży życia sprzed ponad dekady”.

Szymon Janiak, partner zarządzający

Czyst3.vc, przekonuje, że „AI kompletnie zepsuł LinkedIna i nie ma już od tego odwrotu… Ludzie zamienili własne mózgi i kreatywność na generyczne i płowe prompty, które zalały platformę nijakimi treściami. Kiedyś konkurowało się tu z ludźmi z pasją, konsekwencją i determinacją. Dziś z każdym, kto w przerwie na kawę napisze prompta ‘Zrób viralowy post o [wstaw dowolną treść]’. I trzeba tłumaczyć, że nie jest się wielbłądem. Przez 10 lat ślęczałem nocami nad tekstami, co przełożyło się na zasięgi przekraczające milion odsłon miesięcznie i miejsce wśród najpopularniejszych osób na tej platformie. Popełniłem nawet o niej książkę, która rozeszła się w tysiącach. W dobie AI przestało to mieć jednak znaczenie. Jest natłok wszystkiego – zalew nieprzemyślanych, nierzadko bzdurnych treści, które dewastują algorytm. Czy jestem przeciwnikiem? Nie, sam z tego korzystam przy różnych okazjach – również przy treściach, ale doszliśmy do skrajności, w której przez wygodę ludzie nie dają już siebie (…)”.

o czym branża IT (i nie tylko) dyskutuje na największym

Grzegorz Rudno-Rudziński, Managing

Partner w Univio, zwraca uwagę, że choć nie jesteśmy może światową fabryką jednorożców to „rozwiązania z Polski coraz częściej stają się elementem globalnych układanek. InPost właśnie to potwierdził. To ruch strategiczny, nie na najbliższy kwartał, tylko na kolejną dekadę. 33 mld zł. FedEx. Advent. PPF. Rafał Brzoska. Nagłówki kuszą, ale prawdziwa historia jest gdzie indziej. To nie jest ‚sprzedaż polskiej spółki Amerykanom’. To jest zmiana trybu gry. Po kilku latach na giełdzie InPost wybiera stabilizację kapitałową zamiast życia w rytmie kwartalnych wyników i nastrojów short-term inwestorów. Z perspektywy strategicznej ta transakcja ma sens z kilku powodów. FedEx nie kupuje InPostu operacyjnie, to nie klasyczna integracja. To dostęp do unikalnej infrastruktury ‚ostatniej mili’, której globalni gracze po prostu w Europie nie mają. InPost zyskuje globalny zasięg i know-how, którego nie da się zbudować organicznie w rozsądnym czasie. Delisting daje przestrzeń na odważniejsze decyzje, bez ciągłego patrzenia na kurs akcji i prezentacje pod rynek. Warto spojrzeć szerzej: e-commerce to dziś ok. 20 proc. globalnej sprzedaży detalicznej i wszystko wskazuje na dalszy wzrost. Automatyzacja dostaw i efektywna ‘ostatnia mila’ to jedno z kluczowych wąskich gardeł tego rynku. FedEx dokładnie wie, po co tu jest. I jeszcze jeden lokalnie ważny element: InPost zostaje spółką z siedzibą w Polsce. Marka zostaje. Podatki zostają w Polsce”.

Arnold Adamczyk, twórca startupów technologicznych,

który pracuje no co dzień w Chinach, przypomniał, że „mija pierwsza rocznica od rozpoczęcia słynnej akcji ‘deregulacja’ i z tej okazji ‘deregulator’ wprowadza 17 marca rozszerzenie systemu SENT o odzież i obuwie. SENT to elektroniczny system monitorowania drogowego i kolejowego przewozu towarów wrażliwych, prowadzony przez Krajową Administrację Skarbową. Dotychczas obejmował m.in. paliwa, alkohol, odpady czy wyroby chemiczne. Domyślam się, że w przejawie alkoholowego (chemicznego) upojenia któryś z decydentów zabłysnął geniuszem i stwierdził, że skoro na polu walki żołnierze noszą buty i odzież, to są to produkty dual-use i należy traktować je jak amunicję albo drony. Sorry. Pomyłka. Nawet drony nie podlegają takiej kontroli. Obowiązek zgłoszenia SENT dotyczy przewozu: odzieży z dzianin, odzieży używanej, obuwia i przesyłek mieszanych (np. odzież + obuwie) o wadze powyżej 10 kg. Reguły dotyczą przewozów krajowych, importowych, eksportowych i tranzytowych. Trzeba się więc zastanowić przed podróżą, aby w walizce nie zapakować czasem zbyt dużo odzieży, bo bez odpowiedniej dokumentacji mogą spotkać nas duże nieprzyjemności ze strony inspekcji celnej. Ale nie ma co się martwić! Zgłoszenie nie będzie wymagane, jeśli będziemy mieli przy sobie faktury zakupu na przewożone ciuchy i buty (…) Towarzysze! Każda para butów pod czujnym okiem państwa ludowego…”.

Piotr Nowosielski, CEO Just Join IT

, stwierdza, że „szukanie roboty będzie w 2026 jeszcze trudniejsze” i podejmuje odpowiedź na pytanie „jak sobie w tym pomóc?”. „Krok 1: Rozbij firmę na czynniki pierwsze. Zanim ktoś Cię poleci, Ty musisz wiedzieć: na czym ta firma faktycznie zarabia (nie hasłowo, tylko realnie); jakie ma problemy dziś, nie dwa lata temu – dopytaj znajomego; w którym miejscu skali jest: wzrost/ stagnacja. Krok 2: Zmapuj konkretną rolę, a nie nazwę stanowiska: spytaj kumpla, za co dana rola będzie rozliczana po 3–6 miesiącach; jaki problem masz rozwiązać, a nie ‚jakie technologie znać’; gdzie wcześniej polegli ludzie na tym stanowisku? Dopiero wtedy dopasowujesz swoje doświadczenie. Krok 3: Zrób CV pod jedną firmę, nie pod rynek. Uniwersalne CV = CV do kosza. Krok 4: Przygotuj ‚pakiet polecenia’ dla znajomego. Jeśli prosisz kogoś o polecenie, to zdejmij z niego całą robotę myślenia. Daj mu: 3/4 zdania: dlaczego pasujesz akurat do tej firmy; 2 konkretne rzeczy, które dowiozłeś i mogą być istotne w tej roli; jedno zdanie, które może wkleić do maila lub Slacka; załącz do tego to swoje dopasowane CV, bo i tak o nie poprosi. Jeżeli ktoś musi zgadywać ‘co o Tobie napisać’ – nie napisze nic. Krok 5: Wejdź w proces z hipotezą, nie z nadzieją. Na rozmowę nie idziesz ‚powiedzieć o sobie’. Idziesz sprawdzić hipotezę: ‚Myślę, że Waszym problemem jest X i mogę pomóc w Y – dobrze to rozumiem?’. To ustawia Cię nie jako petenta, tylko jako partnera do rozmowy. (…)”.

Piotr Sankowski, dyrektor w IDEAS Research

Institute, odnosi się do tego, że „w grudniu zeszłego roku administracja Trumpa zniosła zakaz eksportu chipów H200 do Chin, a władze w Pekinie wydały dyrektywę zakazującą zakupu tych chipów, mimo, że firmy chińskie już złożyły zamówienia na ponad 2 mln tych chipów. Warto się zastanowić o co w tym wszystkim chodzi, a chodzi o suwerenność technologiczną. Decyzja Pekinu wydaje się być umotywowana następującymi aspektami: odpływu miliardów dolarów za ocean – jeden chip to około 30 tys. USD, co daje 60 mld USD, a dochodzi jeszcze 25 proc. cła; Waszyngton może w każdej chwili przykręcić kurek, co może oznaczać i wyłączenie z dnia na dzień wsparcia i serwisu; a przede wszystkim takie zakupy zamiast budować chińską moc obliczeniową, finansują amerykański R&D. Niektórzy chińscy komentatorzy ostrzegają, że zezwolenie na zakup H200 może okazać się ‘pociskami w cukrowej polewie’ – oferując krótkotrwałą ulgę, a jednocześnie potencjalnie spowalniając długofalowy rozwój krajowego przemysłu układów AI w Chinach. Rozwój chińskich rozwiązań dla AI nie stoi w miejscu, choć często podnoszona narracja o dorównywaniu Nvidii rozbija się o twardą fizykę: po pierwsze H200 powstaje w technologii 4 nm od TSMC. A Huawei Ascend 910 C w technologii 7 nm od SMIC. Oznacza to, że układy Huawei mimo, że nominalnie mają zbliżoną moc obliczeniową wyrażaną w liczbie FLOP-ów to zużywają do 400 proc. więcej energii. Co więcej technologia ich wytwarzania nie jest tak dopracowana i 60–80 proc. produkcji ląduje w koszu, co dramatycznie podnosi koszty. Po drugie, H200 oferuje pamięć o transferze 4.8 TB/s (HBM3e), podczas gdy Ascend zaledwie 3.2 TB/s (HBM2e). Oznacza to, że w zadaniach inferencji dla LLM-ów Nvidia jest o 50 proc. szybsza, co drastycznie obniża koszty całego centrum danych. Co więcej, nowy chip Nvidii B200 może zaoferować pięciokrotne przyśpieszenie w stosunku do H200. To przyśpieszenie głównie pochodzi w implementacji obliczeń 4-bitowych zamiast 16-bitowych, jednak oznacza ono, że dystans między chipami Nvidii, a tymi pochodzącymi z Chin się jeszcze zwiększa. Ciekawy w tym kontekście walki między Chinami i USA jest jeszcze aspekt planów Indii, które do 2032 roku chcą produkować własne chipy w technologii 3 nm”.

Sebastian Błaszkiewicz, Head of Sales Excellence w Univio

, wskazuje, że „bardzo szybko wchodzimy w fazę, w której finalizacja zakupów będzie możliwa bez opuszczania interfejsu chatbota – wprost z poziomu AI asystenta. Google ogłosił właśnie wprowadzenie standardu UCP (Universal Commerce Protocol), który ma stać się ‘wspólnym językiem’ dla systemów sprzedaży i sztucznej inteligencji. Co ciekawego można o UCP powiedzieć? Spina całą ścieżkę zakupową, a nie tylko płatność (od discovery po post purchase), co odróżnia go od wcześniejszego AP2. Jest kompatybilny z innymi protokołami (A2A, AP2, MCP), co może uspokoić osoby myślące o lock-inie technologicznym. Był współtworzony z Shopify oraz takimi graczami jak Etsy, Wayfair, Target i Walmart – to pokazuje, że nie jest to ‘jeszcze jedna integracja z Google’, ale próba zbudowania standardu branżowego. Nowy standard wspierają już m.in. Shopify, Mastercard, Visa, Stripe, Zalando, PayPal oraz szeregi innych graczy – od dużych retailerów (Target, Walmart, Best Buy) po kluczowe systemy płatności (American Express, Adyen). Pierwsze wdrożenia pozwalają już na dokończenie zakupu bezpośrednio w AI Mode w wyszukiwarce Google i w Gemini – z wykorzystaniem Google Pay i wkrótce PayPal, na bazie danych płatniczych i adresowych zapisanych w Google Wallet. Google zapewnia, że sprzedawcy nadal pozostaną stroną transakcji.

Co do tego zgoda – z jednym zastrzeżeniem: do Google zacznie spływać bardzo bogaty strumień danych o ścieżce zakupu, skuteczności ofert i preferencjach kupujących, który stanie się dla firmy ogromnym aktywem strategicznym. Pytanie, na ile w dłuższej perspektywie przełoży się to na realną przewagę sprzedawców, a na ile przede wszystkim samej platformy (…)”.

Wojciech

Urbanek

zastępca redaktora

naczelnego

CRN Polska

SaaSpocalypse:

plugin zamiast pracownika

SaaSpocalypse to jedno z najświeższych wyrażeń w słowniku technologicznym, które zdążyło już podzielić branżę na dwa obozy. Dla jednych to czysta histeria, dla innych bardzo poważny sygnał alarmowy.

Pod koniec stycznia Anthropic zaprezentował Claude Cowork, autonomicznego agenta działającego bezpośrednio na komputerze użytkownika. Nie czeka na pytania, tylko planuje, dzieli zadania na etapy, następnie sam je wykonuje i odkłada gotowy wynik do folderu. Ale dopiero pluginy stanowią crème de la crème całego rozwiązania. Publicznie dostępne w otwartym repozytorium, zamieniają Cowork w coś na kształt agencji zatrudnienia, ale bez pracowników. Jeden plugin może być prawnikiem analizującym umowy. Drugi analitykiem danych, wyciągającym wnioski z tysięcy wierszy w Excelu. Trzeci ekspertem HR, przeglądającym CV i listy motywacyjne. W tym przypadku nie chodzi o to czy AI jest mądrzejsze od człowieka, lecz to, że jedno narzędzie potrafi wchłonąć dziesiątki wyspecjalizowanych aplikacji, za które firmy płacą osobne subskrypcje, utrzymują osobne integracje i zatrudniają osobnych administratorów.

Ciemne chmury nad rynkiem oprogramowania zbierały się już od pewnego czasu. Indeks IGV, który śledzi kondycję amerykańskiego rynku oprogramowania, do końca stycznia zdążył stoczyć się o niemal 30 proc. od swojego wrześniowego szczytu. Jednak to, co wydarzyło się na przełomie stycznia i lutego nie było zwykłą korektą. Tylko w jednym tygodniu z rynku wyparowało około 300 mld dol.

CIEMNE CHMURY NAD RYNKIEM OPROGRAMOWANIA ZBIERAJĄ SIĘ JUŻ OD PEWNEGO CZASU.

Panika inwestorów wynika z obaw, że autonomiczni agenci AI zastąpią tradycyjne oprogramowanie, czyniąc dotychczasowy model sprzedaży „na liczbę stanowisk” przestarzałym. Dokumenty analizują przejście branży w stronę gospodarki opartej na wynikach, gdzie klienci płacą za konkretne efekty pracy sztucznej inteligencji, a nie za sam dostęp do narzędzi.

W branży IT trwa spór, który zawsze pojawia się w przededniu prawdziwego przełomu: jedni mówią „to minie”, drudzy zaś, „tym razem nie minie”. Do tej pierwszej grupy należy Jensen Huang, CEO Nvidii, który obawy o zastąpienie oprogramowania przez AI nazwał wprost „najbardziej nielogiczną rzeczą na świecie”. Wtórują mu Dan Ives z Wedbush Securities i Rene Haas, szef ARM – obaj przekonują, że apokaliptyczne scenariusze ignorują prozaiczną rzeczywistość: żadne przedsiębiorstwo nie wyrzuci z dnia na dzień sprawdzonych systemów na śmietnik historii tylko dlatego, że pojawił się kolejny, nowy algorytm. Trudno odmówić im racji, ale trudno też nie zauważyć, że podobne argumenty słyszało się już przy okazji każdej poprzedniej rewolucji technologicznej i za

każdym razem okazywały się prawdziwe, ale tylko do pewnego momentu.

Po drugiej stronie sporu stoją analitycy IDC, którzy stawiają sprawę jasno: model „płacisz za stanowisko” ma przed sobą najwyżej kilka lat. Do 2028 r. siedmiu na dziesięciu dostawców oprogramowania będzie musiało wymyślić się na nowo – przestać sprzedawać dostęp do narzędzia, a zacząć sprzedawać to, co to narzędzie faktycznie robi dla klienta. Wiele wskazuje więc na to, że SaaSpocalypse to nie tyle śmierć sektora, co jego bolesna metamorfoza.

Rynek zaczął patrzeć na SaaS jak na zwykłe media – wodociągi czy prąd, a więc usługi niezbędne, ale nie dotyczy ich w przyszłości jakiś rewolucyjny wzrost. Takie firmy wycenia się zupełnie inaczej: przychody mnoży się przez 8–12, nie zaś przez 30–35x. To drastyczna korekta mnożników. Rynek przestał wierzyć w bajkę o wiecznym wzroście i zaczął traktować te firmy jak normalne, dojrzałe biznesy. Niespełna piętnaście lat temu na łamach „The Wall Street Journal” ukazał się głośny artykuł Marca Andreessena zatytułowany „Why Software Is Eating The World”. Autor pisał wówczas: „Coraz więcej dużych firm i całych branż opiera swoje działanie na oprogramowaniu i dostarcza swoje usługi online, od rozrywki po rolnictwo i obronność. W wielu przypadkach zwycięzcami okazują się przedsiębiorcze spółki technologiczne z Doliny Krzemowej, które wkraczają na rynek i rozbijają dotychczasowe struktury branżowe. W ciągu najbliższych dziesięciu lat spodziewam się, że oprogramowanie zdestabilizuje kolejne gałęzie gospodarki”.

Trudno odmówić Andreessenowi przenikliwości. Miał rację i to w niemałym stopniu. Oprogramowanie rzeczywiście przewróciło do góry nogami handel, media, finanse, transport czy rozrywkę… a jednak świata nie zjadło. Pandemia brutalnie przypomniała nam, że za każdym interfejsem kryje się fizyczna rzeczywistość: fabryki, kontenery, półprzewodniki. Również niedobory chipów AI czy lawinowy wzrost cen pamięci pokazują, że hardware nie jest tylko nudnym zapleczem dla błyskotliwego softu, ale jest jego fundamentem. No cóż, choćby nie wiadomo, jak się wysilać, żaden algorytm nie zastąpi krzemu. Warto mieć to na uwadze, obserwując dzisiejszą gorączkę wokół agentów AI. Entuzjaści wieszczą rewolucję, a nagłówki prześcigają się w apokaliptycznych wizjach. Tymczasem historia lubi się powtarzać. Agenci AI z pewnością zmienią branżę IT. Nie zmienią jednak praw fizyki ani logistyki. Nie zjedzą świata. Po prostu dosiądą się do stołu i będą się przy nim mocno rozpychać.

Turn static files into dynamic content formats.

Create a flipbook
CRN Polska 3/2026 by Peristeri - CRN Polska - Issuu