Skip to main content

CRN Polska 1-2/2026

Page 1


CHCESZ BYĆ DOBRZE

POINFORMOWANY ?

Zapraszamy na

Codziennie nowe treści:

n starannie dobierane newsy z Polski, Europy i świata,

n wyniki aktualnych badań rynkowych,

n przekrojowe artykuły dotyczące najważniejszych trendów biznesowych i technologicznych,

n opinie kluczowych postaci rynku IT.

Najlepiej poinformowany

magazyn w branży IT

dla resellerów, VAR-ów i integratorów

Spis treści 1-2/2026

9 | WSJ: cztery technologiczne trendy na 2026 rok

Dziennikarze The Wall Street Journal, w swoich prognozach na nowy rok, postawili na rozwiązania bazujące na AI

10 | Gala Mistrzów IT

Podczas uroczystości wręczone zostały certyfikaty Channel Master 2026 i wyróżnienia IT Master 2026, jak też ogłoszono zdobywcę tytułu Promotor Wiedzy

12 | Channel Master 2026

Po raz pierwszy w historii producenci, którzy konsekwentnie wspierają rozwój polskiego ekosystemu partnerskiego, otrzymali złote certyfikaty Channel Master

14 | IT Master 2026

W tym roku do grona szczególnie doświadczonych i dynamicznie rozwijających się integratorów dołączyły kolejne firmy

16 | Debata Partnerów Gali Mistrzów IT (R)ewolucja w dobie transformacji

18 | Lenovo Top Partners Awards’25 20-lecie i nagrody dla partnerów

20 | Wigilia Branży IT

Relacja z wydarzenia Go Creation Polska

22 | Sharp Inspire Expo 2026 Ewolucja od producenta do usługodawcy

23 | Ankieta CRN.pl

AI: czas na korekty

24 | Zarządzanie na rynku pamięci flash CRN Polska rozmawia z Maciejem Kamińskim, Managing Directorem of Memory Business (Poland & CEE) w Samsungu

25 | AI i wojna o prąd Felieton Krzysztofa Jakubika

26 | Phishing i ransomware: wyjątkowo groźny tandem

Od lat jak bumerang powraca pytanie: czy i na jakich zasadach można liczyć na wygraną z cyberprzestępcami?

29 | Chmurowe niezmienne kopie zapasowe Partnerstwo firm GigaCloud i Storware pozwala oferować usługi tworzenia i przechowywania niezmiennych kopii zapasowych w europejskiej chmurze

30 | Prostota zamiast kokpitu samolotu CRN Polska rozmawia z Marcinem Kleczyńskim, CEO Malwarebytes

32 | Urządzenia rugged: od pancerza do inteligencji

Rynek wzmocnionych urządzeń elektronicznych przechodzi transformację

35 | Dokąd zmierza polski integrator w erze AI? Felieton Maćka Szcześniaka

36 | Prognozy Channel Masterów Między deficytem półprzewodników a rewolucją AI

40 | Prognozy IT Masterów Z optymizmem w nowy rok

45 | Zagubieni w gąszczu AI Felieton Aleksandry Przegalińskej i Tamilli Triantoro

46 | Technologiczna Europa nie wywiesza białej flagi Chociaż świat nowych technologii zdominowali gracze z USA i Chin, to Europa wciąż nie zamierza się poddawać

48 | Podatek VAT: czas na SaaS W świetle najnowszego wyroku NSA dostawcy oferujący rozwiązania do prowadzenia sklepów internetowych mogą odpowiadać za VAT sprzedawców

50 | Usługi chmurowe a podatek u źródła Rzecz o niekorzystnym podejściu organów podatkowych

52 | Rola lidera IT w zarządzaniu zmianą Jak skutecznie przewodzić zespołowi w procesie zmian?

54 | Transparentność lidera: dlaczego to takie ważne?

O co chodzi z tą całą transparentnością lidera, która była „kluczowym elementem strategii” Satyi Nadelli?

56 | Technologia nie zmieni złej organizacji

Felieton Borysa Skraby

56 | Audyt Oracle: przygotowanie czy obrona? Felieton Andrzeja Orłowskiego

58 | Czy AI zniszczy PR?

Felieton Katarzyny Dworzyńskiej

60 | Pierwsze pięć lat prowadzenia firmy Felieton Tomasza Karwatki

61 | Kara umowna, czyli brzydkie słowo na „k” Felieton Renaty Lewickiej

62 | Puls branży IT

Trendy produktowe, technologiczne, biznesowe, w oparciu o dane dotyczące głównie Europy i Polski

64 | LinkedIn Park

Sprawdzamy o czym branża IT (i nie tylko) dyskutuje na największym biznesowym portalu społecznościowym

66 | Zajrzeć pod sukienkę algorytmem

Felieton Wojciecha Urbanka

Podatek VAT: czas na SaaS 1 października 2025 r. Naczelny Sąd Administracyjny wydał wyrok, który może istotnie wpłynąć na firmy oferujące rozwiązania gotowych sklepów internetowych (zwłaszcza w modelu Software as a Service).

Phishing i ransomware: wyjątkowo groźny tandem

Siła tych dwóch zagrożeń polega na jednoczesnym atakowaniu technologii i człowieka. Jak pokazują statystyki, to połączenie niestety pozostaje wyjątkowo skuteczne.

Usługi chmurowe a podatek u źródła

Organy podatkowe w ostatnich latach, w zakresie podatku u źródła, zaczęły koncentrować się również na płatnościach związanych z nowoczesnymi technologiami.

48 26 50 54

Transparentność lidera: dlaczego to takie ważne?

Transparentność w przywództwie jest kluczowym elementem budowania zaufania i zaangażowania w zespole.

„JEŻELI HANDEL TOWARAMI PRZYNOSI POKAŹNE ZYSKI, TO I TAK SĄ ONE NIEWIELKIE W PORÓWNANIU Z POŻYTKIEM, JAKI PŁYNIE

Z WYMIANY MYŚLI”

David S. Landes, „Bogactwo i nędza narodów”

Tomasz Gołębiowski

Redaktor naczelny

Rozwój

na sterydach?

Każdy medal ma dwie strony, a każdy kij dwa końce i nie inaczej sprawy mają się z prognozami Omdia dotyczącymi globalnych wydatków na produkty i usługi IT.

AI JAK HORMON WZROSTU.

Z pozoru wieje dużym optymizmem, skoro analitycy szacują, że w tym roku wartość światowej sprzedaży będzie rosła w dwucyfrowym tempie (konkretnie 10,2 proc. na plusie), a więc pięć razy szybciej niż cała globalna gospodarka. Co ciekawe, Ameryka Północna ma być nie tylko największym kawałkiem światowego „tortu IT” (wynoszącym 43 proc. całości), ale też regionem, który pod tym względem urośnie najszybciej (+12,6 proc.). Wicelider, a więc region Azji i Pacyfiku (27 proc. udziałów „planetarnych”) ma zwiększyć się o solidne, choć jednocyfrowe, 9 proc. Pod tym względem niewiele ustępuje mu region Europy, Bliskiego Wschodu i Afryki (26 proc. „tortu” przy 8,1-procentowym wzroście), wyprzedzając Amerykę Łacińską (4 proc. globalnego zbytu i poprawa wyniku sprzedażowego o 7,4 proc.). Warto przy tym podkreślić, że według Omdia tegoroczna wartość rynku IT w Stanach Zjednoczonych będzie odpowiadać za 40,8 proc. globalnych wydatków, podczas gdy dla Chin ten wskaźnik ma sięgnąć znacznie skromniejszych 13,6 proc. W każdym razie, niezależnie od regionu świata, sprzedaż produktów i usług IT ma w kolejnych miesiącach kwitnąć. Skąd zatem to kołaczące mi się z tyłu głowy pytanie: dlaczego jest tak źle, skoro jest tak dobrze? Przecież nie brakuje producentów, dystrybutorów i integratorów, którzy nie ukrywają, że w ich ocenie sytuacja rynkowa jest „złożona, trudna, niepewna” (niepotrzebne skreślić). No cóż, wydaje się, że są co najmniej dwa możliwe wyjaśnienia rozbieżności pomiędzy prognozami analityków a odczuciami części graczy rynkowych. Pierwszym powodem są ogromne inwestycje w infrastrukturę na potrzeby sztucznej inteligencji, co mocno winduje wartość globalnej sprzedaży, choć dotyczy de facto stosunkowo niewielkiego grona największych światowych koncernów. Mniejsi gracze od lat mierzą się z wydłużającą się listą przeciwności geopolitycznych i ekonomicznych, a rok 2026 nie zapowiada się pod tym względem lepiej. Drugie wyjaśnienie, czy też przyczyna rozbieżności między przewidywaniami a rzeczywistością, wiąże się z rosnącym udziałem sprzedaży bezpośredniej w światowych wydatkach na produkty i usługi IT. Przy czym (na co uwagę od dawna zwraca między innymi Jay McBain, jeden z wiodących analityków Omdia), nie chodzi o to, że kanał sprzedaży „umiera”, bo to nieprawda. Ponadto nie w tym rzecz, iż maleją przychody ekosystemu partnerskiego, bo nie maleją. Niemniej odsetek tej części sprzedaży w branży IT, która przechodzi przez kanał partnerski, z roku na rok się kurczy. Według Canalysa (obecnie Omdia) w 2018 r. sięgał on poziomu 77,4 proc., podczas gdy na koniec tego roku ma wynieść 66,7 proc. W liczbach bezwzględnych to nadal potężny strumień pieniędzy, ale docelowo sprzedaż bezpośrednia ma przeważać nad pośrednią. Z drugiej strony integratorzy, przy wsparciu ze strony dystrybutorów, dostosowują swoje modele biznesowe do nowych trendów. Według prognoz Omdia w 2026 r. wzrost wartości sprzedanych usług IT ma być dwucyfrowy, podczas gdy w ciągu poprzedniej dekady było to dokładnie 8,1 proc. (CAGR). Jak celnie ujął to Jay MacBain: „kanał IT to o wiele więcej niż kasa fiskalna” i dlatego, choć trendy nie w pełni sprzyjają wszystkim graczom ekosystemu partnerskiego, to większość z nich sobie z tym poradzi.

MIESIĘCZNIK CRN POLSKA www.CRN.pl

Rok 29, numer 1-2 (516), 28 stycznia 2026 PL ISSN 2080-8607

REDAKCJA

Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl

Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl

Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl

Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl

Andrzej Gontarz ag andrzej.gontarz@crn.pl

Krzysztof Jakubik kj krzysztof.jakubik@crn.pl

Krzysztof Pasławski kp krzysztof.paslawski@crn.pl

Tomasz Janoś tj tomasz.janos@crn.pl

FELIETONY

Agata Bienia, Katarzyna Dworzyńska, Krzysztof Jakubik, Tomasz Karwatka, Renata Lewicka, Andrzej Orłowski, Aleksandra Przegalińska, Borys Skraba, Maciej Szcześniak Tamilla Triantoro, Wojciech Urbanek, Katarzyna Wieczorek-Puławska GRAFIKA, LAYOUT, Tomasz Baziuk

FOTOGRAFIE

Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, Piotr Syndoman, archiwum PRENUMERATA prenumerata@crn.pl

REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl

Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl

WYDAWCA

Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa

Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2025 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone. Computer Reseller News Polska contains articles under license from The Channel Company. © 2025 The Channel Company. All rights reserved.

Miesiąc na plusie miesiąc na minusie

TD Synnex w IV kw. roku finansowego 2025 (zakończył się 30 listopada ub.r.), zwiększył przychody o 9,7 proc., do poziomu 17,4 mld dol. Co istotne, dystrybutor jednocześnie zwiększył zysk netto o 27,5 proc. (do 248 mln dol.). Biorąc pod uwagę sprzedaż brutto, lider światowej dystrybucji największy wzrost odnotował na oprogramowaniu (o 23 proc. r/r), jak też wyraźnie poprawiła sprzedaż komputerów (+19 proc.), natomiast wolniej rosła sprzedaż sieciówki (+7 proc.). Co ważne, sprzedaż dystrybutora w Europie zwiększyła się w dwukrotnie większej skali niż globalnie.

NASK wybrał wykonawców w przetargu na zakup 12 tys. zestawów laboratoriów sztucznej inteligencji (AI) dla szkół podstawowych i ponadpodstawowych. Na realizację zamówienia Ministerstwo Cyfryzacji zamierza przeznaczyć maksymalnie ponad 1,8 mld zł. Wybrani wykonawcy to: Maxto ITS, Integrated Solutions, konsorcjum Suntar i Egida IT Solutions, Euvic Solutions, jak też konsorcjum MBA System i Terg.

Action w grudniu 2025 r. osiągnął skonsolidowane obroty w wysokości 316 mln zł, co oznacza wzrost o ok. 17,47 proc. wobec analogicznego okresu 2024 r. (273 mln zł). To kolejny z rzędu solidny wzrost sprzedaży Actionu. W listopadzie 2025 r. obroty grupy wyniosły 269 mln zł (+ 10,25 proc. r/r), a w październiku 277 mln zł (+ 13,5 proc.). Podsumowując wstępne, szacunkowe dane za poszczególne miesiące IV kw. 2025 r., Action wypracował w tym okresie około 862 mln zł skonsolidowanych obrotów. Jeżeli szacunek się potwierdzi, oznaczałoby to sprzedaż o ok. 100 mln zł wyższą (o ok. 13 proc.) niż w IV kw. 2024 r.

Bloomberg podaje, że szefowie firm technologicznych w 2025 r. zrealizowali wykup części swoich akcji na sumaryczną kwotę 16 mld dol. Stawce przewodzi Jeff Bezos. Założyciel Amazona sprzedał 25 mln akcji za 5,7 mld dol. w czerwcu i lipcu ub.r. Safra Catz, była dyrektor generalna Oracle’a, nie była daleko w tyle z 2,5 mld dol., a za nią uplasował się Michael Dell z 2,2 mld dol. Z kolei Jensen Huang z Nvidii sprzedał w ubiegłym roku część swoich akcji za 1 mld dol. Pokaźne kwoty są związane z boomem na sztuczną inteligencję, który przez cały ubiegły rok windował ceny akcji firm technologicznych.

Agencja Restrukturyzacji i Modernizacji

Rolnictwa (ARiMR) wybrała najkorzystniejszą ofertę w przetargu na utrzymanie i rozwój systemu SIA (System Informatyczny Agencji) na okres 47 miesięcy. Na sfinansowanie zamówienia agencja zamierzała przeznaczyć ponad 410 mln zł. Zostały złożone dwie oferty – Asseco Poland i Comarch Polska. Przy czym stawka zaproponowana przez Asseco okazała się niższa o około 28 mln zł niż w ofercie Comarchu. Najkorzystniejsza według ARiMR okazała się oferta Assecoinformacji zarządczej, jak też obsługi zgłoszeń i rejestrów zwierzęcych.

Powiedzieli

„Krzywa wzrostu na przestrzeni ostatnich kilkunastu lat cały czas idzie w górę” – Maciej Kamiński, dyrektor zarządzający Dywizją Memory w Samsungu o rynku półprzewodników.

Prokuratura Okręgowa w Białymstoku w grudniu ub.r. skierowała do Sądu Rejonowego Warszawa – Śródmieście akt oskarżenia przeciwko czterem osobom. Dwie z nich sprzedawały w internecie oprogramowanie komputerowe i klucze dostępowe, a dwie kolejne ułatwiły im popełnianie przestępstw, zatajając iż prowadzą oni taki handel. Jak ustalili śledczy, oskarżeni mają na koncie 57 transakcji sprzedaży nielegalnie zwielokrotnionych kluczy do software’u, co podpada pod art. 286 par. 1 Kodeksu Karnego (oszustwo). Trudniąc się handlem na lewo, wpisywali nieprawdziwe dane w ewidencji VAT i deklaracjach podatkowych. Uszczuplili tym samym należności dla fiskusa na sumę blisko 2,5 mln zł.

Prokuratura Regionalna w Warszawie skierowała do stołecznego sądu okręgowego akt oskarżenia przeciwko Nadii D. Według śledczych należała ona do międzynarodowej grupy przestępczej, która w latach 2011 – 2019 wyłudzała VAT i zaniżała należności podatkowe w fikcyjnym obrocie sprzętem elektronicznym. Oskarżona jest wskazana jako kluczowa organizatorka tego procederu, a kwotę wyłudzonego VAT-u ustalono na 498 mln zł. Kobieta przyznała się do zarzucanych jej czynów.

Dom Development poinformował, że trwa intensywna analiza cyberataku, który wykryto 4 grudnia 2025 r. W informacji dla PAP Dom Development przyznaje, iż według dotychczasowych ustaleń jest duże ryzyko, że skradziono dane osobowe gromadzone przez spółki z grupy. Dlatego zawiadomiono prokuraturę oraz Urząd Ochrony Danych Osobowych.

Centralne Biuro Antykorupcyjne (CBA) zatrzymało 4 podejrzanych o oszustwa na szkodę NCBR i PARP. Akcja miała miejsce 17 grudnia 2025 r. w woj. wielkopolskim i lubelskim. Zatrzymania są związane z podejrzeniem wyłudzania grantów. Przedsiębiorcy usłyszeli zarzuty oszustwa dotyczącego mienia znacznej wartości. Z dotychczasowych ustaleń wynika, że zorganizowana grupa przestępcza, której byli uczestnikami, działała głównie w woj. wielkopolskim w latach 2019 – 2023.

Centralne Biuro Zwalczania Cyberprzestępczości

zatrzymało obywatela jednego z państw afrykańskich, który jest podejrzany o pranie pieniędzy i fałszerstwa w ramach grupy dokonującej tzw. oszustw nigeryjskich i przestępstw BEC – Business Email Compromise. Jak ustaliła cyberpolicja, członkowie tego gangu nawiązywali kontakt z ofiarami na portalach społecznościowych. Udawali pracowników platformy wiertniczej, zagranicznych piosenkarzy czy pilotów. Następnie nakłaniali ofiary do przelewania pieniędzy, przekonując że są w trudnej sytuacji życiowej. Wyłudzone środki trafiały na konta założone przez podejrzanego, który od 2022 r. posługiwał się ponad 30 fałszywymi tożsamościami.

„Model MSP jest już bardzo mocno rozpowszechniony w USA i sądzę, że będzie się rozwijał dalej, globalnie” – Marcin Kleczyński, CEO Malwarebytes.

„Asem sprzedaży w tym roku nie będzie już pudełko ani licencja, lecz abonament na przetrwanie” – Adrianna Kilińska, CEO Engave.

Nowe informacje

z branży IT

Fiskus stracił 28 mln zł VAT

Pięć osób ma zarzuty działania w zorganizowanej grupie przestępczej, która wyłudzała VAT w obrocie telewizorami i telefonami komórkowymi. Grozi im do 25 lat więzienia. Według ustaleń poznańskiej prokuratury, przestępczy proceder trwał od sierpnia 2017 r. do czerwca 2019 r. Podejrzani wystawili w tym czasie w sumie ponad 630 nierzetelnych faktur VAT na łączną kwotę ponad 142 mln zł. Suma uszczupleń VAT-u sięgnęła ponad 28 mln zł. Akt oskarżenia trafił już do poznańskiego sądu.

TD Synnex przejął część biznesu Exclusive Networks

TD Synnex przejął od Exclusive Networks Poland działy AV/UC oraz gamingowy. Nie ujawniono wartości transakcji. Jednostki AV/UC zostały włączone do dywizji Maverick, a biznes gamingowy do grupy zajmującej się peryferiami w TD Synnex w Polsce. Przedstawiciel firmy wskazuje na duży potencjał przejętych biznesów. Exclusive Networks Poland koncentruje się natomiast na takich obszarach jak cyberbezpieczeństwo, rozwiązania chmurowe, open source, data center, usługi profesjonalne dla partnerów.

Przejęcie Comarch Polska

1,5 mld zł dla polskich firm

Powstał fundusz Future Tech Poland, który na początek będzie dysponował środkami w wysokości 1,5 mld zł. Pieniądze zostaną zainwestowane w 10–15 funduszy VC, które lokują kapitał w rozwijające się spółki technologiczne. Według zapowiedzi środki mają zasilić od 200 do 250 podmiotów. Pierwsze decyzje inwestycyjne mają zapaść w I kw. 2026 r.

33 oskarżonych o wył udzenia grantów

Udział w zorganizowanej grupie przestępczej, oszustwa, wystawianie fałszywych faktur VAT, pranie brudnych pieniędzy – takie są oskarżenia wobec 33 osób w sprawie nieprawidłowości w Narodowym Centrum Badań i Rozwoju. Według stołecznej Prokuratury Regionalnej oskarżeni od czerwca 2022 r. do stycznia 2024 r. działali w zorganizowanej grupie przestępczej. Wyłudzili niemal 5 mln zł z unijnych grantów, a usiłowali wyłudzić prawie 43 mln zł. Do przekrętów miało dochodzić w ramach konkursów „BRIdge Alfa” i„Szybka Ścieżka”. Prokuratura zapowiada, iż planuje w najbliższym czasie skierować w tej sprawie kolejne akty oskarżenia.

Euvic połączył się z eo Networks

CGI, kanadyjska firma świadcząca usługi konsultingowe w zakresie IT i biznesu, poprzez swoją spółkę zależną sfinalizowała zakup Comarch Polska SA. Tym samym przejęła dotychczasową działalność krakowskiej firmy w sektorze publicznym, w tym utrzymanie systemów w dużych polskich instytucjach publicznych. Cena transakcji nie została ujawniona. W wyniku połączenia do CGI dołączy blisko 460 specjalistów. Dotychczas przejęty podmiot był spółką zależną Comarch SA, który po przejęciu kontroli nad grupą przez CVC Capital Partners pod koniec 2024 r. koncentruje się na najważniejszych liniach biznesowych.

Euvic sfinalizował fuzję z eo Networks i tym samym wszedł na giełdowy rynek NewConnect. Według zapowiedzi w planie jest dalsza konsolidacja spółek z grupy kapitałowej i przygotowania do potencjalnych przejęć za granicą. Obecnie Grupa Euvic posiada udziały w kilkudziesięciu podmiotach w Polsce i za granicą. Rozwija działalność międzynarodową w Europie Zachodniej, USA, Dubaju oraz na Ukrainie.

Przetarg z budżetem 533 mln zł

NASK rozstrzygnął przetarg na wyposażenie 4 tys. szkolnych pracowni STEM. Budżet postępowania to ponad 533 mln zł, w tym blisko 480 mln zł na laptopy (część 1 zamówienia) oraz ponad 53 mln zł na chromebooki (cz. 2). NASK wybrał oferty następujących wykonawców: Integrated Solutions (cz. 1), konsorcjum Intaris i NTT Technology (cz. 1 i 2), Suntar (cz. 1 i 2), MBA System (cz. 1 i 2), konsorcjum i-Terra i Image Recording Solutions (cz. 1). Wykonawcy zostali wybrani do popisania umów ramowych.

Allegro sprzedaje swój biznes w Słowenii i Chorwacji

Allegro podpisało umowę sprzedaży 100 proc. udziałów w swoich spółkach zależnych działających w Słowenii (Mimovrste) i Chorwacji (Internet Mall). Nabywcą jest niemiecka firma private equity Mutares. Finalizacja transakcji jest spodziewana w I poł. 2026 r. Cena nie została ujawniona. Biznesy w wymienionych krajach Allegro przejęło wraz z zakupem czeskiej Grupy Mall w 2022 r. za około 4 mld zł. W zbywanym segmencie (Mall South) ostatnio spadała sprzedaż, a EBIDTA była na minusie. Mianowicie w trzech kwartałach 2025 r. wartość sprzedanych towarów brutto (GMV) wyniosła 381,7 mln zł (-6,7 proc. r/r), a skorygowana EBITDA -23,8 mln zł (-9,2 proc. r/r).

940 mln zł na 102 projekty

PARP zakończył II etap oceny wniosków złożonych w ramach naboru do programu „Ścieżka Smart”. Przedsiębiorcom przyznano ponad 940 mln zł na realizację 102 przedsięwzięć. Finansowania nie uzyskało natomiast 198 złożonych projektów. Nabór trwał od 6 maja do 26 czerwca 2025 r. Dofinansowanie wynosi od 15 proc. do 80 proc. kosztów kwalifikowanych. Wybrane projekty najczęściej dotyczyły kilku obszarów, jak „Technologie informacyjne, komunikacyjne oraz geoinformacyjne” i „Zdrowe społeczeństwo” (m.in. rozwiązania informatyczne dla medycyny).

Action: nowy skup akcji

Action ruszył z kolejnym programem skupu akcji własnych. Środki na ten cel to maksymalnie 35,1 mln zł. Łączny limit zakupów określono na 1 mln papierów (tj. nie więcej niż 35 zł za szt.). Program potrwa od 15 stycznia 2026 r. do 30 września 2027 r. Firma z Zamienia będzie kupować własne akcje w celu ich umorzenia i obniżenia kapitału zakładowego albo w celu dalszego zbycia.

Action zakończył też poprzedni program skupu, uruchomiony w czerwcu 2024 r. Jego budżet na starcie wynosił do 40 mln zł. Jednak w czerwcu 2025 r. wysokość środków podniesiono ponad dwukrotnie, do 87 mln zł. Ostatecznie w ciągu ok. 2,5 roku wydano 84,5 mln zł. W tym czasie cena papierów spółki wzrosła z ok. 20 zł do ok. 33 zł.

Polska firma wesprze cyberwojsko

DataWalk podpisało porozumienie o współpracy z Dowództwem Komponentu Wojsk Obrony Cyberprzestrzeni. Porozumienie obejmuje wykorzystanie rozwiązań analitycznych polskiej firmy do przetwarzania dużych zbiorów danych i prowadzenie wspólnych warsztatów. Według DKWOC porozumienie jest przykładem współpracy Sił Zbrojnych RP z krajowym sektorem technologicznym. „Eliminujemy zależności od zewnętrznych chmur, telemetrii oraz zagranicznych jurysdykcji” — powiedziałi Paweł Wieczyński, prezes DataWalk.

Przetarg na asystenta AI dla służby zdrowia

Pięciu wykonawców jest gotowych dostarczyć asystenta AI (voicebota), który będzie pełnił rolę wirtualnej rejestratorki w służbie zdrowia. Budżet przetargu wynosi blisko 33 mln zł. Oferty złożyły spółki: Softblue, MCX Pro, Alfavox Software, jak również konsorcja: Sprint i Techmo oraz Integrated Solutions i Orange Polska. Postępowanie prowadzi Centrum e-Zdrowia. Zamówienie obejmuje m.in. dostawę, wdrożenie, usługi rozwojowe, gwarancyjne i serwisowe .

Przejęcie Nexery za 1,5 mld zł

Fundusz Infracapital, wyłączny właściciel Nexery, podpisał z Orange Polska i APG Asset Management (z siedzibą w Holandii) wstępną umowę sprzedaży 100 proc. udziałów w Grupie Nexera. Wartość transakcji wynosi 1,5 mld zł. Nexera została założona w 2017 r. To pierwszy w Polsce wyłącznie hurtowy operator telekomunikacyjny o dużej skali. Buduje światłowodową sieć dostępową o wysokiej przepustowości. Po połączeniu sił Orange i Nexery światłowód ma dotrzeć do 3,7 mln mieszkań i domów w Polsce.

Ugoda konsorcjum Nokii z PKP PLK

Po latach sporu doszło do ugody między konsorcjum z Nokią na czele a PKP PLK w sprawie mega kontraktu na budowę łączności bezprzewodowej na kolei. Umowę zawarto w 2018 r. Konsorcjum wygrało przetarg na realizację tego zamówienia z ceną 2,268 mld zł netto. Postępy prac były jednak utrudnione w okresie lockdownów. W minionych latach doszło do sporu na tle realizacji kontraktu (m.in. w kwestii terminów, zwiększenia kwot za wykonanie, waloryzacji) oraz do wzajemnych roszczeń (np. PKP PLK naliczyło 28 mln zł kar za opóźnienia). W wyniku trwającej 2,5 roku mediacji pod koniec grudnia ub.r. zawarto ugodę. Strony określiły wartość zmodyfikowanego kontraktu na kwotę 2,43 mld zł brutto. Wszelkie prace mają zostać zakończone w ciągu niecałych 3 lat.

Większa SymfoniaGrupa

Develogic, dostawca oprogramowania dla branży budowlanej i deweloperskiej, dołączył do Grupy Symfonia. Jej CEO, Piotr Ciski, widzi duże możliwości ekspansji produktów i usług Develogic, także na rynki zagraniczne. Poznańska firma działa od ponad 15 lat. Ma ponad 140 klientów korzystających z jej oprogramowania (ponad 10 tys. użytkowników). W 2024 r. miała 7,9 mln zł przychodów i 60 tys. zł zysku. Wcześniej do Symfonii dołączyła rumuńska spółka NextUp oraz inEwi z Bielska – Białej.

Vertiv: zakup za miliard dolarów

Vertiv przejął PurgeRite. Jest to dostawca usług mechanicznego płukania, odpowietrzania i filtracji systemów chłodzenia cieczą dla centrów danych i innych obiektów o kluczowym znaczeniu dla ciągłości działania. Firma z siedzibą w Teksasie działa od 2010 r. Wartość zakupu to ok. 1 mld dol. Jej klientami są hiperskalerzy i dostawcy usług kolokacji. Vertiv, dzięki przejęciu, wzmacnia kompetencje w zakresie usług zarządzania cieczą dla środowisk obliczeniowych o wysokiej gęstości oraz sztucznej inteligencji. Prognozy rynkowe przewidują rosnące zapotrzebowanie na takie rozwiązania. W 2025 r. penetracja centrów danych AI systemami chłodzenia wodnego przekroczy 30 proc., natomiast w 2026 r. ma zwiększyć się do 40 proc. – według prognoz analityków TrendForce. Zakup PurgeRite to kolejne przejęcie Vertiva w tym roku. Niedawna transakcja dotyczyła belgijskiej firmy Waylay.

Zmiany na stanowiskach

W dynamicznej branży IT personalna karuzela kręci się szybciej niż

w innych. Prezentujemy kilka najważniejszych zmian, które nastąpiły w minionych tygodniach.

Nowe nominacje w Microsofcie

Kamila Cichocka została dyrektorem ds. operacyjnych w polskim oddziale Microsoftu. Będzie koncentrować się na doskonałości operacyjnej, współpracy z klientami i partnerami oraz na realizacji projektów strategicznych. W branży działa od ponad 20 lat, a w samym Microsofcie przez ponad 13 lat pełniła kluczowe role w obszarach sprzedaży, operacji i marketingu. Ostatnio, od marca 2023 r., jako dyrektor marketingu odpowiadała za region Europy Środkowej. Jednocześnie Rafał Albin objął stanowisko dyrektora ds. rozwoju klientów. Jako lider w obszarze technologii chmurowych i AI koncentruje się na wspieraniu klientów w budowie przewag konkurencyjnych poprzez wdrażanie innowacyjnych rozwiązań, jak również rozwój kompetencji cyfrowych w organizacjach. W Microsofcie jest od ponad 16 lat, a w branży od ponad 25 lat. Ostatnio, od 2024 r., pracował na stanowisku Global Partner Solution Director Poland.

Awanse w Brother Polska

Dotychczasowi Team Leaderzy Brothera awansowali na stanowiska kierownicze. Piotr Gołębczyk został Head of SMB Business (odpowiada za grupę produktów dla małych i średnich przedsiębiorstw, jak również dla rynku enterprise), Robert Kowalski awansował na stanowisko Head of SOHO Business (w nowej roli będzie realizował zadania związane z obsługą i rozwojem całego kanału i produktów SOHO, który obecnie stanowi największą wartość w całej ofercie Brothera na polskim rynku), Tomasz Boroński odpowiada, wraz ze swoim zespołem, za cały sektor etykietowania, jako Head of Labeling Solutions, zaś Łukasz Kurbiel awansował na stanowisko Team Leader – MPS & Copier Dealer Channel i będzie kierował zespołem odpowiedzialnym za rozwój kontraktów w sektorze SMB.

Bartosz Bim w IT Solution Factor

Bartosz Bim, jako Sales Executive w IT Solution Factor, skoncentruje się na budowie i rozwoju długoterminowych relacji z klientami. Do jego zadań należy również reprezentacja spółki podczas wydarzeń branżowych. Bartosz Bim przez poprzednie dwa lata był dyrektorem sprzedaży w Netformers, jak też ma wieloletnie doświadczenie na stanowiskach menedżerskich w obszarze sprzedaży, które zdobywał w takich firmach jak IBM, NTT Ltd., Dimension Data oraz Xerox.

Nowy dyrektor IT w Allianz Polska

Do Allianz Polska dołączył Ernest Dołęga-Wołkowycki, obejmując stanowisko dyrektora Departamentu Wewnętrznego IT (CIO) oraz Zarządzania Projektami. Odpowiada za projekty strategiczne, wspierając rozwój rozwiązań IT dla biznesu i transformację technologiczną organizacji. Ostatnio, od 2022 r., pełnił rolę dyrektora produktów cyfrowych w Grupie Lux Med. Wcześniej był Head of Digital w Aviva Poland (firma została przejęta przez Allianz). Doświadczenie zdobywał także w banku Millennium oraz w Capgemini. Dotychczasowy szef IT w Allianz Polska, Tomasz Krzaczkowski, awansował na stanowisko regionalnego CIO w Europie Środkowej.

Olszewska w zarządzie SAP-a

Teresa Olszewska została dyrektorem sprzedaży i wiceprezesem zarządu SAP Polska. Odpowiada za sprzedaż w segmencie corporate, obejmującym firmy w fazie wzrostu. Ma ponad 25-letnie doświadczenie w branży i ekosystemie SAP. Była już związana z SAP Polska w latach 2000–2006. Potem pełniła funkcję prezesa zarządu Gavdi Polska. Po przejęciu tej firmy przez SD Worx odpowiadała za europejski biznes SAP w Grupie SD Worx.

Głowacki wiceprezesem NTT System

Robert Głowacki został wiceprezesem zarządu NTT System. Z grupą kapitałową jest związany od 10 lat. Od 2023 r. pracuje na stanowisku wiceprezesa zarządu NTT Technology, a w poprzednich latach zdobywał doświadczenie na stanowiskach kierowniczych i menedżerskich w takich firmach jak HP, Emitel, Wasko, Aram i Comarch.

Zmiany w Komputronikazarządzie

Do zarządu Komputronika dołączył Marcin Mordak, który swoją pracę w poznańskiej firmie rozpoczął w 2019 r. Wówczas odpowiadał za rozbudowę portfolio usług dodatkowych, aby w 2024 r. objąć funkcję dyrektora sprzedaży omnichannel. Przed dołączeniem do Komputronika pracował dla Neonetu, Koksztysu i Sklepów Komfort. Ma ponad 25-letnie doświadczenie w zarządzaniu sprzedażą.

Mariusz Madej w Integrity Partners

Mariusz Madej został Cloud Sales Directorem w Integrity Partners. Odpowiada za sprzedaż usług i rozwiązań chmurowych, współpracę z kluczowymi klientami oraz strategię wzrostu w obszarze cloud. Dotychczas przez 6 lat pracował w T-Mobile Polska Business Solutions, ostatnio na stanowisku Head of Microsoft Technical & Business Solutions. Wcześniej był dyrektorem sprzedaży w Atende, a w HPE odpowiadał za współpracę z partnerami.

Piotr Gołębczyk Robert Kowalski Tomasz Boroński Łukasz Kurbiel

cztery technologiczne trendy na 2026 rok

Dziennikarze The Wall Street Journal w swoich prognozach na nowy rok postawili na rozwiązania bazujące na sztucznej inteligencji, które niosą ze sobą zarówno obietnice innowacji, jak i potencjalne zagrożenia.

Wojciech Urbanek

Opracowana przez nowojorski dziennik obszerna lista prognoz technologicznych rzuca światło na kierunki rozwoju innowacji w nadchodzących miesiącach. Motywem przewodnim zestawienia są rozwiązania, które mają potencjał znacząco wpłynąć zarówno na życie prywatne, jak i pracę użytkowników poszczególnych rozwiązań w nadchodzących miesiącach. Z bogatego katalogu przewidywań wybraliśmy cztery szczególnie, naszym zdaniem, ciekawe propozycje. Niewykluczone, że część z nich wpłynie również na polskich użytkowników technologii.

POWAŻNE ZAGROŻENIE STANOWIĄ ASYSTENCI AI WBUDOWANI W PRZEGLĄDARKI.

1. Bardzo inteligentne i złośliwe oprogramowanie

Ostatnie lata przyniosły lawinowy wzrost cyberataków. Nic nie wskazuje na to, że w tym roku napastnicy odpuszczą. Wręcz przeciwnie, sztuczna inteligencja sprawia, że złośliwe oprogramowanie staje się łatwo dostępne nie tylko dla doświadczonych hakerów, ale również dla tych początkujących. Ci ostatni mogą wykorzystywać AI do tworzenia deepfake’ów czy perfekcyjnie opracowanych e-maili phishingowych. Poważne zagrożenie stanowią asystenci AI wbudowani w przeglądarki. Oszuści wstrzykują prompty manipulujące asystentem AI, który analizuje zawartość strony. Google wykryło program potrafiący automatycznie zmieniać swoje zachowanie i strukturę w odpowiedzi na próby wykrycia czy zablokowania. Z kolei naukowcy odnotowali działania podmiotów sponsorowanych przez państwa, polegające na wykorzystaniu modelu bazującego na Google Gemini do generowania złośliwych poleceń.

2. Model świata

Wprawdzie duże modele językowe (LLM) zawojowały świat, ale mają one też swo-

je ograniczenia, a ich inteligencja wciąż odbiega od ludzkiej. Jednak armia świetnie opłacanych badaczy nie składa broni. Jednym z ich najnowszych pomysłów są tzw. modele świata. „Matka chrzestna” AI Fei-Fei Li, dyrektor Stanford Artificial Intelligence Lab oraz Stanford Vision Lab, a także Yann LeCun, były główny naukowiec Meta AI, uruchomili startupy działające w tym właśnie obszarze. W takim modelu sztuczna inteligencja jest w stanie wędrować po wirtualnym „królestwie”, ucząc się poprzez doświadczanie i interakcję, a nie tylko przetwarzać książki, filmy i inne zestawy danych. Współzałożyciel OpenAI Ilya Sutskever opuścił firmę, aby dwa lata temu uruchomić własny startup Safe Superintelligence. Powiedział wówczas, że znalazł inny sposób na rozwój sztucznej inteligencji. Jego zdaniem samo zwiększanie zasobów nie gwarantuje już jakościowych skoków, bowiem potrzebne są fundamentalnie nowe paradygmaty uczenia się. Wizja Sutskevera bardziej przypomina niezwykle utalentowanego ucznia niż wszechwiedzącą bazę danych – „superinteligentnego 15-latka”, który jeszcze niewiele umie, ale potrafi nauczyć się każdego zawodu.

3. Czytanie w myślach dla zdrowia, zabawy i… zysku

Neurotechnologia to interdyscyplinarna dziedzina nauki, która łączy neurologię, biologię, inżynierię i informatykę w celu zrozumienia oraz wzmacniania funkcji ludzkiego mózgu. To obszar, którego przyszłość rysuje się w wyjątkowo jasnych barwach. Efektem prac naukowców ma być upowszechnienie się interfejsu mózg-komputer. Jednym z pionierów jest Elon Musk i jego projekt Neuralink. Pod koniec ubiegłego roku miliarder poinformował, że w 2026 r. rozpocznie produkcję interfejsów i przejdzie do całkowicie zautomatyzowanej procedury chirurgicznej.

Jednak większość ludzi będzie poszukiwać rozwiązań nieinwazyjnych. Takim przykładem jest opaska Meta na nad-

garstek, odczytująca sygnały nerwowe użytkownika, a następnie przekładająca je na działania w firmowych zestawach słuchawkowych z wirtualną rzeczywistością i inteligentnych okularach rozszerzonej rzeczywistości. Z kolei startup neurotechnologiczny Sama Altmana, Merge Labs, wykorzystuje ultradźwięki do odczytu aktywności mózgu. W laboratoryjnych testach ludzie już kontrolują myślami gadżety, a nawet wózki inwalidzkie.

4. Opieka zdrowotna – zrób to sam Rosnące koszty opieki zdrowotnej i coraz trudniejszy dostęp do lekarzy napędzają rozwój technologii medycznych i innowacyjnych usług zdrowotnych. Amazon One Medical oferuje wirtualne wizyty lekarskie dostępne w modelu płatności za sesję oraz w ramach rocznej subskrypcji z rabatem dla członków Prime. Pacjenci mogą korzystać z urządzeń do noszenia, klinicznie potwierdzonych w monitorowaniu nadciśnienia i bezdechu sennego, a także z narzędzi umożliwiających domowy pomiar parametrów życiowych w czasie rzeczywistym podczas zdalnych konsultacji. Dzięki tym rozwiązaniom możliwe jest pominięcie tradycyjnej wizyty kontrolnej u lekarza.

Poza tym wiele osób zwraca się do chatbotów AI o pomoc w rozwiązaniu medycznych zagadek. Możliwe jest (choć nie zalecane) uzyskanie diagnozy od ChatGPT, a następnie udanie się online w poszukiwaniu recepty. Niemniej tutaj kryje się pułapka w postaci botów wymyślających pewne fakty. W rezultacie pozorne oszczędności mogą sprawić, że pacjent znajdzie się w gorszej sytuacji i przyjdzie mu wydać na leczenie więcej.

Tekst opracowany na podstawie publikacji w „The Wall Street Journal”.

W LABORATORYJNYCH TESTACH LUDZIE JUŻ KONTROLUJĄ MYŚLAMI GADŻETY.

Gala Mistrzów IT:

święto profesjonalizmu

„(R)ewolucja w dobie transformacji” – pod takim hasłem odbyła się pierwsza część uroczystej Gali Mistrzów IT, po której wręczone zostały certyfikaty Channel Master 2026 i wyróżnienia IT Master 2026, jak też ogłoszono zdobywcę tytułu Promotor Wiedzy.

Na zaproszenie wydawnictwa Peristeri

Sala Balowa Ludwikowska warszawskiego hotelu Polonia Palace po raz kolejny gościła elitarne grono wybitnych reprezentantów sektora IT – producentów, dystrybutorów oraz integratorów – jak też przedstawicieli świata nauki i stowarzyszeń branżowych. Pierwszą część wieczoru zdominowały rozmowy na temat dalszego rozwoju sektora technologicznego w szybko zmieniającym się otoczeniu biznesowym, technologicznym i gospodarczym. - W efekcie, jak przewidują analitycy Canalysa, do 2028 roku co piąty dystrybutor zostanie przejęty lub zakończy działalność. Jednocześnie mocno wzrośnie konkurencja wśród integratorów. Ci sami analitycy wieszczą, że już za niespełna trzy lata aż 25 procent partnerów w branży IT to będą debiutanci – mówił Tomasz Gołębiowski, redaktor naczelny CRN Polska.

Z drugiej strony biznes IT znajduje się w fazie ciągłego wzrostu, o czym świadczy fakt, że według Canalysa światowe wy-

datki na infrastrukturę i usługi mają w tym roku przekroczyć poziom 5,3 biliona dolarów. A jako że około 70 proc. z tej kwoty „przejdzie” przez kanał partnerski, cieszyć mogą się nie tylko integratorzy, ale także dystrybutorzy.

- I teraz rodzi się pytanie, czy w takich warunkach potrzebna jest rewolucja czy może wystarczy jakaś stosunkowo niewielka ewolucja? Zdecydowanie warto, w tak wybitnym gronie, poszukać odpowiedzi na to pytanie – podkreślał Tomasz Gołębiowski, zapraszając na scenę gościa specjalnego Macieja Szcześniaka, pomysłodawcę nowego kierunku studiów w Akademii Leona Koźmińskiego pod nazwą Akademia Business as a Service. Następnie do uczestników gali zwrócił się Jay McBain, Chief Analyst Canalysa, omawiając – z globalnej perspektywy – kluczowe zmiany, jakie zachodzą w ekosystemie partnerskim sektora IT. Część merytoryczną wydarzenia zwieńczyła debata z udziałem: Michała Gołębiewskiego – dyrektora Pionu Cloud

w Integrity Partners, Grzegorza Rudno-Rudzińskiego – partnera zarządzającego w Univio i członka Rady Doradców Stowarzyszenia ITCORNER, Macieja Szcześniaka – reprezentującego Akademię Leona Koźmińskiego oraz Grzegorza Szmigla – dyrektora technicznego Exclusive Networks Poland.

Channel Master 2026

Do kluczowych punktów agendy Gali Mistrzów IT należało wręczenie certyfikatów Channel Master 2026, które w trzeciej edycji tego programu przyznano 14 producentom, z czego dziewięciu otrzymało Złoty Certyfikat – za szczególnie konsekwentne wspieranie rozwoju polskiego ekosystemu partnerskiego. Na uwagę zwraca i cieszy certyfikacja zarówno dla największych vendorów, jak też tych mniejszych, specjalizowanych – albowiem z punktu widzenia ekosystemu

partnerskiego szczególnie liczy się jakość obsługi, z korzyścią dla wszystkich graczy rynkowych oraz użytkowników końcowych. A pod tym względem niszowy vendor może dorównać największym światowym korporacjom, co uwzględnia dobrze przemyślany proces certyfikacji powstały we współpracy z doświadczonymi polskimi integratorami.

IT Master 2026

Nie mniej uroczyste i radosne było wyróżnienie tytułem IT Master 2026 zasłużonych i dynamicznie rozwijających się integratorów. W tym celu każdy z nich musiał poddać się procedurze weryfika-

cji na bazie klarownych, obiektywnych kryteriów, jak też w oparciu o referencje użytkowników biznesowych i instytucjonalnych. W drugiej edycji tego programu pozytywnie zweryfikowanych zostało 12 integratorów, różnej wielkości i o różnych specjalizacjach.

Promotor Wiedzy W trakcie uroczystości przyznano również tytuł Promotor Wiedzy, który w tym roku trafił do DAGMA Bezpieczeństwo IT w uznaniu dla zaangażowania na rzecz rozwoju ekosystemu partnerskiego w zakresie świadczenia usług zarządzanych, jak też

dziękując za wspólne projekty edukacyjne. Ponadto, korzystając z okazji, uhonorowaliśmy za olbrzymi wkład w rozwój branży Andrzeja Przybyło, niewątpliwego mistrza IT, który po kilku dekadach sukcesów na stanowisku prezesa AB niebawem przejdzie do Rady Nadzorczej lidera polskiej dystrybucji.

Galę Mistrzów IT poprowadziła Anna Butrym – znakomita konferansjerka, tłumaczka i trenerka wystąpień publicznych. Dziękujemy i gratulujemy!

Lista zdobywców certyfikatów

Channel Master 2026

Lista zdobywców tytułów IT Master 2026

Dziękujemy Partnerom tego wyjątkowego wydarzenia

Channel Master 2026:

mistrzowie ekosystemu partnerskiego!

Po raz pierwszy w historii producenci, którzy konsekwentnie wspierają rozwój polskiego ekosystemu partnerskiego, otrzymali złote certyfikaty Channel Master!

Zdobywcy złotych certyfikatów

Channel Master 2026

Po raz trzeci wręczyliśmy certyfikaty Channel Master, które nie są po prostu okolicznościowymi nagrodami dla producentów, ale stanowią empiryczny dowód ich najwyższej dbałości o wysokie standardy i jakość bieżącej obsługi oraz rozwoju ekosystemu partnerskiego. Empiryczny, bo potwierdzony procedurą certyfikacji zakończoną weryfikacją wśród konkretnych partnerów danego vendora. Redakcji CRN Polska zależy, żeby w ten sposób promować i tym samym wspierać

Maciej Kamiński, Dyrektor Dywizji Memory w Polsce i CEE baramundi software Brother Dell Technologies

Gerhard Gerstmayer, Head of Sales Europe Central-South

Piotr Gołębczyk, Head of SMB Business

Dariusz Okrasa, Senior Channel Sales Manager

Zdobywcy certyfikatów

Channel Master 2026

Logserver

Artur Bicki, Prezes Zarządu

Marcin Gwara, Channel Manager Tomasz Przybylski, Commercial Channel Lead

Tomasz Klewinowski, SMB&Channel Director

producentów, którzy z największym zaangażowaniem i za pomocą szeregu narzędzi wspierają funkcjonowanie i rozwój swoich społeczności partnerskich.

W tym roku mieliśmy zaszczyt przyznać złote certyfikaty Channel Master tym producentom, którzy zdobyli certyfikat po raz trzeci z rzędu, co stanowi dowód na szczególnie konsekwentne starania w kierunku rozwoju i dbałości o ekosystem partnerski na polskim rynku IT. Do tego grona zalicza się obecnie dziewięciu vendorów (pełna lista zdobywców certyfikatów w ramce poniżej).

Należy przy tym szczególnie mocno podkreślić, że program Channel Master nie promuje w żaden sposób producen-

tów o największej liczbie partnerów czy największych przychodach. Procedurę certyfikacji może z powodzeniem przejść również producent o niewielkiej liczbie partnerów, ale zapewniający im obsługę na najwyższym poziomie.

W ten sposób idea certyfikatów wpisuje się jednocześnie w założenia Kodeksu

Dobrych Praktyk Partnerskich Branży IT, stanowiącego kanon postępowania z partnerami biznesowymi w sektorze technologicznym. Pełna treść kodeksu jest dostępna pod adresem: crn.pl/artykuly/kodeksdobrych-praktyk-partnerskich-branzy-it.

Kodeks Dobrych Praktyk Partnerskich

SERDECZNIE GRATULUJEMY

WSZYSTKIM FIRMOM, KTÓRE ZDOBYŁY CERTYFIKATY CHANNEL MASTER 2026!

Schneider Electric SharpSynologyTP-Link

Halle Epstein, Secure Power Sales Director

Piotr Morko, European Marketing Manager Newline Interactive

Grzegorz Maczuga, Indirect Sales Manager CEE

Aleksandra Zienkiewicz-Zachaj, Business Development Manager Poland

Robert Gawroński, B2B Sales Director

Gerard Dermont, Strategic Segments Director CEE Vertiv

Kategorie certyfikacji

O przyznaniu certyfikatu Channel Master 2026 decydowała suma punktów zdobytych w poniższych kategoriach:

l prowadzenie działań sprzedażowych wyłącznie za pośrednictwem partnerów handlowych (lub przy równoległym prowadzeniu sprzedaży bezpośredniej ograniczenie jej do ściśle określonej grupy klientów lub grupy produktów, tak żeby bezpośrednie działania sprzedażowe nie kolidowały ze sprzedażą przez partnerów);

l procedura rejestracji projektów sprzedażowych przez partnerów;

l program partnerski rozumiany jako zbiór zasad, dzięki którym partnerzy handlowi Firmy realizując jej cele sprzedażowe, zyskują benefity (premie, rabaty, nagrody itp.), potwierdzając zarazem swoją pozycję w ekosystemie partnerskim Firmy wobec innych partnerów handlowych z wynikającymi z tego korzyściami;

l umożliwienie partnerom handlowym oraz potencjalnym użytkownikom końcowym zapoznania się z produktami w formie: wypożyczenia produktów demo, zakupu produktów demo na specjalnych warunkach

cenowych lub udostępnienia showroomu w Polsce, gdzie prezentowane są produkty Firmy (dla producentów oprogramowania: dostępność wersji NFR lub bezpłatnych wersji trial);

l osoba zatrudniona w Firmie (lub z nią współpracująca), której podstawowym obowiązkiem jest współpraca i rozwój ekosystemu partnerów handlowych Firmy (Channel Manager lub inaczej nazwany odpowiednik takiej funkcji);

l wsparcie marketingowe dla partnerów handlowych;

l cykliczne (minimum raz do roku) szkolenia produktowe i/lub handlowe (stacjonarne i/lub webinary) dla partnerów handlowych;

l polskojęzyczne wsparcie dla partnerów handlowych;

l organizacja co najmniej jednego rocznie wydarzenia dla partnerów handlowych (konferencji, zjazdu) w Polsce lub umożliwienie udziału partnerom z Polski w takim wydarzeniu organizowanym za granicą.

Marcin
Binkiewicz

WYDARZENIA

IT Mast er 2026:

mistrzowie wdrożeń IT!

W tym roku do grona szczególnie doświadczonych i dynamicznie rozwijających się integratorów dołączyły kolejne firmy, zaszczycając swoją obecnością drugą edycję konkursu IT Master.

Niezmienne od lat szybkie tempo rozwoju technologicznego i wciąż niepewna sytuacja gospodarcza skłaniają klientów do poszukiwania stabilnych, bezpiecznych dostawców rozwiązań i usług IT. Właściwy wybór partnera technologicznego staje się wręcz kluczowym elementem strategii biznesowej. Przy czym bezpieczny partner biznesowy to taki, który nie jest bezpośrednio narażony na zmienne warunki rynkowe, lecz skupia się na długoterminowych relacjach z klientami i zapewnianiu wysokiej jakości usług. W taki właśnie sposób swoją misję pojmują zdobywcy tytułów IT Master 2026! Co szczególnie istotne, wyróżnienie przyznawane jest na podstawie klarownych, obiektywnych kryteriów, jak: staż na rynku, stabilna sytuacja finansowa, systematyczny rozwój, statusy partnerskie u producentów, zatrudnieni specjaliści, opinie kluczowych klientów i certyfikaty. Tym samym tytuł IT Master stanowi potwierdzenie przynależności do grona stabilnych integratorów, dając klientom pewność, że mają do czynienia ze skutecznym, zaangażowanym, a tym samym wiarygodnym dostawcą technologii.

Gratulujemy firmom wyróżnionym tytułem IT Master 2026!

Właściwy wybór partnera technologicznego staje się wręcz kluczowym elementem strategii biznesowej. Przy czym bezpieczny partner biznesowy to taki, który nie jest bezpośrednio narażony na zmienne warunki rynkowe, lecz skupia się na długoterminowych relacjach z klientami i zapewnianiu wysokiej jakości usług.

Wyróżnienie przyznawane jest na podstawie klarownych, obiektywnych kryteriów.

Wyróżnieni tytułem IT Master 2026

Łukasz

Kolenda-Parakiel, prezes zarządu

Piotr Fabiański, prezes zarządu

Karol Girjat, Business Development Manager

Mariusz Stusiński, prezes zarządu

Adrianna Kilińska, prezes zarządu

Sławomir Zieliński, prezes zarządu

Łukasz Pietrzak, Marketing Manager Sebastian

Kacper Konopiński, prezes zarządu

prezes zarządu

Jakub Jurek, Head of Sales

Mateusz Dębowski, członek zarządu

Mariusz Jurak, wiceprezes zarządu

Debata Partnerów Gali Mistrzów IT:

„( R )ewolucja

w dobie transformacji”

O nowych wyzwaniach i szansach w okresie przełomu technologicznego oraz rozwoju nowych modeli biznesowych rozmawialiśmy z przedstawicielami Exclusive Networks, Integrity Partners, Stowarzyszenia ITCORNER i Akademii Leona Koźmińskiego.

Według Jaya McBaina, głównego analityka Canalys, jesteśmy św iadkami największej transformacji w 44-letniej historii kanału sprzedaży w branży IT – czego świetnym przykładem jest Amazon, który na rynku detalicznym prześcignął Walmart, ponadto AWS Marketplace otworzył swoje „podwoje” dla całego sektora SaaS, a następny ruch biznesowy tego giganta ma dotyczyć sprzętu.

Co więcej, według prognoz Canalysa, do 2028 r. co piąty dystrybutor IT zostanie przejęty lub zakończy działalność. Jednocześnie, jak wieszczą analitycy, wzrośnie konkurencja wśród integratorów – za niespełna trzy lata aż 25 proc. firm w ekosystemie partnerskim branży technologicznej to mają być debiutanci. Z drugiej strony biznes IT znajduje się w fazie wzrostowej, o czym świadczy fakt, że światowe wydatki na infrastrukturę

i usługi mają w tym roku zwiększyć się o 7 proc., przekraczając poziom 5,3 biliona dolarów. A jako że około 70 proc. z tej kwoty „przechodzi” przez kanał partnerski, cieszyć mogą się nie tylko integratorzy, ale też dystrybutorzy. I teraz rodzi się pytanie, czy w takich warunkach potrzebna jest rewolucja czy może wystarczy stosunkowo niewielka ewolucja?

Odpowiedź, siłą rzeczy, jest niezwykle trudna, a nie ułatwia jej fakt, że nastał koniec ery, kiedy to polscy przedsiębiorcy – w tym ci z sektora technologicznego – jedni mniej, inni bardziej refleksyjnie, podążali za szeroko rozumianym Zachodem, ze wskazaniem na Stany Zjednoczone. Te jednak obecnie rozwijają się na zasadach zupełnie różnych od tych chińskich. Z kolei oba te potężne centra technologiczne wybrały inną drogę niż Unia Europejska, która poprzez rozrost biurokracji i kolejnych obciążeń odbiera lokalnym gospodarkom przewagi konkurencyjne. Stąd kolejne pytanie: na co polskie firmy IT mają się strategicznie, długofalowo orientować w swoich wyborach technologicznych i biznesowych?

Dodatkowo, wciąż nie wiadomo, w jakim kierunku potoczy się dalszy rozwój AI, przy czym zarówno bierna obserwa-

cja tego trendu, jak też podłączenie się do niego na zasadzie early adopterów generuje duże ryzyko. Co z kolei, biorąc pod uwagę wysoki stopień hierarchizacji polskich firm i niskiej akceptacji popełniania błędów, generuje dodatkowe napięcie. W efekcie rodzimy sektor technologiczny musi nawigować w otoczeniu globalnej niepewności politycznej (a w zasadzie geopolitycznej), nałożonej na niepewność technologiczną oraz biznesową. Niełatwo zatem o syntetyzację celów biznesowych, a z drugiej wypracowanie możliwie wysokich umiejętności konsultingowych, aby doskonale znać potrzeby klientów. Zwłaszcza że obecnie wielu z nich nawet, gdy wie, czego potrzebuje, to nie zawsze potrafi adoptować nowe, zaawansowane rozwiązania (na przykład z powodu braku odpowiednio wyszkolonej kadry). Czy odpowiedzią na związane z tym wyzwania mogą być usługi zarządzane?

Próbę opisania obecnej sytuacji rynkowej i związanych z tym wyzwań i potrzeb podjęliśmy podczas Debaty Partnerów Gali Mistrzów IT. Na stronie obok prezentujemy wybrane opinie jej uczestników.

Michał Gołębiewski

dyrektor Pionu Cloud, Integrity Partners

Grzegorz Rudno-Rudziński

członek Rady Doradców Stowarzyszenia

ITCORNER, partner zarządzający Univio

Maciej Szcześniak

Każda nowa technologia wymaga dodatkowych zabezpieczeń, a w przypadku AI są one na tyle ważne, że niezbędny staje się profesjonalny konsulting świadczony przez integratorów swoim klientom. Tak, żeby nie zdarzały się anegdotyczne sytuacje, kiedy to pracownik finansów wrzuca firmowe dane do ChataGPT, żeby wesprzeć się w bieżącej pracy, po czym następnego dnia wszyscy w firmie wiedzą ile zarabia prezes… Przy czym, co warto bardzo mocno podkreślić, coraz pilniejsze jest doradztwo w zakresie procesów biznesowych, czemu dopiero później powinno towarzyszyć doradztwo technologiczne. Tym samym integratorzy nie powinni być już „tylko” dostawcami określonych rozwiązań i usług. Jednocześnie warto podkreślić, że choć branża IT musi sprostać nowym wyzwaniom, to wciąż mamy do czynienia z rozwojem technologicznym i związaną z tym potrzebą nowych usług. A to bardzo dobra wiadomość.

Nowe modele biznesowe, ze wskazaniem na te wokół AI, stanowią olbrzymie wyzwanie mentalne dla liderów we współczesnych organizacjach. Wcześniej, przez długie lata, cyfryzacja, choć nie pozbawiona wyzwań, w większości przypadków kończyła się sukcesem. Wówczas prawdopodobieństwo porażki wynosiło 20 procent, podczas gdy obecnie nierzadko takie jest prawdopodobieństwo… sukcesu. Co przy naszej kulturze braku akceptacji błędów powoduje, że wiele firm myśli o nowych modelach biznesowych dopiero, gdy nie mają innego wyjścia – ze względu na malejące marże w tradycyjnych sektorach. Należy te obawy przełamać, bo nie są to już czasy, w których jako kraj rozwijający się podążaliśmy za szeroko rozumianym Zachodem, kopiując tamtejsze sposoby działania. Teraz innowacyjne podejście do biznesu i związane z tym ryzyko stają się koniecznością.

Wobecnej

pomysłodawca studiów podyplomowych „Akademia Business as a Service” w Akademii Leona Koźmińskiego

sytuacji, kiedy tradycyjne segmenty rynku IT borykają się ze stagnacją i poszczególni gracze wypadają z gry lub się konsolidują, rośnie wartość tych, którzy postawili na rozwój w nowych technologiach i nowych modelach biznesowych – w tym w zakresie AI i usług zarządzanych. Taka sytuacja ma zresztą miejsce nie tylko w Polsce, ale na całym świecie. Przy czym, paradoksalnie, sztuczna inteligencja powoduje panikę wśród wielu firm świadczących usługi IT. Jeżeli bowiem obecnie koszt usługi obejmującej obsługę jednego stanowiska komputerowego wynosi około 75 dolarów, to można się spodziewać, że przy zastosowaniu AI koszt spadnie do 20 dolarów. Dlatego trzeba sztuczną inteligencję wykorzystać na swoją korzyść, zarabiając na związanych z nią wdrożeniach. Jednak najpierw warto zacząć wewnętrznie, od swojej własnej organizacji, a dopiero później wyjść z tym do klientów. Wtedy będzie można klientowi powiedzieć: ja zmieniłem dany proces u siebie w taki a taki sposób i tobie też mogę w tym pomóc.

Grzegorz Szmigiel

Technical Director CEE, Exclusive Networks

Rewolucja AI stanowi zupełnie nową szansę na zredefiniowanie dotychczasowej roli, jaką pełnią dostawcy technologii. Nasza branża zyskuje możliwość realizacji szeregu zupełnie nowych projektów i potencjał, z jakim mamy do czynienia w tym zakresie jest nieporównywalny z możliwościami technologicznymi sprzed dziesięciu czy nawet pięciu lat. Żeby jednak ten potencjał wykorzystać, użytkownicy będą potrzebować z naszej strony ścisłego doradztwa. Zwykle brakuje im bowiem kompetencji niezbędnych do przeprowadzania wdrożeń na bazie najnowszych technologii, które byłyby zasadne biznesowo. Muszą jednak wiedzieć, jak te projekty zaplanować, przeprowadzić i skonsumować. To rola integratorów, w tym naszych partnerów, których jesteśmy w tym zakresie w stanie wesprzeć – zarówno tych mniejszych, którzy nie dysponują własnymi zasobami, jak i większych, którzy mają zasoby, ale brakuje im know-how w określonych obszarach technologicznych czy biznesowych.

Lenovo Top Partners Awards’25:

20-lecie i nagrody dla partnerów!

Podczas uroczystej Gali Lenovo Top Partners Awards’25 producent uhonorował partnerów za osiągnięcia minionego roku, jak też podzielił się prognozami na rok 2026.

Krzysztof Pasławski

Gala Lenovo Top Partners Awards’25 była jednym z największych branżowych wydarzeń minionego roku oraz – już tradycyjnie – radosnym, uroczystym świętem partnerów producenta. Wydarzenie odbyło się w warszawskim Ufficio Primo i zgromadziło polską elitę branży IT, jak również zespół Lenovo Polska i dyrektorów producenta z całego świata. W tym roku wydarzenie miało szczególnie uroczystą oprawę, gdyż zbiegło się z 20-leciem obecności firmy na rynku.

– Te 20 lat to jest historia, na której chcemy budować przyszłość w każdym

produkcie, w którym Lenovo jest obecne i wygrywać razem z wami –  mówił Wojciech Zaskórski, General Manager Lenovo Polska, który prowadził galę wraz z wybitną prezenterką Grażyną Torbicką. Wojciech Zaskórski podkreślił, że dwie dekady Lenovo w Polsce zostały zbudowane na solidnym fundamencie, jakim była marka ThinkPad (gdyby ułożyć w jedną wieżę wszystkie komputery ThinkPad, które zostały sprzedane w Polsce, to byłaby ona wyższa niż Pałac Kultury i Nauki w Warszawie!). Nawiązując do minionego roku, General Manager

Lenovo w Polsce przyznał, że choć ten rok był dużym wyzwaniem, jednak nawet w tak wymagającym otoczeniu producent uzyskał bardzo dobre wyniki, co było możliwe dzięki bliskiej współpracy z partnerami.

– To sukces, na który pracowaliśmy wszyscy razem. Dzięki współpracy i długoterminowemu myśleniu udało nam się doprowadzić do sytuacji, w której co trzeci komputer w Polsce to urządzenie Lenovo – zaznaczył Wojciech Zaskórski.

Zauważył przy tym, że Lenovo to już nie tylko komputery, skoro ponad 50 proc.

przychodów firmy pochodzi spoza sektora PC. I choć producent inwestuje w nowe obszary, wciąż ma duże ambicje dotyczące dalszego rozwoju głównych segmentów produktowych.

– W komputerach czujemy się jak wzorowy uczeń. I tak właśnie jest, skoro mamy, metaforycznie rzec ujmując, czerwony pasek na świadectwie. Jednak wzorowy uczeń zawsze chce więcej i my też mamy ambicje, żeby było jeszcze lepiej – mówił Wojciech Zaskórski. Nawiązał również do danych IDC, z których wynika, że ISG (grupa rozwiązań infrastrukturalnych) jest wiceliderem polskiego rynku.

– Nie zamierzamy poprzestać na osiągnięciach 2025 roku, a naszą myślą przewodnią w długim terminie jest partnerstwo typu win win Dzięki temu jesteśmy w stanie wygr ywać –  podsumował Wojciech Zaskórski.

Polska ważnym krajem dla Lenovo

Na tegorocznej, jubileuszowej Gali Lenovo obecni byli regionalni dyrektorzy producenta, a wśród nich Matt Dobrodziej, Lenovo SVP & EMEA President oraz Ivan Bozev, General Manager w regionie

Europy Środkowo – Wschodniej oraz w Azji Centralnej.

– Polska jest bardzo ważna dla naszego biznesu. Wyróżnia się w Europie, jest też krajem bardzo ważnym na przyszłość, w którą wspólnie inwestujemy – zapewniał Matt Dobrodziej, podkreślając przy tym, że Lenovo w Polsce jest w wielu segmentach rynku (PC, tablety, gaming, produkty commercial) numerem 1, jak też ma potencjał do szybkiego rozwoju w sektorze centrów danych i serwerowym. Jednocześnie szef Lenovo w regonie EMEA przypominał, że osiągnięcia Lenovo nie byłoby możliwe bez partnerów.

– Ta ceremonia jest dla was. Dziękuję za waszą ciężką pracę, która jest dla nas bardzo ważna – mówił Matt Dobrodziej, podczas gdy Wojciech Zaskórski życzył swojemu zespołowi i partnerom, aby „kolejny rok był stabilny jak ThinkPad”. – Współpraca z zespołem Lenovo to nie jest biznes, to jest przyjemność

w ten sposób Tadeusz Kurek, prezes NTT System oraz weteran polskiej branży IT, podsumował spotkanie, w imieniu wszystkich zgromadzonych partnerów Lenovo.

Laureaci Złotych Jedynek

l Projekt PC – Large Enterprise: Infonet Projekt SA

l Sektor Publiczny: MBA System

l Projekt MidMarket: Delkom

l Rozwiązania dla centrum danych: Vernity

l Rozwiązania serwerowe dla małych

i średnich przedsiębiorstw: Madu

l Produkty biznesowe SMB: NTBX

l Smartfony – Media Expert

l Smartfony B2B: Polkomtel

l Produkty konsumenckie:

Media Expert

l Gaming: RTV Euro AGD

l Operator roku 2025: Orange

Polska

l Dystrybutor roku 2025 w kategorii

Serwery i pamięci masowe: Ingram

Micro (Polska)

l Dystrybutor roku 2025 w kategorii

Produkty biznesowe: AB SA

l Dystrybutor roku 2025 w kategorii

Produkty konsumenckie: Also

l Dystrybutor roku 2025 w kategorii

Smartfony: NTT System

Wigilia Branży IT:

czas relacji i inspiracji

To już tradycja, że pod koniec roku liderzy polskiego sektora technologicznego spotykają się na Wigilii Branży IT – wydarzeniu organizowanym przez Go Creation Polska.

Wydarzenie było, jak co roku, znakomitą okazją do złożenia życzeń, a jednocześnie jednym z najlepszych eventów networkingowych w ubiegłorocznym kalendarzu. Wspólny czas relacji, zabawy i życzeń powodzenia w Nowym Roku miał miejsce 16 grudnia w Clubie Baila (Browary Warszawskie). Vendorzy, retailerzy i dystrybutorzy mogli w przedświątecznej atmosferze budować wartościowe relacje i rozmawiać o przyszłości branży w trudno przewidywalnych czasach. Jedno natomiast nie pozostawia wątpliwości: za jedenaście miesięcy odbędzie się kolejna Wigilia Branży IT – oby równie udana!

Sharp Inspire Expo 2026:

ewolucja od producenta do usługodawcy

Podczas tegorocznego Sharp Inspire Expo japoński producent zapoznał ponad 400 swoich partnerów nie tylko z najnowszymi produktami, ale przede wszystkim z nową strategią koncernu.

Minione pięć lat były dla Sharpa okresem intensywnych przemian: począwszy od rozbudowy oferty usług IT, przez pełną integrację systemów AV, aż po unifikację struktur. W tym okresie Sharp i NEC sfinalizowały transakcję utworzenia spółki joint venture (Sharp nabył większość udziałów w NEC Display Solutions). Ponadto japoński producent przejął europejskie firmy: brytyjski Complete IT, szwajcarski ITpoint Systems oraz francuską Apsię. Przejęcia stanowią element większej strategii Sharp Europe, której celem jest przekształcenie Sharpa z producenta urządzeń biurowych w wiodącego dostawcę usług IT na Starym Kontynencie.

– Rynek MFP jest płaski, a wolumen druku lekko spada, dlatego konsekwentnie przesuwamy ciężar wartości z samego produktu na zintegrowane usługi i rozwiązania: usługi druku i obiegu dokumentów, oprogramowanie do zarządzania procesami, a także rozwiązania AV i IT, w tym systemy podnoszące bezpieczeństwo i efektywność pracy. Celem jest model biznesowy „one-stop-shop”, obejmujący obszar technologiczny, bezpieczeństwa i kosztów – mówi Grzegorz Maczuga, Indirect Sales Manager CEE w Sharpie. Choć marka Sharp często kojarzona jest z produktami konsumenckimi, takimi jak telewizory czy sprzęt AGD, obecnie połowę globalnego biznesu producenta stanowi sektor B2B.

Debiut marki Sharp DX

Kluczowym punktem wydarzenia było uruchomienie Sharp DX (Sharp Digital Experience) - nowej marki, pod którą zrzeszone są firmy świadczące usługi IT w całej Europie, zatrudniające w sumie ponad 500 specjalistów. Sharp DX stanowi zwieńczenie wcześniejszych akwizycji japońskiego producenta. Pod nowym szyldem oferuje on rozwiązania z zakresu chmury, cyberbezpieczeństwa, usług zarządzanych (Managed Services), cyfrowe-

/ CRN / styczeń – luty 2026

– Sposób, w jaki dziś pracujemy, uległ znaczącej zmianie. To reakcja na oczekiwania naszych klientów, którzy wymagają czegoś więcej niż tylko urządzeń. Oni szukają partnera technologicznego, który zrozumie ich potrzeby. Dlatego otwieramy nowy rozdział pod hasłem Sharp B2B – mówi Joe Tomota, prezes Sharp Europe.

Strategia „One Sharp” i siła zaufania

Podczas tegorocznego Inspire Expo zaprezentowano założenia nowej strategii „One Sharp”. To przełomowy moment dla producenta, w którym usługi IT, AV oraz rozwiązania cyfrowe dla klientów biznesowych zostały zintegrowane w jedną, kompleksową ofertę. Mimo dużej rozpoznawalności japońskiej marki, Joe Tomota podkreśla, że w dzisiejszych realiach sama znajomość logo to za mało.

Z ubiegłorocznego badania przeprowadzonego wśród klientów B2B wynika, że przy wyborze partnera technologicznego kluczowe są: reputacja, jakość rozwiązań oraz doświadczenie wdrożeniowe. Co istotne, aż 78 proc. obecnych klientów uważa Sharpa za godnego zaufania dostawcę, 76 proc. ceni koncern za najwyższą jakość, a 73 proc. podkreśla ekspercką wiedzę specjalistów Sharpa.

– Dziś jesteśmy jedną, w pełni zintegrowaną firmą, a nasze zespoły współpracują ze sobą ściślej niż kiedykolwiek. Jesteśmy

gotowi na ekspansję tym bardziej, że o ile technologia zawsze dawała nam przewagę, to obecnie podnosimy poprzeczkę, stając się kompleksowym, cyfrowym partnerem dla biznesu – dodaje Joe Tomota.

Przyszłość druku i konsultacji

go środowiska pracy oraz systemów opartych na sztucznej inteligencji. Prezesem Sharp DX został Roland Singer, były prezes Sharp Information Systems. Fundamentem nowej marki jest Europejskie Centrum Wsparcia Technicznego w Warszawie, zapewniające całodobową obsługę w dziewięciu językach. Podczas konferencji ogłoszono, że w ciągu najbliższych dwóch lat planowane jest podwojenie liczby specjalistów w warszawskim zespole.

Mimo ofensywy w sektorze IT, Sharp nie wycofuje się z rynku urządzeń drukujących. W Lizbonie zaprezentowano nowe modele urządzeń wielofunkcyjnych (MFP) formatu A3 oraz A4. Firma ogłosiła również aktualizację ekosystemu Synappx, który automatyzuje codzienne zadania biurowe, łącząc drukarki i monitory interaktywne z urządzeniami mobilnymi oraz usługami w chmurze. Podsumowując nową wizję Sharpa, Joe Tomota unika wskazywania konkretnego produktu jako głównego motoru sprzedaży.

– Na pierwszym miejscu stawiamy konsultacje, które otwierają realne możliwości biznesowe. Handlowiec nie powinien patrzeć na klienta wyłącznie przez pryzmat sprzedaży drukarki. Jeśli spojrzy szerzej, chociażby na to, ilu monitorów dany klient używa i jak przebiega u niego komunikacja, wówczas odnajdzie obszary nieefektywne i pomoże rozwiązać użytkownikowi realne problemy – wyjaśnia Joe Tomota.

AI: czas na konkrety

Pomimo szeregu turbulencji miniony rok okazał się łaskawy dla niemal połowy respondentów ankiety na portalu CRN.pl.

Tomasz Gołębiowski

RAUTOMATYZACJA

PRZEDE WSZYSTKIM.

ok 2025 okazał się pod względem przychodów lepszy od swojego poprzednika dla 51 proc. ankietowanych przedstawicieli firm IT. Przy czym aż 47 proc. z nich deklaruje, że ich obroty rok do roku poprawiły się o ponad 10 proc., zaś w przypadku 4 proc. pytanych zwiększenie sprzedaży okazało się jednoprocentowe. W dużo słabszych nastrojach znajduje się co trzeci respondent, a 16 proc. uczestników sondy zapewnia, że utrzymało w ubiegłym roku swoje „zdobycze” sprzed dwóch lat. Inaczej, co rzecz jasna nie dziwi, rozkładają się odpowiedzi na pytanie: czy rozwiązania na bazie GenAI/Agentic AI cieszą się popularnością u Twoich klientów? Otóż większość respondentów (41 proc.) twierdzi, że klienci nie chcą w takie rozwiązania inwestować, zaś 22 proc. w ogóle nie wprowadziło ich do swojej oferty. Tylko i aż (w zależności od punktu widzenia) 37 proc. firm zapewnia, że ich produkty na bazie GenAI/ Agentic AI pomagają im odpowiadać na potrzeby klientów. Jednocześnie 27 proc. firm IT korzysta z GenAI na swoje własne potrzeby, podczas gdy w przypadku Agentic AI odsetek takich przedsiębiorców z branży technologicznej wynosi 26 proc. (obu typów rozwiązań używa 28 proc. pytanych). Co ciekawe, 19 proc. respondentów deklaruje, że w ogóle nie wykorzystuje AI do swoich bieżących działań.

„AI przekracza Rubikon”

Tymczasem, według analityków Futurum Group, sztuczna inteligencja przechodzi z etapu pilotażu do fazy, w której zaczyna napędzać przychody firm. Ich zdaniem mamy do czynienia z punktem zwrotnym w strategiach IT, kiedy to AI nie jest już nakładką na istniejące systemy. Z globalnej ankiety przeprowadzonej wśród 248 CIO wynika, że 79 proc. z nich uznaje obecnie technologię opartą na AI/ML za główny priorytet w zakresie innowacji.

Przejście AI do etapu infrastruktury generującej przychody analitycy podsumowali stwierdzeniem: „AI przekracza Rubikon”, stając się integralną częścią podstawowej struktury operacyjnej przedsiębiorstwa. Otóż każdy ankietowany CIO zgłasza wykorzystanie sztucznej inteligencji w jakimś miejscu organizacji. W wynikach badania całkowicie zniknęła kategoria „niewdrażających” firm. Liderami we wdrażaniu AI są obecnie działy operacyjne (68 proc. wskazań) i sprzedaż (59 proc.). Następne w kolejności jest wsparcie klienta, które wcześniej dominowało. Ta zmiana wskazuje, że dyrektorzy ds. informatyki priorytetowo traktują sztuczną inteligencję tam, gdzie może ona przynieść wymierny wpływ na biznes – zauważa Futurum. Chodzi o szybsze działanie firmy czy działu, lepsze prognozowanie i większe zaangażowanie klientów.

W perspektywie krótkoterminowej najczęściej wymienia-

nymi przez CIO inicjatywami z zakresu AI są automatyzacja procesów i aplikacje generowane przez sztuczną inteligencję. Jeden na dziesięciu szefów IT deklaruje tworzenie programów nauczania LLM dostosowanych do specyfiki przedsiębiorstwa. Towarzyszy temu konsolidacja wokół platform, zatem AI jest związana z szerszymi zmianami w architekturze informatycznej przedsiębiorstw. CIO modernizują też starsze systemy, ponownie oceniając przy tym rozmieszczenia obciążeń w chmurze i wzmacniając bezpieczeństwo, mając na uwadze skalę sztucznej inteligencji. W ankiecie wzięło udział 137 respondentów – czytelników portalu CRN.pl.

Jaki był 2025 rok pod względem przychodów dla Twojej firmy?

lepszy niż 2024 (wzrost powyżej 10 proc.)

Dużo

pamięci flash

zarządzanie na rynku Od niedoboru do przesytu:

„Wchodząc do tej branży trzeba sobie zdać sprawę, że  długość następujących po sobie cykli wynosi od dwóch do trzech lat” – mówi Maciej Kamiński, Managing Director of Memory Business (Poland & CEE), Samsung.

Jak można podsumować miniony rok z punktu widzenia dywizji odpowiedzialnej w Samsungu za sprzedaż pamięci?

Ubiegły rok zakończył się dla nas pozytywnie. Udało nam się zrealizować założony plan pomimo niedoborów, o których wiele się ostatnio mówiło na rynku. Na szczęście mieliśmy dobrze przygotowane założenia, a szczególnie ambitnie weszliśmy w drugi i trzeci kwartał. Te pół roku było bardzo dobre dla naszego biznesu pod kątem dopasowania oferty do potrzeb rynku i dostępności produktów dla użytkowników, a także partnerów w kanale dystrybucyjnym.

A jak wyglądała sytuacja całego rodzimego sektora pamięci?

Cała polska branża półprzewodników, a w szczególności pamięci, na początku roku borykała się z problemami końcówki nadprodukcji. Cykl nadprodukcji trwał około dwóch lat, a więc tyle zajęło dopasowanie rzeczywistych mocy produkcyjnych do potrzeb rynku.

Skąd wzięła się ta nadprodukcja?

W tym kontekście dla całej naszej branży ważnym testem był okres lockdownów. Z powodu fizycznej niedostępności ludzi w biurach oraz konieczności pracy zdalnej wiele procesów zostało zaburzonych. Branża przez jakiś czas starała się nadrobić zapotrzebowanie na półprzewodniki, a jednocześnie uruchomiono kilka nowych fabryk. Kiedy zatem w pewnym momencie popyt spadł, okazało się, że moce zakładów produkcyjnych są wyskalowane wyżej niż ówczesne potrzeby rynkowe.

Taka sytuacja oznacza wojnę cenową Mieliśmy globalny okres przecen w przypadku wielu rodzajów półprzewodników, szczególnie w obszarze pamięci. Cała bran-

ża cierpiała, działając na marżach zerowych lub ujemnych, o czym głośno było w mediach. Wszyscy producenci przez ten okres dopasowywali swoje moce produkcyjne do aktualnych potrzeb rynkowych: optymalizowali je, zmniejszali, a także szukali nowych obszarów produktowych. Trwało to do końca 2024 roku, a na początku ubiegłego, kiedy zapotrzebowanie versus moce produkcyjne zostało zbalansowane, zaczęliśmy funkcjonować w nowej rzeczywistości.

Za to obecnie mamy dla odmiany do czynienia z niedoborem pamięci. Jak zarządzać biznesem, który przypomina jazdę na rollercoasterze? To oczywiście niełatwe zadanie. Jeżeli chodzi o rolę moją i moich współpracowników, to kluczowe jest dostarczanie właściwej i rzetelnej wiedzy naszym partnerom w każdym momencie cyklu popytowo-podażowego. Robimy to zarówno wtedy, kiedy produkty tanieją, jak i wówczas, gdy drożeją. Staramy się udzielać aktualnej, jednoznacznej i przede wszystkim prawdziwej informacji na temat tego, jaki będzie kolejny okres. W czasie jakichkolwiek zmian w podaży i popycie kluczowe jest zarządzanie informacją oraz oczekiwaniami.

Na czym konkretnie polega sprawne balansowanie pomiędzy cyklami nadpodaży i niedoborów?

Na pewno wchodząc do tej branży trzeba sobie zdać sprawę, że – jak wynika z danych historycznych – długość następujących po sobie cykli wynosi od dwóch do trzech lat. Na to wszystko można nałożyć jeszcze cykl stałego rosnącego zapotrzebowania. W związku z tym krzywa wzrostu na przestrzeni ostatnich kilkunastu lat cały czas idzie w górę. Innymi słowy, doświadczenie jest w tym przypadku absolutnie kluczowe, i to z kilku powodów. Po pierwsze,

niezbędna jest świadomość tego, że mamy do czynienia z wyjątkowymi produktami. Po drugie, konieczna jest znajomość partnerów i rozumienie ich potrzeb. Po trzecie, potrzebne jest wzajemne zaufanie, zwłaszcza w tych krytycznych momentach, które stanowią sprawdzian jakości naszych relacji z partnerami. Dlatego przez ostatnie pięć lat wspólnie z moim zespołem budowałem zaufanie do systemu, w którym działamy. Skupiałem się na budowie stabilnego systemu, w którym wszyscy partnerzy mogą poczuć się bezpiecznie i jasno wiedzieć, co się dzieje na rynku. Daliśmy się poznać z dobrej strony, transparentnie pokazując partnerom nasze intencje i dobrze tłumacząc strategię nie tylko naszej firmy, ale całego rynku półprzewodników.

Samsung zdobył certyfikat Channel Master 2026

Co jest najważniejsze w czasach, gdy branża zmaga się z niedoborami? Kluczowe kompetencje to zarządzanie zmianą, dostarczenie właściwej wiedzy i na tej podstawie utrzymanie, a nawet poprawa i zacieśnienie relacji z naszymi kluczowymi partnerami – zarówno retailowymi, jak i z kanału B2B, do którego „drzwiami” są nasi dystrybutorzy. Z wyprzedzeniem planujemy nasze działania, starając się dopasowywać je do możliwości i potrzeb całego rynku. Jest jeszcze jeden aspekt, a mianowicie zarządzanie nie tylko rynkiem, ale też zespołem. Mam myśli dbałość o pozytywną, profesjonalną atmosferę, w której nie ma nerwowego podejścia do napiętej sytuacji rynkowej. Musimy przyjąć to, co mamy, przeanalizować, zarządzić tym i skupić się na kolejnych krokach.

AI i wojna o prąd

Kupno Intersect Power przez Google ma znacznie większe znaczenie, niż pozornie mogłoby się wydawać.

Wbranży IT od lat krąży – w charakterze dowcipu – poprawne skądinąd stwierdzenie, że informatyk w firmie myśli, że jest bogiem, dopóki… nie przyjdzie elektryk. O tym, jak wiele ma ono wspólnego z rzeczywistością, najlepiej świadczy dokonana pod koniec grudnia ub.r. przez Google transakcja – za 4,75 mld dol. gigant ten kupił spółkę energetyczną Intersect Power.

To wydarzenie ma znacznie większe znaczenie, niż pozornie mogłoby się wydawać. Obrazuje ono, o jakiej skali przedsięwzięcia mówimy, gdy chodzi o zapewnienie zaplecza technicznego dla środowisk sztucznej inteligencji. A jednocześnie przypomina sytuację z polskiej branży wydawniczej z lat 90., gdy znajdująca się u szczytu swojej potęgi Agora (wydawca „Gazety Wyborczej”) wybudowała własną drukarnię, a potem drugą i trzecią. Cel był oczywisty – nie tylko oszczędność wynikająca z braku konieczności zapłaty marży podmiotowi trzeciemu (szczególnie w obliczu faktu, że skala zleceń potrafiła wysycić możliwości produkcyjne zewnętrznych drukarni na poziomie 100 proc.), a przede wszystkim zapewnienie sobie gwarancji dostępności do usług druku oraz ich wysokiej jakości. Dla wielu konkurencyjnych wydawnictw ruch ten był swego rodzaju wyznacznikiem trendu, ale jednocześnie żadne z nich nie zdecydowało się go powtórzyć w podobnej skali.

Dziś, gdy w wyniku ewolucji (lub wręcz rewolucji) sposobów komunikowania się informacja nie jest dostarczana na papierze, ale cyfrowo, wąskim gardłem – w obliczu lawinowego wzrostu zapotrzebowania na moc obliczeniową – okazały się realne ograniczenia istniejącej infrastruktury energetycznej. Prognozy Międzynarodowej Agencji Energii mówią jasno: zapotrzebowanie na energię w centrach danych ma podwoić się do 2030 r., co oznacza wzrost do około 945 TWh rocznie – więcej niż obecne zużycie energii elektrycznej całej Japonii. Natomiast, według Morgan Stanley, w latach 2025–28 deficyt mocy tylko w USA ma wynieść aż 44 GW, co jest luką, której bez ogromnych inwestycji infrastrukturalnych nie załata się ani nowymi elektrowniami, ani modernizacją linii przesyłowych.

Google próbuje zatem zabezpieczyć się przed sytuacją, która dotknęła rynek pracy (luka kompetencyjna), procesorów (NVIDIA, TSMC i Samsung nie nadążają z realizacją zamówień, a Chiny nie są w stanie ich dogonić), a także pamięci RAM i dysków SSD. Szczególnie warte podkreślenia są te ostatnie grupy produktów. Już od kilku miesięcy branża jest w lekkim szoku po wykupieniu przez największych dostawców usług AI niemal całych zapasów nie tylko kart GPU, ale także właśnie pamięci i nośników półprzewodnikowych. W efekcie popyt kilkukrotnie przewyższający podaż spowodował niespotykany dotychczas wzrost cen o kilkaset procent. Doszło wręcz do niespodziewanej sytuacji, gdy głębszy oddech

mogli wreszcie wziąć Seagate, WD i Toshiba, a więc przyduszani przez producentów dysków SSD twórcy mechanicznych twardych dysków, w przypadku których cena za jednostkę pojemności znów okazała się kilkukrotnie niższa.

Nabywając firmę Intersect Power Google przesunął granice tej rywalizacji i wyznaczył nowe standardy fundamentów cyfrowej gospodarki, za którymi inni będą musieli nadążyć, jeśli chcą konkurować na równych zasadach. W praktyce oznacza to konieczność przedefiniowania łańcuchów dostaw strategicznych zasobów, ze szczególnym uwzględnieniem energii oraz chłodzenia systemów IT.

Wystąpienie takiego trendu zresztą już w 2024 r. przewidzieli eksperci Vertiv. W swoich raportach wskazywali oni, że większą odporność operacyjną uzyskają centra danych wykorzystujące mikrosieci z ogniwami paliwowymi oraz alternatywne lokalne magazyny energii. W dłuższej perspektywie wręcz możliwe będzie wdrażanie opracowywanych przez wiele firm małych modułowych reaktorów atomowych (SMR) dla centrów danych oraz innych dużych odbiorców energii – ich relatywnie powszechna dostępność spodziewana jest pod koniec dekady.

Jak duże znaczenie ta wojna gigantów o prąd może mieć dla polskiej branży IT oraz odbiorców jej usług? Skala jej działalności jest oczywiście o kilka rzędów wielkości mniejsza, choć charakter problemów, których możemy doświadczyć, całkiem podobny. Agora finalnie swoje drukarnie sprzedała (ostatnią w ubiegłym roku), w wyniku cały czas spadającego zainteresowania konsumpcją treści dostarczanych na papierze. Być może kupowanie całych elektrowni przez centra danych w Polsce nie będzie występowało, niemniej ten nowy trend warto potraktować jako ostrzeżenie, szczególnie w kontekście faktu, że co prawda serwerownie mamy nowoczesne i wyposażone zgodnie z najlepszymi światowymi standardami, ale infrastruktura energetyczna od dłuższego czasu boryka się z wyzwaniami modernizacyjnymi i brak jest czytelnej strategii jej rozwoju. W tej sytuacji strategia polegająca na budowaniu lokalnych, zintegrowanych hubów obliczeniowych z własnymi, prawdopodobnie atomowymi źródłami energii może stać się przewagą konkurencyjną, a nie fanaberią. Takie działania, jak te podjęte przez Google, nie będą oczywiście jednorazowe. To początek nowej fazy integracji pionowej w branży IT, gdzie obok rozwiązań technicznych i infrastrukturalnych nieprzerwany dostęp w dużej skali do czystej energii stanie się kluczowy nie tylko do utrzymania pozycji biznesowego imperium, ale być może w ogóle do przetrwania. I być może do upragnionego Eldorado trafią nie informatycy, ale właśnie elektrycy?

Krzysztof Jakubik redaktor CRN Polska

ELECTRICITY IS KING.

Phishing i ransomware:

wyjątkowo groźny tandem

Od lat jak bumerang powraca pytanie: czy i na jakich zasadach można liczyć na wygraną z cyberprzestępcami?

Nie tak dawno pojawiła się dość zaskakująca informacja. Według danych ESET-u w pierwszej połowie 2025 r. Polska znalazła się na pierwszym miejscu na świecie pod względem liczby wykrytych ataków ransomware. Nasz kraj miałby odpowiadać za 6 proc. wszystkich globalnych incydentów, wyprzedzając pod tym względem nawet Stany Zjednoczone. Ataki wykorzystujące złośliwe oprogramowanie szyfrujące dane i wymuszające okup za ich odblokowanie, od lat należą do największych zagrożeń w cyberprzestrzeni. Do ransomware trzeba dorzucić jeszcze phishing, bo takie duo od lat niesie najpoważniejsze i powiązane ze sobą zagrożenia. Ten drugi pozostaje najczęściej wykorzystywanym mechanizmem ataku.

– Phishing odpowiada za ponad 80 proc. incydentów bezpieczeństwa, w dodatku aż 94 proc. złośliwego oprogramowania jest dostarczane przez e-mail – twierdzi Marcin Klimowski, Cybersecurity Sales Specialist w polskim oddziale Cisco.

NARASTA ZJAWISKO PODWÓJNEGO WYMUSZENIA.

Jeśli więc poważnie traktować raporty (a nie ma powodów, by je lekceważyć), to przy coraz bardziej zaawansowanych cyberatakach oraz szczególnym zainteresowaniu Polską wśród cyberprzestępców, inwestowanie w solidne zabezpieczenia jest dla rodzimych firm nie wyborem, a koniecznością.

– Siła tych dwóch zagrożeń polega na jednoczesnym atakowaniu technologii i człowieka. Jak pokazują statystyki, to połączenie niestety pozostaje wyjątkowo skuteczne.

Z każdym rokiem techniki przestępców stają się sprytniejsze, trudniejsze do wykrycia i coraz lepiej podszywają się pod to, co znamy i czemu na co dzień ufamy – tłumaczy dr inż. Maciej Twardy, dyrektor techniczny Bakotechu.

Czy polskie firmy są świadome takiego niebezpieczeństwa? Zdaniem przedstawicieli branży, świadomość zagrożeń wśród klientów rośnie, ale nie wszędzie jednakowo. Najbardziej dojrzałe w podejściu są duże organizacje i branże regulowane (np. finanse), gdzie jest presja audytowa oraz prawna.

– W ich wypadku RODO oraz wymogi wynikające z NIS 2 czy DORA mają istotny wpływ na świadomość niebezpieczeństwa ataków hackerskich. W sektorze MŚP natomiast wciąż pokutuje myślenie: „jestem za mały, by być celem”. To poważny błąd, bo dla automatów skanujących sieć wielkość firmy nie ma znaczenia, liczy się luka w zabezpieczeniach – mówi Mariusz Wilczyński, Security Engineer w Dagma Bezpieczeństwo IT.

Jak się chronić przed atakami?

Oczywiście, nie ma jednej metody, rozwiązania, czy procesu, który zabezpieczy firmę przed wszystkimi scenariuszami ataku. Chodzi więc o stworzenie spójnej polityki bezpieczeństwa, która obejmie zarówno warstwę technologiczną, jak i procesową oraz edukacyjną.

– Istotne jest wdrożenie odpowiednich narzędzi, które uzupełniają i wzmacniają ludzką czujność. W praktyce oznacza to korzystanie z rozwiązań, które wychwytują podejrzane wiadomości, blokują złośliwe załączniki i linki, monitorują nietypowe zachowania w sieci czy reagują automatycznie na anomalie, zanim użytkownik zdąży klik-

nąć w coś, czego nie powinien. Systemy EDR i XDR, filtry antyphishingowe, zaawansowane bramy pocztowe, silne uwierzytelnianie, regularne kopie zapasowe – to wszystko tworzy techniczną warstwę ochrony, która znacząco zwiększa poziom bezpieczeństwa kluczowych zasobów organizacji – wylicza Maciej Twardy.

Co istotne, po stronie technologii – obok wymienionych systemów wykrywania i blokowania ataków, odpowiednio zaprojektowanej architektury sieci, aktualizacji oprogramowania – niezbędny będzie nie-

Tomasz Janoś

zawodny system backupu i odzyskiwania danych – z jasno zdefiniowanymi wskaźnikami oraz regularnie testowanymi procedurami odtwarzania danych.

– Z kolei od strony procesów i ludzi najskuteczniejsze są te organizacje, które traktują cyberbezpieczeństwo jako stały proces, a nie jednorazowy projekt. Oznacza to cykliczne szkolenia, budowanie kultury zgłaszania incydentów oraz jasne instrukcje postępowania w razie ataku. Ważne są również ćwiczenia z zakresu odporności, a więc symulacje incydentów, w których nie

tylko zespoły IT i bezpieczeństwa, ale też innych działów firmy sprawdzają w praktyce, jak działają przyjęte scenariusze. Tylko połączenie tych elementów – technologii, procedur i kompetencji – pozwala mówić o wysokim poziomie cyberodporności dostosowanej do realnych potrzeb i możliwości firmy – mówi Tomasz Krajewski, dyrektor techniczny sprzedaży na Europę Wschodnią w Veeam.

Dbając o warstwę edukacyjną, firmy powinny inwestować w szkolenia zwiększające świadomość zagrożeń, przeprowadzać symulowane ataki phishingowe itp. – Pracownicy, którzy klikną w testowy fałszywy link, muszą trafić na szkolenie. Zwiększając w ten sposób świadomość ludzi, buduje się tzw. „human firewall”. Pozostaje jeszcze warstwa organizacyjna, w niej potrzebne są polityki dostępu stawiające na minimalne uprawnienia, rozdział kont, procedury zgłaszania podejrzanych wiadomości oraz powszechne wdrażanie uwierzytelniania MFA/2FA – uważa Mariusz Wilczyński.

Płacić okup, czy nie płacić?

Co robić, gdy przy braku odpowiednich zabezpieczeń dojdzie już do zaszyfrowania cennych danych i paraliżu firmy? Oficjalne stanowisko organów ścigania i ekspertów niezmiennie brzmi: „nie płacić okupu”. W przeciwnym razie finansuje się cyberterroryzm i zachęca do kolejnych ataków. Jednakże statystyki rynkowe pokazują smutną prawdę – wiele firm płaci, kalkulując sobie, że koszt przestoju jest wyższy niż żądany okup.

– Od pewnego czasu spotykamy się ze zjawiskiem podwójnego wymuszenia Przestępcy nie tylko szyfrują dane, ale wcześniej je kradną. Grożą wtedy i szantażują: „jeśli nie zapłacisz za klucz deszyfrujący, to opublikujemy dane twoich klientów w sieci”. Po czym ofiary częściej decydują się na zapłacenie okupu, ponieważ boją się kar RODO za wyciek danych i utraty reputacji. Należy jednak wiedzieć, że zapłacenie okupu nie gwarantuje odzyskania danych. Przestępcy to nie są zaufani partnerzy biznesowi. Często po wpłacie kontakt się urywa lub narzędzie deszyfrujące działa wadliwie – mówi Mariusz Wilczyński.

Statystyki są jednak ponure. Zgodnie z najnowszym raportem Sophosa, dotyczącym ransomware, aż 49 proc. ofiar na całym świecie zapłaciło okup, aby odzyskać swoje dane. I chociaż oznacza to niewielki spadek w porównaniu z 56 proc. w ubiegłym roku, jest to drugi najwyższy wskaźnik zapłaty okupu od sześciu lat.

– Współpraca z cyberprzestępcami jest nie tylko nieetyczna, lecz także z perspek-

tywy obowiązującego w UE prawa może w wielu przypadkach prowadzić do naruszenia przepisów, zwłaszcza w obszarze sankcji oraz przeciwdziałania praniu pieniędzy. W praktyce jednak nie brakuje organizacji, które decydują się na zapłacenie okupu, zwykle pod presją czasu, skali przestoju i obawy przed utratą krytycznych danych. Jednak, jak pokazuje nasz raport Ransomware Trends and Proactive Strategies 2025, taka strategia jest nieskuteczna Otóż niemal co piąta badana firma mimo zapłaty i tak nie odzyskała swoich danych. Konsekwentnie podkreślamy, że płacenie okupu nie gwarantuje niczego, ani pełnego odzyskania zasobów, ani tego, że przestępcy nie zaatakują ponownie – ostrzega Tomasz Krajewski.

Co robić w razie ataku?

W przypadku skutecznego ataku organizacje powinny działać według wcześniej przygotowanych procedur reagowania na incydent. W praktyce oznacza to izolację zaatakowanych segmentów, odtwarzanie systemów z bezpiecznych kopii oraz analizę przebiegu włamania. Ważnym elementem są również obowiązki regulacyjne. W zależności od profilu działalności firmy może to obejmować zgłoszenia do właściwych organów nadzorczych. Przykładowo unijne przepisy NIS 2 czy DORA wymagają raportowania incydentów naruszenia bezpieczeństwa w ściśle określonych terminach.

– W sytuacji cyberataku przed największym wyzwaniem stają te przedsiębiorstwa, które nie posiadają spójnie opracowanej procedury reakcji. Działanie „na gorąco ” zwykle oznacza wydłużony czas podejmowania decyzji, większe ryzyko pochopnych ruchów, dłuższe przestoje i wyższe koszty przywracania środowiska do pełnej sprawności –  uważa Maciej Iwanicki, Business Development Manager w polskim oddziale Fortinetu.

W praktyce, niezależnie od stanu zabezpieczeń, gdy dojdzie do udanego ataku ransomware, pierwszą reakcją jest najczęściej panika. Co następuje potem?

Według specjalistów przede wszystkim liczy się czas. Przedsiębiorcy, którzy mają przygotowane procedury, uruchamiają Incident Response, poprzez odcięcie zainfekowanych maszyn i segmentów sieci, zatrzymanie rozprzestrzeniania ataku, zabezpieczenie kopii zapasowych, analizę wektora wejścia oraz ocenę, czy doszło do wycieku danych oraz powiadomienie służb (CSIRT, NASK), ewentualnie inspektora ochrony danych (UODO). Na drugim biegunie są firmy, w których procedura Incident Response nie istnieje, styczeń – luty 2026 / CRN /

zwłaszcza te z sektora MŚP. Wtedy reakcja na ransomware to improwizacja, w ramach której dział IT próbuje gasić pożar.

– Często odtwarza się systemy zanim ustali wektor wejścia, a decyzje o komunikacji czy ewentualnych negocjacjach zapadają pod presją czasu. To wszystko wydłuża przestój i zwiększa ryzyko powtórnego ataku. A bez pierwotnej przyczyny problemu organizacja wraca do pracy w tym samym, podatnym stanie –  mówi Mariusz Wilczyński.

AI po obu stronach barykady

Od lat jak bumerang powraca pytanie: czy i na jakich zasadach można liczyć na wygraną z cyberprzestępcami? W najbliższej przyszłości postęp w walce z phishingiem i ransomware może wynikać z dalszego rozwoju i integracji zaawansowanych technologii sztucznej inteligencji.

– Podejście łączące AI, automatyzację, segmentację i współpracę zespołów, może znacząco zwiększyć odporność organizacji na phishing i ransomware, dając przewagę nad coraz bardziej zaawansowanymi technicznie cyberprzestępcami – uważa Marcin Klimowski.

Przewaga w walce z zagrożeniami ma wynikać ze stosowania telemetrycznej, zautomatyzowanej obrony, zdolnej działać szybciej niż napastnik, w połączeniu z bezpieczniejszymi fundamentami ochrony (m.in. uwierzytelnianiem bezhasłowym i rygorystycznym egzekwowaniem konfiguracji). Takie podejście już przynosi wymierne efekty, redukując skuteczność ataków mimo ich rosnącej liczby.

Niestety, postęp technologiczny zachodzi po obu stronach barykady. Także cyberprzestępcy coraz częściej wykorzystują sztuczną inteligencję zarówno w klasycznych kampaniach phishingowych (masowo rozsyłanych wiadomościach poprzez e-mail lub komunikatory), jak i w szeroko rozumianym podszywaniu się pod osoby czy instytucje. Algorytmy AI potrafią generować perfekcyjnie brzmiące wiadomości w dowolnym języku i coraz doskonalszy sposób zmanipulowane nagrania głosu i wideo.

– Choć wielu chciałoby wierzyć, że szybki rozwój sztucznej inteligencji, zwłaszcza dużych modeli językowych, stanie się wreszcie panaceum na problemy związane z phishingiem i ransomware, rzeczywistość jest znacznie bardziej skomplikowana. Owszem, AI daje obrońcom potężne, wcześniej niedostępne narzędzia, ale z tej samej technologii korzystają coraz sprawniej cyberprzestępcy, automatyzując swoje kampanie, generując perfekcyjnie brzmiące wiadomości czy tworząc treści, które jeszcze niedawno zdradza-

Zdaniem specjalisty

dr inż. Maciej Twardy, dyrektor techniczny, Bakotech

STkuteczna obrona nie może opierać się na jednym rozwiązaniu. Musi być wielowarstwowa, łącząc odpowiednie narzędzia techniczne z wiedzą, czujnością i dobrymi nawykami użytkowników. Tylko takie połączenie ma dziś szansę nie tyle całkowicie zatrzymać, ile przynajmniej istotnie ograniczyć rosnącą falę naruszeń bezpieczeństwa. Niestety, jedna rzecz nie zmienia się od dekad – człowiek nadal pozostaje najsłabszym ogniwem w łańcuchu zabezpieczeń każdej organizacji. Dlatego kluczowe znaczenie ma regularne, praktyczne szkolenie użytkowników w zakresie cyberbezpieczeństwa. W budowaniu świadomości i wiedzy w tym obszarze kluczową rolę odgrywają dziś platformy typu Security Awareness Training, czyli szeroko pojęta edukacja pracowników.

am, gdzie firmy wdrażają zautomatyzowane, wielowarstwowe mechanizmy obrony, odsetek udanych ataków spada. Najskuteczniejsza strategia to połączenie podstawowych zasad bezpieczeństwa z automatyzacją: kontrola środowiska, szybkie łatanie luk i eliminacja podatności. Organizacje, które inwestują w rozwiązania do ujednoliconego zarządzania urządzeniami i aplikacjami (UEM), realnie skracają czas reakcji i obniżają koszt ryzyka. Kluczowe jest też zarządzanie cyklem życia oprogramowania – praca na systemach nieobjętych wsparciem, takich jak Windows 10, znacząco zwiększa powierzchnię ataku. Fundament należy wzmacniać dodatkowymi warstwami: zasadami Zero Trust,

baramundi software zdobyło certyfikat

Channel Master 2026

Mariusz Wilczyński, Security Engineer, Dagma Bezpieczeństwo IT

Sebastian Wąsik, Country Manager na Polskę, baramundi software

ochroną poczty oraz monitoringiem z automatycznymi scenariuszami reakcji.

Przewagę nad przestępcami daje nie pojedyncza technologia, ale kumulacja zmian systemowych. W mojej ocenie jej przejawem powinien być koniec ery haseł i przechodzenie na metody odporne na phishing, takie jak klucze sprzętowe czy passkeys. Istotna jest też standaryzacja wymagań (NIS 2) i cyberhigiena w łańcuchach dostaw. W efekcie powinno być mniej przestrzeni na działania prowizoryczne, a więcej na wynikające z obowiązków zarządczych i audytowych. Ważnym elementem jest SOCjako centrum dowodzenia (własny lub zewnętrzny), a także stałe monitorowanie logów, poczty, stacji roboczych i chmury oraz szybkie prowadzenie incydentu - od jego

wykrycia po opanowanie i odtworzenie systemu. Liczy się też automatyzacja reakcji (SOAR/agenty) i możliwość natychmiastowego blokowania w tle - izolacji stacji, unieważnienia sesji czy blokady domen.

Nawet jeśli dana firma nie została zaatakowana bezpośrednio, to i tak może stać się pośrednią ofiarą ataku, czyli uczestniczyć w łańcuchu dostaw zaatakowanej organizacji, z którą współpracuje. Świetnym przykładem jest niedawny atak na Jaguar Land Rover. Niestety, wielu klientów podchodzi bardzo „wyspowo” do planowania zabezpieczeń, skupiając się na pojedynczych punktach ochrony. Nie daje to jednak pełnej widoczności przebiegu ataku i wiele aspektów zostaje pominiętych. Tworząc linię obrony, nie możemy pomijać różnych zabezpieczeń, myśląc, że jeden system zastąpi nam także inne. Równie ważne jest zabezpieczenie końcówek systemem klasy EDR/XDR, poczty elektronicznej roz-

Dagma Bezpieczeństwo IT zdobyła tytuł Promotor wiedzy 2025

Patryk Struzikowski, Senior Systems Engineer, Exclusive Networks

wiązaniem Secure Mail Gateway czy monitorowanie ruchu sieciowego przy pomocy systemów NDR. Co kluczowe, te rozwiązania wspierają się i uzupełniają, a nie zastępują.

ły się choćby drobnym błędem językowym

– mówi Maciej Twardy.

Dlatego czeka nas dalszy wyścig zbrojeń, który dla broniących oznacza doskonalenie narzędzi ochrony, automatyzację reakcji na incydenty, ściślejszą integrację systemów bezpieczeństwa z rozwiązaniami do ochrony i odzyskiwania danych oraz konieczność dostosowywania się do coraz bardziej wymagających regulacji. n

Chmurowe niezmienne kopie zapasowe

odpowiedzią na ransomware

Partnerstwo zawarte przez firmy GigaCloud i Storware pozwala oferować usługi tworzenia i przechowywania niezmiennych kopii zapasowych w europejskiej chmurze, zaprojektowanej z myślą o bezpieczeństwie, dostępności i zgodności regulacyjnej.

Przez wiele lat panaceum na ataki ransomware stanowiły klasyczne kopie zapasowe (backup), które – jeśli wykonywane były w systematyczny sposób – stwarzały starania cyberprzestępców o wymuszenie okupu bezprzedmiotowymi. Dlatego w ostatnim czasie zmienili oni swoją taktykę atakowania i w wielu obserwowanych scenariuszach nie poprzestają na zaszyfrowaniu systemów produkcyjnych. Jako jedno z pierwszych działań podejmowana jest próba zaszyfrowania, skasowania lub nadpisania repozytorium backupu, często przy użyciu przejętych kont uprzywilejowanych.

W obliczu konieczności stawienia czoła temu wyzwaniu twórcy rozwiązań ochronnych stworzyli mechanizm niezmiennych kopii zapasowych (immutable backup).

Polega on na zapisie danych w taki sposób, aby przez określony czas nie mogły zostać zmodyfikowane ani usunięte – niezależnie od uprawnień użytkownika czy procesu. Oznacza to, że nawet w przypadku przeję-

CTO, GigaCloud

Wspólna oferta GigaCloud i Storware bazuje na precyzyjnie dobranych mechanizmach technicznych i architektonicznych. Immutable backup jako usługa jest realnym narzędziem zapewnienia ciągłości działania – szczególnie dla przedsiębiorstw, które traktują ransomware nie jako hipotetyczne zagrożenie, lecz jako jeden z podstawowych scenariuszy ryzyka operacyjnego. Partnerzy zaś zyskują możliwość zaoferowania swoim klientom łatwego we wdrażaniu środowiska niezawodnej ochrony danych, którego immanentną zaletą jest zgodność z takimi regulacjami jak RODO, NIS 2 czy DORA, a także szeroka skalowalność.

cia narzędzi administracyjnych lub wycieku danych uwierzytelniających konta z najwyższymi uprawnieniami, kopie zapasowe pozostają nienaruszone.

Równie istotne jak sama niezmienność jest miejsce przechowywania danych. Utrzymywanie repozytorium backupu w tym samym środowisku, tej samej domenie bezpieczeństwa lub tej samej infrastrukturze co systemy produkcyjne, nadal pozostawia podatność na ataki boczne (lateralne). Z tego powodu rośnie znaczenie modelu chmurowego, który umożliwia fizyczną i logiczną separację kopii zapasowych od środowisk operacyjnych. W połączeniu z zasadami zero trust, rozdzieleniem ról administracyjnych i kontrolą dostępu, chmura stała się naturalnym miejscem przechowywania ostatniej, nienaruszalnej wersji danych.

Dla bezpiecznego przechowywania danych kluczowe znaczenie ma także kontekst regulacyjny. Ich lokalizacja, zgodność procesów ochrony i odtwarzania z europejskimi przepisami, a także możliwość ich audytu stają się równie ważne jak parametry techniczne. Dlatego wdrożenie mechanizmu niezmiennych kopii zapasowych przestaje być w tym ujęciu wyłącznie narzędziem bezpieczeństwa – staje się elementem strategii zarządzania ryzykiem.

Bezpieczna architektura GigaCloud i Storware

Stworzenia bezpiecznego środowiska niezmiennych kopii zapasowych podjęła się firma GigaCloud – dostawca europejskiej infrastruktury chmurowej, której fundamentem funkcjonowania jest szeroka obecność mechanizmów ochrony danych, w tym architektury zero trust oraz separacji systemów IT. W tym celu w kwietniu ub.r. zawarte zostało partnerstwo techniczne z firmą Storware – polskim twórcą rozwiązań backupowych klasy enterprise, chroniących dane w środowiskach maszyn

wirtualnych, kontenerowych, chmurowych oraz w takich usługach jak Microsoft 365. Zapewniane przez Storware szerokie możliwości integracji oraz obsługa różnych typów pamięci masowej pozwalają objąć spójną polityką backupową dane rozproszone pomiędzy wiele systemów oraz lokalizacji.

W ramach tego partnerstwa Storware dostarcza zintegrowaną z infrastrukturą chmurową i środowiskiem pamięci masowych GigaCloud warstwę oprogramowania do tworzenia kopii zapasowych,

RÓWNIE ISTOTNE JAK SAMA NIEZMIENNOŚĆ JEST MIEJSCE PRZECHOWYWANIA DANYCH.

zarządzania nimi i odtwarzania danych. Klient korzysta z jednego, spójnego środowiska, w którym polityka backupu, okresy retencji oraz zasady niezmienności są definiowane centralnie, a dane trafiają bezpośrednio do odseparowanej infrastruktury chmurowej. Stworzenie takiego systemu kopii zapasowych w środowisku GigaCloud pozwala firmom budować scenariusze odtwarzania danych odporne na sabotaż, błędy administracyjne i ataki ransomware – bez rezygnacji z kontroli nad danymi i ich lokalizacją.

Durczak, Business Development Manager, GigaCloud paulina.durczak@gigacloud.eu

Kirill Naumenko
Paulina

prostota zamiast Malwarebytes:

W wieku 14 lat opracowałeś prototyp skanera antywirusowego. Jak do tego doszło?

Zdecydowałem się dołączyć do globalnej społeczności ludzi, którzy budowali technologie. Wówczas to nie był jeszcze biznes. Przeczytałem kilka książek o programowaniu i stworzyłem Malwarebytes. Nie wynikało to z pobudek finansowych, po prostu miałem problem i chciałem go rozwiązać. Współzałożycieli firmy poznałem online, co było jak na tamte czasy dość nietypowe. Budowaliśmy firmę z ludźmi z całego świata, choć tak naprawdę się nie znaliśmy. To był całkowity przypadek. Przez pierwsze pięć lat moja mama myślała, że to tylko projekt szkolny.

Kiedy miałeś 18 lat, Malwarebytes generował przychody liczone w milionach dolarów. Czy tak spektakularny sukces nie zawrócił w głowie młodemu człowiekowi?

To było faktycznie wyzwanie, któremu sprostałem. Myślę, że zawdzięczam to pokorze oraz wsparciu przyjaciół i rodziny. To nigdy nie miała być firma, lecz luźny projekt. Takie podejście pomogło mi zachować spokój. Duże znaczenie miał również fakt, iż rozpocząłem studia na Uniwersytecie Illinois. Mieszkałem z przyjaciółmi, których mój biznes w ogóle nie obchodził i to też pozwoliło mi zachować trzeźwość umysłu.

Innym wyzwaniem była transformacja z małej firmy w globalny koncern. Jak sobie z tym poradziłeś? Kluczem jest zatrudnienie właściwych ludzi. Moim celem jest być „najgłupszą osobą w pokoju”. Myślę, że w ten sposób buduje się świetną firmę. Zdaję sobie jednak sprawę, że znalezienie niesamowitych talentów

kokpitu samolotu

„Rynek MSP ma przed sobą przyszłość, zwłaszcza dla małych firm, nawet takich jak Malwarebytes. Klienci polegają na tych usługach, ponieważ potrzebują specjalistycznej wiedzy” – mówi Marcin Kleczyński, CEO Malwarebytes.

jest trudne, bo tacy ludzie są rozchwytywani. Działamy globalnie, nie poszukujemy specjalistów wyłącznie w Stanach Zjednoczonych. Pracują u nas ludzie z całego świata, mamy też biuro w Estonii. Przy czym nie chodzi tutaj o lokalizację, ale o talent.

Działacie na bardzo rozdrobnionym rynku. Jak udaje się wam utrzymać niezależność i konkurencyjność?

To bardzo konkurencyjny rynek. W cyberbezpieczeństwie musisz mieć dobry produkt, ale klienci często nie rozumieją, co tak naprawdę jest im potrzebne. Widzimy dużo marketingu opartego na strachu, niepewności i wątpliwości. Wszędzie jest też mowa o AI. Nasza strategia polega na tym, by uczynić produkt tak prostym, jak to możliwe dla klientów oraz współpracować z właściwymi partnerami, którzy pomagają im w podejmowaniu decyzji. Wierzę, że jeśli zbudujemy świetny produkt i wykorzystamy wspaniałych partnerów do dystrybucji, pozostaniemy konkurencyjni.

Branża antywirusowa od lat jest krytykowana za „security theater” (teatr bezpieczeństwa). Czy programy antywirusowe naprawdę chronią, czy raczej sprzedają spokój ducha? Antywirus jest skuteczny, bo dzięki niemu widzimy miliony wykrytych zagrożeń każdego dnia. Problem w tym, że samo oprogramowanie antywirusowe już nie wystarcza. Tak było do 2015 roku, ale od tamtego czasu cyberprzestępcy tworzą polimorficzne złośliwe oprogramowanie i stosują ataki bezplikowe. Kluczowe jest przejście na bardziej zaawansowane technologie, takie jak EDR (Endpoint Detection and Response), a także MDR (Managed Detection and Response) oraz zarządzanie podatnościami.

Wspomniałeś, że jednym z waszych głównych celów jest tworzenie prostych produktów, ale czy nie jest to trochę myślenie życzeniowe? Tym bardziej, że nowa generacja rozwiązań, takich jak EDR, nie jest łatwa w obsłudze

Zgadza się. Obsługujemy głównie małe i średnie firmy, które często mają mały personel IT, a jeszcze mniej specjalistów ds. bezpieczeństwa. Myślę, że rozwiązaniem mogą być usługi zarządzane. To przyszłość – musisz polegać na firmach, które robią to zawodowo. Nasza technologia, choć nie idealna, jest znacznie prostsza i bardziej intuicyjna niż u konkurencji, która często prezentuje „kokpit samolotu” z mnóstwem pokręteł. Efektywność to dla nas numer jeden, ale tuż za nią znajduje się intuicyjność.

Jednak wielu polskich resellerów oraz integratorów nie kwapi się do oferowania usług w modelu MSP. W jaki sposób chcesz ich do tego zachęcić?

Każda firma boryka się z niedoborem kadr IT i bezpieczeństwa. Nie potrafię wskazać ani jednej firmy, która by powiedziała: mamy wystarczającą liczbę pracowników IT, mamy wystarczającą liczbę ludzi zajmujących się cyberbezpieczeństwem. Właśnie dlatego rynek MSP ma przed sobą przyszłość, zwłaszcza dla małych firm, nawet takich jak Malwarebytes. Klienci polegają na tych usługach, ponieważ potrzebują specjalistycznej wiedzy. Chodzi tutaj o doświadczenie w zakresie sieci, zarządzanie urządzeniami końcowymi, łatanie systemów, czy też obsługę napraw awaryjnych. To wszystko wymaga profesjonalnych umiejętności. Większości firm nie stać na to, aby utrzymać wewnątrz tylu specjalistów.

Z jednej strony widzimy duże podmioty MSP, które – przykładowo – obsługują jednostki edukacyjne w całym kraju, zaś z drugiej małe firmy serwisowe, które wcześniej zajmowały się naprawą komputerów. Obecnie po prostu muszą się w ten sposób rozwijać – to naturalny kierunek ich ewolucji. Zwłaszcza, że model MSP jest już bardzo mocno rozpowszechniony w USA i sądzę, że będzie się rozwijał dalej, globalnie.

Osobna kwestia to cyberprzestępcy. Jeden ze znajomych dziennikarzy porównał walkę, jaką z hakerami toczą dostawcy systemów bezpieczeństwa, do kreskówki o Kojocie i Strusiu Pędziwiatrze. W tym sensie, że ten wyścig trwa bez końca i nie ma mety. Czy też postrzegasz to w taki e sposób?

To rzeczywiście szalony pościg. I choć nie powinienem tego mówić, cały czas zaskakuje mnie innowacyjność cyberprzestępców, począwszy od sposobu, w jaki fałszują mejle phishingowe, aż po zaawansowane ataki. Taki stan rzeczy wymaga od nas wyobraźni. Musimy wejść w ich skórę, zrozumieć ich myślenie. Z tym, że to i tak zawsze będzie pościg. Wprawdzie próbujesz osiągnąć 100-procentową efektywność w wykrywaniu zagrożeń, ale każdy, kto obiecuje to osiągnąć, kłamie. Nikt nie jest w stanie być całkowicie skutecznym. Nigdy nie osiągnie się tych 100 procent. Dlatego właśnie uczenie się o tym, jak przeprowadzają ataki, sprawia, że nasza technologia staje się lepsza. Swoją drogą, gdyby tę inteligencję, kreatywność czy determinację skierować we właściwym kierunku, na rozwiązywanie rzeczywistych problemów zamiast ich tworzenie, świat byłby znacznie lepszym i bezpieczniejszym miejscem. To frustrujące, bo istnieje duży potencjał, który jest kierowany w bardzo złą stronę.

Cyberprzestępcy coraz lepiej wykorzystują AI. Jak wynika z ostatniego badania Microsoftu, AI sprawia, że phishing jest 4,5 razy bardziej skuteczny i 50 razy bardziej rentowny. Czy traktujesz AI jako sojusznika, czy wroga? Jedno i drugie. Jest wrogiem, ponieważ ataki stają się przez to coraz bardziej wyrafinowane. Możliwości AI w tym zakresie są wręcz przerażające. Sztuczna inteligencja potrafi pracować błyskawicznie, może pobrać dane, wygenerować spersonalizowaną wiadomość mejlową, wysłać ją do wielu odbiorców i analizować odpowiedzi, a to wszystko w zautomatyzowany sposób. Gdy dodamy do tego deepfake’i, granica między rzeczywistością a pozorem rozmywa się całkowicie. Jednak technologia ma też ja-

sną stronę. AI może być naszym sojusznikiem w walce z zagrożeniami. Pomaga nam w budowaniu bardziej efektywnych systemów detekcji. Przykładem jest nasz produkt ScamGuard, który analizuje, czy jakaś wiadomość tekstowa może być phishingiem lub oszustwem.

Stoimy więc przed wyzwaniem: jak odpowiedzialnie wdrażać AI w bezpieczeństwo? Rynek nie należy tylko do ChatGPT, działa tu dziesiątki dostawców oferujących różne rozwiązania. Dla nas kluczowe pytanie brzmi: gdzie i jak zastosować tę technologię konstruktywnie? Dlatego nie wdrażamy AI wszędzie na naszych platformach, uważamy, że takie podejście byłoby mylące. Skupiamy się na strategicznych obszarach, gdzie technologia rzeczywiście dodaje wartości naszym produktom.

Kto, jak na razie, sprawniej korzysta z AI: dostawcy systemów bezpieczeństwa IT czy hakerzy?

Myślę, że to równa gra. Oczywiście, my musimy używać AI etycznie, a ich nie ogranicza dosłownie nic. Dlatego atakujący mają w pewnych obszarach przewagę, mogąc ukraść dane i wykorzystać je do ataku. Za to my dysponujemy zespołem eksperckim, który potrafi odpowiedzialnie wykorzystać AI dla większego dobra.

Czasami dostawcy systemów bezpieczeństwa twierdzą, że ich atutem jest dostęp do ogromnej ilości danych, dzięki czemu mogą czerpać większe korzyści z AI niż napastnicy. Czy podzielasz tę opinię?

Nie zgadzam się z tym. Cyberprzestępcy kradną dane, mają dostęp do wielkich zasobów i wiedzą, jak zrobić z nich użytek. Mają przewagę w tym, że mogą być nieetyczni i kraść dane, które wrzucają do maszyn. To jest ich przewaga.

Napastnicy stosują coraz bardziej wysublimowane metody, a użytkownicy stoją w miejscu. Od lat powtarza się, że człowiek jest najsłabszym ogniwem systemu bezpieczeństwa i to się nie zmienia. Czy istnieje szansa, że to ogniwo się wzmocni? To rzeczywiście wieloletni problem. Pamiętam, kiedy mój uniwersytet przeprowadził eksperyment, który polegał na tym, że na parkingu rozsypano 12 pendrive’ów. Jedenaście z nich zostało podłączonych przez znalazców do komputerów, dwunasty przejechał samochód. To prawda, że ludzie są nadal najsłabszym ogniwem. Wystarczy jedna osoba, żeby postawić firmę w trudnej sytuacji. Rozwiązaniem tego problemu jest

SKUPIAMY SIĘ NA OBSZARACH, GDZIE TECHNOLOGIA RZECZY-

DODAJE WARTOŚCI NASZYM PRODUKTOM.

maksymalne wykorzystanie technologii w celu automatycznej ochrony. Następnie, kluczowe jest szkolenie ludzi, ale nie nudne, dugie sesje, lecz angażujące i szybkie, np. pięć minut w tygodniu. To też kwestia kultury, która musi zacząć się od przywództwa.

Jak to wygląda u was w firmie?

W działach finansów, HR i sprzedaży zatrudniamy ludzi, którzy nie są ekspertami w cyberbezpieczeństwie, jak ja czy nasi inżynierowie. Zdarza się, że tacy pracownicy otrzymują wiadomość podszywającą się pod moje nazwisko. Taki fałszywy mejl może brzmieć: „Cześć! Potrzebuję karty podarunkowej Apple. Jestem na konferencji i nie mogę teraz rozmawiać. Proszę, załatw mi ją pilnie”. Oczywiście, jest podpisany moim imieniem, Marcin. Dzięki rozmowom i humorowi pracownicy naturalnie uczą się rozpoznawać takie zagrożenia. Tworzymy w ten sposób kulturę, w której ludzie czują się swobodnie, aby się w takich przypadkach każdorazowo do nas zwracać. Mówię pracownikom: nigdy się nie gniewam, jeśli ktoś mnie zapyta, czy naprawdę wysłałem mu mejla czy inną wiadomość. Szczególnie teraz, przy pracy zdalnej. Przed pandemią można było wejść do biura, spojrzeć komuś przez ramię i zapytać, czy wysłał daną wiadomość. W Malwarebytes żartujemy z prób wyłudzeń kart podarunkowych, co tworzy kulturę, w której ludzie nie boją się pytać, czy dana wiadomość jest prawdziwa. Otwartość i wzmocnienie pomagają w walce z tym problemem.

Dlaczego wybraliście Bakotech jako dystrybutora w Polsce?

Bakotech jest dla nas pierwszorzędnym dostawcą. Przede wszystkim cenię sobie, że Krzysztof Hałgas i jego zespół działają bardzo zwinnie, potrafiąc szybko i elastycznie odpowiadać na nasze potrzeby. Ważne jest też, że obsługują zarówno VAR-ów, jak i firmy MSP. Jak wspomniałem wcześniej, świat zmierza w kierunku modelu MSP. Szczególnie dotyczy to mniejszych firm, których nie stać na rozbudowaną infrastrukturę IT i bezpieczeństwo. To, co szczególnie nas interesuje, to silna koncentracja Bakotechu na cyberbezpieczeństwie. Dodatkowo bardzo cenię relacje z polskim dostawcą.

Rozmawiał Wojciech Urbanek

Urządzenia rugged:

od pancerza do inteligencji

Rynek wzmocnionych urządzeń elektronicznych przechodzi transformację. To już nie tylko sprzęt odporny na upadki i zalania - dzisiejsze urządzenia rugged łączą ekstremalną wytrzymałość z mocą obliczeniową sztucznej inteligencji.

Wojciech Urbanek

Fizyczne zabezpieczanie urządzeń elektronicznych kojarzy się najczęściej z etui na smartfony, hartowanymi szkłami, ramkami ochronnymi czy wodoodpornymi pokrowcami. Choć wymienione akcesoria stanowią zazwyczaj solidną ochronę, nie mogą się równać z urządzeniami rugged przeznaczonymi do pracy w najbardziej ekstremalnych warunkach. Analitycy wyceniają globalną wartość tego rynku na około 7 mld dol. Na

PANCERNE NARZĘDZIA

EWOLUUJĄ W INTELIGENTNE PLATFORMY AI.

tę sumę składa się sprzedaż wzmocnionych urządzeń mobilnych, komputerów stacjonarnych, sprzętu do komunikacji (routery i modemy przemysłowe, telefony satelitarne), nośników danych oraz sprzętu pomiarowego. O ile producenci tradycyjnego sprzętu znacznie większą wagę przywiązują do projektowania płyt głównych, układów elektronicznych czy miniaturyzacji komponentów niż do ich wytrzymałości, o tyle w przypadku do-

Zdaniem integratora

stawców sprzętu rugged sytuacja wygląda niemal odwrotnie.

Warto w tym miejscu wspomnieć choćby o normie MIL-STD-810 – zestawie testów środowiskowych opracowanych przez amerykańskie siły zbrojne. Składa się na nią 29 rygorystycznych prób przygotowanych przez Departament Obrony USA. Pierwotnie standard miał zagwarantować, że sprzęt wojskowy przetrwa dosłownie każdą możliwą sytuację na polu bitwy. Urządzenia są upuszczane, zamrażane do minus kilkudziesięciu stopni Celsjusza, a następnie wystawiane na ekstremalne upały. Oprócz tego poddaje się je ciągłym wibracjom. W najtrudniejszych próbach tablet bądź komputer musi przetrwać dwa tysiące kolejnych upadków w specjalnym, obracającym się bębnie. W wielu sytuacjach ogromne znaczenie ma odporność na wodę i pył. W tym przypadku klasę szczelności określa standard IP. I tak na przykład IP68 oznacza całkowitą ochronę przed pyłem i możliwość zanurzenia w wodzie. Istnieje jednak wyższy poziom IP69 K, który pozwala polewać sprzęt strumieniami wody pod wysokim ciśnieniem i w wysokiej temperaturze (80°C). Oznacza to, że taki sprzęt można

Dla polskiego rynku urządzeń rugged przewidujemy wzrost na poziomie 3–5 procent rocznie, a więc zbliżony do trendu globalnego. Rok 2024 przyniósł spadek sprzedaży rzędu kilkunastu procent w porównaniu do bardzo mocnego 2023 roku, który był napędzany dużymi projektami publicznymi. Widzimy jednak pierwsze sygnały odbicia w 2025 roku, głównie w logistyce, energetyce i transporcie. Największy wolumen zakupów generują logistyka i transport, służby publiczne, produkcja przemysłowa oraz energetyka. Główne bariery wzrostu to wysoka cena jednostkowa, długie cykle decyzyjne i ograniczona świadomość TCO. Z drugiej strony po-

Mateusz Dębowski, dyrektor handlowy, MBA System pyt napędzają cyfryzacja procesów terenowych, wymogi bezpieczeństwa danych oraz potrzeba niezawodności w trudnych warunkach. Największy udział w sprzedaży mają tablety i handheldy, a następnie laptopy. Największy potencjał wzrostu widzimy w urządzeniach mobilnych montowanych w pojazdach oraz specjalizowanych handheldach.

dezynfekować oraz czyścić myjkami ciśnieniowymi.

Wymienione standardy dowodzą niezwykłej wytrzymałości urządzeń rugged, które sprawdzają się nie tylko na polu bitwy, ale wszędzie tam, gdzie uszkodzenie sprzętu niesie ze sobą ogromne koszty, a czasami nawet zagraża życiu ludzi – w przemyśle, logistyce czy ratownictwie.

Wytrzymałość to (już) za mało Jeszcze do niedawna wymagania wobec wzmocnionego sprzętu były jasne: przetrwać uderzenia, zalania i pracować w skrajnych temperaturach. Dziś oczekuje się od niego znacznie więcej. Zmiany zachodzące w tej klasie urządzeń można porównać do przemiany klasycznego młotka w inteligentne elektronarzędzie z wbudowanym skanerem i asystentem. Jak zauważył James Huang, prezes Getac, kategoria ta przechodzi prawdziwą transformację. Pancerne narzędzia ewoluują w inteligentne platformy AI, przenosząc potężną moc obliczeniową z klimatyzowanych biur wprost w centrum działań, niezależnie od tego, czy chodzi o pustynię, czy strefę konfliktu.

Dell, podczas ubiegłorocznych targów USAG Wiesbaden/Clay Kaserne Tech Day, zaprezentował komputer stacjonarny wielkości pudełka z chusteczkami, oparty na najnowszym układzie Nvidia. Żołnierze w pojeździe lub kwaterze polowej mogą wykorzystywać go do przetwarzania dużych ilości danych bez konieczności transmisji na duże odległości.

Warto w tym kontekście podkreślić, że w urządzeniach wzmocnionych coraz częściej pojawiają się jednostki NPU (Neural Processing Unit). Na rynek trafiają tym samym maszyny imponujące z jednej strony wytrzymałością, zaś z drugiej, wydajnością sięgającą 48 TOPS (bilionów operacji na sekundę). Pozwala to przyspieszyć zadania oparte na sztucznej inteligencji, usprawnić analitykę w czasie rzeczywistym oraz

umożliwia użytkownikom stawianie czoła najtrudniejszym wyzwaniom. Przykładowo, większość nowoczesnych komputerów klasy rugged (Panasonic Toughbook, Dell Rugged, Getac, Zebra Technologies) dysponuje wydajnymi podzespołami, które bez trudu obsłużą Microsoft Copilota. Zdaniem Getac bieżący rok przyniesie w branży wzrost znaczenia przetwarzania brzegowego (edge computing), co jest szczególnie istotne z punktu widzenia logistyki, usług terenowych i sektora przemysłowego. Wraz z przesuwaniem przetwarzania danych bliżej źródła ich powstawania pracownicy pierwszej linii coraz częściej korzystają z wydajnych, odpornych urządzeń rugged zdolnych obsługiwać dane w czasie rzeczywistym, wykorzystywać rozwiązania AI oraz zapewniać ciągłą łączność w trudnych warunkach.

Wszystko wskazuje na to, że w nieodległej przyszłości urządzenia rugged staną się aktywnymi asystentami, które widzą więcej, przewidują awarie i łączą pracownika z całym ekosystemem danych, niezależnie od tego, czy znajduje się on w kopalni, czy na środku oceanu.

Powrót na ścieżkę wzrostu

Prognozy dotyczące rynku wzmocnionych urządzeń wyglądają obiecująco. Agencja badawcza Technavio przewiduje, że w latach 2024–2029 wartość tego segmentu wzrośnie o 1,3 mld dol. przy rocznej stopie wzrostu na poziomie 4,7 proc. Analitycy szacują, że największą dynamiką wzrostu wyróżni się kategoria sprzętu semi-rugged, czemu sprzyjać będzie popyt ze strony takich branż jak hotelarstwo, opieka zdrowotna i handel detaliczny. Warto dodać, że w nomenklaturze branżowej funkcjonują również dwie inne kategorie: fully-rugged (spełniający najwyższe normy, takie jak MIL-STD-810) oraz ultra-rugged (urządzenia premium o maksymalnej odporności).

W Polsce po dwóch udanych latach w 2024 r. nastąpiło wyraźne tąpnięcie, którego jedną z przyczyn był spadek zamówień publicznych. Zgodnie z raportem branżowym Cyfrowa Polska z czerwca 2025 r., polski rynek zamówień publicznych na sprzęt i usługi ICT odnotował w 2024 r. spadek na poziomie około 15 proc. Ubiegły rok przyniósł jednak ze sobą pewne ożywienie.

– W 2025 roku obserwujemy stopniową poprawę popytu. Wzrost napędzają przetargi ogłaszane przez administrację publiczną, inwestycje logistyczne oraz trwające projekty modernizacji energetycznej – mówi Agnieszka Borowiec, Business Development Manager Dell CSG w TD Synnex.

TECHNAVIO PRZEWIDUJE, ŻE W LATACH 2024–2029 WARTOŚĆ TEGO SEGMENTU WZROŚNIE O 1,3 MLD DOLARÓW PRZY ROCZNEJ

STOPIE WZROSTU NA POZIOMIE 4,7 PROC.

Również Alstor pozytywnie ocenia sytuację w tym segmencie rynku. Dystrybutor obserwuje zwiększone zapotrzebowanie na urządzenia, które mogą pracować w szerokim zakresie temperatur (od -40 do 80°C), a także spełniają normę MIL-STD. Najwięcej klientów pochodzi z sektora obronnego, automatyki, produkcji, logistyki oraz budownictwa. Alstor prognozuje, że polski rynek będzie rósł w najbliższych latach w tempie 10–12 proc., czyli szybciej niż rynek globalny.

Z optymizmem w przyszłość patrzą również specjaliści Elmark Automatyka. Firma odnotowała w minionym roku 20-procentowy wzrost sprzedaży urządzeń wzmocnionych, przy czym szcze-

gólne ożywienie przyniosła druga połowa roku. Istotny wpływ miało uruchomienie środków z KPO, które przełożyło się na realizację długo odkładanych inwestycji, a także rosnące znaczenie sektora zbrojeniowego.

– W nadchodzących latach spodziewamy się utrzymania trendu wzrostowego. Głównymi motorami pozostaną fundusze unijne, sektor obronny oraz wymiana starszych urządzeń wynikająca z zakończenia wsparcia dla Windows 10 – mówi Marek Ołdakowski, dyrektor sprzedaży i członek zarządu Elmark Automatyka.

Jeśli chodzi o sam sprzęt rugged, to w Polsce największy udział wolumenowy mają handheldy i smartfony przemysłowe

wykorzystywane głównie w logistyce, usługach publicznych i utilities – to ponad jedna trzecia urządzeń. Kolejne miejsce zajmują tablety rugged, następnie laptopy i notebooki rugged. Urządzenia montowane w pojazdach, skanery oraz wyspecjalizowane terminale i panele PC stanowią łącznie mniej niż 10 proc. rynku. – W perspektywie najbliższych 2–3 lat największy potencjał wzrostu mają tablety rugged. Sprzyja im rozwój edge computingu i analityki „na brzegu”, jak też bogaty ekosystem akcesoriów oraz ich rola urządzenia wielofunkcyjnego. Laptopy rugged pozostaną istotne, ale głównie w scenariuszach wymiany sprzętu, zwłaszcza w służbach i instalacjach krytycznych. Dodatkowo rosnącą, choć nadal niszową kategorią będą terminale pojazdowe i wyspecjalizowane urządzenia brzegowe, silnie powiązane z IoT i automatyką –  mówi Konrad Pleban, Workstations Sales Lead CEE w Dell Technologies.

Ceny pójdą w górę

Rynek urządzeń rugged mierzy się z kilkoma barierami ograniczającymi dynamikę sprzedaży. Zdaniem części specjalistów największą barierą jest brak wiedzy wśród potencjalnych użytkowników na temat tej grupy produktów – zarówno w kontekście oferowanych korzyści, ale też świadomości samego istnienia takiej kategorii urządzeń. – Szerokie dotarcie do klientów jest wyzwaniem dla branży ze względu na koszty promocji. Największą skuteczność mają reklamy telewizyjne czy radiowe, ale z reguły pochłaniają one setki tysięcy złotych. Rynek urządzeń wzmocnionych jest dużo mniejszy niż rynek konsumencki, w związku z tym nie dysponuje takimi budżetami reklamowymi. Dlatego każda marka próbuje dotrzeć do klienta w jakiś nowatorski sposób – tłumaczy Anita Miszczyk, Business Unit Manager w CK Mediator.

Inne zdanie na ten temat ma Marek Ołdakowski, który uważa, że rynek jest świadomy kosztów oraz benefitów wynikających z użytkowania urządzeń rugged. Największym hamulcem pozostają, w jego opinii, długie, przeciągające się w nieskończoność procesy decyzyjne.

Potencjalnych nabywców odstraszają też koszty zakupu – urządzenia rugged kosztują zazwyczaj dwa, a w skrajnych przypadkach nawet pięć razy więcej niż ich tradycyjne odpowiedniki. W ciągu ostatnich dwóch lat na rynku urządzeń typu rugged zaszły dwie równoległe, ale przeciwstawne tendencje cenowe. Z jednej strony bariera wejścia dla podstawowej wytrzymałości drastycznie spadła,

Zdaniem specjalisty

Agnieszka Borowiec, Business Development Manager Dell CSG, TD Synnex

Rozwój rynku w najbliższych latach będzie kształtowany przez kilka wzajemnie przenikających się trendów. Technologie 5G w połączeniu z edge computingiem przeniosą przetwarzanie danych bezpośrednio w miejsce ich powstawania, eliminując opóźnienia transmisji i umożliwiając obsługę najbardziej wymagających zastosowań w czasie rzeczywistym. Sztuczna inteligencja przestanie być wyłącznie narzędziem analitycznym wykorzystywanym w biurach i będzie wykorzystywana do szeregu prac bezpośrednio w terenie. Predykcja awarii, automatyzacja procesów i wsparcie decyzji operacyjnych staną się codziennością w logistyce, energetyce i służbach publicznych. Postępująca cyfryzacja obejmie kolej-

ne obszary – od magazynów i terminali logistycznych po infrastrukturę energetyczną i administrację publiczną.

Na polskim rynku urządzeń rugged widzimy wyraźną hierarchię sektorów. Na czele stoją służby publiczne, zwłaszcza wojsko, a następnie energetyka w kontekście zielonej transformacji, produkcja związana z Industry 4.0 oraz budownictwo. Kluczowymi barierami pozostają ograniczone środki finansowe, przewlekłe procesy decyzyjne oraz wysokie koszty importu zaawansowanych technologii, w tym cła i transport. Tak czy inaczej, polski rynek rośnie szybciej niż globalna średnia. Wzrost ten jest napędzany cyfryzacją, wymogami regulacyjnymi, funduszami UE i czynnikami geopolitycznymi. Obecnie dominują smartfony i handheldy, ale rozwój technologii oraz spadek cen tabletów i laptopów będą stopniowo wyrównywać te proporcje.

Tomasz Sierzpowski, Key Account Manager EIZO Ruggged Solutions, Alstor

Klienci preferują zakupy większych flot, szczególnie w sektorach defence i przemysłowym, co zapewnia lepszą efektywność i warunki cenowe.

Konrad

Pleban, Workstations Sales Lead CEE, Dell Technologies

Szacujemy, że rynek urządzeń rugged w Polsce będzie rósł nieco szybciej niż średnia globalna. Wynika to z kilku czynników: rynek jest wciąż mniejszy i mniej nasycony niż w Europie Zachodniej, a jednocześnie silnie korzysta z finansowania unijnego, szczególnie w obszarach cyfryzacji logistyki, produkcji oraz usług publicznych. Dodatkowym impulsem są inwestycje związane z nearshoringiem łańcuchów dostaw, modernizacją infrastruktury krytycznej, bezpieczeństwem publicznym i obronnością. Zewnętrzne raporty wskazują Europę Wschodnią, w tym Polskę i Rumunię, jako region, w którym wdrożono już ponad 14 tysięcy nowych urządzeń rugged, między innymi w logistyce pocztowej i rolnictwie, co potwierdza solidne tempo adaptacji.

z drugiej zaś ceny zaawansowanych jednostek flagowych utrzymały się na wysokim poziomie ze względu na wdrożenie nowych technologii, takich jak sztuczna inteligencja czy łączność 5G. Obecnie zaawansowane parametry, takie jak IP69 K oraz MIL-STD-810 H, stały się standardem nawet w modelach kosztujących poniżej 200–300 dol. (np. smartfony Oukitel). Nie jest jednak tanio. Za laptopy fully rugged trzeba zapłacić od 3 do 5 tys. dol., a w zaawansowanych konfiguracjach jeszcze więcej. W grupie produktów semi-rugged ceny laptopów wahają się od 1,8 do 3 tys. dol.

Nową barierą w ostatnim czasie są gwałtowne wzrosty cen komponentów, w szczególności pamięci RAM oraz dysków SSD. Wynika to z rosnącego popytu

na te elementy ze strony rozwiązań AI i centrów danych, a także z ograniczania produkcji przez największych producentów, co prowadzi do wzrostów cen w skali nienotowanej od wielu lat.

– Oczekujemy, że mogą pojawić się również czasowe problemy z dostępnością wybranych konfiguracji. Przekłada się to na wyższe koszty końcowe urządzeń, wydłużenie procesu ofertowania i realizacji części projektów, szczególnie tych opartych na specyficznych wymaganiach sprzętowych – zauważa Marek Ołdakowski.

Ciekawe perspektywy rysują się przed urządzeniami odnawianymi, gdzie certyfikowany sprzęt pozwala uzyskać oszczędności od 30 do 50 proc. Eksperci przyznają, że ten segment rynku zyskał w ostatnim czasie na znaczeniu. n

dokąd zmierza polski integrator w erze AI?

Mimo jasnego kierunku, droga do pełnego skalowania usług zarządzanych jest wyboista.

Gala Mistrzów IT to wydarzenie, które najlepiej oddaje realny puls rynku – to tutaj spotykają się liderzy faktycznie kształtujący kierunek rozwoju branży technologicznej w Polsce. Miałem okazję uczestniczyć w niej jako prelegent i ekspert Akademii Leona Koźmińskiego, dzieląc się spostrzeżeniami dotyczącymi ewolucji modeli biznesowych. Rozmowy kuluarowe – zarówno z nowo poznanymi osobami, jak i z partnerami, z którymi współpracuję od lat – stały się impulsem do rozesłania krótkiej ankiety, która miała zweryfikować, na ile nasze branżowe wizje pokrywają się z codzienną praktyką zarządczą.

Odpowiadali na nią przedstawiciele firm z awangardy polskiego rynku IT

NAJWIĘKSZE WYZWANIA LEŻĄ W OBSZARZE „MIĘKKIM” I PROCESOWYM.

– w 80 proc. przypadków byli to właściciele i CEO. To właśnie te organizacje jako pierwsze inicjują przejście do nowych modeli biznesowych i testują w praktyce nowe sposoby budowania wartości. Wyniki tej ankiety można więc traktować jako barometr zmian, które w kolejnych latach obejmą całą branżę.

MSP – transformacja, o której się nie krzyczy

Najmocniejszy wniosek z badania? Model usług zarządzanych (Managed Services) w Polsce przestał być teoretycznym postulatem. Aż 40 proc. respondentów deklaruje, że usługi w modelu subskrypcyjnym stanowią już ponad 50 proc. ich obrotów. Należy też podkreślić, że nikt z badanych nie zakwestionował sensu rozwijania tego kierunku.

Rynek jest już więc w trakcie głębokiej transformacji, nawet jeśli nie zawsze towarzyszą jej oficjalne deklaracje. Pytanie, które dziś stawiają sobie liderzy, nie brzmi „czy”, lecz „jak” zbudować skalowalny i rentowny organizm usługowy. To o tyle kluczowe, że dojrzały model MSP tworzy niezbędny fundament pod przyszłe, zyskowne wdrażanie rozwiązań opartych na sztucznej inteligencji.

Bariery, które studzą entuzjazm

Mimo jasnego kierunku, droga do pełnego skalowania usług zarządzanych jest wyboista. Liderzy firm IT wskazali na trzy główne hamulce. Pierwszym są zasoby i wiedza: deficyt czasu, ludzi i konkretnego know-how to największa bariera dla 50 proc. badanych. Druga kwestia to architektura finansowa – otóż prawidłowa wycena i konstrukcja cenników subskrypcyjnych jest wyzwaniem dla co drugiego ankietowanego. I wreszcie trzeci ważny element, to mentalność zespołu: dla 40 proc. respondentów najtrudniejsza jest zmiana postaw pracowników – przejście od myślenia projektowego i „gaszenia pożarów” do proaktywnego zarządzania relacją z klientem.

Te dane pokazują, że największe wyzwania leżą w obszarze „miękkim” i procesowym. To właśnie te luki kompetencyjne stały się inspiracją do stworzenia ram merytorycznych dla Akademii Business as a Service, rozwijanej wspólnie z Akademią Leona Koźmińskiego. Program ten wyrasta bezpośrednio z rynkowej potrzeby usystematyzowania wiedzy o transformacji modelu biznesowego.

Czego szuka „awangarda” rynku?

Analiza potrzeb edukacyjnych liderów pokazuje ewolucję w stronę zarządzania strategicznego. Respondenci jako kluczowe

cele nauki wskazali: projektowanie oferty MSP (aż 90 proc. badanych chce nauczyć się budować usługi, które rynek zechce kupować w abonamencie); zarządzanie zmianą (40 proc. liderów rozumie, że technologia to tylko połowa sukcesu – reszta to zespół i jego motywacja w nowym modelu); otymalizacja AI (zainteresowanie AI skupia się dziś przede wszystkim na tym, jak wykorzystać tę technologię do automatyzacji procesów wewnętrznych).

Uczestnicy ankiety to wymagający profesjonaliści, którzy cenią przede wszystkim autentyczność. Najbardziej zachęcają ich spotkania z ekspertami i liderami rynku (70 proc.) oraz praktyczne warsztaty oparte na case studies (60 proc.). Ważny jest również networking – możliwość wymiany doświadczeń z innymi właścicielami firm (60 proc.).

Te oczekiwania definiują nowy standard w edukacji biznesowej dla branży IT. Liderzy nie szukają certyfikatów czy dyplomów, lecz kompleksowego planu rozwoju swoich organizacji (40 proc.) i wzrostu kompetencji zespołów (50 proc.). W erze AI i dynamicznie zmieniających się modeli przychodowych, to właśnie ta merytoryczna nadbudowa staje się realną przewagą konkurencyjną.

Maciek Szcześniak

Jest pomysłodawcą kierunku Akademia

Business as a Service w Akademii Leona Koźmińskiego i Dyrektorem odpowiedzialnym za kanał partnerski Lenovo w Europie.

Prognozy Channel Masterów: między deficytem półprzewodników a rewolucją AI

Niedobór chipów, kolejne pilotaże

AI i nowe regulacje będą w 2026 roku wielkim testem dojrzałości dla firm technologicznych.

Wojciech Urbanek

Wszystko wskazuje na to, że bieżący rok w branży nowych technologii zdominują dwa tematy: sztuczna inteligencja oraz niedobór komponentów. Przy czym oba zjawiska są ze sobą ściśle powiązane. Ogromne zamówienia ze strony hiperskalerów na pamięci

NAND i DRAM sprawiają, że zaczyna ich brakować na potrzeby producentów komputerów i smartfonów. Dostawcy półprzewodników, maksymalizując zyski poprzez obsługę kontraktów z gigantami sektora AI, drastycznie podnieśli ceny, wprowadzając spory chaos na rynku konsumenckim. Skutki tego zjawiska z pewnością odczują nie tylko nabywcy komputerów i smartfonów. Niestety, taka sytuacja może potrwać nawet dwa lata.

Jak wynika z raportu MIT, w 2025 r. aż 95 proc. pilotażowych projektów AI w firmach zakończyło się fiaskiem. Mimo to menedżerowie wyższego szczebla nadal wierzą w sztuczną inteligencję i zamierzają w nią dalej inwestować. Czy wy-

WEDŁUG RAPORTU MIT AŻ 95 PROC. PILOTAŻOWYCH PROJEKTÓW AI W FIRMACH ZAKOŃCZYŁO SIĘ FIASKIEM.

ciągną wnioski z nieudanych pilotaży?

Zdaniem części ekspertów bieżący rok powinien być pod tym względem lepszy od swojego poprzednika, a sztuczna inteligencja przestanie być wyłącznie hasłem marketingowym i wejdzie w fazę rzeczywistych wdrożeń. Kluczową zmianą ma być zwrot w stronę lokalnych implementacji – na komputerach PC wyposażonych w akceleratory AI, stacjach

roboczych oraz na brzegu sieci. To otwiera przed partnerami kanałowymi zupełnie nowe pole do popisu: począwszy od projektów proof of concept, poprzez integrację, aż po dopasowanie rozwiązań do specyfiki konkretnych branż.

Czerwone światło dla AI?

Transformacja dotyka wszystkich segmentów rynku IT. W obszarze zarządzania urządzeniami następuje przejście od prostej kontroli do kompleksowej obsługi, gdzie komfort pracy użytkownika

Artur Bicki, CEO, Energy Logserver

Ostaje się strategicznym elementem produktywności. Sektor druku koncentruje się na zrównoważonym rozwoju i bezpieczeństwie, podczas gdy rozwiązania sieciowe przechodzą z myślenia sprzętowego na podejście platformowe. Wszystko to dzieje się w kontekście rosnącego znaczenia pracy hybrydowej – aż 80 proc. pracowników zdalnych oczekuje, że ten model zostanie z nimi na stałe. Jednym z priorytetów będzie bezpieczeństwo. W dobie narastających cyberzagrożeń, a także postępującej adaptacji

becnie zachwycamy się możliwościami modeli językowych, wykorzystując darmowe konta GPT czy DeepSeek i niemal każdy z nas uprościł sobie pracę związaną z pisaniem mejli, a nawet całych dokumentów, współpracując z asystentem AI. Rok 2026 będzie jednak momentem, w którym wiele firm wyraźnie powie „stop” dla AI. Chaos wprowadzony przez dostawców platform AI zacznie podlegać kontroli. Regulaminy pracy oraz dokumenty dotyczące zachowania poufności zostaną rozbudowane o sekcje zakazujące przetwarzania danych z wykorzystaniem zewnętrznych modeli językowych. Dlaczego? Każdy prompt to wiedza o organizacji lub pracowniku. Prompt to nasza myśl, a ich zapamiętywanie profiluje człowieka dokładniej niż przeglądanie jego katalogu cookies. Myśli uzupełnione dokumentami stanowią łakomy kąsek dla operatorów LLM. Dziś subskrypcja u dostawcy AI jest tania. Dodatkową ceną, którą płacimy za AI, są nasze dane. Niebawem publiczne platformy AI zostaną uzupełnione reklamami. Nie spodziewam się jednak, że podczas pytania o wybór produktu AI pokaże nam listę obrazów niczym z portalu aukcyjnego. AI, we współpracy ze sponsorami, dostarczy nam taką analizę, która będzie najbardziej opłacalna dla operatora modelu. Reklama oparta na naszych myślach to coś naprawdę przerażającego. Dlatego AI zostanie obwarowane przepisami, a wykorzystanie zewnętrznych dostawców ograniczone. Firmy, które będzie na to stać, zbudują wewnętrzne portale GPT w oparciu o własny sprzęt oraz własne know-how.

Dariusz Okrasa, Channel Sales Manager, Dell Technologies

Rok 2026 w dużej mierze będzie czasem materializacji projektów zainicjowanych w roku poprzednim. Klienci są dziś znacznie lepiej przygotowani, mają za sobą testy, czy też pilotażowe projekty związane z AI i sprecyzowane oczekiwania biznesowe. Szansą dla partnerów jest rosnąca liczba projektów, które wymagają nie tylko dostarczenia sprzętu, ale zaprojektowania całego środowiska: od nowoczesnego miejsca pracy, przez lokalne przetwarzanie danych, poprzez edge AI, po bezpieczeństwo, backup i odporność infrastruktury. Widzimy wyraźny zwrot w stronę lokalnych wdrożeń sztucznej inteligencji na AI PC, stacjach roboczych

i na brzegu sieci, co otwiera przed kanałem partnerskim nowe możliwości w obszarze PoC, integracji i dopasowania rozwiązań do specyfiki branż. Jednocześnie rośnie znaczenie podejścia typu AI Factory, które porządkuje drogę od eksperymentu do produkcji i pozwala partnerom budować powtarzalne, skalowalne projekty dla klientów.

Największym wyzwaniem pozostają zasoby i kompetencje, dlatego w 2026 roku wygrywać będą partnerzy, którzy inwestują w rozwój i specjalizację. Rola kanału sprzedaży zmienia się trwale: z dostawcy technologii w zaufanego doradcę i współtwórcę strategii cyfrowej klientów. To ambitna zmiana, ale właśnie w niej widzę największy potencjał na kolejne lata.

Obecnie znajdujemy się w początkowej fazie dotkliwego niedoboru pamięci i półprzewodników, który zaczął się krystalizować pod koniec 2025 roku. Wszystko wskazuje na to, że mamy do czynienia z trendem długofalowym, który potrwa co najmniej rok, a być może nawet dwa lata. Głównymi katalizatorami tej sytuacji są gwałtowny rozwój sztucznej inteligencji oraz wcześniejsze ograniczenia w rozbudowie mocy produkcyjnych.

Deficyt obejmuje cały łańcuch dostaw: od kości pamięci Flash i RAM, przez dyski SSD, aż po układy scalone do zastosowań komercyjnych.

AI, ochrona danych stanie się coraz trudniejsza. Niewykluczone, że 2026 r. może być momentem, w którym wiele firm powie „stop” dla bezkrytycznego korzystania z publicznych narzędzi AI. Chaos wprowadzony przez dostawców platform zacznie podlegać kontroli, a regulaminy pracy zostaną rozbudowane o zakazy przetwarzania wrażliwych danych przez zewnętrzne modele językowe. Firmy dysponujące odpowiednimi budżetami, zbudują wewnętrzne portale AI w oparciu o własny sprzęt i wiedzę.

Rozwój kompetencji i zasobów Poważnym wyzwaniem pozostają kompetencje i zasoby. W 2026 r. zyskają partnerzy, którzy inwestują w rozwój i specjalizację, poszerzą portfolio i rozwiną umiejętności w kluczowych obszarach: AI, cyberbezpieczeństwa, efektywności energetycznej czy zarządzania infrastrukturą hybrydową. Presja

Producenci, dążąc do maksymalizacji zysków, skoncentrowali się na realizacji kontraktów dla kluczowych graczy z sektora AI, co wymusiło drastyczne podwyżki i wprowadziło spory chaos na rynku konsumenckim. Cały rok 2026 upłynie pod znakiem drożejących modułów RAM i napędów SSD. Przełoży się to bezpośrednio na wyższe ceny komputerów, smartfonów, tabletów oraz infrastruktury serwerowej. Wpływ tych zmian wyjdzie poza branżę czysto sprzętową. Jednym z największych odbiorców pamięci jest sektor produkcji telewizyjnej oraz streaming, co może skutkować wzrostem cen subskrypcji i usług sieciowych. Choć dzisiejsza technologia oferuje znacznie większe możliwości niż w czasach przed pandemią, kiedy solidny laptop kosztował średnio 3,2 tys. zł, to za wysoką jakość przyjdzie nam teraz zapłacić nieporównywalnie więcej.

Marketing Manager, Sharp Electronics CEE

Rynek urządzeń MFP wchodzi w fazę stabilizacji, ale zmienia się jego struktura. Po okresie pandemicznych wahań wolumen sprzedaży urządzeń wrócił do poziomu sprzed kilku lat, jednak spada liczba wydruków, co jest efektem cyfryzacji procesów i pracy hybrydowej. Kluczowym trendem jest wzrost udziału urządzeń kolorowych kosztem monochromatycznych, co z kolei wynika ze spadających kosztów druku kolorowego.

W 2026 roku katalizatorem zmian będzie KSeF, który przyspieszy digitalizację dokumentów i integrację systemów. W tym kontekście rośnie znaczenie chmury, bezpieczeństwa danych oraz usług IT. Potwierdzają to wyniki badania Sharp w Europie – firmy inwestują w cyfryzację i technologie AI. Podsumowując, sposób pracy ludzi się zmienił, a klienci potrzebują partnera technologicznego, nie tylko produktów. Sharp jest na to przygotowany – przejął kilka firm IT w Europie i zakończył ostatni etap fuzji z Sharp/NEC, umacniając pozycję jako firma, która wspiera klientów w transformacji i poprawia sposób ich pracy.

cenowa i inflacja wymuszają elastyczność, ale jednocześnie klienci oczekują nie tylko konkurencyjnych cen, ale przede wszystkim kompleksowego wsparcia we wdrażaniu złożonych technologii.

Nadchodzący rok przyniesie także istotne zmiany regulacyjne. Wdrożenie Krajowego Systemu e-Faktur (KSeF) – niezależnie od krytycznej jego oceny przez przedsiębiorców – przyspieszy digitalizację dokumentów i integrację systemów, zwiększając znaczenie roz-

wiązań chmurowych i bezpieczeństwa danych. To kolejny impuls do transformacji, który zmieni sposób pracy wielu firm oraz instytucji.

W warunkach deficytu komponentów, rewolucji AI, zmian regulacyjnych i rosnących oczekiwań w zakresie bezpieczeństwa, sukces osiągną organizacje i partnerzy, którzy umiejętnie połączą innowacyjność z pragmatyzmem, oferując nie tylko produkty, ale kompletne, przemyślane rozwiązania dostosowane do nowych realiów rynkowych. n

styczeń – luty 2026 / CRN / 37

Łukasz Wacławiak,

Rok 2026 będzie dla rynku rozwiązań sieciowych okresem dalszej profesjonalizacji i przechodzenia z myślenia „sprzętowego” na podejście platformowe. Klienci z segmentu SMB, enterprise oraz sektora publicznego coraz częściej oczekują kompletnych, skalowalnych ekosystemów, obejmujących sieć przewodową, Wi-Fi, bezpieczeństwo oraz monitoring, zarządzanych z jednego, spójnego środowiska. Istotnym trendem technologicznym będzie popularyzacja standardu Wi-Fi 7 oraz rozwój sieci multigigabitowych. Rosnąca liczba

urządzeń, aplikacje chmurowe, wideo w wysokiej rozdzielczości oraz systemy bezpieczeństwa sprawiają, że gigabit przestaje być wystarczający. W 2026 roku multigigabitowe przełączniki oraz punkty dostępowe staną się standardem nie tylko w dużych organizacjach, ale również w bardziej zaawansowanych wdrożeniach SMB. Równolegle rosnąć będzie znaczenie centralnego zarządzania w chmurze, automatyzacji konfiguracji i monitoringu sieci. To bezpośrednio wzmacnia rolę integratorów i partnerów, którzy oferują projektowanie rozwiązań end-to-end, doradztwo oraz lokalne wsparcie. Kanał partnerski coraz częściej pełni rolę zaufanego doradcy technologicznego, a nie tylko dostawcy infrastruktury, i ten trend w 2026 roku będzie się pogłębiał.

Rynek Unified Endpoint Management wchodzi w nową erę. Jeszcze niedawno głównym celem było sprawne zarządzanie urządzeniami i aplikacjami. Dziś organizacje oczekują rozwiązań, które nie tylko zapewnią kontrolę, ale realnie poprawią jakość pracy użytkowników, zwiększą bezpieczeństwo i zagwarantują niezależność w cyfrowym świecie. Pierwszym filarem tej zmiany jest Digital Employee Experience (DEX). Kiedy pracownicy korzystają z dziesiątek aplikacji i narzędzi, komfort pracy staje się równie ważny jak stabilność systemów. Firmy zaczynają rozumieć, że doświadczenie użytkownika to nie „miły dodatek”, lecz strategiczny element produktywności.

Drugi trend, naturalnie łączący się z pierwszym, to zastosowanie AI w rozwiązaniach DEX. Sztuczna inteligencja staje się „strażnikiem jakości” cyfrowego środowiska pracy. Dzięki algorytmom

wykrywania anomalii UEM potrafi wychwycić subtelne sygnały spadku wydajności czy nietypowego zużycia zasobów, zanim użytkownik odczuje problem. To proaktywne podejście zmienia rolę IT: z reaktywnego „gaszenia pożarów” na inteligentne zapobieganie awariom.

Trzecim, coraz bardziej strategicznym filarem jest suwerenność cyfrowa. Aż 96 procent firm w UE korzysta z technologii spoza Europy, głównie z USA i Chin, co rodzi ryzyko utraty kontroli nad danymi i procesami. Dlatego UEM musi dziś gwarantować nie tylko zarządzanie urządzeniami, ale też pełną kontrolę nad przepływem danych, transparentność partnerów i, w razie potrzeby, możliwość szybkiej zmiany dostawcy.

Przemysław Biel, Business Development Manager, Synology

Rynek serwerów NAS w 2025 roku przeszedł ogromne zmiany, pojawili się nowi gracze oraz problemy z dostępnością komponentów co wpłynęło także na ceny tych rozwiązań. Rok 2026 będzie sporym wyzwaniem dla każdego producenta serwerów. Przewagę zyskają te firmy, które zadbały o odpowiedni łańcuch dostaw oraz pomyślały o długofalowej strategii. Wykorzystanie „sztucznej inteligencji” w serwerach będzie odgrywało sporą rolę. To nie będą marketingowe obietnice, lecz konkretne korzyści oraz policzalne

Paweł Miszkiewicz,

Rkoszty. Bardzo istotna będzie też możliwość wykorzystania lokalnych modeli AI oraz dywersyfikacja dostawców.

Synology, po bardzo dobrym ubiegłym roku, ma ambitne plany na rok 2026 z nowymi produktami oraz rozwiązaniami dla zupełnie nowej kategorii klientów. Zapowiedziane na Computex nowe serie produktów będą miały premierę w pierwszej połowie 2026. Seria PAS (primary storage) zaoferuje pamięć masową dla największych korporacji oraz instytucji i wszędzie tam, gdzie jest potrzebna wydajność plikowa i blokowa bez kompromisów. Seria GS (Grid Station) w architekturze scale out, pozwoli na budowę dużo większych rozwiązań przez naszych partnerów i zaspokoi potrzeby nie tylko firm czy instytucji, ale także centrów danych.

Dyrektor Kanału Partnerskiego, HP

ok 2026 oraz przyszłość pracy kształtują się w rytmie dynamicznych zmian a kluczowymi trendami stają się AI oraz rosnące znaczenie pracy hybrydowej. Według danych Gallupa z 2024 roku aż 80 procent pracowników wykonujących pracę zdalną oczekuje, że ich praca będzie miała charakter hybrydowy lub w pełni zdalny, podczas gdy 64 procent firm planuje wykorzystać AI w celu zwiększenia produktywności i lepszego zrozumienia rynku (AIPRM, Forbes 2024). HP oferuje rozwiązania i urządzenia, które wspierają organizacje w obliczu tych wyzwań, łącząc innowacyjność, elastyczność i bezpieczeństwo. Firma umożliwia efektywną komunikację, kreatywną pracę oraz zarządzanie projektami z dowolnego miejsca na świecie. Wysoka jakość ekranów, długi czas pracy na baterii oraz czysty dźwięk podczas spotkań online to tylko niektóre cechy, które sprawiają, że technologie HP stają się niezastąpionym codziennym wsparciem. W zakresie sztucznej inteligencji, HP wdraża narzędzia analityczne oparte na AI, które optymalizuje zarządzanie IT oraz zwiększa wydajność organizacji. W świecie, w którym AI i hybrydowe modele pracy stają się rzeczywistością, HP oferuje narzędzia i rozwiązania umożliwiające organizacjom adaptację do nowych realiów biznesowych w erze transformacji cyfrowej.

Sebastian Wąsik, Country Manager, baramundi soft ware

Piotr Gołębczyk, Head of SMB

Business, Brother

Wnadchodzącym roku sektor druku będzie kształtowany przez kilka kluczowych trendów, które odpowiadają na rosnące wymagania ekologiczne, ekonomiczne oraz te związane z bezpieczeństwem. Po pierwsze istotne miejsce w strategiach firm zajmie zrównoważony rozwój. Coraz więcej przedsiębiorstw zwraca uwagę na ekologiczne aspekty swoich działań, co przekłada się również na branżę druku. Klienci oczekują nie tylko urządzeń energooszczędnych, ale także skutecznych systemów zbiórki i przetwarzania zużytych materiałów eksploatacyjnych, takich jak tonery czy tusze. Coraz większa świadomość ekologiczna wpływa także na wybór niezawodnych urządzeń o długim czasie użytkowania, co pozwala ograniczyć ilość elektrośmieci i częstotliwość wymian sprzętu. Kolejnym istotnym trendem jest rosnąca popularność modelu usługi Managed Print Services. Usługa MPS to nie tylko optymalizacja kosztów za stronę, ale przede wszystkim sposób na zmniejszenie zaangażowania pracowników w obsługę i utrzymanie floty drukarek. Dzięki temu organizacje oszczędzają czas, a co za tym idzie, pieniądze. MPS pozwala również na przewidywalność i kontrolę kosztów w dłuższej perspektywie, co doceniają zarówno duże korporacje, jak i coraz częściej małe i średnie firmy oraz sektor publiczny. Nie można pominąć kwestii bezpieczeństwa, które w dobie narastających cyberzagrożeń staje się priorytetem. W sektorze druku wdrażane są zaawansowane mechanizmy zabezpieczające, takie jak szyfrowanie przesyłanych danych, tryb druku bezpiecznego z autoryzacją użytkownika za pomocą PIN-u lub kart zbliżeniowych, a także automatyczne aktualizacje firmware’u.

W2026 roku będziemy obserwować trzy równoległe trendy: gwałtowny wzrost mocy obliczeniowej i zapotrzebowania na energię, konieczność przyspieszenia modernizacji infrastruktury energetycznej i IT oraz rosnącą rolę efektywności energetycznej w projektowaniu systemów. Inwestycje w centra danych, zwłaszcza te przygotowane pod obciążenia AI i HPC, wymuszają pełną automatyzację i cyfryzację procesów modelowania, monitorowania i zarządzania infrastrukturą. Dla przedsiębiorstw projektujących systemy oraz system integratorów oznacza to konieczność rozwoju kompetencji w tworzeniu rozwiązań opartych

Tomasz Klewinowski, SMB & Channel Director, Lenovo

Sztuczna inteligencja i automatyzacja procesów stwarzają obecnie zupełnie nowe możliwości. Nasi partnerzy coraz częściej oferują rozwiązania oparte na AI, także zaawansowaną analitykę danych. Jednocześnie rośnie znaczenie cyberbezpieczeństwa i odpowiedniej certyfikacji specjalistów, gdyż obecnie dane, szczególnie te wrażliwe, są największym zasobem i ich ochrona staje się kluczowa. Digitalizacja postępuje, a w przedsiębiorstwach i administracji publicznej będzie niezbędna jeszcze mocniejsza cyfrowa ochrona, co zwiększy popyt na tego typu usługi.

Przewidujemy także dalszy rozwój modeli subskrypcyjnych oraz wzrost zainteresowania nowymi systemami IT w związku z końcem wsparcia dla Windows 10. Lenovo chce wspomagać partnerów w tych obszarach i działać transparentnie, bez zamiaru konkurowania z nimi. Wyzwaniami na rynku są przede wszystkim presja cenowa oraz inflacja. Klienci oczekują tańszych usług, a partnerzy jak najlepszych warunków współpracy. Dlatego najważniejsze są elastycznie tworzona oferta produktowa i umiejętność dostosowania cen do obecnej sytuacji rynkowej.

Warto podkreślić, że cyfrowa transformacja znacząco przyspiesza także zmiany w kanale partnerskim. Aby pozostać konkurencyjnymi, partnerzy muszą poszerzać portfolio i rozwijać swoje kompetencje. Lenovo wspiera ten proces i oferuje nie tylko szeroką gamę produktów, ale także szkolenia i certyfikacje z zakresu AI i cyberbezpieczeństwa. Partnerzy oczekują dziś nie tylko sprzętu, lecz także wsparcia we wdrażaniu złożonych technologii oraz rozwoju kompetencji.

o chłodzenie cieczą czy zarządzania ekstremalnie wysokimi gęstościami mocy.

Równolegle będzie rosło zapotrzebowanie na modernizację mniejszych i średnich obiektów edge computing. Znaczący wzrost dostarczanej energii do takich obiektów wymusza stosowanie zaawansowanych rozwiązań zasilania bezprzerwowego UPS, klimatyzacji precyzyjnej i hybrydowych systemów chłodzenia. Technologie pozwalające lepiej zarządzać energią, od monitoringu i predykcji po integrację źródeł rozproszonych, stają się standardem. Partnerzy potrzebują dostawców zapewniających nie tylko rozwiązania, ale również odpowiednie kompetencje, od programów certyfikacyjnych takich jak IT Solution Provider i EcoXpert, przez narzędzia do projektowania, aż po dostęp do zespołu ekspertów

Mirosław Pisaniec, Sales Manager (IT&OT Channels), Schneider Electric

Prognozy IT Masterów: z optymizmem w nowy rok

Według zdobywców tytułów IT Master 2026 w nadchodzących miesiącach można spodziewać wzrostu sprzedaży, zwłaszcza w obszarze cyberbezpieczeństwa. W tym czasie rola integratorów będzie ewoluować w ramach rosnącej popularności modelu usług zarządzanych.

Koniunktura rynku IT w 2026 r. będzie lepsza niż w roku ubiegłym – twierdzą laureaci wyróżnień IT Master 2026. Według czołowych polskich integratorów do czynników wzrostu należy zaliczyć rosnące PKB, niższe stopy procentowe oraz napływ środków z KPO. Szczególną dynamiką ma wyróżniać się segment cyberbezpieczeństwa, co jest związane zarówno z rosnącymi zagrożeniami, jak też z wymogami regulacyjnymi (NIS 2, KSC, DORA). Wyraźnie większego zapotrzebowania można spodziewać się także w przypadku chmury hybrydowej i multi-cloud.

– Popularność modeli hybrydowych i multicloud szybko rośnie ze względu na

Krzysztof Pasławski

koszty, ryzyko lock-in i wymagania regulacyjne. Klienci oczekują już nie tylko wymiany sprzętu, ale dostarczenia im kompleksowych architektur hybrydowych. Równolegle operatorzy centrów danych i klienci modernizują infrastrukturę pod kątem efektywności energetycznej, PUE i ESG – twierdzi Jakub Jurek, Managing Partner oraz Head of Sales w Pitlabsie.

Sztuczna inteligencja w akcji

Kolejne wzrostowe „tematy” to automatyzacja procesów i wdrożenia AI (które zresztą również wiążą się głównie z automatyzacją). Co istotne, w 2026 r. powinniśmy zobaczyć więcej wdrożeń sztucznej

Rok 2026 to czas ewolucji modelu everything-as-a-service. Rynek IT wkracza w fazę operacyjnej dojrzałości chmurowej. Czas zachwytu nad migracją już minął. Klienci przestają pytać, czy być w chmurze, a zaczynają dopytywać, ile nas to realnie kosztuje i jak możemy te koszty zmniejszyć? Dlatego głównym trendem będzie agresywna optymalizacja kosztowa (FinOps) i uszczelnienie bezpieczeństwa środowisk hybrydowych. Dyrektywy takie jak NIS 2 czy DORA wymuszą na zarządach traktowanie cyberbezpieczeństwa na równi z ryzykiem finansowym.

Największym wyzwaniem pozostanie deficyt kompetencyjny, zwłaszcza w cyberbezpieczeństwie i AI. Firmy, które nie będą w stanie zbudować własnych, silnych zespołów bezpieczeństwa (a większość MŚP nie ma na to szansy), zostaną zmuszone do outsourcingu. To dobra wiadomość dla rynku usług zarządzanych, który stanie się nie opcją, a koniecznością. Alternatywnie, jest to moment na wyko-

inteligencji w konkretnych procesach biznesowych, a nie na zasadzie eksperymentu. Co przy tym oczywiste, nie wszystkie obszary rynku będzie cechować wzrost.

– Klienci będą inwestować selektywnie, to znaczy tam, gdzie technologia ma wyraźne uzasadnienie biznesowe i bezpośrednio, mierzalnie wspiera efektywność kosztową – przewiduje Mariusz Jurak, wiceprezes Sygnity.

Spadek jest prognozowany chociażby w segmencie serwerowni lokalnych, jak

rzystanie AI. W 2026 roku stanie się ona niezbędnym narzędziem, by automatyzować procesy, których nie ma komu obsługiwać ręcznie. Asem sprzedaży w tym roku nie będzie już pudełko ani licencja, lecz abonament na przetrwanie. Przewiduję gigantyczną dynamikę w obszarze usług MSSP i rozwiązań MDR, ponieważ małe i średnie firmy stały się celem, ale nie mają budżetów na własne SOC czy Cyfrowe Bunkry. Model subskrypcyjny to dla nich jedyny ratunek. Będą kupować zaawansowaną ochronę w modelu miesięcznym, tak jak kupują prąd czy dostęp do aplikacji. Engave już teraz sprzedaje usługi zarządzane i odporność (resilience), a technologia jest dla nas tylko (i aż) silnikiem. Rolą integratora w 2026 roku jest zdjęcie z barków zarządów ciężaru zarządzania tą skomplikowaną rzeczywistością IT. Klient w 2026 roku głosuje danymi z Excela i oceną ryzyka. Decyzyjność zakupowa w IT przesunęła się w stronę CFO, którzy wymuszają przejście z modelu CAPEX (inwestycje) na OPEX (koszty operacyjne). Wolą przewidywalną fakturę co miesiąc niż jednorazowy, gigantyczny wydatek, który starzeje się już w momencie zakupu.

Adrianna Kilińska, CEO, Engave

też w przypadku rozwiązań sprzętowych niepowiązanych z usługami czy chmurą, a w segmencie cyberbezpieczeństwa pesymistyczne prognozy dotyczą pojedynczych, izolowanych narzędzi.

– Klienci coraz częściej szukają rozwiązań zintegrowanych, zarządzanych i takich, które realnie odciążają ich zespoły –  mówi Karol Girjat, Business Development Manager w Net Complex.

Wśród wyzwań IT Masterzy wskazują na sytuację geopolityczną, której negatywny rozwój może mieć wpływ cho-

ciażby na łańcuchy dostaw. Hamulcem popytu mogą też okazać się rosnące ceny komponentów, w tym DRAM i SSD, co może uderzyć zwłaszcza w projekty infrastrukturalne i centra danych. Jednocześnie mogą niepokoić ograniczenia budżetowe i wysoka wrażliwość klientów na rosnące ceny.

– Sektor prywatny może coraz mocniej odczuwać potencjalne spowolnienie gospodarcze i zaciskanie pasa, co odbije się na skali inwestycji w infrastrukturę – przewduje Jakub Jurek.

Mariusz Jurak, wiceprezes, Sygnity

Uważam, że rok 2026 będzie czasem umiarkowanego wzrostu na polskim rynku IT, z tym że inwestycje nie zwiększą się we wszystkich obszarach. Klienci będą inwestować selektywnie – tam, gdzie technologia ma wyraźne uzasadnienie biznesowe i w mierzalny sposób wspiera efektywność kosztową. Istotnym czynnikiem będzie również odporność operacyjna, rozumiana jako zdolność organizacji do utrzymania kluczowych procesów biznesowych lub ich szybkiego przywrócenia w warunkach zakłóceń, przy jednoczesnej kontroli ryzyka, kosztów i zgodności regulacyjnej. Wzrostowi powinna sprzyjać presja regulacyjna, rosnące koszty pracy i potrzeba automatyzacji procesów. Jednocześnie należy liczyć się z ograniczeniami: ostrożnością budżetową klientów, większą wrażliwością na cenę i mniejszą skłonnością do angażowania się w duże, długoterminowe kontrakty bez szybkiego zwrotu z inwestycji. Dla firm IT oznacza to konieczność zarządzania portfelem projektów i kompetencji oraz dopasowania oferty produktowej do aktualnych potrzeb rynku.

KLIENCI BĘDĄ INWESTOWAĆ TAM, GDZIE TECHNOLOGIA MA UZASADNIENIE BIZNESOWE.

Niedostatek fachowców

IT Masterzy zwracają uwagę, że coraz większy wpływ na rynek, jak też na modele biznesowe, ma niedobór fachowców, co dotyczy zwłaszcza cyberbezpieczeństwa. Skutki tego stanu rzeczy będą

Coraz większą rolę będzie odgrywać sztuczna inteligencja, z naciskiem na jej praktyczne wykorzystanie. Adaptacja AI stanie się elementem procesów biznesowych, a nie eksperymentem. W 2026 roku najwyższej dynamiki spodziewam się w obszarach automatyzacji i integracji systemów, modernizacji środowisk legacy, inwestycji w technologie wspierające cyberodporność organizacji oraz w rozwiązania analityczne wykorzystujące AI, osadzone w procesach biznesowych. Średnie i duże organizacje, szczególnie z sektorów regulowanych – takich jak bankowość, ubezpieczenia, energetyka czy administracja publiczna – będą koncentrować się na zwiększaniu produktywności przy ograniczonych zasobach.

Klienci coraz częściej pytają nie o technologię, lecz o rozwiązania umożliwiające osiągnięcie konkretnego efektu biznesowego, takiego jak skrócenie czasu procesu, obniżenie kosztu, poprawa bezpieczeństwa czy zgodność z regulacjami. Oczekują przy tym krótszego time-to-market, elastycznych modeli rozliczeń i większej odpowiedzialności dostawcy za rezultat.

znaczące, bo klienci, nie będąc w stanie skompletować własnych, odpowiednio kompetentnych zespołów IT i cyberbezpieczeństwa, będą coraz częściej decydować się na fachowe i kompleksowe usługi zewnętrznych podmiotów. Ma to istotne konsekwencje w odniesieniu do modeli biznesowych, jak też skali popytu.

- Asem sprzedaży w 2026 roku już nie będzie ani pudełko, ani licencja, ale abonament na przetrwanie. Rynek usług zarządzanych stanie się nie opcją, a koniecznością – przekonuje Adrianna Kilińska, CEO Engave.

Kacper Konopiński z IT Solution Factor dodaje, że model usług zarządzanych pozwala klientom ograniczyć wydat-

MIMO WYZWAŃ CYBERBEZPIECZEŃSTWO JEST JEDNYM Z NAJBARDZIEJ ODPORNYCH

Jakub Jurek, Managing Partner, Head of Sales, Pitlabs

Rok 2026 w polskim IT będzie napędzany przez programy rządowe, dążenie do spełnienia regulacji NIS 2/KSC i duży nacisk na cyberbezpieczeństwo. Z drugiej sektor prywatny może coraz mocniej odczuwać potencjalne spowolnienie gospodarcze i zaciskanie pasa, co odbije się na skali inwestycji w infrastrukturę. Kluczowym trendem jest oczywiście AI i jego adaptacja w strukturach organizacji. Najszybsi i najbardziej zwinni zyskają najwięcej, a ci, którzy nie zdążą wsiąść do pociągu AI, będą zaciągać rosnący dług technologiczny. Silnie widoczne są trendy multi cloud i rosnąca rola regulacji. Nowa ustawa o KSC, wdrażająca w życie zapisy NIS 2, rozszerzy katalog podmiotów objętych wymogami cyberbezpieczeństwa, co generuje popyt na segmentację, NGFW, SIEM/SOC, backup odporny na ransomware i disaster recovery w centrach danych. Programy Cyberbezpieczny Samorząd, Cyberbezpieczny Rząd oraz inwestycje CyberPL z KPO finansują modernizację infrastruktury, budowę i rozwój państwowych centrów danych i cyfryzację administracji – to będzie jedna z głównych lokomotyw rynku w 2026 roku.

ki związane z rekrutacją, szkoleniami i utrzymaniem zespołu. Jednocześnie zapewnia stały dostęp do ekspertów o wysokich kompetencjach, utrzymanie środowisk IT i, generalnie, właściwe zarządzanie infrastrukturą, w tym jej cyberbezpieczeństwem.

„Klient chce kupić święty spokój”

Jak podkreślają czołowi polscy integratorzy, na rynku wygrają te firmy, które potrafią połączyć kompetencje IT ze zrozumieniem biznesu.

SMniejsi klienci (JST, MŚP) będą inwestować głównie tam, gdzie zyskają finansowanie lub muszą spełnić twarde wymagania: granty, minimalna zgodność z NIS 2/KSC, podstawowy backup z deduplikacją, NGFW, jak też uproszczone disaster recovery. Z kolei klient średni skupi się na hybrydzie: migracji z serwerowni do profesjonalnych centrów danych, SD WAN, konsolidacji VM, SIEM, DR i optymalizacji energii, z mocnym naciskiem na TCO. Wreszcie sektor enterprise i operatorzy centrów danych, pomimo kryzysu, będą dalej skalować projekty AI i high density, budować strefy GPU, sieci 100/200/400 GbE oraz zaawansowane środowiska multicloud/Zero Trust. Tendencję wzrostową przewidujemy w takich „tematach”, jak: backup, NGFW/segmentacja, SIEM/SOC, hybrydowe DC/SD-WAN (sektor publiczny i średni biznes) oraz GPU/high-density, łączność sieciowa 100+ GbE. Jednocześnie prognozujemy spadek popytu w serwerowniach lokalnych.

- My, integratorzy, musimy przestać być dostawcami narzędzi czy kolokwialnie mówiąc „gratów”, a stać się gwarantem ciągłości działania. Klient nie chce kupować kolejnego firewalla czy macierzy. Klient chce kupić święty spokój i pewność, że w razie ataku ransomware jego biznes wstanie z kolan w cztery godziny, a nie w cztery tygodnie. To zmienia naszą

podziewamy się poprawy koniunktury na polskim rynku IT, zwłaszcza w naszych głównych obszarach działania, czyli bezpieczeństwie, infrastrukturze IT i związanych z nimi usługach. Sprzyjają temu czynniki gospodarcze, takie jak dynamika PKB, dobra ogólna kondycja gospodarki, niższa inflacja, obniżone stopy procentowe i środki z KPO. Oczywiście należy brać pod uwagę określone ryzyka, w tym możliwe spowolnienie w strefie euro, które wpłynie na polski eksport, wzrost cen energii, napięcia geopolityczne czy wysoki deficyt sektora finansów publicznych. Mimo to widzimy zdecydowanie więcej szans niż zagrożeń.

Drugi istotny czynnik wzrostu to dostęp do kompetencji. Mam na myśli to, że niedobór ekspertów, zwłaszcza z dziedziny bezpieczeństwa, infrastruktury IT czy systemów, skłania organizacje do coraz częstszego sięgania po zewnętrzne zasoby, na przykład w modelu managed services. Sądzę, że rynek takich usług pozostanie na fali wznoszącej w kolejnych latach. Klienci są na niego coraz bardziej otwarci.

rolę na rynku: przekształcamy się w zaufanych doradców – zaznacza Adrianna Kilińska.

Już dzisiaj wyraźnie widać zmianę oczekiwań klientów, którzy coraz częściej pytają o rozwiązania pozwalające im na osiągnięcie konkretnego efektu biznesowego. Eksperymenty zdecydowanie stają się niemile widziane.

Powodów tego jest kilka. Pierwszy to doświadczenie dostawcy pracującego z wieloma klientami i technologiami. Drugim jest większa elastyczność operacyjna i kosztowa. Istotnym czynnikiem są również rosnące koszty zatrudnienia pracowników IT i ich ograniczona dostępność. Jak odpowiadać na takie potrzeby? Uważamy, że poprzez budowanie kompetencji, zarządzanie kapitałem ludzkim, poszerzanie portfolio usług i partnerstw technologicznych, a także zdobywanie referencji i success stories, które potwierdzają realną skuteczność. W 2026 roku bardzo wysokiej dynamiki spodziewamy się nadal w cyberbezpieczeństwie. Klienci są coraz bardziej świadomi obecnych i przyszłych zagrożeń. Rosnąca liczba cyberincydentów powoduje, że model Zero Trust staje się standardem. Organizacje inwestują w zaawansowane systemy bezpieczeństwa, zarówno w platformy, jak i wyspecjalizowane narzędzia w całym łańcuchu ochrony – od brzegu sieci, przez jej rdzeń i segmentację, infrastrukturę data center oraz chmurę, firmowe aplikacje i systemy, aż po urządzenia końcowe. Duży wzrost przewidujemy nadal w rozwiązaniach do automatyzacji procesów i systemów IT.

Kacper Konopiński, CEO, IT Solution Factor

Net Complex

Spodziewamy się utrzymania wyraźnie wzrostowej koniunktury w segmencie cyberbezpieczeństwa. Do kluczowych czynników napędzających ten rynek należą: chroniczny niedobór wykwalifikowanych specjalistów, wzrost liczby i rodzaju cyberataków oraz niestabilna sytuacja geopolityczna. Dodatkowym katalizatorem są coraz bardziej zaawansowane techniki ataków, w tym wykorzystanie AI do automatyzacji działań przestępczych i popularność ransomware as a service (RaaS). W połączeniu z presją regulacyjną, wynikającą głównie z dyrektywy NIS 2, a także rosnącą odpowiedzialnością zarządów, prowadzi to do przesunięcia popytu w stronę bardziej kompleksowych, zarządzanych i reaktywnych modeli ochrony. Hamulcem wzrostu mogą być natomiast ograniczenia budżetowe, długie procesy decyzyjne po stronie klientów i trudności w pozyskaniu oraz utrzymaniu doświadczonych zespołów. Pomimo szeregu wyzwań cyberbezpieczeństwo pozostaje jednym z najbardziej odpornych na spowolnienie segmentów rynku IT. Coraz wyraźniej widać, że Zero Trust i segmentacja sieci przestają być trendem, a stają się podstawą architektury cyberbezpieczeństwa. Takie podej-

W2026 roku spodziewamy się umiarkowanej poprawy koniunktury na polskim rynku IT, z wyraźnym przesunięciem popytu w stronę rozwiązań o wysokiej wartości dodanej. Naszym zdaniem kluczowym czynnikiem wzrostu będą inwestycje w sztuczną inteligencję – zarówno w infrastrukturę pod przetwarzanie danych, jak i w praktyczne zastosowania biznesowe, automatyzację procesów oraz w analitykę. Istotny udział w dynamice rynku będą miały także projekty cyberbezpieczeństwa, modernizacji infrastruktury informatycznej oraz cyfryzacji sektora edukacji, szczególnie te oparte na finansowaniu ze środków pochodzących z KPO. Z drugiej strony, w tym roku pozostają czynnikami ryzyka kwestie takie jak niepewność makroekonomiczna, ograniczenia budżetowe oraz wysoka wrażliwość klientów na cenę. Dla integratorów i resellerów kluczowym wyzwaniem będzie utrzymanie marż, kompetencji projektowych oraz zdolności do realizacji złożonych projektów.

W tym roku najwyższej dynamiki spodziewamy się w obszarach AI/ML (inwestycje w sprzęt, oprogramowanie, wydatki na wdrożenia), cyberbezpieczeństwa, infrastruktury data center, rozwiązań rugged oraz rozwiązań dla edukacji – w tym urządzeń końcowych, sieci, systemów do nauki zdalnej i zarządzania środowiskiem IT. Popyt generować będą głównie średnie i duże organizacje, sektor publiczny oraz placówki edukacyjne. Spadki lub stagnacja mogą natomiast dotyczyć standardowego sprzętu biurowego i projektów o niskiej wartości dodanej. Obserwujemy zmianę wymagań klientów. Coraz częściej oczekują oni kompleksowych rozwiązań „end-to-end”, a przy tym szybkiego czasu wdrożenia, przewidywalnych kosztów oraz solidnego wsparcia posprzedażowego. Z kolei w obszarze AI rośnie nacisk na bezpieczeństwo danych, zgodność regulacyjną i użyteczność biznesową, a nie na eksperymenty. Odpowiadamy na te potrzeby, rozwijając kompetencje konsultingowe, ofertę usługową oraz długoterminowe partnerstwa technologiczne, które pozwalają przejść z roli dostawcy do roli doradcy.

ście jest szczególnie istotne w środowiskach rozproszonych i hybrydowych. Wśród naszych klientów bardzo mocno rośnie również zainteresowanie MDR, czyli usługami całodobowego monitorowania i reagowania na incydenty. Dla wielu organizacji, zwłaszcza z sektora MŚP i mid-marketu, to dziś najlepszy sposób na zapewnienie bezpieczeństwa bez budowania własnego SOC, działającego 24/7. Klienci oczekują nie tylko alertów, ale reakcji i wsparcia w sytuacjach kryzysowych. Kolejnym obszarem o dużym potencjale wzrostu jest bezpieczeństwo chmury i ochrona danych. Wraz z przenoszeniem coraz większej liczby zasobów do chmury rośnie ryzyko wycieków, a tym samym potrzeba kontroli nad danymi – szczególnie w branżach kluczowych, takich jak przemysł czy ochrona zdrowia. Coraz większą rolę odgrywa także szybkie i zautomatyzowane zarządzanie podatnościami. Skrócenie czasu między wykryciem a załataniem luk staje się kluczowe dla ograniczania ryzyka.

W2026 roku zwiększy się liczba projektów o wysokiej złożoności technicznej, szczególnie w obszarach cyberbezpieczeństwa, infrastruktury krytycznej i platform pod obciążenia AI. Coraz większa część inwestycji dotyczyć będzie budowy dużych, skalowalnych środowisk obliczeniowych pod AI/ML – zarówno on-prem, jak i w architekturach hybrydowych – obejmujących sieć, storage, GPU, segmentację, bezpieczeństwo i automatyzację. Już dziś realizujemy i projektujemy kilka dużych środowisk tego typu. Wzrost napędzać będzie coraz większa liczba zaawansowanych zagrożeń, presja regulacyjna (NIS 2, DORA) oraz potrzeba konsolidacji i standaryzacji architektur IT. Hamulcem może być ograniczona dostępność specjalistów i wysoki poziom skomplikowania technologicznego projektów. Dla integratorów najważniejszym wyzwaniem będzie dostarczanie spójnych, bezpiecznych i skalowalnych architektur zamiast pojedynczych komponentów.

Do obszarów, w których spodziewany się najwyższej dynamiki w 2026 roku, zaliczamy: cyberbezpieczeństwo klasy enterprise (Zero Trust, SASE, XDR, SIEM/SOC), infrastrukturę sieciową i obliczeniową pod AI (sieci DC o wysokiej przepustowości, segmentację, bezpieczeństwo east-west), bezpieczeństwo i łączność środowisk hybrydowych oraz wielochmurowych, jak również usługi zarządzane, szczególnie w cyberbezpieczeństwie.

Kluczowymi klientami będą średnie i duże organizacje, zwłaszcza z sektorów regulowanych i infrastrukturalnych, które budują własne środowiska AI lub muszą podnieść poziom odporności operacyjnej. Spadku popytu spodziewamy się w obszarze rozwiązań punktowych i projektów stricte sprzętowych, niewspartych warstwą architektury, automatyzacji i usług operacyjnych.

Klienci obecnie oczekują od integratorów nie tylko wdrożeń, lecz także długoterminowego wsparcia operacyjnego, monitoringu, reagowania na incydenty i utrzymania zgodności z regulacjami, takimi jak NIS 2 i DORA. Odpowiadamy na to intensywnym rozwojem usług zarządzanych – w szczególności Managed Security – i projektowaniem architektur, które są od początku przygotowane pod automatyzację, audytowalność i raportowanie.

Mateusz Dębowski, Head of Sales, MBA System
Sebastian Strzelak, prezes, Netformers

– W mojej ocenie w 2026 roku wygrywać będą te firmy IT, które potrafią połączyć kompetencje technologiczne ze zrozumieniem biznesu klienta i wziąć współodpowiedzialność za osiągany efekt – mówi Mariusz Jurak.

W tej sytuacji wyzwaniem dla integratorów będzie umiejętność realizacji złożonych projektów i dostarczania kompleksowych usług, jak też zapewnienia bezpieczeństwa danych.

– W kolejnych latach przewagę będą mieli ci integratorzy, którzy potrafią połączyć kompetencje infrastrukturalne, bezpieczeństwo i operacyjne utrzymanie środowisk, w tym coraz częściej środowisk AI – uważa Sebastian Strzelak, prezes Netformers.

Przykładem adaptacji do zmian na rynku mogą być działania Fast IT Solutions.

– Inwestujemy w rozwój kompetencji w obszarze chmury, AI i cyberbezpieczeństwa, a także w budowanie kompleksowej oferty usług, począwszy od analizy potrzeb, przez projektowanie i wdrożenie, po utrzymanie i wsparcie. Stawiamy przy tym na elastyczne modele finansowania oraz rozwiązania „as-a-service” – podsumowuje Sławomir Zieliński, prezes łódzkiego integratora. n

WSławomir Zieliński,

prezes, Fast IT Solutions

Koncentrujemy się na dwóch kluczowych obszarach: Hybrid IT (data center, chmura) oraz Modern Workplace. W segmencie Hybrid IT spodziewamy się wzrostu popytu, głównie dzięki uruchomieniu środków z KPO, szczególnie w ochronie zdrowia. Już od końcówki 2025 roku obserwujemy zwiększoną aktywność zakupową w tym obszarze. Warto jednak podkreślić, że projekty finansowane z KPO muszą zostać zakończone do czerwca 2026 roku, co oznacza dużą presję czasową zarówno z punktu widzenia klientów, jak i dostawców. Klienci coraz częściej oczekują bezpiecznych, skalowalnych środowisk hybrydowych, integracji rozwiązań hybrydowych oraz automatyzacji procesów IT. Wzrost znaczenia AI w zarządzaniu infrastrukturą i procesami biznesowymi będzie dodatkowym czynnikiem kształtującym wymagania.

W obszarze Modern Workplace praca hybrydowa stała się standardem. Jednocześnie wiele firm stara się zwiększyć obecność pracowników w biurach. Te zmiany generują zapotrzebowanie na wyposażenie sal i pokoi spotkań w rozwiązania AV i systemy wideokonferencyjne, jak też powodują poszerzenie przestrzeni do współpracy (sale spotkań, colab space). Przestrzeń pracy jest modernizowana poprzez wyposażenie jej w rozwiązania AV. Klienci będą więc wymagać rozwiązań wspierających hybrydowy model pracy, współpracę, poprawę jakości przestrzeni biurowej oraz integracji narzędzi komunikacyjnych. Jednocześnie oczekiwania klientów będą ewoluować. Przede wszystkim rośnie zapotrzebowanie na kompleksowe, zintegrowane rozwiązania, łączące bezpieczeństwo, mobilność i efektywność pracy. Klienci oczekują nie tylko technologii, ale także usług doradczych, wdrożeniowych i utrzymaniowych, które pozwolą im szybko reagować na zmiany rynkowe. Coraz większe znaczenie ma również elastyczność finansowa – modele subskrypcyjne, rozliczenia w formule „as-a-service” i możliwość skalowania rozwiązań w zależności od potrzeb.

2026 roku będzie rosnąć zainteresowanie rozwiązaniami do zarządzania tożsamością i uprawnieniami, bo stają się one jednym z głównych wektorów ataków. Na popularności nadal będzie zyskiwać platformizacja. Firmy oczekują więc rozwiązań platformowych, które są w stanie pokryć więcej niż punktowe rozwiązanie, czyli trzydzieści, czterdzieści lub nawet pięćdziesiąt procent obszaru bezpieczeństwa.

Rośnie też rola sztucznej inteligencji w cyberbezpieczeństwie. Jestem przekonany, że 2026 rok przyniesie nam wiele zaskakujących rozwiązań w tym zakresie, zarówno ze strony atakujących, jak i dostawców narzędzi ochrony. Szczególną uwagę musimy zwrócić na agentów AI, bo to oni stają się potencjalnym wektorem ataku. Przejęcie kontroli nad takim agentem stwarza ogromne zagrożenia, tym bardziej, że firmy wykorzystują dziś agentów między innymi do pisania kodu. A żeby pisać kody, agent AI potrzebuje dostępu do wielu bibliotek danych. Staje się więc superużytkownikiem z bardzo dużymi uprawnieniami.

Nowe zagrożenia i konieczność utrzymywania wyjątkowej czujności wpłyną na jeszcze większą popularyzację podejścia Zero Trust, czyli zasady ograniczonego zaufania i nieustannego weryfikowania użytkowników w sieci firmy. Te wyzwania mają swoje przełożenie na działanie dostawców technologii. W Integrity Partners będziemy nadal koncentrować się na tym, aby być zaufanym doradcą, który wraz z klientem zbuduje silną ochronę przeciw zagrożeniom. To niezwykle istotne, bo firmy zmagają się z niedoborem wykwalifikowanych pracowników. Nie dlatego, że brakuje im budżetu, ale dlatego, że praca dla jednej firmy dla wyspecjalizowanego konsultanta może nie być wystarczającym wyzwaniem. Rośnie zatem zapotrzebowanie na dobrze skrojone oferty na usługi Managed Service Provider. Rola integratorów będzie ewoluować. Tylko firmy, które mają zespoły z odpowiednimi kompetencjami, odpowiedzą na potrzeby rynku.

Dariusz Bocheńczak, Identity Security Business Unit Director, VP, Integrity Partners

Zagubieni w gąszczu AI:

czy banał hamuje rewolucję?

SCzy marnujemy najpotężniejszą technologię naszych czasów na najbardziej trywialne cele?

ztuczna inteligencja została zaprezentowana światu jako wielka wizja. Z miejsca zaczęliśmy wyobrażać sobie AI jako niestrudzonego „partnera naukowego”, zdolnego do symulacji złożonych systemów biologicznych w celu leczenia chorób i personalizacji edukacji, aby uwolnić ludzki potencjał w stopniu większym niż kiedykolwiek.

OBECNA TRAJEKTORIA NIE JEST NIEUNIKNIONA.

Jednak patrząc na dominujące dziś zastosowania generatywnej AI, widzimy zupełnie inny obraz. Granica innowacji wydaje się mniej skupiona na fałdowaniu białek, a bardziej na generowaniu jednorazowych treści cyfrowych. Zamiast narzędzia powszechnego postępu, widzimy pojawienie się nowego podziału cyfrowego, ekosystemu informacyjnego zalanego niskiej jakości treściami AI i rozprzestrzenianie się syntetycznych, szkodliwych materiałów. Czy zatem marnujemy najpotężniejszą technologię naszych czasów na najbardziej trywialne cele?

Wygląda na to, że odchylenie od pierwotnej wizji nie jest przypadkowe. To raczej bezpośredni rezultat dominujących bodźców rynkowych i linii najmniejszego oporu technologicznego. Tworzenie aplikacji konsumenckich oferuje szybszą drogę do monetyzacji niż długoterminowe, kapitałochłonne badania naukowe. Aplikacja generująca nowatorskie obrazy i filmy może przyciągnąć miliony użytkowników i stosunkowo szybko generować przychody z subskrypcji lub reklam. Tymczasem wyleczenie rzadkiej choroby wymaga ogromnych ilości wysokiej jakości, prywatnych danych, lat badań i walidacji oraz złożonej ścieżki regulacyjnej bez gwarancji zwrotu. Siły rynkowe naturalnie przyciągają talenty i inwestycje w kierunku najłatwiej dostępnych celów.

Na szczęście cenne, ryzykowne badania nad sztuczną inteligencją nie ustają. Firmy takie jak DeepMind

wciąż dokonują przełomów w obszarach takich jak fałdowanie białek z AlphaFold, a sztuczna inteligencja jest wykorzystywana do optymalizacji sieci energetycznych i odkrywania nowych materiałów. Jednak te sukcesy stają się coraz częściej wyjątkiem, a nie regułą. Przyćmiewa je ogromny kapitał i talenty inwestowane w aplikacje konsumenckie. Dominująca narracja odnośnie do sztucznej inteligencji jest napędzana przez rynek masowy, a nie przez wielkie wyzwania. Przekierowanie potencjału sztucznej inteligencji na bardziej znaczące cele wymaga przemyślanego i wielopłaszczyznowego wysiłku. Obecna trajektoria nie jest nieunikniona, ale jej zmiana wymaga zmiany leżących u jej podstaw bodźców. Jako społeczeństwo musimy stać się bardziej krytycznymi konsumentami sztucznej inteligencji i domagać się przejrzystości w zakresie sposobu i celu szkolenia modeli.

Sztuczna inteligencja jest zwierciadłem pokazującym priorytety jej twórców. Obecnie odzwierciedla ona preferencje rynku dotyczące natychmiastowej gratyfikacji i skalowalnego konsumpcjonizmu. Wizja sztucznej inteligencji jako narzędzia do rozwiązywania największych wyzwań ludzkości pozostaje możliwa, ale nie jest gwarantowana. Wymaga ona świadomej decyzji badaczy, inwestorów, decydentów i opinii publicznej, aby priorytetowo traktować długoterminową wartość nad krótkoterminowym rozpraszaniem uwagi. W przeciwnym razie zmarnujemy ogromny potencjał AI.

jest adiunktem i prorektorem ds. innowacji i AI w Akademii Leona Koźmińskiego. Aleksandra Przegalińska

jest profesorem

Tamilla Triantoro
Quinnipiac University (Hamden, Connecticut).

Technologiczna Europa

nie wywiesza białej flagi

Chociaż świat nowych technologii zdominowali gracze z USA i Chin, to Europa wciąż nie zamierza się poddawać.

Cyfrowa suwerenność stała się bardzo nośnym sloganem, niemal przy każdej okazji powtarzanym przez europejskich urzędników. Problem w tym, że w wielu segmentach rynku IT trudno znaleźć alternatywę dla produktów zza oceanu bądź Chin. Z tym większą ciekawością nadstawiałem uszu w trakcie spotkania zorganizowanego w ramach cyklu IT Press Tour, podczas którego zaprezentowano kilka innowacyjnych produktów „made in Europe”. Na szczególną uwagę zasługuje szwedzka firma Severalnines, której szefowie nie tylko mówią o cyfrowej suwerenności Europy, ale opracowali konkretne rozwiązanie do automatyzacji i zarządzania klastrami baz danych. W tym kontekście Vinay Joosery, CEO Severalnines, zwraca uwagę na niepokojące dane z raportu Synergy Research Group. Choć wartość rynku usług chmurowych w Europie systematycznie rośnie, to europejscy dostawcy mają w nim coraz mniejszy udział. O ile w 2017 r. kontrolowali ponad jedną czwartą tego segmentu, o tyle siedem lat później odsetek ten wynosił około 15 proc.

OBECNIE JESTEŚMY ŚWIADKAMI TRZECIEGO AKTU EWOLUCJI DBAAS.

Powyższy stan rzeczy oznacza nie tylko odpływ kasy od europejskich dostawców, ale też problem z dostępem do informacji. Przepisy takie, jak US CLOUD Act oraz FISA (Foreign Intelligence Surveillance Act), dają agencjom ze Stanów Zjednoczonych jurysdykcję nad danymi przechowywanymi przez amerykańskie firmy, niezależnie od fizycznej lokalizacji serwerów. W praktyce oznacza to, że dane obywateli i firm europejskich przechowywane w chmurach AWS, Azure czy GCP, nawet na serwerach zlokalizowanych w Europie, nie podlegają w pełni europejskiej ochronie. Problem ten staje się coraz bardziej palący w obliczu napięć geopolitycznych. Dobrym przykładem jest ATB,

holenderski bank z rosyjskim kapitałem, który objęto sankcjami zaraz po wybuchu wojny rosyjsko-ukraińskiej. Dane tej instytucji znajdowały się w chmurze publicznej Microsoftu, na serwerach zlokalizowanych w Holandii. Kiedy holenderski sąd prowadzący postępowanie upadłościowe zażądał od Microsoftu dostępu do danych, Amerykanie odmówili, w związku z czym sprawa utknęła w martwym punkcie.

W odpowiedzi na tego rodzaju wyzwania Severalnines promuje koncepcję suwerennej usługi DBaaS (Database as a Service), oferując europejskim (i nie tylko) przedsiębiorstwom pełną kontrolę nad danymi, infrastrukturą, kosztami i bezpieczeństwem, a tym samym możliwość ucieczki od hiperskalerów zza oceanu.

– Firmy mierzą się z rosnącą złożonością środowisk bazodanowych i muszą zarządzać setkami, a nawet tysiącami instancji baz danych. Do tego dochodzi obsługa zróżnicowanego ekosystemu technologicznego, na który składają się między innymi systemy Oracle’a, SQL Server, MySQL, PostgreSQL, MongoDB, Redis, a także utrzymanie spójności w środowiskach lokalnych oraz chmurowych – tłumaczy Vinay Joosery.

Wojciech Urbanek, Ateny TO JUŻ KONIEC

Szwedzka firma pozyskała jak dotąd 200 klientów, a jednym z największych jest ABSA, międzynarodowa grupa bankowa, która wykorzystuje platformę ClusterControl do zarządzania 3,5 tys. serwerów bazodanowych.

Polska odpowiedź na ExaGrid

Cezary Dubnicki, założyciel 9LivesData, spędził niemal dwie dekady w Stanach Zjednoczonych, gdzie uzyskał tytuł doktora nauk komputerowych na Uniwersytecie Princeton w New Jersey. Tam też w 2002 r., wspólnie z Cristianem Ungureanu, zainicjował projekt HYDRAstor dla firmy NEC. Trzy lata później na rynek amerykański (jak też japoński) trafiła pierwsza komercyjna wersja systemu. W styczniu 2008 r. Cezary Dubnicki założył firmę 9LivesData, która we współpracy z NEC kontynuowała rozwój funkcji wewnętrznych platformy HYDRAstor.

– System HYDRAstor został zainstalowany w licznych lokalizacjach na całym świecie. W trakcie realizacji projektu opracowaliśmy

Podwaliny rynku DBaaS stworzyli hiperskalerzy. Później do gry włączyli się dostawcy oprogramowania bazodanowego, m.in. MongoDB, MariaDB czy Redis. To była reakcja na wykorzystywanie ich produktów przez gigantów chmurowych bez odpowiedniego wynagrodzenia. Temu zjawisku towarzyszyły zmiany licencji z open source na „source-available”, czego przykładem (w przypadku MongoDB) jest SSPL.

Vinay Joosery twierdzi, że obecnie jesteśmy świadkami trzeciego aktu ewolucji DBaaS – odejścia od gotowych usług na rzecz budowania własnych, suwerennych platform przy użyciu inteligentnych narzędzi do automatyzacji. Odpowiedzią Severalnines jest platforma ClusterControl. Rozwiązanie koncentruje się na automatyzacji pełnego cyklu życia baz danych, ze szczególnym uwzględnieniem utrzymania, monitoringu i skalowania.

PRAWA MOORE’A. EFEKTY KWANTOWE UTRUDNIAJĄ DALSZĄ MINIATURYZACJĘ.

wiele patentów oraz stworzyliśmy obszerną własność intelektualną dla NEC. Nasza praca zaowocowała również publikacją artykułów badawczych, które przyczyniły się do rozwoju wiedzy w branży – mówi Cezary Dubnicki.

W 2023 r. NEC zamknął wszystkie swoje spółki zależne, ograniczając działalność jedynie do rynku japońskiego. Szefowie 9LivesData wykorzystali powstałą w ten sposób szansę, przejmując prawa do sprzedaży i modyfikacji produktu poza granicami Japonii. Firma wprowadziła na rynek nowy produkt – High9stor.

– Dla większości naszych klientów jedną z najważniejszych kwestii jest obniżenie kosztów używanej pamięci masowej. Przedsiębiorcy tworzą kopie zapasowe, które zajmują coraz więcej przestrzeni dyskowej, a tym samym powodują wzrost wydatków na infrastrukturę. Dlatego koncentrujemy się na obniżaniu całkowitego kosztu posiadania. Obecnie jest to 20 procent, a w przyszłym roku chcemy uzyskać dodatkowe 10 procent – tłumaczy Cezary Dubnicki.

High9stor jest typowym rozwiązaniem Software-Defined Storage (SDS). Zdaniem polskiej firmy taka opcja jest bardziej przyjazna dla integratorów, którzy mogą decydować, na jakim urządzeniu instalować system.

– W odpowiedzi na zapotrzebowanie naszych klientów zdecydowaliśmy się na rozwiązanie 1U. Dla porównania, HYDRA-

stor używał obudów 2U z taką samą liczbą dysków. Nasza szuflada mieści dwanaście 3,5-calowych dysków mechanicznych o pojemności 20 TB każdy, co pozwala łącznie uzyskać przestrzeń 240 TB. To więcej przestrzeni systemowej niż oferował HYDRAstor – wyjaśnia założyciel 9LivesData.

System High9stor cechuje się wysoką skalowalnością – klaster może składać się ze 180 węzłów. Dla porównania, maksymalne możliwości ExaGrid kończą się na 32 węzłach, a Dell Data Domain na siedmiu półkach dyskowych. Poza tym High9stor, podobnie jak jego „przodek” HYDRAstor, posiada zdolność do mieszania węzłów i dysków twardych różnych generacji.

Jednym z największych wyzwań stojących przed firmą jest utrzymanie oraz pozyskanie najzdolniejszych programistów. 9LivesData w najbliższych latach planuje ekspansję głównie na rynek europejski. Co ciekawe, Cezary Dubnicki nie zamierza wracać do USA ze swoim nowym produktem, a głównym powodem są zbyt wysokie koszty marketingu.

Niemcy chcą danych ze szkła

Satya Nadella, prezes Microsoftu, osiem lat temu po raz pierwszy zaprezentował Project Silica – technologię zapisywania danych na szkle kwarcowym. Dwa lata później koncern ogłosił współpracę z Warner Bros i pokazał szklaną płytę z zapisem filmu „Superman” z 1978 r. W ostatnim jednak czasie Microsoft

SZACUJE SIĘ, ŻE TRWAŁOŚĆ ZAPISU NA SZKLE WYNOSI DZIESIĘĆ
TYSIĘCY LAT.

zwolnił tempo i nie chwali się nowymi osiągnięciami na polu szklanych nośników danych. Natomiast dużo więcej informacji na ten temat dociera od naszych zachodnich sąsiadów.

W 2022 r. powstała firma Cerabyte, która do przechowywania danych wykorzystuje ceramiczno-szklane nośniki. Niemiecki startup planuje w 2026 r. pierwsze wdrożenia u dostawców usług chmurowych. Drugim niemieckim producentem działającym w tym obszarze jest Ewigbyte, założony w 2025 r. przez Steffena Klewitza, fizyka z wykształcenia. Co ciekawe, wcześniej pełnił on funkcję CTO w Cerabyte, niemniej rozbieżności strategiczne sprawiły, że rozstał się z tą firmą w połowie 2023 r.

Zasadnicza różnica polega na tym, że Cerabyte wykorzystuje do zapisu szkło pokryte ultracienką warstwą ceramiki, zaś Ewigbyte jedynie szkło. Poza tym firma Steffena Klewitza koncentruje się na zapewnieniu wysokiej prędkości dostępu do danych, a mniej na maksymalizacji pojemności pamięci masowej.

– To już koniec prawa Moore’a. Po osiągnięciu skali nanometrowej i zbliżeniu się do rozmiarów atomów efekty kwantowe utrudniają dalszą miniaturyzację – zaznacza Steffen Klewitz.

Jedną z największych zalet szkła jest jego trwałość. Wytrzymuje wysokie i niskie temperatury – można je schłodzić do minus 273 stopni Celsjusza i podgrzać do 300 stopni, a także moczyć przez trzy godziny w kwasie i bombardować promieniami gamma. Szacuje się, że trwałość zapisu na szkle wynosi 10 tys. lat. Zapis danych odbywa się poprzez ablację powierzchni szkła ultrakrótkimi impulsami laserowymi. Każdy pojedynczy impuls nanosi kod matrycowy zawierający kilkanaście kilobajtów danych. Częstotliwość pracy lasera na poziomie do 60 kHz pozwala na błyskawiczną archiwizację dużych zbiorów informacji. Korzystając z obecnych technologii laserowych, na jednym szkle można przechowywać 5 GB z każdej strony, co łącznie daje 10 GB pojemności. Szklane nośniki będą umieszczone w modularnych pojemnikach, przy czym Ewigbyte będzie oferować usługę zapisu oraz odczytu i nie zamierza sprzedawać urządzeń do centrów danych należących do zewnętrznych podmiotów. n

Podatek VAT:

czas na SaaS

W świetle najnowszego wyroku NSA dostawcy oferujący rozwiązania do prowadzenia sklepów internetowych mogą odpowiadać za VAT sprzedawców.

1października 2025 r. Naczelny Sąd Administracyjny wydał wyrok, który może istotnie wpłynąć na firmy oferujące rozwiązania gotowych sklepów internetowych (zwłaszcza w modelu SaaS – Software as a Service). W ustnym uzasadnieniu wyroku Sąd uznał, że dostawcy oprogramowania umożliwiającego sprzedaż online podmiotom prowadzącym sklepy internetowe mogą być traktowani jak tzw. operatorzy interfejsów elektronicznych (OIE) ułatwiający sprzedaż, a więc podlegać obowiązkom na gruncie VAT podobnym do tych, które obowiązują platformy elektroniczne realizujące sprzedaż online.

TO NIE TYLKO DODATKOWE OBOWIĄZKI, ALE POTENCJALNE RYZYKO PODATKOWE.

W praktyce może to oznaczać, że dostawca takiego oprogramowania będzie w określonych sytuacjach zobowiązany do rozliczania VAT od transakcji dokonywanych za pośrednictwem sklepów internetowych prowadzonych przez jego klientów.

W tym kontekście przypomnijmy tło całej sprawy: otóż 1 lipca 2021 r. zaczął obowiązywać w Polsce tzw. pakiet VAT

Co

e-commerce, który znacząco zmienił model rozliczania VAT w branży e-commerce. Pojawiła się wówczas instytucja operatora interfejsu elektronicznego (OIE) ułatwiającego sprzedaż, na którym mogą w określonych sytuacjach ciążyć dodatkowe obowiązki w zakresie VAT. Właśnie do kwestii sposobu interpretacji ww. pojęcia odniósł się Naczelny Sąd Administracyjny (NSA).

Czego dotyczył wyrok NSA?

Rozpatrywana sprawa (I FSK 1539/22) dotyczyła spółki oferującej oprogramowanie i zasoby serwerowe, które umożliwiały innym podmiotom (tzw. merchantom) prowadzenie własnych sklepów internetowych pod indywidualną domeną. Spółka wystąpiła z  wnioskiem o wydanie indywidualnej interpretacji celem potwierdzenia, iż nie powinna być uznana za OIE (ułatwiającego sprzedaż na odległość – dostawę towarów – w rozumieniu regulacji art. 7 a ustawy o VAT), a tym samym nie powinna być zobowiązana do rozliczania VAT od transakcji realizowanych przez te sklepy internetowe. Zdaniem spółki jej rola ograniczała się wyłącznie do udostępniania merchantom narzędzia technicznego/infrastruktury informatycznej, natomiast nie uczestniczyła ona w sprzedaży towarów. Owszem, mer-

mogą zrobić firmy oferujące rozwiązania e-commerce?

chanci korzystali z jej interfejsu, ale jedynie w celu prezentacji towarów, obsługi zamówień oraz przetwarzania płatności. Organ podatkowy nie zgodził się z tym stanowiskiem. Uznał, że swoimi działaniami spółka pośrednio ułatwia dostawę towarów w rozumieniu VAT. W efekcie, obowiązek rozliczenia VAT od specyficznego katalogu transakcji dokonywanych przez merchantów zostaje przeniesiony na nią jako dostawcę oprogramowania. Przy czym zdaniem organu bez znaczenia jest, że umowy sprzedaży zawierane są bezpośrednio między merchantem a klientem sklepu internetowego, zaś spółka nie prowadzi klasycznego marketplace’u. Kluczowe jest, że za pośrednictwem jej oprogramowania dochodzi do kontaktu między sprzedawcą i nabywcą oraz faktycznego zawarcia transakcji.

Wojewódzki Sąd Administracyjny w Szczecinie podzielił stanowisko organu, dopatrując się pośredniego udziału spółki w dostawie, co wypełnia definicję OIE w VAT, a stanowisko to potwierdził w wydanym wyroku sędzia NSA.

Kim jest OIE?

Operatorem interfejsu elektronicznego w rozumieniu VAT jest podmiot, który ułatwia sprzedaż towarów za pośrednictwem interfejsu elektronicznego (np.

Ubiegłoroczny wyrok NSA jest sygnałem dla całej branży zajmującej się wdrażaniem i sprzedażą oprogramowania gotowych sklepów internetowych, że udostępnienie narzędzia z dodatkowymi funkcjonami może wiązać się z realną odpowiedzialnością podatkową za transakcje merchantów. To moment, by dokładnie przeanalizować swoje modele biznesowe celem zachowania zgodności z przepisami, ale przede wszystkim ograniczenia ryzyka i budowania przewagi w coraz bardziej regulowanym świecie e-commerce. W omawianym przypadku warto rozważyć kilka kroków:

1

Przegląd modelu biznesowego i funkcjonalności systemu – ocena i weryfikacja roli oprogramowania w przebiegu transakcji, czy i w jakim zakresie oprogramowanie wpływa na proces sprzedaży.

2

Konsultacja z doradcą podatkowym – analiza ryzyka podatkowego i opracowanie ewentualnych zmian w strukturze działalności. Jeżeli istnieje ryzyko uznania dostawcy oprogramowania za OIE, należy przygotować się na obowiązki związane z raportowaniem i rozliczeniem VAT od sprzedaży.

3Dostosowanie procesów IT i compliance – w celu zapewnienia odpowiednich ścieżek kontroli danych i zgodności z wymogami raportowymi w VAT.

platforma, portal, strona internetowa, aplikacja, itp.). Chodzi tu o wszelkie systemy, programy, interfejsy, które umożliwiają nawiązywanie relacji handlowych między sprzedawcą a nabywcą.

Od lipca 2021 r. operator takiego interfejsu może być dla potrzeb VAT uznany za podmiot, który samodzielnie otrzymał i dokonał dostawy towarów. Dotyczy to transakcji realizowanych na rzecz podmiotów niebędących podatnikami VAT, w których:

l towary sprzedawane poprzez interfejs elektroniczny (np. sklep internetowy) przez merchantów będą wysyłane z terytorium państwa trzeciego do UE (sprzedaż na odległość towarów importowanych) w przesyłkach o rzeczywistej wartości nieprzekraczającej 150 euro, niezależnie od tego czy właściwy dostawca/sprzedawca ma swoją siedzibę w UE, czy też poza, l lub poprzez użycie interfejsu elektronicznego, dokonywane będą dostawy towarów na terytorium Wspólnoty przez podatników niemających siedziby (stałego miejsca prowadzonej działalności gospodarczej) na terytorium Wspólnoty (zarówno w odniesieniu do dostaw krajowych, jak i wewnątrzwspólnotowej sprzedaży towarów na odległość).

W odniesieniu do VAT przyjmuje się wówczas fikcję prawną, że w odniesieniu do ww. transakcji, dostawca interfejsu nabył od merchanta towar, a następnie sprzedał go finalnemu nabywcy, co wiąże się z koniecznością rozliczenia VAT przez OIE.

Co z rozwiązaniami SaaS?

Dotychczas wielu dostawców oprogramowania postrzegało swoje usługi jako czysto techniczne, sprowadzające się do udostępnienia narzędzia, podczas gdy pełna odpowiedzialność za sprzedaż ciążyła na merchantach. NSA zwrócił jednak

uwagę, że w niektórych przypadkach taka działalność może być uznana za pośrednie uczestnictwo w sprzedaży. W rezultacie podmiot, który „jedynie” udostępnia sklep internetowy, umożliwiając przy tym, dajmy na to, zautomatyzowane zawieranie transakcji, zatwierdzanie płatności czy wysyłkę, może zostać objęty rozszerzonymi obowiązkami podatkowymi na równi z operatorami dużych platform typu marketplace.

W efekcie dostawca oprogramowania uznany za OIE może zostać zobowiązany do raportowania sprzedaży realizowanej przez użytkowników oprogramowania, jak też poboru i rozliczenia podatku VAT od tych transakcji. To nie tylko dodatkowe obowiązki administracyjne, ale także potencjalne ryzyko podatkowe. W przypadku błędnej kwalifikacji modelu działalności dostawca może odpowiadać za nierozliczony VAT z transakcji dokonanych przez swoich klientów.

Wyrok NSA nie oznacza jednak automatycznie, że każda firma oferująca rozwiązania dla sklepów internetowych stanie się OIE ułatwiającym sprzedaż. Warto jednak dokładnie przeanalizować sposób działania oferowanego systemu i zakres świadczonych usług. Konieczne jest ustalenie czy i w jakim stopniu oferowane oprogramowanie wpływa na proces sprzedaży, tj. czy umożliwia określanie warunków dostawy, zatwierdzanie płatności, udział w procesie zamawiania i dostawy towarów. W zależności od przypadku pełnienie nawet pojedynczych czynności z tego katalogu może skutkować spełnieniem przesłanek „ułatwiania sprzedaży”.

Wieczorek-Puławska jest doradcą podatkowym i Starszym Menedżerem w Deloitte

Nie przegap

dla Twojego informacji ważnych biznesu!

Masz konto na CRN.pl?

Włącz wysyłkę newslettera CRN na stronie CRN.pl/prenumerata (wymagane wcześniejsze zalogowanie na CRN.pl/logowanie).

Nie masz jeszcze konta na CRN.pl?

Załóż je na stronie CRN.pl/rejestracja

Usługi chmurowe a podatek u źródła

Rzecz o niekorzystnym podejściu organów podatkowych.

Podatek u źródła (ang. Withholding Tax, WHT) to rodzaj podatku dochodowego pobieranego w momencie wypłaty należności na rzecz zagranicznego kontrahenta. Stosuje się go między innymi do odsetek, dywidend, należności licencyjnych oraz wynagrodzeń za usługi niematerialne świadczone przez podmioty zagraniczne.

Organy podatkowe w ostatnich latach, w zakresie podatku u źródła, zaczęły koncentrować się również na płatnościach związanych z nowoczesnymi technologiami. Urzędnicy w szczególności analizują świadczenia realizowane w modelu chmurowym, obejmujące zarówno udostępnianie przestrzeni dyskowej, jak i korzystanie z oprogramowania oferowanego w formule SaaS (Software as a Service).

UGRUNTOWUJE SIĘ ZDECYDOWANIE

BARDZIEJ RESTRYKCYJNA LINIA INTERPRETACYJNA.

Usługi dostępu do dysku w chmurze

W kontekście podatku u źródła w polskim prawie pojęcie „urządzenia przemysłowego” odgrywa kluczową rolę przy ocenie, czy dane wynagrodzenie wypłacane zagranicznemu kontrahentowi podlega opodatkowaniu. Choć tradycyjnie urządzenia przemysłowe kojarzone są z maszynami produkcyjnymi, coraz częściej organy podatkowe oraz sądy prezentują szersze rozumienie tej kategorii. Zgodnie z taką wykładnią, urządzeniem przemysłowym może być każdy obiekt związany z działalnością gospodarczą, jeżeli jego użytkowanie przynosi korzyści ekonomiczne. W praktyce obejmuje to nawet elementy, które nie były pierwotnie traktowane jako „sprzęt przemysłowy”, takie jak kontenery budowlane, budynki socjalne czy serwery komputerowe. Takie podejście zyskało potwierdzenie w orzecznictwie Naczelnego Sądu Administracyjnego, który w kilku wyrokach podkreślał, że szeroka interpretacja „urządzenia przemysłowego” jest zgod-

na z celem fiskalnym regulacji WHT i nie ogranicza się jedynie do klasycznych maszyn. Oznacza to, że korzystanie z infrastruktury IT takich jak serwery, routery, switche oraz firewalle, mogą być uznane za użytkowanie urządzenia przemysłowego. Tym samym wynagrodzenie z tytułu udostępniania przestrzeni dyskowej jest odpłatnością z tytułu użytkowania urządzenia przemysłowego podlegającą opodatkowaniu podatkiem u źródła. Istnieje jednocześnie korzystna linia orzecznicza, zgodnie z którą korzystanie z usług chmurowych nie może być utożsamiane z użytkowaniem urządzenia przemysłowego. Rzecz w tym, iż polskie spółki nie mają fizycznego dostępu do serwerów zagranicznych dostawców, a przedmiotem umowy jest raczej efekt w postaci usługi (np. przechowywania danych czy możliwości pracy w aplikacji), a nie prawo do samego urządzenia. W efekcie obecna praktyka w zakresie podatku u źródła jest podzielona. To znaczy w niektórych przypadkach płatności za przechowywanie danych w chmurze mogą podlegać WHT, w innych zaś nie. Brak jednoznacznych zasad w tym zakresie utrudnia prowadzenie działalności gospodarczej i wiąże się z istotnym ryzykiem podatkowym dla przedsiębiorców korzystających z usług chmurowych.

Oprogramowanie SaaS jako inna usługa

Model SaaS stał się jednym z podstawowych sposobów korzystania z oprogramowania w działalności gospodarczej. Przedsiębiorcy coraz częściej rezygnują z instalowania systemów na własnych serwerach, wybierając dostęp do aplikacji za pośrednictwem internetu, w ramach infrastruktury dostawcy. Choć z perspektywy biznesowej rozwiązanie to zapewnia elastyczność i redukcję kosztów, z perspektywy podatkowej rodzi ono istotne wątpliwości, w szczególności w zakresie podatku u źródła. Obecnie w praktyce funkcjonują dwie konkurencyjne linie interpretacyjne dotyczące kwalifikacji usług SaaS, przy czym w ostatnich latach

wyraźnie umacnia się podejście niekorzystne dla podatników.

Pierwsza, bardziej liberalna linia interpretacyjna traktuje usługi SaaS jako „inne usługi”, niepodlegające opodatkowaniu podatkiem u źródła. Zgodnie z tym podejściem usługa SaaS stanowi kompletne rozwiązanie programowe, w ramach którego cała infrastruktura techniczna, oprogramowanie oraz dane aplikacyjne znajdują się w centrum danych dostawcy lub jego podwykonawcy. Użytkownik uzyskuje wyłącznie możliwość korzystania z funkcji systemu za pośrednictwem internetu, bez dostępu do zaplecza technicznego i bez konieczności angażowania własnej infrastruktury IT.

W ramach tej koncepcji podkreśla się, że nabywca usługi SaaS nie uzyskuje prawa do modyfikowania, wyodrębniania ani powielania oprogramowania. Nie przysługują mu również prawa do dystrybucji, najmu czy użyczania systemu ani jego

kopii. Uprawnienia użytkownika ograniczają się do instalacji, uruchamiania, przechowywania i korzystania z oprogramowania na określonej liczbie urządzeń, wyłącznie na potrzeby własnej działalności. Co istotne, użytkownik nie nabywa żadnych praw do ingerencji w kod źródłowy ani w infrastrukturę techniczną. W takim ujęciu dostęp do serwerów jest jedynie technicznym środkiem realizacji usługi, a nie jej przedmiotem. Organy podatkowe w wydawanych wcześniej interpretacjach potwierdzały, że w takich okolicznościach wynagrodzenie za SaaS nie mieści się w katalogu należności WHT.

Oprogramowanie SaaS jako urządzenie przemysłowe Równolegle jednak ugruntowuje się druga, zdecydowanie bardziej restrykcyjna linia interpretacyjna, zgodnie z którą usługi SaaS mogą być kwalifikowane jako odpłatność za użytkowanie lub prawo do

Przesłanki, czyli na co zwrócić uwagę

Zgodnie z niekorzystną linią interpretacyjną korzystanie z oprogramowania może zostać uznane za użytkowanie urządzenia przemysłowego, jeżeli:

l spółka uzyskuje prawo do dysponowania określoną (lub wydzieloną) objętością dysków, mocą obliczeniową, pamięcią podręczną lub innymi określonymi zasobami infrastruktury;

l spółka uzyskuje realne prawo do użytkowania, wpływania oraz kontrolowania serwerów, przestrzeni dyskowej lub infrastruktury IT;

l w umowie wskazano określoną opłatę za możliwość korzystania z przestrzeni dyskowej na serwerach usługodawcy;

l usługa obejmuje zarządzanie, utrzymanie i monitoring sprzętu/infrastruktury IT. Spełnienie już jednej z powyższych przesłanek powoduje powstanie istotnego ryzyka kwalifikacji w SaaS jako użytkowanie urządzenia przemysłowego.

użytkowania urządzenia przemysłowego. Organy podatkowe coraz częściej przyjmują szeroką wykładnię pojęcia „urządzenia przemysłowego”, obejmując nim nie tylko klasyczne maszyny, lecz także infrastrukturę informatyczną, zarówno w wymiarze fizycznym, jak i wirtualnym. Zgodnie z tym podejściem infrastruktura IT stanowi mechanizm lub zespół elementów służących do wykonywania określonych czynności, a zatem może być uznana za urządzenie. Serwery, routery, przełączniki sieciowe czy zapory sieciowe, podobnie jak komputery, są traktowane jako urządzenia niezależnie od tego, że funkcjonują w środowisku sieciowym i wymagają specjalistycznego oprogramowania. Jeżeli w ramach usługi SaaS dane użytkownika są zapisywane i przechowywane na serwerach dostawcy, organy podatkowe uznają, że dochodzi do odpłatnego użytkowania urządzenia przemysłowego, jakim jest serwer.

W praktyce oznacza to, że nawet w ramach kompleksowej usługi SaaS, w której oprogramowanie stanowi główny element świadczenia, sam fakt udostępnienia określonej przestrzeni dyskowej może przesądzić o powstaniu obowiązku poboru podatku u źródła. Organy podatkowe konsekwentnie uznają, że należności za dostęp do określonej objętości serwera w celu zapisywania i przechowywania plików lub baz danych będę podlegać pod podatek u źródła.

Niekorzystne podejście organów znajduje coraz częściej potwierdzenie w orzecznictwie sądów administracyjnych. Wojewódzkie sądy administracyjne przyjmują, że jeśli dane będące efektem korzystania z aplikacji są przechowywane na serwerach dostawcy, a użytkownik uzyskuje dostęp do określonej przestrzeni dyskowej, to odpłatność z tego tytułu stanowi wynagrodzenie za użytkowanie urządzenia przemysłowego. Również Naczelny Sąd Administracyjny potwier-

dził, że nawet jeżeli wynagrodzenie za usługę SaaS nie jest formalnie podzielone na część dotyczącą oprogramowania i część dotyczącą przestrzeni dyskowej, to w zakresie, w jakim obejmuje ono udostępnienie miejsca w chmurze, podlega opodatkowaniu WHT.

W efekcie aktualna praktyka prowadzi do istotnego zwiększenia ryzyka podatkowego po stronie przedsiębiorców korzystających z usług SaaS od zagranicznych dostawców. Choć nadal istnieją pozytywne interpretacje podatkowe, dotyczą one przede wszystkim sytuacji, w których podatnik wyraźnie wskazuje, że nie uzyskuje prawa do dysponowania określoną objętością dysków, mocą obliczeniową ani innymi zasobami infrastruktury. W przypadkach, w których takie elementy występują, nawet pośrednio, organy podatkowe niemal konsekwentnie kwalifikują usługę jako użytkowanie urządzenia przemysłowego.

Podsumowanie

Podsumowując, obecne rozbieżności interpretacyjne oraz pojawiająca się niekorzystna linia orzecznicza powodują, że usługi dostępu do dysku w chmurze oraz usługi w modelu SaaS stały się obszarem podwyższonego ryzyka w zakresie podatku u źródła. Przedsiębiorcy powinni ze szczególną ostrożnością analizować treść umów, zakres przyznanych uprawnień oraz strukturę wynagrodzenia, ponieważ spełnienie nawet jednej z przesłanek wskazywanych przez organy podatkowe może skutkować obowiązkiem poboru WHT.

Agata Bienia jest doradcą podatkowym w ASB Group.

Rola lidera IT

w zarządzaniu zmianą

Jak skutecznie przewodzić zespołowi w procesie zmian?

Wdynamicznym środowisku IT, gdzie technologie i procesy zmieniają się w błyskawicznym tempie, rola lidera w zarządzaniu zmianą jest kluczowa. Liderzy IT nie tylko nadzorują wdrażanie nowych rozwiązań, ale przede wszystkim pełnią rolę agentów zmiany, prowadząc swoich pracowników przez złożony i często pełen wyzwań proces adaptacji. Inspirując się podejściem Johna Kottera do zarządzania zmianą, przyjrzyjmy się, jakie kompetencje powinien posiadać lider IT, aby skutecznie zarządzać transformacją, oraz jakich błędów unikać, by wzmocnić efektywność procesu. System ten powstał na podstawie analizy zachowania ponad setki organizacji (Ford, GM, British Airways, Bristol-Myers Squibb) i ich liderów, które John Kotter prowadził przez 10 lat. W tym czasie wyodrębnił powtarzające się czynniki sukcesu, przyglądając się w ysiłkom menadżerów, gdy próbowali wprowadzać zmiany w swoich organizacjach poprzez restrukturyzację, przeprojektowanie strategii, przejęcia, redukcje czy zmianę firmowej kultury. Kotter zidentyfikował osiem czynników, które sprawiają, że zmiany organizacyjne się nie udają. Rozpoznając negatywne czynniki sabotujące zmiany, zaproponował pozytywne działania, które prowadzą do sukcesu. Podkreślił przy tym, że transformacja wymaga wyraźnie zdefiniowanych etapów i jasnej wizji, aby uniknąć zastoju.

1 Komunikacja i tworzenie poczucia pilności

Jasna, otwarta komunikacja jest podstawą zarządzania zmianą. Lider powinien umieć w prosty sposób wyjaśnić, dlaczego zmiany są konieczne, jakie korzyści przyniosą oraz jakie kroki zosta-

PRZEDWCZESNE OGŁOSZENIE SUKCESU MOŻE ZATRZMAĆ PROCES ZMIANY.

ną podjęte, aby zrealizować zamierzone cele. W myśl zasad Kottera, stworzenie poczucia pilności wzmacnia początkowy etap zmiany i mobilizuje zespół. Ważne jest także otwarte przyjmowanie informacji zwrotnej od zespołu i adresowanie obaw oraz pytań, które mogą pojawić się w trakcie zmian.

2

Zdolność do budowania zaufania i tworzenie koalicji

Zaufanie stanowi fundament każdego skutecznego procesu zmian. Lider powinien być transparentny, autentyczny i konsekwentny w swoich działaniach, co zwiększa poczucie bezpieczeństwa zespołu i ułatwia akceptację zmian. Kotter podkreśla znaczenie koalicji – silnej grupy wsparcia, która pomoże liderowi w promowaniu i wdrażaniu zmian. Wzmocnienie zaufania można osiągnąć przez zaangażowanie zespołu w proces decyzyjny oraz uwzględnianie ich opinii na temat wdrażanych zmian.

3

Elastyczność i adaptacyjność w długofalowym procesie

W sferze IT zmiany często są dynamiczne i wymagają szybkiej reakcji na pojawiające się problemy. Lider IT musi być przygotowany na dostosowywanie planów oraz na szybkie wprowadzanie poprawek, jeśli sytuacja tego wymaga. Kotter ostrzega, że przedwczesne ogłoszenie sukcesu może zatrzymać proces zmiany, dlatego lider powinien pamiętać, że zmiana to długoterminowy proces. Przy czym elastyczność oznacza także gotowość do zmiany podejścia w zależności od sytuacji i otwartość na nowe pomysły, nawet jeśli pierwotny plan nie przewidywał takich działań.

4

Empatia i tworzenie krótkoterminowych sukcesów Zrozumienie, że zmiana może być stresująca, jest kluczowe. Lider IT powinien być empatyczny i rozumieć różne reakcje emocjonalne pracowników. John Kotter podkreśla, że krótkoterminowe sukcesy, „quick wins”, pomagają budować poczu-

cie, że zmiana przynosi realne korzyści, co z kolei wzmacnia zaangażowanie zespołu. Dzięki empatii lider jest w stanie przewidzieć reakcje zespołu na zmiany, co pozwala mu lepiej zarządzać emocjami pracowników i wspierać ich w procesie adaptacji.

5

Umiejętność i inspirowaniamotywowania

Lider IT powinien mieć zdolność do motywowania zespołu do działania oraz inspirowania do podejmowania wyzwań związanych z wdrażaniem zmian. Przekazywanie pozytywnych przykładów sukcesu i wspieranie pracowników w rozwijaniu ich umiejętności w  kontekście nowych technologii czy procesów wzmacnia zaangażowanie zespołu.

Przykłady działań wzmacniających

Efektywne zarządzanie zmianą wymaga podjęcia odpowiednich działań. Wskazówki Kottera mogą inspirować lidera IT do konkretnych kroków, które umożliwią skuteczne przewodzenie zespołowi przez proces zmian.

AInicjowanie dialogu o zmianie i usuwanie przeszkód

Zanim zmiana zostanie oficjalnie wdrożona, lider powinien zainicjować dialog z zespołem. Może to być otwarte spotkanie, podczas którego lider wyjaśnia, dlaczego zmiana jest konieczna, i zaprasza zespół do zadawania pytań. Kotter podkreśla, że często przeszkody tkwiące w strukturze organizacji mogą hamować proces, dlatego ważne jest, aby lider IT aktywnie usuwał te blokady. Dyskusje o zmianach pozwalają na zrozumienie punktu widzenia zespołu i identyfikację ewentualnych obaw, zanim przejdzie się do etapu wdrażania.

BDostosowanie tempa zmian do możliwości zespołu

Liderzy często zakładają, że zespoły szybko przyswoją nowe technologie lub procesy. Jednak rzeczywistość bywa inna, zwłaszcza jeśli zmiana jest radykalna. Kotter sugeruje, by dostosować tempo transformacji, uwzględniając potrzeby zespołu, co pozwala na większą akceptację zmiany i zmniejsza ryzyko oporu. Takie podejście daje również liderowi możliwość monitorowania re-

akcji zespołu i ewentualnego dostosowania strategii.

CRegularne sprawdzanie postępów i udzielanie informacji zwrotnej

Przeprowadzanie regularnych spotkań w celu omówienia postępów i rozwiązywania problemów, które mogą pojawić się w trakcie wdrażania zmiany, jest kluczowe. Lider, który udziela konstruktywnej informacji zwrotnej, zwiększa efektywność zespołu, jednocześnie budując zaufanie i pomagając pracownikom rozwijać swoje umiejętności.

D Szkolenia i warsztaty wspierające zmianę oraz wprowadzanie „quick wins”

Lider IT powinien zorganizować szkolenia lub warsztaty, które przygotują zespół do nowych realiów. Może to obejmować zarówno szkolenia techniczne, jak i sesje poświęcone rozwijaniu kompetencji miękkich, takich jak adaptacja do zmian. John Kotter zaleca, by podczas procesu zmiany wdrażać krótkoterminowe sukcesy, które pozwalają utrzymać zaangażowanie zespołu i pokazują, że zmiana przynosi efekty. Dzięki szkoleniom pracownicy zy-

skują poczucie, że lider dba o ich rozwój i przygotowuje ich do pracy w nowym środowisku, co zmniejsza ich opór.

E Przykład własnego zaangażowania i otwartości na zmiany

Lider powinien sam stanowić przykład postawy otwartej na zmiany, aktywnie angażując się w proces i wykazując entuzjazm wobec nowego kierunku. Lider, który pokazuje, że zmiana jest dla niego tak samo ważna i wymagająca, zdobywa większe uznanie i lojalność zespołu.

F Zakotwiczenie zmiany w kulturze organizacyjnej

Zmiana przynosi trwałe efekty, gdy staje się częścią kultury organizacyjnej. Kotter podkreśla, że nowe podejścia i wartości muszą zostać utrwalone, aby uniknąć powrotu do starych praktyk. Lider IT powinien dbać o to, aby nowe metody pracy były konsekwentnie stosowane i promowane, aż staną się codzienną praktyką zespołu.

Artykuł pierwotnie ukazał się na portalu blog.conlea.pl.

Transparentność lidera: dlaczego to takie ważne?

O co chodzi z tą całą transparentnością lidera, która była „kluczowym elementem strategii” Satyi Nadelli?

Satya Nadella objął stanowisko CEO Microsoftu w 2014 r. Jako wieloletni pracownik korporacji z Seattle (od 1992 r.) z pewnością pamiętał doskonale czasy, gdy pod koniec lat 90. agresywne użycie sposobów licencjonowania przysporzyło Microsoftowi kłopotów z organami antymonopolowymi. Producent otrzymał nawet wtedy przydomek „Imperium Zła”, o włos unikając wymuszonego podziału i rozpadu. Dlatego Satya od razu podjął kroki w celu zmiany kultury firmy, która była wcześniej krytykowana za wewnętrzną rywalizację i zamkniętą komunikację. Zamiast utrzymywać dotychczasowy, hierarchiczny model zarządzania, wprowadził kulturę współpracy i zaufania, zachęcając do otwartej komunikacji na wszystkich szczeblach. Ważnym elementem jego przywództwa stała się inkluzywność – Nadella aktywnie promował różnorodność i równość w zespole, uznając, że zróżnicowane podejścia przynoszą lepsze rezultaty.

Jednocześnie kluczowym elementem jego strategii była transparentność. Regularnie dzielił się z pracownikami aktualną wizją firmy, jasno komunikując cele, wyzwania oraz podejmowane

SATYA NADELLA ZACHĘCAŁ PRACOWNIKÓW DO PODEJMOWANIA RYZYKA.

kroki. Przyznał otwarcie, że Microsoft musi dostosować się do zmieniających się warunków rynkowych, szczególnie jeśli chodzi o technologię chmurową i współpracę z platformami open-source, co było istotnym zwrotem w polityce koncernu.

Nadella zachęcał pracowników do podejmowania ryzyka i postrzegania porażek jako cennego źródła wiedzy. Wprowadził model, w którym uczenie się na błędach stało się integralną częścią pracy, tworząc środowisko, w którym pracownicy czuli

się swobodnie, podejmując innowacyjne decyzje. Przekazał sygnał, że rozwój osobisty i zawodowy są kluczowe, co zwiększyło zaangażowanie i morale w całej firmie. Pod jego kierownictwem Microsoft stał się bardziej otwarty na współpracę z zewnętrznymi partnerami i obsługę „obcych” technologii, co zwiększyło zaufanie klientów i umocniło pozycję firmy na rynku. Transparentność i inkluzywność Nadelli przełożyły się na wzrost innowacyjności, współpracy oraz zadowolenia pracowników, a ostatecznie przyczyniły się do sukcesu biznesowego Microsoftu, który odnotował dynamiczny wzrost w erze cyfryzacji. Efekt? Akcje Microsoftu wystrzeliły w górę. Dziś są 10-krotnie droższe niż w dniu, w którym Satya został szefem firmy. Ktoś, kto sprawia, że akcje w tak krótkim czasie rosną w takim tempie, nie może nie mieć racji. Po prostu. O co zatem chodzi z tą całą transparentnością lidera, która była „kluczowym elementem strategii” Satyi Nadelli?

Zacznijmy od początku…

Lider z poprzedniej epoki to był szef wydający polecenia i rozkazy. Podlegli mu ludzie musieli słuchać i wykonywać je bez kwestionowania. Szef dbał o to, by utrzymać posłuch i subordynację. Dlatego onegdaj lider: wszystko wiedział lepiej, o wszystkim decydował i, rzecz jasna, był niezastąpiony. Współczesny lider powinien być wsparciem dla swojego zespołu, pracując na rzecz ułatwienia realizacji ich zadań oraz wspomagania ich rozwoju. To podejście wymaga od lidera znacznie więcej i stawia przed nim zupełnie nowe wyzwania. Obecnie ludzie wiedzą lepiej, a lider pomaga im się komunikować. Ponadto ludzie podejmują wiele decyzji samodzielnie, a lider wspiera ich w budowie tej samodzielności. Wreszcie siła lidera wypływa z jego autorytetu, a nie z niezastępowalności (faktycznej lub pozornej). Minęły czasy, gdy samo zajmowanie wysokiego stanowiska dawało autorytet

i możliwość traktowania ludzi przedmiotowo, a pracownicy nie śmieli kwestionować decyzji swojego szefa. Obecnie, jeśli jesteś słabym liderem, stracisz wsparcie swojego zespołu. Wtedy ludzie nie będą cię wspierać, bo nie są do tego zobowiązani. Znajdą lepsze miejsce pracy i bardziej inspirującego przełożonego. Dzisiejszy lider musi wzbudzać zaufanie, szacunek oraz być autorytetem i inspiracją. To, oczywiście, nie jest łatwe do osiągnięcia. Zaufania i szacunku nie można kupić ani wymusić – nie dostaje się ich razem ze stanowiskiem.

Echa tego dawnego rozumienia przywódcy znajdziemy nawet w Słowniku Języka Polskiego. Słowo „przewodzić” jest w nim rozumiane wielorako, a między innymi oznaczać może „kierować czymś, stać na czele; narzucać komuś swoją wolę”. A czy każdy może zostać przywódcą? Tak! Życie pokazuje, że często zwykli ludzie, nigdy niepodejrzewający sami siebie o to, że drzemią w nich umiejętności przewodzenia innym, stawali na wysokości zadania, nawet w momentach dramatycznej próby. Dlatego współczesne podejście do przywództwa zakłada, że każdy może stać się przywódcą, choć nie każdemu zajmie to tyle samo czasu. Badania podważają powszechne przekonanie, że przywództwo jest zarezerwowane dla nielicznych, wyjątkowo charyzmatycznych osób. Przywództwo nie jest wrodzone ani dziedziczne – to zestaw określonych cech i umiejętności, które są dostępne dla wszystkich. Charyzma nie jest niezbędnym elementem skutecznego przywództwa. Jedną z cech tego nowoczesnego lidera jest za to transparentność.

Przejrzystość intencji i działań

Krótko: transparentność to przejrzystość intencji i działań. Lider otwarty na swoich

pracowników jest obdarzany szacunkiem i zaufaniem. Przejrzystość ma kluczowe znaczenie dla budowania otwartej komunikacji i zaufania, dla jasno stawianych celów i zadań. Daje też pole do szczerych i bezpośrednich dyskusji, wymiany poglądów i jawności opinii. Lider ukrywający informacje, dzielący się nimi z pracownikami tylko częściowo, stwarza naturalny dystans i barykadę.

Przejrzyste przywództwo to sposób działania, który cechuje się jasnością, zrozumiałością i łatwością interpretacji. Nie ma w nim miejsca na tajemnice, udawanie czy fałszowanie zarówno efektów podejmowanych decyzji, jak i ich intencji. Bycie przejrzystym oznacza, że otoczenie łatwo dostrzega intencje lidera, rozumie jego sposób myślenia i działania, a także dostrzega spójność w jego postępowaniu. Przejrzystość sprzyja lepszym wynikom i relacjom, ponieważ eliminuje domysły, a w zamian daje prawdę. Ta cecha jest kluczowa dla współczesnego przywództwa, eliminując tajemnice i relacje władzy oparte na przewadze informacyjnej.

Aby osiągnąć przejrzystość, lider musi codziennie pracować nad sobą, kierując się wartościami takimi jak: uczciwość, konsekwencja, sprawiedliwość, spójność w myśleniu i działaniu (słynne, nieprzetłumaczalne z angielskiego: integrity), odwaga, wiarygodność, odpowiedzialność, pokora i autentyczność.

Pracownicy doceniają liderów, którzy są otwarci i transparentni w swoich działaniach. Oznacza to, że liderzy powinni dzielić się informacjami na temat stanu firmy, celów, strategii i decyzji podejmowanych na różnych poziomach organizacji. Wiedza o tym, co dzieje się w firmie, daje pracownikom poczucie przynależności, co z kolei przekłada się na ich większą motywację

W jakich sytuacjach lider powinien być szczególnie transparentny?

l Lider powinien być transparentny podczas komunikowania celów strategicznych organizacji, aby zespół miał jasność co do kierunku działań i oczekiwanych wyników.

l W sytuacjach kryzysowych, gdy firma mierzy się z wyzwaniami, lider powinien otwarcie informować o problemach i podjętych krokach, aby zyskać zaufanie pracowników.

l Transparentność jest kluczowa przy wprowadzaniu zmian organizacyjnych, takich jak restrukturyzacje, aby zmniejszyć lęk i niepewność w zespole.

l Podczas podejmowania ważnych decyzji lider powinien być otwarty na temat procesów decyzyjnych, aby pracownicy zrozumieli kontekst i argumenty za wybranymi rozwiązaniami.

l Kiedy pojawiają się problemy z realizacją projektów, lider powinien jasno komunikować opóźnienia czy trudności, by uniknąć frustracji i nieporozumień.

l Lider powinien być transparentny w zakresie polityki wynagrodzeń i benefitów, aby uniknąć poczucia niesprawiedliwości w zespole.

l Przy ocenach pracowniczych lider musi otwarcie przedstawiać wyniki ewaluacji, jasno wskazując zarówno sukcesy, jak i obszary do poprawy.

l W sytuacjach konfliktowych lider powinien być transparentny, wyjaśniając swoje decyzje dotyczące rozwiązania sporu, aby wszyscy czuli się traktowani sprawiedliwie.

l Gdy organizacja przechodzi przez zmiany technologiczne lub procesowe, lider powinien otwarcie informować o wpływie tych zmian na pracowników.

l Transparentność lidera jest kluczowa przy tworzeniu budżetu lub alokacji zasobów, aby zespół miał jasność, dlaczego podjęto określone decyzje finansowe.

Granice transparentności

Granice transparentności lidera pojawiają się tam, gdzie konieczne jest zachowanie poufności:

l w kwestiach dotyczących danych osobowych pracowników lub informacji prawnie chronionych,

l lider nie powinien udostępniać informacji, które mogłyby zaszkodzić organizacji w negocjacjach biznesowych lub osłabić jej pozycję konkurencyjną,

l transparentność powinna być ograniczona w sytuacjach, gdy nadmierne ujawnianie problemów finansowych lub operacyjnych mogłoby wywołać niepotrzebną panikę wśród pracowników,

l ważne jest, aby lider nie dzielił się szczegółami decyzji personalnych, które dotyczą indywidualnych ocen czy zwolnień, gdyż może to naruszać prywatność,

l lider musi też zachować ostrożność w ujawnianiu strategii przyszłych zmian, jeśli są one jeszcze w fazie planowania i niepewne.

i zaangażowanie w pracę. Regularne spotkania zespołowe, raporty okresowe czy nawet otwarte dyskusje na temat aktualnych wyzwań mogą sprzyjać budowaniu kultury otwartości i zaufania w miejscu pracy.

Słowem, transparentność w przywództwie jest kluczowym elementem budowania zaufania i zaangażowania w zespole. Satya Nadella, jako CEO Microsoftu, pokazał, że otwarta komunikacja i dzielenie się wyzwaniami oraz decyzjami może przynieść ogromne korzyści – również te najbardziej namacalne. Dzięki jego stylowi przywództwa opartemu na inkluzywności i przejrzystości,

firma odnotowała wzrost współpracy wewnętrznej i motywacji pracowników a te przełożyły się na innowacyjność. I to właśnie wzrost innowacyjności okazał się drogą do sukcesu finansowego. Jednak bez kultury transparentności ta zmiana by się nie dokonała.

Marcin Babiak założyciel Kordo Edukacja i Fundacji Człowiek Może, gospodarz podcastu Rozmowy Inspirujące i wykładowca na Uczelni Łazarskiego.

złej organizacji

Czy fakt, że robisz replatforming oznacza, że nie wiesz, dlaczego sprzedajesz?

Replatforming stał się dziś jednym z najczęstszych zjawisk w e-commerce. Wiele firm podejmuje decyzję o zmianie platformy technologicznej, widząc w tym sposób na „nowy początek” lub „rozwiązanie wszystkich problemów”. W praktyce jednak często jest to decyzja

CZĘSTO DECYZJA O ZMIANIE

PLATFORMY JEST ZASŁONĄ DYM- NĄ DLA GŁĘBSZYCH PROBLEMÓW ORGANIZACYJNYCH.

podejmowana bez pełnego zrozumienia tego, co tak naprawdę decyduje o ich sukcesie w sprzedaży. Firmy inwestują setki tysięcy, a czasem miliony złotych w nową technologię, reorganizują procesy, zmieniają zespoły, a po kilkunastu miesiącach

Audyt Oracle:

lądują w punkcie wyjścia. Wzrost sprzedaży stoi w miejscu, frustracja eksploduje, a winę znów przypisuje się technologii. Tymczasem problem leży zupełnie gdzie indziej. Bo technologia nigdy nie jest strategią – jest tylko sposobem na jej realizację.

Zanim wybierzesz SaaS

Każda firma, która myśli o replatformingu, powinna zacząć od prostego, ale fundamentalnego pytania: co jest realnym driverem naszej sprzedaży i w czym naprawdę jesteśmy najlepsi? Czy to marketing, który skutecznie dociera do właściwego klienta? Czy wyjątkowa obsługa, która buduje lojalność? Czy może unikalny produkt, którego nie ma nikt inny na rynku? Jeśli odpowiedzi na te pytania leżą poza tuningiem technologii e-commerce, jeśli Twoja siła tkwi w doświadczeniu marki, jakości produktów,

przygotowanie czy obrona?

Firmy, które były świadome ryzyka i miały fachowe wsparcie, wychodziły z audytu bez większych strat, a czasem nawet z zyskiem.

Ppersonalizacji komunikacji czy doskonałej logistyce – wtedy wybór rozwiązania SaaS jest racjonalny. Taki model pozwala skoncentrować energię na tym, co faktycznie tworzy wartość, nie zaś na utrzymywaniu infrastruktury IT.

Z kolei jeśli Twoją przewagą jest technologiczna doskonałość – zdolność do tworzenia własnych rozwiązań, optymalizacji checkoutu, personalizacji doświadczenia użytkownika, wdrażania mikro-innowacji w procesie sprzedaży, to SaaS szybko stanie się dla Ciebie ograniczeniem. W takim przypadku lepszym kierunkiem jest on-premise lub SaaS z headless, który daje pełną kontrolę nad tym, jak działa Twój sklep i jak doświadcza go klient.

Warto podkreślić, że wybór modelu nie powinien więc zaczynać się od pytań o funkcje czy licencje, ale od uczciwej rozmowy o tożsamości biznesu: czy Twoja technologia jest narzędziem, czy częścią przewagi konkurencyjnej?

SaaS nie rozwiąże problemu, którego nie rozumiesz

Najczęstszym błędem jest wybór modelu technologicznego bez świadomości, czym firma naprawdę konkuruje. Brak odpowiedzi na to pytanie prowadzi do typowego „miss-matchu”: firma wybiera SaaS, a następnie po kilku miesiącach

Co naprawdę oznacza audyt Oracle?

Audyt, w rozumieniu Oracle’a, to formalne postępowanie weryfikujące zgodność wykorzystania z warunkami licencyjnymi. Firma otrzymuje oficjalne zawiadomienie i obowiązek udostępnienia określonych informacji w kontraktowo określonym czasie. Jednocześnie warto wiedzieć, że wcześniej może pojawić się tzw. review – nieformalne zapytanie, które wygląda niewinnie, ale działa podobnie. Organizacja musi wówczas przygotować raporty, logi, zestawienia środowisk, historię zakupów i konfigurację, a czas na reakcję bywa krótki. Wiele firm na tym etapie dopiero zaczyna analizować, co właściwie posiada i czego używa.

ismo od Oracle’a informujące o planowanym audycie nie musi oznaczać kłopotów. Jednak wszystko zależy od tego, czy i jak firma była wcześniej przygotowana do takiej sytuacji. Z moich doświadczeń wynika jasno: firmy, które czekają z działaniem do chwili, gdy temat „sam się pojawi”, niemal zawsze są w gorszej pozycji negocjacyjnej. Przy czym, choć audyt zazwyczaj jest stresującym procesem, równocześnie może stać się szansą na uporządkowanie środowiska, renegocjacje umów i budowę strategii licencyjnej. Warunek jest jeden: nie można działać reaktywnie i należy się dobrze przygotować.

Najczęstsze zagrożenia ujawniane podczas audytów

Z mojego doświadczenia wynika, że nawet dobrze zarządzane firmy popełnia-

ją błędy podczas audytu. Najczęstsze z nich to niedozwolona konfiguracja wirtualizacji oraz nieświadome użycie opcji płatnych. W tym pierwszym przypadku maszyny wirtualne działające w ramach środowiska wirtualnego (np. VMware) bez odpowiedniej separacji, mogą wymagać (według Oracle’a) przypisania licencji dla całego klastra/środowiska, nawet jeśli

od wdrożenia zaczyna czuć rosnącą frustrację. Dlaczego? Bo nagle okazuje się, że koszt dopasowania systemu SaaS do wymagań jest limitowany, że część funkcji nie może być zmieniona, że procesy są zbyt sztywne, a zespół traci wpływ na kluczowe elementy sprzedaży. Wtedy pojawia się poczucie rozczarowania, a wraz z nim wniosek: „SaaS nie działa”. Tymczasem problem nie tkwi w modelu, ale w braku zrozumienia własnych kompetencji i przewag. W wielu przypadkach to nie system, lecz jego niewłaściwe dopasowanie powoduje spadek efektywności. Jeśli bowiem Twoje unikalne czynniki konkurencyjności to marketing, siła marki, dobór asortymentu, logistyka lub obsługa klienta – to nie potrzebujesz customowego backendu. Potrzebujesz stabilnej technologii, która nie będzie przeszkadzać w rozwoju tego, co naprawdę buduje Twoją sprzedaż.

Replatforming jako zasłona dymna

Nie da się ukryć, że bardzo często decyzja o zmianie platformy jest zasłoną dymną dla głębszych problemów organizacyjnych. Wiele firm, zamiast mierzyć się z brakiem kompetencji w zespole, słabą strukturą decyzyjną czy chaosem w zarządzaniu procesami, wybiera najłatwiejsze wytłumaczenie: „to wina sys-

temu”. Słyszymy wtedy, że konkurencja ma lepszy checkout, ładniejsze karty produktowe, albo funkcję, której u nas brakuje – i że to właśnie przez to nie sprzedajemy. Taka narracja pozwala na chwilowe usprawiedliwienie słabych wyników, ale nie rozwiązuje żadnego problemu. Po wdrożeniu nowej platformy okazuje się, że konwersja nie rośnie, a zespół ponownie szuka winnych: tym razem w UX, potem w marketingu, a potem w danych.

Technologia nie zmieni złej organizacji, nie zastąpi wizji i nie zbuduje kultury odpowiedzialności za wynik. Może co najwyżej wzmocnić to, co już działa – lub przyspieszyć upadek tego, co nie działa.

Rola partnera

Dlatego wybór partnera wdrożeniowego ma dziś jeszcze większe znaczenie niż sama technologia. Mądra agencja nie zaczyna rozmowy od pytania, „czy chcecie SaaS czy open source”, tylko od zrozumienia jak działa Wasz zespół, jakie są kompetencje, gdzie leżą wąskie gardła i jakie są prawdziwe intencje projektu. Partner, który potrafi słuchać i rozumie różnice między modelami technologicznymi, jest w stanie pomóc firmie dobrać rozwiązanie, które rzeczywiście będzie działać. Agencja, która ma w port-

Jak przygotować się do audytu (zanim się zacznie)?

Najważniejsze jest przygotowanie efektywnej pozycji licencyjnej – spójnego obrazu środowiska, który obejmuje: pełną listę instancji i serwerów, przypisanie produktów i opcji, historię zakupów i warunków licencyjnych, jak również udokumentowane zasady użycia licencji w organizacji. Rzecz jasna, równie istotna jest świadomość poszczególnych zespołów – IT, zakupów czy compliance. Każdy powinien wiedzieć, jak wygląda proces audytu, kto odpowiada za komunikację, a kto dostarcza dane. Bez tego nawet najlepsze narzędzia niewiele pomogą.

TRUDNO

folio tylko jedną technologię i twierdzi, że „jest idealna do wszystkiego”, nie jest dziś partnerem tylko sprzedawcą. Współpraca, która ma sens, wymaga szczerości, zaufania i gotowości do pokazania jak naprawdę funkcjonuje firma od środka. Tylko wtedy można wspólnie zbudować strategię, w której technologia wspiera biznes, a nie odwrotnie.

Na koniec pytanie, które warto żebyś sobie zadał i szczerze odpowiedział: czy prowadząc e-commerce naprawdę wiesz, czym wygrywasz na rynku? I jaką rolę w tej przewadze odgrywa technologia – kluczową, czy tylko wspierającą? Bo dopóki nie odpowiesz na to pytanie, każda decyzja o replatformingu będzie przypominała ruch po omacku. A jak wiadomo trudno trafić do celu, jeśli nie wiesz, dokąd naprawdę zmierzasz.

Borys Skraba pełni funkcję CCO w Strix Group.

daj pochopnie – kontraktowo masz na to 40 dni. W tym czasie, a najlepiej dużo wcześniej, zadbaj, aby raport wewnętrzny był sprawdzony (lub stworzony) przez kompetentną firmą doradczą, kompletny i zgodny z rzeczywistością.

Audyt to nie wyrok

tylko jedna maszyna korzysta z oprogramowania Oracle. W przypadku zaś drugim niektóre funkcje – jak Partitioning czy Advanced Security – mogą być uruchomione przez użytkowników i to bez wiedzy administratorów. Nawet, jeśli nikt z nich świadomie nie korzystał, Oracle traktuje to jako użycie wymagające zakupu licencji.

Do dobrych praktyk w omawianym przypadku należą właściwe działania podjęte zanim firma dostanie powiadomienie. Regularny wewnętrzny przegląd jest o wiele tańszy niż korekta po formalnym audycie. Nie warto przy tym zakładać, że nic się nie zmieniło. Każda zmiana środowiska – aktualizacja, migracja, konsolidacja – może wpływać na obowiązki licencyjne. Nie należy też wdawać się w szczegóły bez przygotowania. Jeśli dostajesz pismo od Oracle, nie odpowia-

Dobrze przygotowana firma nie musi bać się audytu. Może go nawet wykorzystać jako okazję do przeprowadzenia uporządkowanych zmian, optymalizacji kosztów i lepszej kontroli nad środowiskiem. Z mojego doświadczenia wynika jasno: te firmy, które były świadome ryzyka i miały fachowe wsparcie, wychodziły z audytu bez większych strat, a czasem nawet z zyskiem. Albowiem audyt to nie tylko sprawdzian zgodności, ale test dojrzałości w zarządzaniu IT i inwestycjami.

Andrzej Orłowski pełni funkcję Senior SAM Managera w in4mates.

Czy AI zniszczy PR?

Moim zdaniem odpowiedź na pytanie tytułowe brzmi: tak, o ile będziemy ją ignorować…

Jeszcze kilka lat temu słowa „sztuczna inteligencja” brzmiały jak obietnica przyszłości. Dziś AI nie puka już do drzwi branży komunikacji, AI siedzi przy tym samym stole, analizuje dane, pisze teksty, przewiduje reakcje odbiorców. Zmieniła zasady gry szybciej, niż wielu z nas zdążyło się zorientować.

Jedni reagują na tę zmianę z ciekawością i ekscytacją, inni z niepokojem, ale spora część wciąż udaje, że nic się nie dzieje. Słyszymy zdania: „PR to emocje, człowiek i relacje – maszyna tego nie zrobi”. I to prawda. Jednak to właśnie dlatego ignorowanie technologii jest tak niebezpieczne. AI nie odbierze człowiekowi empatii, intuicji czy doświadczenia, ale odbierze mu przewagę zawodową, jeśli nie nauczy się z nią pracować.

WSPÓŁCZESNY PR NIE POLEGA JUŻ WYŁĄCZNIE NA OPOWIADANIU HISTORII.

Współczesny PR nie polega już wyłącznie na opowiadaniu historii. Polega na rozumieniu, jak te historie powstają, krążą i są przetwarzane przez algorytmy. To wymaga nowej kompetencji – umiejętności mądrego korzystania z AI, tak by technologia wspierała, a nie wypierała to, co w komunikacji najcenniejsze: autentyczność, empatię i zaufanie.

Ryzyko utraty wiarygodności

Część branży PR wciąż „nie czuje potrzeby” zmiany. Wielu specjalistów trzyma się tradycyjnych metod – media relations w wydaniu sprzed dekady, komunikaty pisane jak dla drukowanej prasy, raporty bez analizy danych. Tymczasem świat komunikacji już dawno przeniósł się w nową erę: AI contentu i analizy danych, targetowania kon-

tekstowego zamiast demograficznego, jak też etyki, transparentności i komunikacji opartej na wartościach. W efekcie powstaje przepaść między tymi, którzy się uczą, a tymi, którzy się bronią. A w branży, która sprzedaje zrozumienie zmian, bycie w tej drugiej grupie oznacza tylko jedno – utratę wiarygodności.

1. Zmiana zaczyna się w głowie, nie w narzędziu

Rozwój kompetencji związanych z AI nie zaczyna się od instalacji kolejnego narzędzia czy nauki promptów, ale od wewnętrznej zgody na zmianę, od zrozumienia, że nowoczesna komunikacja wymaga innego podejścia niż dotychczas. To, co naprawdę odróżnia skutecznych specjalistów PR od tych, którzy utknęli w przeszłości, to nie liczba programów, które potrafią obsłużyć, ale sposób, w jaki potrafią myśleć o technologii. AI nie „pisze za nas” – pracuje z nami, stając się partnerem w procesie tworzenia, analizowania i doskonalenia komunikacji.

Dla PR-owca to przede wszystkim szansa, by zyskać czas na działania, które mają największą wartość strategiczną: budowanie relacji, formułowanie przekazów, projektowanie długofalowych narracji. To moment, w którym technologia może przejąć powtarzalne elementy rzemiosła – wyszukiwanie informacji, analizę danych, tworzenie wstępnych szkiców – ale nie zastąpi ludzkiej intuicji, interpretacji i zdolności czytania emocji.

Zmiana w myśleniu oznacza też odwagę, by eksperymentować, testować nowe rozwiązania, popełniać błędy i wyciągać z nich wnioski. To otwartość na uczenie się razem z technologią, a nie przeciwko niej. Kiedy zaczynamy traktować AI jako naturalne przedłużenie naszych kompetencji, zamiast rywala, zyskujemy nie tylko efektywność, ale też nową jakość pracy. Nowoczesny PR-owiec nie pyta już, czy AI coś mu

AI nie jest chwilową modą, ale nową rzeczywistością komunikacji. Zamiast ją ignorować, powinniśmy nauczyć się z niej korzystać – mądrze, etycznie i strategicznie. Technologia nie odbierze nam człowieczeństwa. Natomiast brak gotowości, by się jej nauczyć – może odebrać nam znaczenie. Jeśli dziś PR należy do tych, którzy potrafią pisać najlepsze komunikaty, jutro będzie należeć do tych, którzy potrafią myśleć, tworzyć i uczyć się razem z AI. PR,

odbierze. Pyta raczej, jak może dzięki niej zyskać – więcej przestrzeni na kreatywność, refleksję i odważne idee.

2. AI literacy – nowa kompetencja, której nie da się ominąć

Nie musimy być inżynierami danych, ale musimy rozumieć, jak działa sztuczna inteligencja – i jak wpływa na sposób, w jaki komunikujemy się ze światem. AI literacy to coś znacznie więcej niż umiejętność stworzenia skutecznego prompta. To świadomość mechanizmów stojących za algorytmami, zrozumienie ich ograniczeń, uprzedzeń i  konsekwencji etycznych. To także krytyczne myślenie wobec rezultatów, które AI nam podsuwa – umiejętność rozróżnienia, kiedy wynik jest trafny, a kiedy tylko pozornie atrakcyjny.

W praktyce oznacza to, że PR-owiec staje się nie tylko użytkownikiem narzędzi, ale kuratorem wiedzy. Wie, gdzie kończy się automatyzacja, a zaczyna prawdziwa interpretacja. Potrafi wykorzystać AI do analizy nastrojów, badania trendów, identyfikowania insightów, ale wciąż sam nadaje temu sens, kontekst i ton. Zamiast bać się, że technologia odbierze mu głos, uczy się, jak sprawić, by ten głos był silniejszy, bardziej precyzyjny i trafny.

AI literacy to więc nie moda, ale nowa forma alfabetyzmu w komunikacji. W świecie,

w którym każda treść może być generowana, rośnie wartość tych, którzy potrafią myśleć o niej strategicznie – wiedzą, jak zadać właściwe pytanie, jak zinterpretować wynik, jak przekuć dane w narrację. To kompetencja, która nie tylko zwiększa efektywność, minimalizuje ryzyko reputacyjne i buduje autorytet eksperta, ale też pozwala PR-owcom zachować to, co w ich zawodzie najcenniejsze: ludzką ciekawość i zdolność do refleksji.

AI literacy to świadomość, co można zautomatyzować, a czego nie wolno oddać maszynie.

3. Dane + emocje = nowa alchemia PR-u

AI świetnie radzi sobie z analizą danych, ale nie rozumie emocji, kontekstu i niuansów, które budują prawdziwą relację z odbiorcą. To właśnie w tym miejscu zaczyna się magia nowoczesnego PR-u – w połączeniu świata liczb z wrażliwością człowieka. Dane bez interpretacji są jedynie zbiorem informacji, a emocje bez danych mogą prowadzić do intuicyjnych, ale nietrafionych decyzji. Dopiero ich połączenie pozwala tworzyć komunikację, która naprawdę działa. Nowoczesny PR-owiec potrafi czytać dane nie tylko jako zestaw wskaźników, ale jako mapę ludzkich potrzeb, nastrojów i reakcji. Rozumie, że za wykresem sentymentu kryje się historia, za wzrostem ruchu w mediach

społecznościowych – emocja, a za spadkiem zaangażowania – brak zaufania lub autentyczności. Właśnie tu rośnie znaczenie umiejętności łączenia analityki z psychologią komunikacji.

Sztuczna inteligencja może wskazać, co jest trendem, ale to człowiek potrafi zrozumieć, dlaczego coś rezonuje z odbiorcami. To człowiek decyduje, czy dane potwierdzają kierunek strategii, czy pokazują potrzebę jej korekty. Dzięki temu PR przestaje być tylko reakcją na rzeczywistość, a staje się jej aktywnym współtwórcą – opartym na faktach, ale nasyconym empatią.

Kompetencje przyszłości w PR to umiejętność łączenia: analityki (AI, dane, trendy), psychologii komunikacji oraz narracji opartej na wartościach i empatii. To właśnie te trzy elementy pozwalają tworzyć przekazy, które są prawdziwe, trafne i rezonujące – nawet jeśli ich pierwszy szkic powstał z pomocą sztucznej inteligencji.

4. Etyka i transparentność – nowa waluta zaufania

Im więcej AI w komunikacji, tym większe znaczenie ma człowiek. Bo choć technologia może przyspieszyć procesy, ułatwić analizę czy zwiększyć zasięg, to nie zastąpi odpowiedzialności za słowo. W świecie, w którym każdy komunikat można wygenerować w kilka sekund, wartość prawdy, rzetelności i intencji rośnie wykładniczo. To właśnie tutaj etyka i transparentność stają się walutą zaufania – jedyną, której nie da się sfałszować ani zautomatyzować.

Nowoczesny PR wymaga nie tylko znajomości narzędzi, ale i świadomości konsekwencji. AI potrafi wzmocnić przekaz, ale równie łatwo może go wypaczyć, jeśli zabraknie ludzkiego filtra. Dlatego tak ważne jest, by PR-owcy rozumieli, jak i dlaczego używają technologii. Wprawdzie AI wspiera analizę danych czy pisanie tekstów, ale to my powinniśmy umieć wskazać, gdzie kończy się praca algorytmu, a gdzie zaczyna ludzka decyzja. To przejrzystość, która buduje wiarygodność – zarówno wobec klientów, jak i odbiorców.

Etyka w PR ery AI to nie tylko unikanie manipulacji, ale też aktywne kształtowanie kultury odpowiedzialnego korzystania z technologii. To świadomość, że każda treść, nawet wygenerowana przez maszynę, niesie ze sobą ludzką intencję i wpływa na postrzeganie rzeczywistości. PR-owiec przyszłości staje się strażnikiem sensu i proporcji – pilnuje, by komunikacja nie zamieniła się w mechaniczne powielanie treści, ale pozostała narzędziem budowania relacji i zaufania. Uważam, że etyka stanie się nową przewagą konkurencyjną – nie dodatkiem do strategii, lecz jej fundamen-

tem. Bo tylko człowiek potrafi nadać technologii moralny kierunek.

5. AI jako narzędzie rozwoju, nie zagrożenie

Sztuczna inteligencja nie jest tylko narzędziem wspomagającym pracę – może stać się również osobistym trenerem rozwoju dla każdego PR-owca. To przestrzeń, w której możemy ćwiczyć warsztat, uczyć się języka precyzji, testować różne style komunikacji i analizować reakcje odbiorców, zanim kampania ujrzy światło dzienne. AI daje możliwość wglądu w proces twórczy, pozwalając spojrzeć na własną pracę z metapoziomu – szybciej wychwycić błędy, dostrzec schematy, wyciągać wnioski.

Dobrze wykorzystana technologia potrafi poszerzyć nasze horyzonty zawodowe. Może pomóc w pisaniu, analizie danych, w projektowaniu narracji i tworzeniu treści o wyższym poziomie spójności. Ale może też inspirować, prowokować do zadawania nowych pytań, zmuszać do myślenia szerzej i bardziej krytycznie. To właśnie ta współpraca człowieka z AI staje się katalizatorem rozwoju kompetencji: uczymy się szybciej, precyzyjniej i odważniej.

Właśnie w tym kierunku zmierza branża – od rzemieślników treści do strategicznych konsultantów PR, którzy łączą analitykę, intuicję i technologię w jedno spójne podejście. PR-owiec przyszłości to osoba, która potrafi użyć AI, by lepiej zrozumieć ludzi, nie by ich zastąpić. W tym sensie sztuczna inteligencja nie odbiera znaczenia człowiekowi – przeciwnie, pozwala mu rozwinąć skrzydła.

Odwaga, nauka, odpowiedzialność

AI nie jest rewolucją, której można się przyglądać z dystansu. To zmiana, która już dzieje się w naszej codziennej pracy, w sposobie myślenia, planowania i opowiadania historii. Nie da się jej zatrzymać, ale można ją kształtować – nadając jej sens, ton oraz  kierunek.

Dlatego dziś od PR-owców nie oczekuje się jedynie znajomości narzędzi, ale odwagi, by uczyć się bez przerwy, pokory wobec technologii i odpowiedzialności za to, jak jej używamy. Musimy pozostać przewodnikami komunikacji, a nie jej ofiarami – tłumaczami świata algorytmów na język emocji i zaufania.

Katarzyna Dworzyńska

pełni funkcję CEO agencji PR Calling.

Pierwsze pięć lat

Zprowadzenia firmy

Opisując swoją biznesową drogę, zdałem sobie sprawę z tego, ile błędów popełniłem. Dziś te historie to trochę śmiech przez łzy.

aczynanie od Polski. To jest klasyczny błąd, który sam popełniłem w Divante. Jeśli budujesz spółkę technologiczną, to pamiętaj, że technologia jest globalna. Zaczynaliśmy od Polski, a potem, kiedy firma urosła do 100 osób, okazało się, że pivotowanie na rynek globalny jest piekielnie trudne. Dlaczego? Bo mentalność zespołu, procesy, a nawet struktura firmy są zbudowane pod lokalny rynek. Ludzie czują się bezpiecznie w tym ciepełku, gdzie wszystkich i wszystko znają. Technologia jest globalna, a jeśli robicie coś z technologią i nie celujecie globalnie, to ktoś inny zrobi to samo, zdobędzie większe finansowanie, lepszych ludzi i w końcu po was przyjdzie. Wszystkie moje kolejne firmy, takie jak Callstack, Open Loyalty czy Vue Storefront, od początku budowałem z myślą o globalnej sprzedaży. Open Loyalty sprzedaje licencje w Azji, Afryce i obu Amerykach, mimo iż nikt z zespołu nie odwiedza tam klientów.

„Jakoś się sprzeda”

Wiara, że ktoś magicznie rozwiąże sprzedażyproblemi marketingu

Handlowiec, dyrektor, agencja, konsultant, pośrednik… byleby tylko ktoś „wziął i sprzedał”. To jest naiwne myślenie, które nie było mi bynajmniej obce. Pamiętam, jak w 2015 roku sprzedaż nam nie szła, bo jeździliśmy po świecie z USP, którego nie mieliśmy. Myśleliśmy: „Problemem jesteśmy my, nie umiemy sprzedawać, trzeba to robić inaczej”. Szukaliśmy lokalnych sprzedawców, pośredników, agencji… To nie działało. Dlaczego? Bo dobrzy sprzedawcy oceniają produkt, który sprzedają, i chcą sprzedawać dobry produkt. Pośrednicy i agencje, którzy zgadzają się pracować bez jasnego USP, zazwyczaj nie dowożą.

Zamiast zrozumienia rynku – pośrednictwo, white-label i działanie „dla kogoś”

Dojście do silnego wyróżnika często wymaga mocnego zawężenia oferty. Historia Divante jest tego przykładem: zaczynali-

MARKETING JEST TYLKO TUBĄ. JEŚLI PRODUKT JEST NIJAKI, NAWET NAJLEPSZY MARKETING

NIE ZROBI Z NIEGO HITU.

śmy od wszystkiego (technologia, design, marketing), potem była tylko technologia, a na końcu jeszcze węziej – R&D dla e-commerce. To pozwoliło nam znaleźć niszę. Szukaj niszy w niszy – tak robiliśmy z Vue Storefront, celując najpierw w duże sklepy na Magento z problemem szybkości działania. Dzięki temu w krótkim czasie zbudowaliśmy portfolio podobnych klientów i staliśmy się ekspertami. Marketing jest tylko tubą, która wzmacnia wartość. Jeśli produkt jest nijaki, nawet najlepszy marketing nie zrobi z niego hitu.

Ten punkt wiąże się bezpośrednio z poprzednim. Oddawanie sprzedaży pośrednikom czy agencjom, zwłaszcza na nieznanym rynku, oznacza utratę kontaktu z rynkiem. To fundamentalnie obniża szansę na znalezienie product-market fit (PMF, czyli dopasowania produktu do rynku). Mityczny „Polak za granicą”, który rzekomo otworzy wszystkie drzwi, to fikcja. Firmy często szukają takich magicznych rozwiązań, zamiast poświęcić czas na zrozumienie klienta i rynku. Pamiętajcie, że „rozmowy sprzedażowe to jest ciągły feedback i nauka”. Bez tego budujecie coś w oderwaniu od rzeczywistych potrzeb, a to prosta droga do klapy. Mój brat i ja zawsze powtarzaliśmy sobie, że nie można się oszukiwać. To dotyczyło też tego, co dzieje się na rynku.

Ukrywanie przed zespołem, że firma ma problemy

W realnym świecie ignorowanie problemów nie sprawia, że one znikają. To jest pułapka optymizmu w biznesie. W Divante mieliśmy taki moment, gdy rosła strata i zaczęły się pierwsze zwolnienia. Atmos-

fera leżała. Ukrywanie problemów przed zespołem, by „utrzymać motywację”, to błąd. W końcu wraz z Piotrem wprowadziliśmy zasadę, że się nie oszukujemy. Publicznie przyznaliśmy się przed ludźmi, co nie wyszło i z jakich przyczyn jesteśmy w obecnej sytuacji. Pokazaliśmy konkretne liczbowe uzasadnienie problemu, np.: „Co miesiąc mamy 100 tysięcy złotych straty, a powinniśmy mieć 100 tysięcy zysku”. Następnie opracowaliśmy i przedstawiliśmy plan, ustalając codzienne działania, które miały przynieść zmianę.

Lider musi być czasem gotowy do bycia wartime CEO – czyli dowódcą na polu walki, który podejmuje szybkie, czasem trudne decyzje, wydaje rozkazy, a nie jedynie pyta o zdanie. To ratuje firmę przed bankructwem. Rozwinę ten wątek dalej.

Firmowe blokady nie rozwiążą się same

Postawa pasywna w biznesie jest zabójcza. Zamiast czekać, aż problemy z marketingiem i sprzedażą rozwiążą się same, podjęliśmy radykalną decyzję – trzeba „zagrać bold”. Postanowiliśmy stworzyć globalny produkt open source (czyli taki, którego kod jest dostępny do pobrania za darmo dla każdego) i wylansować go w Nowym Jorku na konferencji. To „zagraj grubo” wywołało dużą zmianę w firmie. Pokazaliśmy, że marketing i sprzedaż to nasza (founderów) odpowiedzialność, nie działu. Wciągnęliśmy całą firmę do tej przygody, dowodząc, że robimy coś fajnego i globalnego. To zbudowało drive – zapał do robienia czegoś, który wypływa z serca.

Zbyt szybkie zmiany strategii

W biznesie, zwłaszcza w początkowej fazie, bardzo łatwo jest poddać się po pierwszej lub drugiej porażce. Pamiętam, jak w pewnym momencie i u nas wzrost się zatrzymał – zyski nie rosły, mieliśmy problemy z płatnościami. Zaczęliśmy nerwowo dokładać nowe usługi, tracić skupienie. Mega doświadczony mentor kazał nam „wpierw dojechać do sufitu” z tym, co działało, wycisnąć z rynku, ile się da. To jest fundamentalna lekcja – nie kombinuj za dużo, rób więcej tego, co działa. Wiele firm się rozprasza, dodając kolejne usługi czy modyfikacje pod klienta, gdy pierwotny silnik wzrostu zwalnia. To komplikuje strukturę firmy, obniża marże i satysfakcję klientów.

Gdy tracimy klientów, bo „nowych zawsze znajdziemy”

To bardzo kosztowny błąd. Jeśli tracisz klientów, musisz ciągle zaczynać od nowa. Jednocześnie trzeba pamiętać, że klienci globalni mają wysokie wymagania, „doing extra mile” to po prostu standard obsługi. Rozwiązaniem, które wdrożyliśmy w Divante, było systematyczne mierzenie NPS (Net Promoter Score). To powszechnie stosowana miara zadowolenia klienta, która pokazuje, czy poleciłby nas znajomym lub współpracownikom. Regularne mierzenie NPS, reagowanie na niskie oceny i wyciąganie wniosków z feedbacku klientów jest kluczowe. To buduje zaufanie i lojalność wobec marki. W końcu, gdy klient wie, że odpowiednio zareagujesz na jego niezadowolenie, sam zacznie ci chętniej dawać feedback. Te lekcje, choć kosztowały mnie czas i pieniądze, są esencją tego, co pozwala firmom przetrwać i rosnąć. Popełniłem te błędy, żebyś ty już nie musiał. Skorzystaj z tego.

Tekst stanowi fragment książki Tomasza Karwatki: „Pierwsze pięć lat prowadzenia firmy”.

Tomasz Karwatka

jest założycielem Catch the Tornado.

Kara umowna, czyli brzydkie słowo na „k”

Zawsze znaj swoją odpowiedzialność, niezależnie od tego, czy „nurkujesz” w kryptowalutach, czy podpisujesz umowę.

Uświadomiłam sobie, że od wielu miesięcy piszę o praktycznych sprawach z zakresu kontraktów IT, a nie napisałam nigdy o pewnym „złocie”, którego wartość, podobnie jak w przypadku Bitcoina, może gwałtownie, wręcz z dnia na dzień, wzrosnąć lub spaść w zależności od zmienności rynku, a tym samym nieoczekiwanie niwecząc część zysku. Mam w tym przypadku na myśli karę umowną, a zatem legalny instrument prawny, który czasem może stać się źródłem niezasadnego wzbogacenia.

Na pociechę dodam, że w tym obszarze każda ze stron popełnia jakieś błędy, co nieco równoważy ilość środków na koncie. Wpadki zaliczają tak zamawiający, jak i dostawcy. I jeśli kogoś z branży IT to pocieszy, absolutną palmę pierwszeństwa dzierży w tym zakresie sektor budowlany.

No dobrze, czym w takim razie, w praktyce, jest kara umowna? Otóż, jak to pięknie kiedyś ujął Sąd Najwyższy w jednym ze swoich orzeczeń: „Celem zastrzeżenia kary umownej jest wywarcie na dłużniku presji, żeby wykonał on swoje zobowiązanie w sposób należyty – przez co kara umowna powinna mieć wymiar dolegliwości o realnym charakterze – to jednak nie może ona prowadzić do nieuzasadnionego wzbogacenia wierzyciela”.

W praktyce mamy do czynienia z milionowymi obciążeniami (przy wartości kontraktu na kilkaset tysięcy), ewentualnie z ustalaniem ich wysokości jako procentów od wartości wynagrodzenia (!), bądź takie opisanie algorytmu wyliczenia kary, którego się wyliczyć nie da. Pojawia się też tu i ówdzie kara za

„wszystko”, w tym za opóźnienie (nawet drugiej strony), a wreszcie kara od kary itd. itp.

Kolejną listę stanowią największe błędy dotyczące powyższych zapisów, jak chociażby kara niewyliczalna. Tymczasem, co powinno być oczywiste dla wszystkich zainteresowanych,

ZAWSZE PRZYGLĄDAJ SIĘ KONSTRUKCJI ZAPISÓW O KARACH UMOWNYCH.

kara umowna powinna być możliwa do wyliczenia już w momencie zawarcia umowy, a jej wysokość nie powinna wymagać dowodzenia. Przy czym nie ma sensu kara nadmiernie wygórowana. Osobiście nie mam przekonania, że kary umowne podwyższają jakość produktów czy usług, natomiast skutecznie potrafią zniechęcić do współpracy. Zarówno w handlu Bitcoinem, jak i w kontraktach IT, sukces leży w zarządzaniu ryzykiem. Zawsze znaj swoją odpowiedzialność, niezależnie od tego, czy „nurkujesz” w kryptowalutach, czy podpisujesz umowę. I zawsze przyglądaj się konstrukcji zapisów o karach umownych, a nie tylko jej wysokości.

Renata W. Lewicka zasiada w zarządzie Warwick Legal Network, radca prawny.

Puls branży IT

Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.

Wzrosną wydatki na AI PC

Cyberberbezpieczeństwo to najważniejszy czynnik wyboru dostawcy chmury przez średnie i duże polskie firmy – wynika z badania Polcomu. Według jego autorów to dowód na dużą wagę, jaką przedsiębiorcy przykładają do ochrony danych i stabilności środowiska IT. W tym kontekście przy wyborze dostawcy chmury rośnie znaczenie referencji (49 proc.) i możliwości outsourcingu usług zarządzania IT (44 proc.). Wskazuje to, iż klienci biznesowi częściej niż w poprzednich latach potrzebują w pełni zaufanego partnera. Z kolei potrzeba wdrażania złożonych rozwiązań chmurowych sprawia, że klienci w firmach oczekują wsparcia wykwalifikowanych specjalistów (45 proc.). Na znaczeniu zyskuje przy tym lokalizacja danych w Polsce. Zwłaszcza średnie firmy (52 proc.) przywiązują do niej dużą wagę (wobec 39 proc. dużych podmiotów).

Najważniejsze czynniki przy wyborze dostawcy rozwiązań chmurowych

Oczekiwany poziom cyberbezpieczeństwa

Cena rozwiązania

Referencje dostawcy

Dostępność wykwalifikowanego personelu

Możliwość outsourcingu usług związanych z zarządzaniem IT

Lokalizacja danych w data center na terytorium Polski (jurysdykcja danych)

W ciągu najbliższych 12 miesięcy 16 proc. decydentów IT w organizacjach zamierza znacznie zwiększyć wydatki na komputery, aby wcześnie wykorzystać możliwości AI PC. Niewielki wzrost nakładów na ten cel planuje 34 proc. – wynika z badania Futurum Group, przeprowadzonego we wrześniu 2025 r. Zatem w sumie ponad połowa liderów IT jest gotowa zwiększyć w tym roku budżety na AI PC. Z drugiej strony najwięcej respondentów (36 proc.) planuje wydatki na komputery na tym samym poziomie co w roku poprzednim. Obniżenie budżetu na PC deklaruje 11 proc., w tym 5 proc. zapowiada znaczne cięcia. Co istotne, aż 88 proc. szefów firm uważa, że komputery z AI zastąpią tradycyjne PC w ciągu 2–5 lat. Jednak badanie wskazuje również na lukę między entuzjazmem dla AI PC w organizacjach a faktyczną gotowością na nie (większość firm nie opracowało jeszcze modelu zwrotu z inwestycji w ten sprzęt). Decydenci IT pytani o powody redukcji budżetu na komputery, wyjaśniają taki zamiar najczęściej już dokonanym zakupem nowych urządzeń, jak też brakiem pewności, czy AI PC wniesie wartość do ich organizacji.

Dlaczego ograniczasz budżet przeznaczony na zakup komputerów?

Wysokie zapasy AI PC/zainwestowaliśmy w szybką i wczesną wymianę komputerów

Nadal nie jesteśmy pewni, czy AI PC są warte swojej ceny dla naszej organizacji Jesteśmy rozczarowani oprogramowaniem AI PC/zbyt małą liczbą rozwiązań AI na urządzeniach, aby było to opłacalne

Nasza organizacja może redukować zatrudnienie

Interoperacyjność w zakresie budowy środowisk hybrydowych i multicloud

Dostępność różnych modeli przetwarzania (IaaS, CaaS, PaaS, SaaS, XaaS i inne)

Jesteśmy rozczarowani sprzętem AI PC/ możliwości sprzętowe są niewystarczające do naszych zastosowań

ceł

Polski rynek ICT w fazie zrównoważonego wzrostu

Wartość rynku ICT w Polsce w 2025 r. wyniosła 131 mld zł, co oznacza wzrost o blisko 4 proc. rok do roku – podaje PMR Market Experts by Hume’s. Branży pomagają inwestycje publiczne i środki z KPO, jak też rosnące znaczenie AI, odbudowująca się konsumpcja prywatna i przyspieszenie inwestycji przedsiębiorstw. Co istotne, wszystkie segmenty rynku IT – sprzęt, usługi i oprogramowanie – zamknęły miniony rok na plusie. W tym najmocniej poszły w górę wydatki na urządzenia napędzane zarówno popytem konsumenckim i biznesowym, jak też programami rządowymi. Sprzedaż laptopów i tabletów poprawiła się aż o 32 proc., co było możliwe w dużej mierze dzięki przetargom na sprzęt dla szkół. Dostawcy oprogramowania skorzystali na odmrożeniu dużych projektów wdrożeniowych. Przy czym kluczową rolę w strukturze polskiego rynku software’u odgrywa ERP, na co wpływają „wyboiste” przygotowania do KSeF-u (obecnie już co trze-

Najważniejsze trendy 2025 roku

Sektor publiczny wydatki +27% r/r

najszybciej rosnący segment, sprzedaż laptopów i tabletów +32% r/r

cia firma w Polsce korzysta z ERP-ów). Rośnie liczba wdrożeń chmurowych kosztem rozwiązań on-premise. W wydatkach na oprogramowanie zwiększa się znaczenie cyberbezpieczeństwa – w 2025 r. nakłady firm w tym obszarze podskoczyły aż o jedną trzecią. W usługach IT kluczowym odbiorcą są duże przedsiębiorstwa. Jednak w 2025 r. najsilniej poprawiły się wydatki administracji rządowej i samorządowej (+27 proc. r/r), głównie dzięki realizacji programów takich jak „Cyberbezpieczny Samorząd” i cyfryzacji edukacji. Według prognoz PMR po okresie silnej dynamiki w latach 2021–2022 polski rynek ICT wchodzi w fazę bardziej zrównoważonego wzrostu. Wzmacniają go fundusze unijne i rosnące znaczenie technologii, w tym AI, chmury i cyberbezpieczeństwa. Pomimo zawirowań ostatnich lat liczba firm w branży przekroczyła już 200 tys., a więc jest ich obecnie ponad dwa razy więcej niż w 2019 r.

co trzecia firma w Polsce korzysta z ERP, coraz częściej w chmurze

Sprzedaż notebooków, stacjonarnych PC oraz stacji roboczych w IV kw. 2025 r. wzrosła globalnie o 9,1 proc. (do poziomu 74 mln szt.) – podaje Omdia. Według analityków cały miniony rok zakończył się wynikiem rzędu 8,9 proc. na plusie (278,7 mln szt.). W połowie ub.r. pojawiła się presja na wzrost cen z powodu drożejących komponentów. Od pierwszego do czwartego kwartału ub.r. koszty DRAM i pamięci masowej do PC poszły w górę aż o 40–70 proc. W 2026 r. branża kładzie więc nacisk na sprzęt z wyższej półki oraz na oszczędniejsze konfiguracje ze średniego i niższego segmentu, aby chronić marże. Zdaniem analityków, jeśli w bieżącym roku popyt na wymianę urządzeń nie będzie słabł (np. z powodu przejścia na Windows 11), podaż nie zaspokoi w pełni popytu. Przy czym rzeczywista wielkość dostaw będzie zależeć od zakupów pamięci i storage’u przez producentów PC i ich siły negocjacyjnej.

Oprogramowanie zabezpieczające wzrost wydatków firm o ok. 1/3

silny impuls inwestycyjny i zmiana struktury popytu w całym sektorze

AI ma wspierać rozwój, a nie ciąć koszty

Aż 77 proc. polskich firm planuje zwiększyć wydatki na narzędzia AI w ciągu najbliższych 18 miesięcy – wynika z danych EY z końca 2025 r. Rok wcześniej odsetek takich przedsiębiorców wynosił 72 proc. W sumie 33 proc. deklaruje obecnie znaczący wzrost nakładów na ten cel, podczas gdy kolejne 17 proc. respondentów chce utrzymać wydatki na niezmienionym poziomie (spadek z 20 proc. w 2024 r.). Co ważne, jedynie 3 proc. zamierza je nieznacznie ograniczyć. Zdaniem ekspertów coraz większe budżety sugerują, że organizacje dostrzegają wartość biznesową narzędzi AI. Przy czym traktowane są one coraz częściej jako strategiczna inwestycja rozwojowa, a nie pomoc w cięciu kosztów. Zdają się to potwierdzać odpowiedzi wskazujące, iż narzędzia AI trafiają do kluczowych działów w firmach, przetwarzających duże ilości danych. Są to działy: IT (51 proc. wskazań, wzrost z 33 proc. w 2024 r.), obsługi klienta (48 proc., wzrost z 41 proc.), marketingu (47 proc., wzrost z 41 proc.), sprzedaży (42 proc., wzrost z 38 proc.) i cyberbezpieczeństwa (40 proc., wzrost z 28 proc.). Największy wzrost wykorzystania odnotowały obszary IT i cyberbezpieczeństwa, co pokazuje rosnącą świadomość zagrożeń w polskim biznesie. Celem wdrożeń AI jest natomiast najczęściej automatyzacja.

Dwucyfrowy skok sprzedaży PC

Co miesiąc sprawdzamy,

biznesowym portalu społecznościowym

Grzegorz Rudno-Rudziński, Managing Partner w Univio, konstatuje, że „w trudnych czasach widać najlepiej, kto naprawdę potrafi dowozić. A branża budowlana ma dziś pod górę jak mało która – presja kosztów, spowolnienie inwestycji, duża nieprzewidywalność. A jednak właśnie w takim środowisku powstają projekty, które przesuwają granice tego, co możliwe. Od lat pracujemy z firmami z tej branży i widzę jedną powtarzalną prawidłowość: kiedy technologia spotyka ludzi, którzy naprawdę rozumieją swój rynek, efekty potrafią być spektakularne. Coraz częściej budujemy z naszymi klientami modele kompetencyjne, które wyróżniają się na tle rynku i później są wdrażane oraz rozwijane w innych krajach. Dlatego model wypracowany wspólnie z polskim oddziałem SIG stał się jednym z filarów ich wzrostu – nie jako „dodatkowy kanał”, ale jako realna zmiana sposobu działania firm wykonawczych na co dzień. Technologia nie robi wyników sama. Wyniki robią ludzie, którzy potrafią z niej mądrze korzystać. W sumie 40 proc. wzrostu, 27 proc. więcej klientów, PIM, automatyzacja, program lojalnościowy – to nie jest ‘cyfrowy makijaż’. To realna transformacja tego, jak działa budowlanka. I realna przewaga dla tych, którzy jednocześnie ogarniają wiele projektów, pracują pod presją czasu i potrzebują porządku, szybkości oraz pełnej transparentności. To nie jest wyjątek. To kierunek, w którym idzie całe dojrzałe B2B, a my mamy zaszczyt współtworzyć tę zmianę”.

o czym branża IT (i nie tylko) dyskutuje na największym

Tomasz Onyszko, gospodarz podcastu CTO Morning Coffee, podsumowuje pilotaż projektu skróconego czasu pracy: „Wybrano 90 podmiotów, zaalokowano 50 mln zł (czy to dużo czy mało, to już inna kwestia). Pytanie tylko: czego się nauczymy? Wybrano firmy, OK, ale nie ma między nimi wspólnego mianownika. Każda z nich, ma określić sobie sama wskaźniki, jakich będzie używać, sama je mierzyć i sama przedstawić wyniki. Wyników nie poznamy, a raczej nie ma o tym słowa, tylko zbiorcze opracowanie tematu na końcu. Co ciekawe, około 50 proc. (nie klasyfikowałem wszystkich, tylko te oczywiste) to jednostki budżetowe/samorządowe. Nie neguję tego, że takie jednostki powinny być wzięte pod uwagę, ale… no cóż, trochę ich dużo. Brakuje za to takich, w których faktycznie wprowadzenia tego typu zmiany może być trudne: SOR, ciągłe linie produkcyjne, huty, restauracje… Wybraliśmy więc losowe firmy, nie ustawiliśmy żadnych wspólnych kryteriów pomiary czegokolwiek, nie ustanowiliśmy żadnej grupy porównawczej. To odpalmy szklaną kulę i teleport do 2027. Uwaga, przewiduję: program odniósł sukces!!!”.

Renata Lewicka, prezes zarządu Warwick Legal Network, odnosi się do faktu, że „Chiny wprowadziły w październiku 2025 roku nowe regulacje, które radykalnie zmieniają zasady działania influencerów publikujących treści eksperckie. Od teraz każdy influencer, który chce wypowiadać się na tematy takie jak zdrowie, prawo, finanse czy edukacja, musi posiadać i zweryfikować odpowiednie kwalifikacje zawodowe, w tym dyplom uczelni, certyfikat lub licencję. Każdy influencer publikujący treści eksperckie na głównych chińskich platformach (Douyin, Weibo, Bilibili) musi przedstawić dowód odpowiednich kwalifikacji. Platformy społecznościowe zobowiązane są do weryfikacji dokumentów przed publikacją treści. Obowiązkowe jest również oznaczanie treści wygenerowanych przez AI oraz podawanie źródeł, jeśli cytowane są badania naukowe lub dane. Celem nowych zasad jest ograniczenie dezinformacji i promowanie treści tworzonych przez rzeczywistych ekspertów w danej dziedzinie. Regulacje obejmują także zakaz reklamowania wybranych produktów medycznych i suplementów oraz ukrytych promocji w materiałach edukacyjnych. (…) Ten model „najpierw potwierdź kompetencje, później mów” może wydawać się radykalny, ale pokazuje kierunek. Ludzie stają się coraz bardziej sceptyczni wobec treści. Coraz bardziej wymagają dowodów, źródeł, kontekstu. (…) Regulacje w Chinach to tylko początek rozmowy. Prawdziwe pytanie brzmi: jaką jakość wiedzy chcemy mieć w przestrzeni publicznej i kto ma ponosić odpowiedzialność za to, co tam trafia? I wreszcie: jak każdy z nas może przyczynić się do tego, by sens wygrywał z hałasem”.

Marta Kępa, CEO SoDA, nie ma wątpliwości, że reforma PIP w dotychczasowym kształcie może zachwiać fundamentami polskiego sektora IT: „Dlatego jako SoDA nie milczymy a działamy! W ostatnich tygodniach, wspólnie z firmami członkowskimi i dzięki wsparciu eksperckim naszego partnera ALTO, dokonaliśmy szczegółowej analizy projektu reformy Państwowej Inspekcji Pracy. Wyniki są jednoznaczne: administracyjna możliwość natychmiastowego ustalania stosunku pracy przez PIP to ryzyko destabilizacji tysięcy firm, utrata elastyczności zawodowej dla specjalistów i realne zagrożenie dla konkurencyjności Polski jako centrum kompetencji technologicznych. Dlatego jako SoDA: przygotowaliśmy kompleksowe stanowisko branży, skierowaliśmy oficjalny apel do kluczowych resortów, doprowadziliśmy do podjęcia tematu przez Kancelarię Premiera, nagłośniliśmy problem w mediach, co zaowocowało kilkunastoma publikacjami – od TVN24 po Gazetę Wyborczą. Naszym celem nie jest blokowanie zmian. Jako sektor proponujemy realistyczne i bezpieczne rozwiązania, w tym: jasne kryteria B2B vs. UoP, brak retrospekcji, okres ugodowy, mechanizm safe harbour czy pilotaż reformy. Technologia jest krwiobiegiem nowoczesnej gospodarki, stąd też regulacje muszą odpowiadać na realia rynku, a nie je burzyć”. Jak już wiemy, działania te przyniosły pożądany skutek. 64 / CRN /

Jakub Skałbania, założyciel Netwise, zwraca uwagę, że „jest grudzień 2025, ale AGI nie ma. To, że nigdy nie będzie, mówię od dawna i podtrzymuję mimo hejtu ‘znafcuf’ (którzy usłyszeli o koncepcie AGI po 2023, albo i później). Ale luzik, kto miał się dorobić na szkoleniach z promptowania, ten się dorobił. Kto zarobił 500 zł za 6 minut z ChatGPT też raczej wiemy. A dla reszty zostały rachunki za chmurę, które wystrzeliły w kosmos i CFO pytających o ROI z Copilotów. I nasze poletko ciekawie wygląda, bo Salesforce był dead on arrival… Microsoft miał w tym wyścigu wszystko: najlepszy model (OpenAI), najlepszą infrastrukturę (Azure) oraz dostęp do miliardów użytkowników na świecie (Office). A tu na koniec roku widzimy cięcia quot i nerwowe ruchy w cennikach. Okazało się, że Altman ‘troszkę’ ściemniał, a wrzucenie 10x więcej prądu i GPU w modele nie dało nam 10x mądrzejszego AI. Dało nam GenAI robiące to samo (podsumowania, obrazki, video) i mamienie o biologii syntetycznej (już nie o AGI). Ale chociaż jest droższe w utrzymaniu. Jesteśmy w momencie ‘sprawdzam’. Dla nas i klientów to akurat… dobra wiadomość. Skończył się czas magicznego myślenia, że wystarczy włączyć ‘wtyczkę AI’ szkoleniem z netu i problemy znikną. Wracamy do fundamentów, o których mówimy w Netwise od lat: masz bałagan w danych? GenAI tylko go szybciej powieli. Nie masz procesów? Agent AI się zgubi. Model ‘All-knowing’ (AGI) to mrzonka. Już wiemy, że AI to może i dobry (mega drogi) stażysta, ale fatalny manager. Firmy przestają szukać ‘AI strategy’ (poza tymi, które kupują raporty Deloitte’a z wymyślonymi źródłami za setki tysięcy dolarów), a zaczęły wracać do ‘AI engineering’ – nudnej, żmudnej pracy nad integracją danych, governance i bezpieczeństwem”.

Marcin Babiak, właściciel Kordo Edukacja,

podjął próbę odpowiedzi na nieco przewrotne pytanie: dlaczego handlowcy B2B nie są mistrzami sprzedaży samochodów? „W sprzedaży B2B decyzje opierają się głównie na logice, kalkulacji ryzyka i parametrach finansowych. W B2C decydują emocje czy dokładniej: asocjacje z marką. Samochód jest najdroższą rzeczą sprzedawaną konsumentowi ‚z półki’. Tu klient łączy racjonalne analizy z emocjami (wizerunku, komfortu, stylu czy marzeń). Nie każdy handlowiec B2B potrafi swobodnie przejść z analitycznych argumentów do rozmów dotyczących emocji czy estetyki. W B2B proces decyzji jest poukładany i przewlekły. W B2C cykl sprzedaży B2C zazwyczaj kończy się tego samego dnia, w którym się rozpoczął. Natomiast w salonie samochodowym pojawiają się nieformalni doradcy (partner, rodzina, znajomi czy… internetowi komentatorzy). To grupa całkowicie nieprzewidywalna. Potrafi zmienić kierunek całej rozmowy w ciągu kilku minut. Sprzedawca musi umieć na to elastycznie reagować. Handlowcy B2B są przyzwyczajeni do pracy z projektami poprzez pipeline i lejek sprzedażowy. Poszczególne etapy sprzedaży są klarowne i jasno zaplanowane. Z kolei klient samochodowy potrafi wejść przypadkiem. Obejrzeć kilka modeli naraz, wrócić po długiej przerwie lub całkowicie zmienić decyzję po obejrzeniu filmiku na YouTube. Brak przewidywalności to standard. B2C korzysta ze swojej skali. Duża liczba klientów umożliwia masowe kampanie i testy. Niestety oznacza to również… niską lojalność. W B2B rynek zazwyczaj jest niszowy i bardziej wymagający. Każdy lead wymaga indywidualnego pochylenia się nad nim. Kluczem jest precyzyjne targetowanie i budowanie długotrwałych relacji – nie mylić z lojalnością. (…) Jednak… różnica między B2B a B2C się zaciera. Wyedukowani konsumenci wsparci cyfrową wiedzą (np. AI) stają się prosumerami (profesjonalnymi konsumentami). Klienci B2B bombardowani ofertami, przesuwają ciężar decyzji w stronę swojego komfortu emocjonalnego. Po polsku: stają się kapryśni”.

Patryk Jaworski, właściciel portalu

ERP-VIEW.PL, zastanawia się „czy można zaufać jednemu partnerowi wdrożeniowemu – nawet jeśli to globalna marka z 25-letnim doświadczeniem we współpracy? Sprawa Zimmer Biomet vs Deloitte pokazuje, że nawet ‘bezpieczny wybór’ może zakończyć się katastrofą wartą 172 mln dolarów. Globalny producent sprzętu medycznego (wartość rynkowa: 25 mld dol.) powierzył Deloitte pełne wdrożenie systemu SAP S/4HANA, licząc na 100–200 mln dolarów rocznych oszczędności. W praktyce zyskał coś odwrotnego: spadek przychodów o 1–1,5 proc., utratę wartości rynkowej o 2 mld dol., problemy z wysyłkami i utratę klientów, zmiany w zarządzie i redukcje zatrudnienia. Według pozwu, Deloitte miał nie tylko źle poprowadzić projekt, ale też wprowadzić firmę w błąd co do realnych kosztów, ryzyk i efektów wdrożenia. Do tego doszły dziesiątki change orderów (ponad 30-sto procentowego przekroczenia budżetu) i... decyzja o uruchomieniu systemu w weekend 4 lipca, czyli w środku amerykańskiego święta narodowego. Z tej historii płynie kilka mocnych lekcji: nie oddawaj pełnej kontroli jednemu partnerowi. Sole sourcing zwiększa ryzyko braku niezależnej oceny postępów. Kontrakt to nie formalność. Zadbaj o zapisy, które zabezpieczą Twój biznes – nie tylko interes integratora. Zarządzaj ryzykiem organizacyjnym. Transformacja ERP w okresie restrukturyzacji lub zmian kadrowych to przepis na chaos. AI może pomóc w kontroli jakości wdrożenia. Wykorzystuj narzędzia analityczne, by weryfikować postęp i eliminować ‘ręczne’ błędy konsultantów”. Uwaga! To nie jest historia o złym systemie. To historia o błędach w zarządzaniu relacją z partnerem wdrożeniowym i o tym, jak łatwo w projekcie ERP utracić kontrolę nad własnym biznesem. Analizę tej porażki znajdziesz w materiale przygotowanym przez Erica Kimberlinga z Third Stage Consulting Group na portalu YouTube”.

Wojciech

Urbanek

zastępca redaktora naczelnego CRN Polska

NZajrzeć pod sukienkę algorytmem

Ponad dekadę temu Jarosław Kaczyński z niechęcią wyrażał się o głosowaniu przez internet, twierdząc przy tym, że wielu jego użytkowników spędza czas na piciu piwa i oglądaniu pornografii. Wówczas uznano tę opinię za przejaw niechęci do technologii, co nie zmienia faktu, że dzisiejszy internauta nie musi już nawet szukać pornografii, bo… tworzy ją sam.

iemal trzynaście lat temu prezes PiS argumentował, że nie jest entuzjastą sytuacji, w której ktoś „siedzi przed komputerem, ogląda filmiki, pornografię, pociąga z butelki z piwem i zagłosuje, gdy mu przyjdzie na to ochota”. Wówczas, w epoce wczesnego Facebooka i raczkujących smartfonów, wypowiedź ta brzmiała jak głos z innej epoki. Duża część opinii publicznej uznała to za brak zrozumienia cyfrowej rzeczywistości przez polityka, który internet traktował jako siedlisko chaosu i frywolności. Na Jarosława Kaczyńskiego spadła fala krytyki, w ramach której zarzucano mu stereotypizację młodych ludzi, lekceważenie demokratycznych aspiracji i konserwatywny strach przed technologią.

Tymczasem, wraz z ekspansją sztucznej inteligencji, o której dekadę temu nikt nawet poważnie nie myślał, pojawiły się nowe narzędzia, które stawiają internautów w jeszcze mniej pochlebnym świetle niż mógł to sobie wyobrazić ktokolwiek, nie tylko Kaczyński w 2013 r. Współcześni użytkownicy sieci już nie tylko mogą oglądać w internecie pornografię, ale ją również tworzyć, nie mając zielonego pojęcia o obsłudze jakichkolwiek programów do obróbki grafiki czy filmów. Wystarczy kilka kliknięć, prosty prompt i gotowe.

INTELIGENCJA

SZTUCZNA, GŁUPOTA PRAWDZIWA.

Podczas gdy Google, OpenAI i Anthropic toczą zacięty wyścig o coraz wydajniejsze i inteligentniejsze modele AI, Elon Musk wraz ze swoim Grokiem postanowił popsuć im zabawę. I jak często ma w zwyczaju, obrał własną ścieżkę. Krótszą, szybszą i, jak się okazało, całkiem skuteczną. Ten epizod uwypukla fundamentalny podział filozoficzny w rozwoju AI. Musk i xAI stawiają stawiają (przynajmniej deklaratywnie) na minimalne ograniczenia, by wspierać nieocenzurowaną kreatywność, kulturę memów i szybką innowację – pozycjonując Groka jako antidotum na „nadmiernie wysterylizowane” konkurencyjne modele.

W pierwszych dniach stycznia media obiegła wiadomość o Groku, który zaczął… rozbierać celebrytów. Użytkownicy mogli przesyłać zdjęcia, w tym publicznie udostępnione wizerunki gwiazd, polityków, influencerów czy zwykłych ludzi i wydawać różnego rodzaju polecenia. Wprawdzie ta „funkcja” istniała już wcześniej, od połowy 2024 r., gdy wprowadzono tryb „spicy mode”, ale prawdziwa eksplozja nastąpiła pod koniec grudnia 2025 i na początku stycznia 2026. Internet eksplodował. Sztuczna inteligencja jak na razie nie najlepiej się sprawdza w modelu biznesowym i zbyt wiele projektów kończy się fiaskiem. Jakby na to nie patrzeć, sztuczna inteligencja wciąż na siebie nie zarabia, zaś asystenci AI

nieraz stają się przedmiotem kpin. Natomiast dużo lepiej radzi sobie przeciętny Kowalski, Smith czy Schmidt. I nie chodzi tutaj o optymalizowanie domowych budżetów czy harmonogramów rodzinnych zajęć. W czasie igraszek z Grokiem wielu użytkowników ograniczało się do wydania kilku prostych poleceń typu: „załóż jej bikini” czy „zrób to w bieliźnie”. Niemniej znaleźli się też bardziej „kreatywni” użytkownicy, wykorzystujący chociażby stroje religijne. W galeriach wirtualnych kreacji królowały indyjskie sari, japońskie mundurki szkolne, burki, ale też stroje kąpielowe z długimi rękawami w stylu, jaki był modny na początku XX wieku.

A jeśli chodzi o modelki i modeli – tutaj akurat nie było żadnego zaskoczenia. W głównych rolach występowały celebrytki i osoby publiczne (np. piosenkarki, aktorki czy działaczki polityczne). Bloomberg News zacytował badaczy, którzy odkryli, że użytkownicy Groka generują do 6,7 tys. rozebranych zdjęć na godzinę. Sam Elon Musk dolewał oliwy do ognia, odpowiadając na niektóre przykłady, w tym na wygenerowane przez AI zdjęcia jego samego w bikini, śmieszkami lub luźnymi komentarzami w stylu „perfect”, przedstawiając to jako nieszkodliwą zabawę lub wolność wypowiedzi. Jednak nie wszystkim było do śmiechu. Kobiety, których zdjęcia edytowano bez zgody, opisywały poczucie naruszenia i upodlenia. Clare McGlynn, profesor prawa na Uniwersytecie Durham, stwierdziła, że w ciągu ostatnich kilku tygodni zeszliśmy z klifu i spadamy w głąb ludzkiej deprawacji. Jej zdaniem wobec braku mechanizmów kontrolnych technologia ta staje się pożywką dla najniższych ludzkich odruchów. Grok jest tylko najbardziej jaskrawym objawem, podobne narzędzia działają już w Discordach, na GitHubie i mniej znanych serwisach, których nie zamierzam reklamować na naszych łamach. Wracając do opinii sprzed ponad dekady: dziś ten „młody człowiek” wciąż siedzi przed komputerem. Być może zamiast taniego sikacza popija rzemieślniczy IPA, a toporny monitor zastąpił matrycą 4K, ale sedno sprawy pozostaje bez zmian. Ironia losu polega jednak na tym, że największym problemem nie jest już to, że ktoś taki „zagłosuje, gdy przyjdzie mu na to ochota”. Prawdziwym wyzwaniem ery AI stało się to, że ów człowiek, uzbrojony w algorytmy, przestał być jedynie biernym widzem. Za pomocą jednego promptu potrafi zredukować drugiego człowieka do poziomu cyfrowego trofeum, a jednym z największych „osiągnięć” cyfrowej cywilizacji okazała się możliwość zajrzenia pod cudzą sukienkę (choćby tylko pozornego). I być może największym zagrożeniem AI nie jest to, że przejmie władzę nad światem, lecz to, że składamy jej hołd rezygnując przy tym z własnej przyzwoitości.

Czy wiesz, że…

jeśli pracujesz w rmie z branży IT, możesz bezpłatnie zaprenumerować magazyn CRN Polska?

Załóż konto na stronie

crn.pl/rejestracja

Najlepiej poinformowany magazyn w branży IT!

dla resellerów, VAR-ów i integratorów

Turn static files into dynamic content formats.

Create a flipbook