Skip to main content

ITReseller #369

Page 1


TO BĘDZIE

ROK AI Z CAŁĄ PEWNOŚCIĄ

TD

WIELE OSÓB Z BRANŻY IT TWIERDZI, ŻE JESTEŚMY

TYTUŁEM PIERWSZEGO WYBORU

Dołącz do nas na LinkedIn Dołącz do nas

DRODZY CZYTELNICY,

Branża IT nigdy nie znosiła próżni, ale ostatnie miesiące przypominają, że funkcjonujemy w bardzo dynamicznym środowisku. Z jednej strony zmagamy się z bardzo realnymi wyzwaniami rynkowymi, z drugiej –wchodzimy w kolejne etapy transformacji, niesionymi przez AI, ale i zmiany w polskim prawie. Jednocześnie wiele się dzieje w obszarze branżowych wydarzeń. W tym numerze „IT Reseller” staramy się uchwycić ten fascynujący, momentami złożony, technologiczny krajobraz.

Nie uciekamy od tematu, który w ostatnich miesiącach spędza sen z powiek wielu dystrybutorom i integratorom – kryzysu na rynku pamięci. Niedobory na globalnym rynku, wzrost cen i zmieniający się popyt konsumencki sprawiają, że planowanie długoterminowych strategii zakupowych stało się wyjątkowo skomplikowane. Na naszych łamach bez owijania w bawełnę analizujemy obecną sytuację, ale też szukamy światełka w tunelu, wskazując, kiedy możemy spodziewać się stabilizacji i jak w tym trudnym czasie chronić swoje marże.

Tam, gdzie jeden segment rynku łapie zadyszkę, inny przyspiesza. Sztuczna inteligencja przestała być tylko chwytliwym hasłem marketingowym, a stała się realnym narzędziem biznesowym. Doskonałym tego przykładem jest start programu Destination AI przygotowanego przez TD SYNNEX. Przyglądamy się wraz z globalnym dystrybutorem, jak ta inicjatywa ma pomóc partnerom kanałowym w poruszaniu się po zawiłym świecie rozwiązań opartych na sztucznej inteligencji, od infrastruktury po usługi, dając im konkretne narzędzia do monetyzacji tego trendu.

Rozwój AI i zaawansowanych algorytmów nie miałby racji bytu bez odpowiedniego zaplecza sprzętowego. Dlatego zapraszam Was także do lektury rozmowy na temat stacji roboczych. Dyskutujemy w niej z przedstawicielami Dell Technologies, AB i Microsoft o tym, jak lokalna moc obliczeniowa wraca do łask i jak potężne maszyny stają się niezbędnym narzędziem w rękach dzisiejszych profesjonalistów, twórców i inżynierów.

W tym wydaniu zabieramy Was również na Półwysep Iberyjski, który na kilka dni stał się technologicznym pępkiem Europy. Targi ISE w Barcelonie to jak co roku garść nowinek ze świata profesjonalnego AV. Przywozimy dla Was obszerną relację z największego święta tej branży. Pokazujemy, jak zacierają się granice między tradycyjnym IT a nowoczesnym rynkiem audiowizualnym.

Za nami trzecia już edycja AVDS Awards! Warto z całą mocą podkreślić, że to wydarzenie to unikalna inicjatywa i jedyne miejsce w Polsce, gdzie w jednym czasie spotyka się cała branża AV – przedstawiciele vendorów, dystrybutorów oraz integratorów. AVDS Awards to nie tylko wyróżnienia, ale także przestrzeń do wymiany myśli i inspiracji. Wszystkim laureatom jeszcze raz bardzo serdecznie gratulujemy i życzymy kolejnych sukcesów!

Niezależnie od tego, czy zmagacie się z optymalizacją stanów magazynowych, czy właśnie wdrażacie u klientów pierwsze duże projekty oparte na AI, wierzę, że ten numer dostarczy Wam nie tylko rzetelnej wiedzy, ale i solidnej dawki inspiracji. Przyjemnej lektury i udanego biznesu!

Krzysztof Bogacki

Redaktor naczelny IT Reseller

Aby pobrać magazyn w wersji elektronicznej, zeskanuj kod QR

www.itreseller.pl

NIEZASTĄPIONE ŹRÓDŁO INFORMACJI Z BRANŻY IT, TYTUŁ WYDAWANY

NIEPRZERWANIE OD 2002 ROKU.

NAKŁAD DRUKOWANY 5 000 egzemplarzy

WERSJA ELEKTRONICZNA +15 000 egzemplarzy

PRENUMERATA prenumerata@itreseller.pl ISSN 1730-010X

WYDAWCA

SMART MEDIA SP. Z O.O. Domaniewska 47/10 02-672 Warszawa, PL biuro@itreseller.pl

REDAKCJA

ADRES BIURA REDAKCJI ul. Domaniewska 47/10 02-672 Warszawa, PL redakcja@itreseller.pl

+48

MARIUSZ LAURISZ CEO / Wydawca m.laurisz@itreseller.pl

KRZYSZTOF BOGACKI Redaktor naczelny k.bogacki@itreseller.pl

RAFAŁ SKRZYPEK Sekretarz redakcji r.skrzypek@itreseller.pl

MIECZYSŁAW T. STARKOWSKI m.starkowski@itreseller.pl

EWELINA STÓJ e.stoj@itreseller.pl

REKLAMA I WSPÓŁPRACA

ADRES BIURA Domaniewska 47/10 02-672 Warszawa, PL reklama@itreseller.pl +48 601 583 698

SERWISY INTERNETOWE www.itreseller.pl

Zdjęcia: archiwum IT Reseller, materiały prasowe, AdobeStock, Piotr Gamdzyk

TO BĘDZIE ROK AI #369

Z CAŁĄ PEWNOŚCIĄ

19

SPIS TREŚCI

MARIUSZ ZIÓŁKOWSKI, VICE PRESIDENT, POLAND & SEE W TD SYNNEX

6 UROCZYSTA GALA AVDS AWARDS 2026 –POZNALIŚMY LAUREATÓW BRANŻY AV

14 Z CAŁĄ PEWNOŚCIĄ TO BĘDZIE ROK AI

MARIUSZ ZIÓŁKOWSKI, VICE PRESIDENT, POLAND & SEE W TD SYNNEX

20 WINDOWS I AI: FUNDAMENT NOWEJ ERY CHRIS PAPAPHOTIS, EMEA HEAD OF DISTRIBUTION, COMMERCIAL DEVICES & SOLUTION SALES W MICROSOFT

26 DESTINATION AI JAK ZARABIAĆ NA TRANSFORMACJI W CIENIU NIEDOBORÓW SPRZĘTOWYCH?

JACEK KOTYNIA, BUSINESS UNIT MANAGER CLOUD ORAZ RAFAŁ CIEMIĘGA, BUSINESS DEVELOPMENT MANAGER, DATA ANALYTICS, AI & IOT W TD SYNNEX

32 OD EKSPERYMENTÓW DO STRATEGII – JAK LIDERZY WDRAŻAJĄ AI W ORGANIZACJACH

36 SERCE EKOSYSTEMU PROFESJONALISTY –CZY MOŻNA SOBIE POZWOLIĆ NA BRAK CIĄGŁOŚCI?

ARKADIUSZ KWIATKOWSKI, SENIOR PARTNER DEVELOPMENT MANAGER W MICROSOFT; KONRAD PLEBAN,

CENTRAL EASTERN EUROPE WORKSTATIONS LEAD W DELL TECHNOLOGIES ORAZ JAROSŁAW BANAŚ, SENIOR BUSINESS UNIT MANAGER PC SYSTEMS W AB S.A.

40 THE TIME IS NOW! AXENCE STAWIA NA ROZWÓJ SPRZEDAŻY PARTNERSKIEJ

42 W DOBIE AUTOMATYZACJI –KARIERA M-SHAPE JAKO POLISA UBEZPIECZENIOWA

46 STRONA INTERNETOWA W 1 MINUTĘ ANETA RUTKOWSKA, COO LH.PL

48 AMBITNE PLANY MINISTERSTWA CYFRYZACJI

52 HP UMACNIA SWOJĄ POZYCJĘ W POLSCE

54 NAJLEPSZY PIERWSZY KWARTAŁ W HISTORII – MOCNE OTWARCIE ROKU GRUPY AB

58 ETYKA W AI cz.1 – MIĘDZY KODEM A SUMIENIEM A KOMU TO W OGÓLE POTRZEBNE?

62 JAK BOOM NA AI DRENUJE RYNEK PAMIĘCI

64 ZDECYDOWANIE TO PAMIĘĆ TERAZ NADAJE TON MACIEJ KAMIŃSKI, DYREKTOR DYWIZJI MEMORY W SAMSUNG ELECTRONICS NA POLSKĘ I CEE

68 NIEUNIKNIONA OPTYMALIZACJA ZAKUPÓW IT?

DARIUSZ OKRASA, SENIOR CHANNEL SALES MANAGER W DELL TECHNOLOGIES

72 ETYKA W AI cz. 2 – MIĘDZY KODEM A SUMIENIEM JEDNYM ETYKA UMYKA, DRUGI SIĘ O NIĄ POTYKA

76 ACER „ROAD TO 50” W MEDIOLANIE –NOWY EKOSYSTEM TECHNOLOGII DLA BIZNESU

80 INTEGRATED SYSTEMS EUROPE 2026 – REKORDY, SKALA I TARGI, KTÓRE PRZESTAŁY BYĆ TYLKO TARGAMI

98 MWC 2026 – AI, SKŁADANE SMARTFONY I ROBOTYZACJA

AVDS AWARDS 2026

POZNALIŚMY LAUREATÓW BRANŻY AV

DESTINATION AI

JAK ZARABIAĆ NA TRANSFORMACJI W CIENIU NIEDOBORÓW SPRZĘTOWYCH?

REKORDY, SKALA I TARGI, KTÓRE PRZESTAŁY BYĆ TYLKO TARGAMI

WINDOWS I AI

FUNDAMENT NOWEJ ERY

SERCE EKOSYSTEMU PROFESJONALISTY

CZY MOŻNA SOBIE POZWOLIĆ NA BRAK CIĄGŁOŚCI?

AVDS AWARDS 2026

WYDARZENIE, KTÓREBRANŻĘ AVŁĄCZY

Wyjątkowy wieczór dla branży AV i DS – tak można w wielkim skrócie opisać tegoroczną edycję AVDS Awards – wydarzenia, które jest unikatowym spoiwem dla tego niezwykle złożonego sektora

Trzecia edycja AVDS Awards już za nami! Najważniejsze wydarzenie dla polskiej branży audio-wideo i digital signage po raz kolejny pokazało, że wspólne świętowanie sukcesów to niezwykle ważny element naszego rynku. Tegoroczną ceremonię poprowadził Krzysztof Bogacki, redaktor naczelny IT Reseller. Miejscem wydarzenia był prestiżowy, warszawski hotel Bellotto, który mieści się w zabytkowych murach XVI-wiecznego Pałacu Prymasowskiego – miejsca o niezwykle bogatej historii, które mimo wielokrotnych przebudów i wojennych zawirowań przetrwało do naszych czasów jako jedna z architektonicznych pereł stolicy.

– To już trzeci raz, kiedy mamy wielką przyjemność gościć Was na jedynej w branży – corocznej, uroczystej gali wręczania nagród branży AV w Polsce – AVDS Awards 2025. To bez wątpienia wielki zaszczyt, ale i niezwykła przyjemność, nie tylko móc gościć, ale i nagradzać tak znakomitych gości, z całą pewnością elitę branży AV w Polsce. – podkreślił Mariusz Laurisz, CEO IT Reseller. – Chciałbym Wam bardzo ser-

decznie podziękować za zaufanie i za to, że nasza gala doskonale wpisała się w kalendarz naszej branży, stając się idealną okazją do ukoronowania Waszej ciężkiej pracy. Drodzy przyjaciele dziękuję, że jesteście z nami. Pamiętajcie, że zawsze możecie na nas liczyć, życzę udanego i pełnego sukcesów wieczoru! O tym, jak ważne są takie spotkania dla całej społeczności, przypomniał prowadzący wydarzenie: – Idea AVDS Awards wzięła się z potrzeby stworzenia jednego miejsca, w którym spotykają się przedstawiciele polskiej branży AV. Kiedyś, na prowadzonych jeszcze w Amsterdamie, targach ISE, były, chociaż nieoficjalnie, takie miejsca, które polską branżę AV skupiały. Dziś organizujemy AVDS Awards, także po to, by przywrócić tamtą atmosferę – powiedział Krzysztof Bogacki, redaktor naczelny IT Reseller – Cieszymy się, że po raz kolejny jesteście z nami. Chciałbym Wam ogromnie podziękować za nasze niedawne spotkania podczas tegorocznych targów ISE w Barcelonie oraz za to, że tak licznie przybyliście dzisiaj

na galę AVDS Awards. Wiedzcie, że obserwujemy i doceniamy wasz całoroczny wysiłek, a ta gala jest za ów wysiłek podziękowaniem.

Mimo klasycznej i eleganckiej oprawy nie zabrakło tego, co w AVDS Awards najważniejsze – doskonałej, swobodnej atmosfery. Zamiast sztywnej, formalnej gali, po raz kolejny udało się nam stworzyć przestrzeń przypominającą spotkanie dobrych znajomych i partnerów biznesowych. I nie jest to wrażenie złudne. Wyjątkową cechą branży AV i DS są prawdopodobnie właśnie owe ciepłe relacje na gruncie ludzkim, nawet jeśli na rynku trwa rywalizacja o każdy przetarg i klienta.

Oczywiście na scenie nie mogło zabraknąć naszego zespołu redakcyjnego, dzięki któremu nasza prestiżowa gala odbyła się w tak wyjątkowej atmosferze. Ewelina Stój oraz Rafał Skrzypek, choć zazwyczaj ukryci za ekranami monitorów i redakcyjnymi kulisami, to także ich determinacja, dbałość o każdy detal i codzienne zaangażowanie sprawiają, że możemy wspólnie celebrować takie wydarzenia, jak AVDS Awards.

Warto z całą mocą podkreślić, że AVDS Awards to unikalna inicjatywa i jedyne miejsce w Polsce, gdzie w jednym czasie spotyka się cała branża AV – przedstawiciele vendorów, dystrybutorów oraz integratorów. AVDS Awards to nie tylko wyróżnienia, ale także przestrzeń do wymiany myśli i inspiracji. W rozmowach przewijały się kluczowe zagadnienia dotyczące przyszłości branży, a eksperci podkreślali rosnące znaczenie innowacji i adaptacji do zmieniających się oczekiwań rynku. Najważniejsza była jednak świetna atmosfera podczas wydarzenia. Podobnie jak rok temu przyjęliśmy formułę wydarzenia łączącą galę rozdania nagród branżowych, swobodnego wieczornego spotkania znajomych i… koncertu.

Podobnie jak rok temu, świętowaliśmy na rockowo. Jak co roku branża AV świetnie się bawiła przy muzyce Adama Kalinowskiego, finalisty The Voice of Poland.

Laureaci AVDS Awards 2026

Najważniejszym punktem programu było oczywiście nagrodzenie firm, roz-

wiązań i osób, które w minionym roku wyróżniły się szczególnym wkładem w rozwój sektora. Poniżej prezentujemy pełną listę tegorocznych triumfatorów:

q Zwycięzcą kategorii Monitory Interaktywne została firma iiyama.

q Kategorię Monitory LCD nabiurkowe wygrała firma Samsung Electronics.

q Zwycięzcą kategorii Monitory Wielkoformatowe została firma LG Electronics

q Kategorię Ekrany LED wygrała firma Samsung Electronics.

q Zwycięzcą kategorii Projektory została firma Panasonic.

q Kategorię Edukacja wygrała firma Newline Interactive.

q Zwycięzcą kategorii Retail została firma Hisense.

q Kategorię Systemy do Bezprzewodowej Komunikacji wygrała firma Barco.

q Zwycięzcą kategorii Systemy i Rozwiązania Audio została firma HP Poly / HP Inc Polska.

q Kategorię Infrastruktura dla sal konferencyjnych wygrała firma Crestron.

q Zwycięzcą kategorii Innowacje w video collaboration została firma HP Poly / HP Inc Polska.

q Kategorię Innowacje w sali konferencyjnej wygrała firma Logitech.

q Zwycięzcą kategorii Innowacje w prezentacji obrazu została firma LG Electronics.

q Kategorię Ekosystem wideokonferencyjny wygrała firma Barco.

q Kategorię Debiut roku wygrała firma Dahua Technology

q Zwycięzcami w kategorii Lider integracji AV w Polsce, przyznawanymi wraz z firmą Samsung Electronics, zostały firmy: AVC Edukacja PROMEDIO

q Zdobywcami nagród w kategorii Lider integracji AV w Polsce, przyznawanymi wraz z firmą LG Electronics okazały się firmy: GMT Sp. z o.o. Trocon Sp. z o.o.

q Zwycięzcą w kategorii Lider integracji AV w Polsce, przyznawanej wraz z firmą Edbak, została firma Dimension4

q Zwycięzcą kategorii Wydarzenie roku została firma TD SYNNEX

q Zwycięzcą w kategorii Wdrożenie roku została firma Edbak

q Kategorię Dystrybutor Roku wygrała firma AB S.A.

q Zwycięzcą w kategorii Osobowość branży został Mariusz Kuczyński, iiyama.

AVDS Awards 2026 – wyjątkowe wydarzenie, które doskonale łączy ludzi i branżę Podziękowań tego wieczoru padło wiele. Nie tylko kierowane w stronę własnych zespołów, ale też innych uczestników łańcucha dostaw, konkurencji czy wreszcie czytelników naszego magazynu. Pomimo iż na sali byli przedstawiciele firm, które na co dzień intensywnie konkurują, ta serdeczność nie ograniczała się jedynie do słów na scenie.

Wszystkim laureatom jeszcze raz bardzo serdecznie gratulujemy i życzymy kolejnych sukcesów! Już dziś, zapraszamy na kolejną, czwartą już edycję AVDS Awards 2027 za rok! Do Zobaczenia!

Trzecia edycja AVDS Awards po raz kolejny pokazała, że to nie tylko prestiżowe wyróżnienia, ale przede wszystkim fantastyczna okazja do spotkania ludzi z pasją. Świetna muzyka, inspirujące rozmowy i swobodna atmosfera sprawiły, że uczestnicy opuszczali wydarzenie z uśmiechem na twarzy. Już teraz nie możemy doczekać się kolejnej edycji w 2027 roku! – Wszystkim laureatom jeszcze raz bardzo serdecznie gratulujemy i życzymy kolejnych sukcesów – podkreślił Mariusz Laurisz, CEO IT Reseller, zapraszając na kolejną, czwartą już edycję AVDS Awards 2027 za rok. n

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

www.itreseller.pl

Mariusz Laurisz CEO IT Reseller

LAUREACI AVDS AWARDS 2026

◆ Zwycięzcą kategorii Monitory Interaktywne została firma: iiyama

◆ Kategorię Monitory LCD nabiurkowe wygrała firma: Samsung Electronics

◆ Zwycięzcą kategorii Monitory Wielkoformatowe została firma: LG Electronics

◆ Kategorię Ekrany LED wygrała firma: Samsung Electronics

◆ Zwycięzcą kategorii Projektory została: firma Panasonic

◆ Kategorię Infrastruktura dla sal konferencyjnych wygrała firma: Crestron

◆ Kategorię Edukacja wygrała firma: Newline Interactive

LAUREACI AVDS AWARDS 2026

◆ Zwycięzcą kategorii Retail została firma: Hisense

◆ Kategorię Systemy do Bezprzewodowej Komunikacji wygrała firma: Barco

◆ Zwycięzcą kategorii Systemy i Rozwiązania Audio została firma: HP Poly / HP Inc Polska

◆ Zwycięzcą kategorii Innowacje w video collaboration została firma: HP Poly / HP Inc Polska

◆ Kategorię Innowacje w sali konferencyjnej wygrała firma: Logitech

◆ Zwycięzcą kategorii Innowacje w prezentacji obrazu została firma LG Electronics

◆ Kategorię Ekosystem wideokonferencyjny wygrała firma Barco

LAUREACI

AVDS AWARDS 2026

◆ Zwycięzcą w kategorii Wdrożenie roku została firma Edbak

◆ Kategorię Debiut roku wygrała firma Dahua Technology

◆ Zwycięzcami w kategorii Lider integracji AV w Polsce, przyznawanymi wraz z firmą Samsung Electronics, zostały firmy: AVC Edukacja oraz PROMEDIO

◆ Zwycięzcą w kategorii Lider integracji AV w Polsce, przyznawanej wraz z firmą Edbak, została firma: Dimension4

LAUREACI

AVDS AWARDS 2026

◆ Zdobywcami nagród w kategorii

LIDER INTEGRACJI AV w Polsce, przyznawanymi wraz z firmą

LG Electronics okazały się firmy: Trocon oraz GMT

◆ Zwycięzcą kategorii Wydarzenie roku została firma: TD SYNNEX

◆ Kategorię Dystrybutor Roku wygrała firma: AB S.A.

◆ Zwycięzcą w kategorii Osobowość branży został: Mariusz Kuczyński, iiyama

Wszystkim

laureatom jeszcze

raz bardzo serdecznie gratulujemy

i życzymy kolejnych sukcesów!

Do zobaczenia

na kolejnej, czwartej już edycji AVDS

Awards 2027 za rok!

Z CAŁĄ PEWNOŚCIĄ TO BĘDZIE ROK AI

Mariusz Ziółkowski, Vice President, Poland and South East Europe w TD SYNNEX, wyjaśnia, dlaczego skuteczna transformacja cyfrowa wymaga modelu hybrydowego, jak uniknąć błędów we wdrożeniach i jak przygotować się na nadchodzące wyzwania sprzętowe.

Rozpocznijmy od tematu, który zdominował ostatnie dyskusje biznesowe, czyli sztucznej inteligencji. Często jednak w tym zachwycie nad ułatwiającymi życie i pracę algorytmami, zapominamy o fundamencie, na którym stoją modele AI. Mam na myśli oczywiście chmurę. Jak z perspektywy TD SYNNEX wygląda obecnie symbioza między technologiami chmurowymi a rozwojem AI? Czy w ogóle możemy mówić o skutecznym wdrożeniu sztucznej inteligencji w przedsiębiorstwie bez wcześniejszej transformacji chmurowej?

To świetne pytanie, które dotyka sedna obecnych wyzwań cyfrowych i problemów, z jakimi mierzą się firmy, a w których my, jako globalny dystrybutor, staramy się wspierać naszych partnerów na polskim rynku. Warto przypomnieć, że TD SYNNEX wywodzi się z tradycji dystrybucji sprzętowej – pamiętamy czasy Avnetu, kiedy dystrybucja była stricte ukierunkowana na hardware, bo wówczas IT nie było właściwie niczym innym. Naturalnym etapem rozwoju było uzupełnienie tej oferty o software, a później oczywiście o rozwiązania chmurowe.

Jesteśmy największym dystrybutorem na świecie i – według naszej wiedzy –jako jedyni na polskim rynku posiadamy kontrakty ze wszystkimi trzema amerykańskimi hyperscalerami. Z naszej perspektywy transformacja chmurowa to proces ciągły, który postępuje i który aktywnie wspieramy. Dostarczamy naszym partnerom i ich klientom na-

rzędzia oraz programy edukacyjne, takie jak Akademia TD SYNNEX, gdzie pokazujemy integrację hardware’u, software’u i chmury. Tworzymy środowiska hybrydowe, prowadząc jednocześnie projekty dedykowane stricte AI i chmurze. Odpowiadając wprost: skuteczne wdrożenie AI jest nierozerwalnie związane z dojrzałością chmurową i hybrydową.

Wspominasz o partnerach wywodzących się z rozwiązań sprzętowych. Tutaj chyba najbardziej jaskrawym przykładem transformacji jest Microsoft Copilot.

Zgadza się. Na przykład Microsoft Copilot w M365 zadebiutował w segmencie Enterprise, a dopiero później został udostępniony szerzej firmom i konsumentom. To wywołało duże zapotrzebowanie na wiedzę – o tym, jak działa, jak przetwarza dane i jakie realne korzyści może przynieść.

My, jako globalny dystrybutor Microsoftu, od premiery nowej generacji urządzeń Copilot+ PC aktywnie edukujemy rynek na temat zalet lokalnego przetwarzania AI.

Nowe urządzenia wyposażone w dedykowane układy NPU (Neural Processing Unit) zapewniają wymierne korzyści: przejmują obliczenia AI z CPU i GPU, co wydłuża czas pracy na baterii i przyspiesza działanie aplikacji. Lokalne przetwarzanie sprawia, że wiele procesów – zwłaszcza tych związanych z multimediami i personalizacją – jest znacznie szybszych i bardziej responsywnych.

Windows 11 na Copilot+ PC integruje się z zaawansowanymi funkcjami, takimi jak dedykowany klawisz Copilot, tłumaczenia na żywo czy filtrowanie tła. Wiele z nich działa bezpośrednio na urządzeniu z wykorzystaniem mocy NPU, co poprawia wydajność, prywatność i stabilność pracy.

Osobiście, jako właściciel niewielkiego psa, najbardziej cenię sobie chyba jeden drobiazg – wycinanie dźwięków z tła podczas spotkań na Teams.

To dobry przykład AI działającego w tle, o którym nawet nie musimy myśleć. Z czasem zupełnie zapomnimy o tym, że kiedyś spotkania online mogły być “wzbogacone” o niechciane efekty dźwiękowe. Uważam, że to właśnie takie “niewidoczne AI”, działające dyskretnie, w tle, jest dziś prawdziwym, nieco pomijanym bohaterem rewolucji AI.

To prowadzi nas do kolejnego zagadnienia. Dlaczego obserwujemy ten wyraźny zwrot w stronę przetwarzania lokalnego?

Najbardziej istotną częścią tego trendu w biznesie jest konieczność wykorzystania modelu hybrydowego. Mówimy tu o sytuacji, gdzie każde opóźnienie generuje zbędny koszt lub wręcz uniemożliwia pracę. Wyobraźmy sobie autonomiczne roboty w magazynie. W przypadku przesyłania danych wyłącznie do chmury, opóźnienie rzędu 200, 300 czy 400 milisekund jest nie do przyjęcia. Dzięki rozwiązaniom hybrydowym i edge’owym, ten czas reakcji

Nasza główna rada? Nie rób wszystkiego naraz. Należy budować wdrożenia krok po kroku, systematycznie, dając pracownikom czas na adaptację i zdobycie niezbędnych umiejętności

Mariusz Ziółkowski Vice President, Poland and South East Europe w TD SYNNEX

spada do poziomu 5–15 milisekund, co pozwala na efektywną pracę w czasie rzeczywistym.

Jednak jest jeszcze drugi, równie ważny aspekt – dane i regulacje prawne. Prawo Unii Europejskiej oraz wewnętrzne regulacje firm obligują organizacje do specyficznego traktowania danych wrażliwych.

Czyli chodzi o to, że dane muszą być przetwarzane „tu i teraz”, bez wychodzenia na zewnątrz?

Dokładnie tak. Dane związane z HR, finansami czy innymi wrażliwymi obszarami często nie mogą opuścić organizacji. Muszą być one odpowiednio oznaczone i zabezpieczone wewnątrz infrastruktury, tak aby osoba bez uprawnień nie miała do nich wglądu. Suwerenność danych jest tutaj kluczowa.

Dodatkowym atutem jest redukcja kosztów. Inwestując w urządzenia, które przetwarzają dane lokalnie, zmniejszamy opłaty za zużycie zasobów chmurowych, ponieważ część operacji wykonujemy „u siebie”. Przepustowość łącza przestaje być wąskim gardłem.

Na pewno firmowa sieć na tym zyskuje, bo pracownicy nie pobierają masowo wygenerowanych dokumentów czy materiałów wideo, tylko tworzą je na żywo na urządzeniu, nie zapychając prostymi zadaniami mocy obliczeniowych, za które płaci się wcale niemałe pieniądze. Właśnie o to chodzi. To pewnego rodzaju optymalizacja, bo przecież nie musimy angażować dużego modelu AI, do zadań podstawowych, prostych. Byłoby to marnotrawieniem zasobów firmy z jednej strony, ale też wysoce nieekologicznym działaniem z drugiej. Do takich zadań zdecydowanie

lepiej jest używać mniejszych modeli, takich, które z powodzeniem mogą działać na komputerach Copilot+ PC. Jednocześnie tam, gdzie potrzeba mocy obliczeniowej dla znacznie bardziej złożonych modeli AI, należy postawić czy to na chmurę, czy na rozwiązania hybrydowe, czy wreszcie na moc własnej, firmowej serwerowni.

Mówiąc wprost – AI w firmie może działać na wielu poziomach, a my jesteśmy w stanie pomóc we wdrożeniu na każdym z nich. Jako dystrybutor staramy się łączyć to, co dają najwięksi producenci hardware’u ze światem chmurowym, wyciągając z obu tych światów to, co najlepsze. Mamy znakomite kontakty i kompetencje w obu tych obszarach. Nasi partnerzy są więc doskonale wyposażeni do tego, aby podejmować się takich realizacji.

Wspomniałeś o ryzyku wycieku danych. To chyba jeden z głównych argumentów za rozwiązaniami lokalnymi? Zdecydowanie. Dla przykładu, w dziale prawnym kluczowe jest, aby dane nie wyciekły i nie były wykorzystywane do trenowania modeli publicznych poza środowiskiem pracy. Microsoft w rozwiązaniach biznesowych, takich jak Microsoft 365 Copilot, gwarantuje tzw. Enterprise Data Protection. Oznacza to, że dane klienta nie są używane do uczenia modeli AI, a dostęp do nich jest ściśle kontrolowany. Tu wchodzi w grę kwestia Data Governance, czyli ustalenia hierarchii dostępu. Nie może być tak, że każdy ma dostęp do wszystkiego. Ja nie powinienem mieć wglądu w finanse, a Ty w HR. Musi istnieć jasna struktura uprawnień.

Właściwie jak przy okazji dowolnego narzędzia – trzeba wiedzieć jak je stosować. Z AI nie jest inaczej. Sztuczna inte-

ligencja jest w stanie pomóc, usprawnić procesy w firmie, zdjąć z pracowników uciążliwe, powtarzalne obowiązki. Jednak źle wdrożona, lub używana bez wdrożenia w ogóle, w sposób nieautoryzowany, AI może wyrządzić szkody w organizacji.

Co, niestety, nie jest wcale jakimś fikcyjnym scenariuszem. Widać to w badaniach, w których, udział pracowników deklarujących korzystanie z AI, jest znacząco wyższy niż deklaracje ze strony firm. Oznacza to, że wykorzystywane są prawdopodobnie modele powszechnie dostępne, które z podanych danych korzystają, aby się szkolić.

To prawda. Takich przypadków było wiele, a o większości wywołanych w ten sposób wycieków danych pewnie nigdy się nie dowiemy. Podobna praktyka będzie miała miejsce zawsze, gdy firma realnie może na AI skorzystać, pracownicy mogą ułatwić sobie pracę, ale nie zapadła decyzja o wdrożeniu.

Dlatego tak ważne jest, aby mieć odpowiednie wsparcie w całym procesie projektowania wdrożenia AI w firmie. Nie każdy musi mieć w tym względzie kompetencje we własnym zespole, ale trzeba wiedzieć gdzie tych kompetencji poszukiwać. Na polskim rynku działa wielu partnerów TD SYNNEX, którzy są już teraz wysoce wykwalifikowani do udzielania takiej pomocy. Z każdym nowym szkoleniem, które dla nich organizujemy, z każdym zrealizowanym wdrożeniem, stają się ekspertami. Co najważniejsze, oni też mają wsparcie: nas.

Przejdźmy do weryfikacji rynkowej. Mimo entuzjazmu, badania PwC wskazują, że 56 proc. inicjatyw związanych z AI globalnie nie przynosi oczekiwanych korzyści biznesowych. Z czego wynika tak wysoki odsetek niepowodzeń i czy widać to też w Polsce?

Obserwujemy bardzo podobne statystyki na rynku polskim. Najczęściej wynika to z braku przygotowania oraz luki kompetencyjnej po stronie klientów i partnerów. Największym błędem jest brak jasno zdefiniowanych celów projektu. AI spowodowało taką zmianę w podejściu biznesowym, że precyzyjne określenie, co chcemy osiągnąć, wcale nie jest łatwe. Cel musi być sprecyzowany – musimy wiedzieć, do czego narzędzie ma służyć. Kolejnym problemem jest jakość danych wejściowych. Jeśli „karmimy” AI danymi niskiej jakości, to – kolokwialnie

mówiąc – otrzymamy „śmieciowe” wyniki. Dlatego w TD SYNNEX prowadzimy program „Destination AI”. Wspólnie z vendorami, takimi jak Microsoft, oferujemy programy edukacyjne (np. AI Practice Builder), udostępniamy demo oraz wspieramy partnerów poprzez Center of Excellence, dzieląc się doświadczeniem z wdrożeń europejskich i światowych. Nasza główna rada? Nie rób wszystkiego naraz. Należy budować wdrożenia krok po kroku, systematycznie, dając pracownikom czas na adaptację i zdobycie niezbędnych umiejętności.

To pytanie może być nieco kontrowersyjne. Mówi się o boomie, ale pada też hasło „bańka”. Czy biznes nie przeinwestował w AI? Patrząc na wyceny niektórych spółek, można mieć skojarzenia z bańką tuż przed pęknięciem. Rozdzieliłbym to na „bańkę startupową” i realne wdrożenia AI. Rzeczywiście, powstało wiele startupów, z których – jak to w statystyce bywa –przetrwa zdecydowanie mniej niż 100 proc. Wiele z nich zostało już wchłoniętych przez globalnych graczy. Jednak, jeśli chodzi o technologię, nie nazwałbym tego bańką.

Rozwój rynku AI jest niezwykle dynamiczny. To już nie jest etap prostych chatbotów sprzed lat. Dziś mówimy o Copilot Studio, o tworzeniu własnych, autonomicznych agentów dopasowanych do specyfiki firmy. Skończyło się też kupowanie chmury „na wyrost”. Klienci nie zamawiają mocy obliczeniowej z kilkumiesięcznym wyprzedzeniem jak hardware’u, lecz skalują ją dynamicznie, płacąc nawet za roboczo-sekundy wykorzystania modeli AI.

Czyli to sytuacja bez precedensu, być może porównywalna do upowszechnienia się elektryczności. Przykładowo, taki General Electric do dziś jest potęgą, bo stał za fundamentalną zmianą, a nie chwilową modą. Dokładnie. To ogromna rewolucja. Giganci tacy jak Visa czy Mastercard inwestują ogromne środki, przejmując firmy z sektora AI i fintech. Nvidia czy Intel inwestują miliardy w infrastrukturę. Gdyby ci gracze nie „czuli pieniądza” i realnej wartości, nie angażowaliby tak potężnego kapitału.

Microsoft również wspaniale ewoluuje –zaczął od Copilota dla Enterprise, a teraz, widząc potrzeby rynku, wspiera producentów sprzętu, jak Dell, HP czy Lenovo w tworzeniu komputerów z wbudowanym AI. To synergia chmury, hardware’u i oprogramowania. Pieniądze w tym sektorze nie są przepalane, to są strategiczne inwestycje. Co więcej, to wszystko prowadzi do korzyści dla użytkow -

Jesteśmy największym dystrybutorem na świecie i – według naszej wiedzy – jako jedyni na polskim rynku posiadamy kontrakty ze wszystkimi trzema amerykańskimi hyperscalerami

Mariusz Ziółkowski

Vice President, Poland and South East Europe w TD SYNNEX

ników. Trudno kwestionować przydatność AI w codziennej pracy. Wystarczy skorzystać np. z Copilota, by zauważyć potencjał do wzrostu produktywności.

Nie mam wątpliwości – to będzie rok AI. Nie jest to slogan, czy puste hasło. To prognoza, którą widzimy w wynikach, w badaniach rynku, w rozmowach z partnerami. Wiele firm i organizacji dojrzało do wdrożeń AI, to będzie się działo w 2026 roku.

Na koniec chciałbym poruszyć temat bardziej przyziemny, ale kluczowy dla dystrybucji. Jakie są prognozy odnośnie dostępności komponentów, zwłaszcza pamięci? Wiemy, że producenci tacy jak Samsung, Micron czy SK Hynix przestawili linie produkcyjne na pamięci HBM (High Bandwidth Memory) m.in. pod nowe układy Nvidii, co wpływa na rynek PC. Micron zamknął nawet swoją konsumencką, dobrze odbieraną markę, Crucial.

To jest strategiczna zmiana, która nastąpiła w ostatnich miesiącach. Analizy rynkowe przewidują, że trudności w dostępie do pamięci RAM i dysków SSD będą się zwiększać. To wymusza na partnerach zmianę podejścia. Należy planować zakupy z dużym wyprzedzeniem. Można to porównać do czasów pandemii – łańcuchy dostaw są napięte, a czas oczekiwania wydłużony. Jeśli coś kiedyś przyjeżdżało w miesiąc, teraz może to trwać cztery i być droższe. Strategia „just-in-time” w tym momencie się nie sprawdzi. Jest to wyzwanie, ale traktujemy je jako okres przejściowy. Łańcuchy dostaw w końcu się ustrukturyzują. Obecnie doradzamy partnerom trzy rzeczy: po pierwsze, planowanie zamiast impulsywnych zakupów. Po drugie, rozbudowę i optymalizację tego, co już posiadają. A po trzecie – skorzystanie z siły strategicznego dystrybutora. Dzięki naszym globalnym kontraktom jesteśmy w stanie lepiej zabezpieczyć dostępność towaru, a w przypadku luk sprzętowych – oferujemy alternatywy w postaci rozwiązań chmurowych, które pozwalają zachować ciągłość biznesową klientów. n

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

WINDOWS I AI:

FUNDAMENT

NOWEJ ERY

O zmianie systemów Windows i rewolucji AI mówi Chris Papaphotis, EMEA Head of Distribution, Commercial Devices & Solution Sales, Microsoft w rozmowie z redaktorem naczelnym Krzysztofem Bogackim. Dotykamy zarówno tematu migracji z Windows 10, na Windows 11, ale też tego, co nadejdzie później. Pochylamy się także nad tematem sztucznej inteligencji i tego, jak na niej zarabiać.

Koniec wsparcia dla systemu Windows 10 był ważnym tematem pod koniec 2025 roku. Rynek z dużym napięciem wyczekiwał znaczącego cyklu wymiany sprzętu. Zdaje się, że ów proces nie przebiegł dostatecznie intensywnie. Jak to wygląda z dzisiejszej perspektywy?

Czy ta zmiana faktycznie nastąpiła w zakładanej skali i czy dla Waszych partnerów okazała się ona strategiczną szansą, czy raczej wyzwaniem sprzedażowym?

Szczerze mówiąc, to ciekawe stwierdzenie, ponieważ z naszej perspektywy dane sugerują bowiem, że ten proces okazał się ogromnym sukcesem. Zastanawiałem się, czy to nie jest kwestia polskiej perspektywy, dlatego chciałbym podzielić się konkretnymi dostępnymi danymi.

Poza naszymi wewnętrznymi statystykami, warto spojrzeć na dane StatCounter, które mierzą udział systemów operacyjnych. W Polsce jeszcze w sierpniu 2025 roku udział Windows 10 i Windows 11 był niemal równy. Na dzień dzisiejszy najnowsze dane StatCounter dla Polski są jednoznaczne: Windows 11 ma już około 72 proc. udziału w rynku, a Windows 10 spadł do poziomu 27 proc.. To znacząca zmiana.

Jak to przekłada się na sprzedaż? W całym regionie EMEA notowaliśmy wzrosty rzędu 10, 20, a nawet 30 proc. Niemcy urosły o ponad 45 proc., Wielka Brytania podobnie. Jeśli miałbym wskazać trend, to rynki Europy Zachodniej zareagowały błyskawicznie, osiągając około 85 proc. udziału Windows 11. Europa Środkowo-Wschodnia i rynki wschodzące pozostały odrobinę z tyłu. Jednakże Polska z wynikiem 72 proc. wypada świetnie na tle np. Hiszpanii czy Włoch, gdzie te wskaźniki oscylują w granicach 50–60 proc.

Zróżnicowanie geograficzne jest więc wciąż widoczne, ale dynamika u nas jest potężna. Nasi partnerzy raportują, że ostatnie 6–8 miesięcy to był najlepszy okres „sell-outu” urządzeń w ich historii. Wrzesień był rekordowy, a październik ten rekord powtórzył. Ten wzrost był napędzany głównie przez duże przedsiębiorstwa, dla których kluczowa jest zgodność z przepisami. Wiemy, że wiele firm dokonało zakupów, a teraz etapowo realizuje wdrożenia.

Dlatego z naszej perspektywy zakończenie wsparcia dla Windows 10 to sukces, choć praca nie jest jeszcze zakończona. W zależności od kraju, wciąż pozostaje od 20 do 30 proc. urządzeń do zmodernizowania. To jest ten wspomniany „długi ogon”, czyli głównie sektor MŚP (SMB).

To obszar, w którym musimy intensywnie współpracować z kanałem partnerskim. Firmy z sektora SMB często nie posiadają dedykowanych działów IT. O ile duży dział IT doskonale wie, co oznacza serwisowanie, aktualizacje i bezpieczeństwo, o tyle właściciel firmy z jednym, dwoma czy dziesięcioma komputerami polega na dorywczym wsparciu resellera. W segmencie Enterprise i Mid-market odnieśliśmy sukces, teraz czas na pełne zagospodarowanie przestrzeni w sektorze mniejszych przedsiębiorstw.

Windows 10 ma już ponad dziesięć lat. To relatywnie stare oprogramowanie, a jednak wciąż korzysta z niego mnóstwo osób. Wiem doskonale, że Microsoft kładzie duży nacisk na komunikację dotyczącą konieczności aktualizacji. Czy to wystarczy?

Przede wszystkim dziękuję za możliwość rozmowy na ten temat i przekazania tych informacji dalej. Windows 10 był projektowany i budowany w czasach, gdy komunikacja oraz współpraca przez internet wyglądały zupełnie inaczej. Stan cyberbezpieczeństwa na świecie również był wtedy na innym etapie.

Oczywiście doceniamy fakt, że klienci tak efektywnie wykorzystywali swoje zasoby i przez lata polegali na Windows 10. To był świetny system… na swoje czasy. Jednak czas go pożegnać. To Windows 11 został zbudowany z myślą o współczesnej erze. Przeszedł on gruntowny proces przeprojektowania, aby oferować bezpieczeństwo w modelu „od procesora do chmury” (chip-to-cloud). To poziom ochrony, którego wymaga dzisiejsze, niezwykle wymagające środowisko cyfrowe.

Dla nas jest to nieustanny proces edukowania naszych partnerów i resellerów. Chcemy, aby mogli oni przekazywać te nieco bardziej techniczne argumenty bezpośrednio do klientów końcowych. Z moich obserwacji wynika,

że za każdym razem, gdy mamy okazję przeprowadzić szkolenie lub szczegółowo wyjaśnić te różnice, klienci reagują w ten sam sposób: „muszę zrobić ten upgrade natychmiast”. Kiedy uświadamiają sobie, zwłaszcza w kontekście bezpieczeństwa, nie tylko płynące korzyści, ale i realne zagrożenia, na jakie się wystawiają, modernizacja staje się priorytetem. Naszym zadaniem jest więc jeszcze lepsza i szersza komunikacja, aby dotrzeć do każdego użytkownika na rynku.

Przejdźmy do AI – obecnie najważniejszego hasła w branży. Mamy nowe kategorie sprzętu, jak Copilot+ PC, wykorzystujące NPU. Jakie realne, codzienne korzyści przynoszą one użytkownikom biznesowym? Co zyska firma, inwestując w takie urządzenia, i jak partnerzy powinni rozmawiać o tym z decydentami, którzy często nie wiedzą jeszcze, jak przełożyć AI na konkretne rozwiązania potrzeb biznesowych?

Tematyka jednostek NPU (Neural Processing Unit) może wydawać się nieco zbyt techniczna dla części odbiorców czy klientów końcowych, ale to właśnie one są sercem nowej kategorii, którą stworzyliśmy. Copilot+ PC to nie tylko kolejna generacja komputerów; to zupełnie nowa kategoria urządzeń, które na niespotykanym dotąd poziomie pozwalają lokalnie uruchamiać małe modele językowe (SLM – Small Language Models) i korzystać z funkcji AI całkowicie offline.

Budując nową kategorię, musimy zadbać o synergię wielu elementów, aby osiągnąć maksymalne korzyści. W technologii kluczowe jest, aby deweloperzy tworzyli aplikacje z myślą o danej platformie – to oni odblokowują jej największą wartość. Jesteśmy obecnie w fazie przejściowej: deweloperzy zaczynają tworzyć soft, gdy widzą odpowiednio dużą bazę zainstalowanych urządzeń, a ta baza rośnie szybciej, gdy pojawia się więcej aplikacji. Nasze prognozy są jednak jasne: w ciągu najbliższych dwóch lat większość, bo ponad 80 proc. nowych urządzeń na rynku, będą stanowiły komputery klasy AI PC. To oznacza wykładniczy wzrost liczby scenariuszy użycia. W Microsoft skupiamy się na kilku priorytetach. Po

Doceniamy fakt, że klienci tak efektywnie wykorzystywali swoje zasoby i przez lata polegali na Windows 10. To był świetny system… na swoje czasy. Jednak czas go pożegnać.

Chris Papaphotis EMEA Head of Distribution, Commercial Devices & Solution Sales, Microsoft

pierwsze: jak sprawić, by po włączeniu komputera od razu był bardziej produktywny? Chcemy oszczędzać użytkownikom minuty, a nawet godziny pracy tygodniowo. Jednym z flagowych przykładów jest funkcja Recall. Pozwala ona odnaleźć to, nad czym pracowałeś, nie poprzez żmudne wpisywanie nazw plików, ale za pomocą naturalnych opisów. Zamiast szukać „prezentacji X”, możesz zapytać: „gdzie jest ten slajd z zieloną grafiką, o którym rozmawialiśmy z Krzysztofem, gdy w tle było widać śródziemnomorski port?”. To realna oszczędność czasu.

Oczywiście widzimy też ogromne wzmocnienie w konkretnych aplikacjach zewnętrznych, które już teraz potrafią wykorzystywać moc jednostek NPU. Copilot+ PC to obecnie szczytowe osiągnięcie designu – to najszybsze, najbezpieczniejsze i najbardziej zaawansowane urządzenia na rynku.

Jak na tę nową kategorię reaguje biznes? Czy AI to dla biznesu wciąż tylko modne hasło?

To zależy od wielkości firmy. Duże przedsiębiorstwa są znacznie dalej w swojej „podróży z AI”. One najpierw starają się zrozumieć technologię, testują ją wewnętrznie i dopiero wtedy wdrażają konkretne funkcjonalności. Te firmy szybko zrozumiały, gdzie model pracy offline ma dla nich największy sens. Z kolei dla mniejszych firm i konsumentów przygotowujemy gotowe funkcje działające „prosto z pudełka”. Dla nas kluczowe jest dostrzeżenie kierunku, w którym zmierza AI: przechodzimy od prostego czatu, przez konkretne aplikacje, aż do agentów i systemów wieloagentowych. Obecnie budujemy Windowsa tak, aby stał się „płótnem dla AI” (Canvas for AI), szczególnie dla biznesu. Dlaczego to ważne?

Ponieważ agenci AI potrzebują odpowiednich uprawnień dostępu do danych, aby móc skutecznie wykonywać swoje zadania. Do tego niezbędne jest solidne bezpieczeństwo i centralna administracja, co zapewnia właśnie Windows. Co ciekawe, widzimy wyraźną korelację: klienci, którzy już wcześniej ruszyli w drogę z AI poprzez Microsoft 365, są tymi samymi, którzy najchętniej kupują dziś komputery Copilot+ PC. Oni po prostu już wiedzą, jak tę moc realnie wykorzystać w biznesie.

To jasne, że AI może realnie wspierać codzienną pracę biurową. Jednak partnerzy często zadają pytanie: jak na tym budować realną wartość biznesową? Wielu z nich wciąż szuka drogi do zyskowności w tym nowym trendzie. Poza prostą odsprzedażą licencji, gdzie widzi Pan największą szansę dla kanału partnerskiego w ekosystemie AI? Krótko mówiąc – jak partnerzy mogą na tym zarabiać?

To fundamentalne pytanie. Prawda jest taka, że prawdziwa monetyzacja AI płynie z usług, a nie tylko z marży na sprzęcie czy samym oprogramowaniu. Aby partnerzy mogli odblokować potencjał AI u swoich klientów, muszą skupić się na gotowości danych (data readiness), bezpieczeństwie i zarządzaniu dostępem.

Z doświadczenia wiemy, że każdy projekt AI musi zacząć się od tego, co nazywamy „krokiem zero”. Chodzi o uporządkowanie uprawnień i struktury danych. Ostatnią rzeczą, jakiej życzyłby sobie szef firmy, jest sytuacja, w której pracownik pyta Copilota o zarobki prezesa, a system generuje mu kompletną tabelę płac zarządu. Bez precyzyjnego zarządzenia dostępem do danych (access rights), takie incydenty będą miały miejsce. Dlatego audyt środowiska da-

nych i wdrożenie odpowiednich zabezpieczeń to dla partnerów priorytetowa usługa o wysokiej marży.

Kolejnym obszarem jest przedefiniowanie procesów. Nie chodzi o to, by wziąć to, co robimy dzisiaj, i „posypać” to odrobiną AI. Partnerzy muszą pomóc klientom wymyślić ich workflow na nowo. Czasami dany proces okazuje się w ogóle niepotrzebny, bo AI pozwala osiągnąć docelowy rezultat zupełnie inną drogą. Partner musi więc stać się doradcą, który rozumie nie tylko technologię, ale przede wszystkim potrzeby biznesowe klienta.

Podam prosty, ale bardzo wymowny przykład z mojej codziennej pracy. Zarządzam dystrybucją w całym regionie EMEA. Muszę regularnie zbierać spostrzeżenia (insights) od naszych zespołów z Wielkiej Brytanii, Niemiec, Polski czy RPA. Kiedyś był to żmudny, manualny proces: menedżerowie musieli wszystko spisywać, wysyłać, a ktoś inny musiał to konsolidować. W trakcie tej „papierkowej roboty” gubiło się mnóstwo cennych detali.

Dziś po prostu włączamy nagrywanie spotkania. AI działa jak superprecyzyjny asystent: wykonuje transkrypcję, tworzy streszczenie i pozwala mi zadawać pytania bezpośrednio do treści rozmowy. Dzięki temu błyskawicznie wyłapujemy trendy w całym regionie. Oszczędzamy godziny pracy, a jakość informacji jest o niebo wyższa.

Naszą radą dla partnerów jest strategia „Klienta Zero”. Zachęcamy ich, by sami zaczęli używać AI we własnych strukturach. Tylko wtedy będą w stanie zrozumieć realne korzyści, ale i ograniczenia tej technologii. Wygrają ci, którzy przez najbliższe lata staną się dla swoich klientów niezbędnymi przewodnikami po świecie AI, dostarczającymi konkretną wartość doradczą i wdrożeniową.

Wdrożenie AI w ekosystemie klienta końcowego to ogromne wyzwanie. Wielu partnerów wciąż tkwi w starym modelu – sprzedaży „pudełek” z urządzeniami i oprogramowaniem. Wciąż widać pewną lukę w wiedzy i kompetencjach niezbędnych, by wytłumaczyć klientowi realną wartość AI. Jak w tym procesie zmienia się rola dystrybucji? Dzisiaj nie chodzi już tylko o logistykę,

ale o bycie pomostem kompetencyjnym między ekspertami Microsoftu a partnerami, którzy dopiero uczą się tej technologii.

Rola dystrybucji pozostaje absolutnie krytyczna w kontekście demokratyzacji sztucznej inteligencji. To właśnie dystrybutorzy są tymi, którzy umożliwiają nam skalowanie technologii – od największych przedsiębiorstw aż po najmniejsze firmy. Unikalną wartością, jaką dystrybutor wnosi do ekosystemu, jest orkiestracja tysięcy partnerów i ich stałe wspieranie (enablement).

Kiedy mówimy o największych klientach, mamy wielu integratorów systemowych, którzy konkurują o te projekty, dysponując ogromną wiedzą. Jednak gdy spojrzymy na tzw. „długi ogon” rynku (long tail), to właśnie dystrybutorzy stają się niezbędnym kręgosłupem dla mniejszych resellerów. Co ciekawe, na rynkach takich jak polski, ten „długi ogon” często generuje większy całkowity wolumen sprzedaży niż sektor

największych przedsiębiorstw. Dlatego tak ściśle współpracujemy z dystrybutorami nad programami szkoleniowymi i rozwojem gotowych rozwiązań. Jesteśmy zachwyceni współpracą z TD SYNNEX. Wspólnie dostarczamy partnerom konkretną, wymierną wartość: od architektur referencyjnych i ustrukturyzowanych szkoleń, po modele finansowania i spakietowane rozwiązania dla partnerów. Działamy wielotorowo – zarówno na poziomie lokalnym, w krajach takich jak Polska, Niemcy czy Wielka Brytania, jak i na poziomie całego regionu EMEA. Pozwala to na zachowanie spójności i dzielenie się najlepszymi praktykami pomiędzy rynkami. TD SYNNEX jest dla nas partnerem strategicznym, ponieważ oni również przeszli głęboką transformację. Dziś nie są już tylko pośrednikami w handlu sprzętem, ale rzeczywistym fundamentem dla dostarczania kompleksowych rozwiązań, które wspierają resellerów w całym kanale sprzedaży.

Często słyszy się, że projekty AI kończą się niepowodzeniem, nie z powodu ograniczeń technologicznych, lecz przez błędy na etapie planowania. Jak TD SYNNEX i Microsoft pełnią w tym procesie rolę architektów, dbając o to, by partnerzy nie ograniczali się jedynie do dostarczania „pudełek” czy oprogramowania, ale oferowali skuteczne, długofalowe rezultaty oparte na sztucznej inteligencji, które faktycznie rozwiązują realne problemy biznesowe ich klientów?

Jak wspomnieliśmy wcześniej, skuteczna adopcja sztucznej inteligencji wymaga solidnych fundamentów: gotowości danych, najwyższych standardów bezpieczeństwa oraz jasno zdefiniowanych procesów biznesowych. W tym kontekście kluczową rolę odgrywa inicjatywa TD SYNNEX o nazwie „Destination AI”. Jej celem jest pokazanie partnerom, jak zintegrować w jednym ekosystemie sprzęt, oprogramowanie i usługi, a wszystko to w oparciu o realne scenariusze biznesowe klientów.

Chcemy pomóc partnerom wyjść poza tradycyjny, czysto transakcyjny model sprzedaży. Naszym celem jest ewolucja partnera w stronę Zaufanego Doradcy AI (Trusted AI Advisor). Taki doradca nie tylko sprzedaje produkt, ale potrafi przeprowadzić klienta przez cały proces bezpiecznej, praktycznej i skalowalnej implementacji AI.

Widzimy już pierwsze owoce tego podejścia w różnych krajach – świetnym przykładem jest Francja, ale podobne procesy zachodzą już w Polsce. Łączymy tam świat rozwiązań chmurowych z urządzeniami końcowymi. Na rynku francuskim nasi partnerzy oferują już konkretne rozwiązania z Agentami AI – zarówno te prekonfigurowane, jak i rozwiązania szyte na miarę (bespoke).

Dzięki temu resellerzy otrzymują od nas i od dystrybutora gotową, spakietowaną wartość, którą mogą zaoferować swoim klientom wraz z niezbędnymi usługami wdrożeniowymi. To ogromna szansa zwłaszcza dla mniejszych resellerów, którzy dzięki takiemu wsparciu zyskują kompetencje dotychczas zarezerwowane dla największych graczy. Cała ta strategia jest w pełni spójna z misją TD SYNNEX: wspierania kanału sprzedaży tak, aby nasi partnerzy stali się najbardziej skutecznymi doradcami AI dla swoich klientów.

W ubiegłym roku AI było zdecydowanie najgorętszym hasłem w branży. Czy uważasz, że ten trend się utrzyma, czy może czeka nas przesyt?

Co będzie drogowskazem dla partnerów Microsoftu w nadchodzących latach?

Bez wątpienia AI z nami zostanie. Skala globalnych inwestycji nie idzie już w miliardy, ale w biliony dolarów. To ma swoje skutki uboczne, choćby w obszarze dostępności pamięci czy komponentów, co z kolei wpływa na ceny urządzeń. Jednak nie patrzymy tylko na rok 2026 – mówimy o całej dekadzie transformacji.

Wierzę, że w ciągu najbliższych dziesięciu lat dokonamy większego postępu technologicznego niż przez ostatnie sto lat. Za dekadę będziemy patrzeć wstecz i zastanawiać się: „Jak my w ogóle dawaliśmy sobie radę bez tego?”. AI będzie wbudowane w każdy smartfon, każdy komputer i każde urządzenie wokół nas. To nie jest kwestia jednego roku; to era, w której innowacja napędza kolejną innowację. Konkurencja na tym polu jest ogromna i to świetna wiadomość dla użytkowników końcowych, ponieważ otrzymają oni lepsze usługi w coraz bardziej przystępnych cenach.

To brzmi jak ogromna szansa dla kanału sprzedaży, ale też wyzwanie kompetencyjne.

To idealny moment, by wejść w ten biznes jako partner lub reseller. Kluczem jest jednak

Nasze prognozy są jednak jasne: w ciągu najbliższych dwóch lat większość, bo ponad 80 proc. nowych urządzeń na rynku, będą stanowiły komputery klasy AI PC.

Chris Papaphotis

EMEA Head of Distribution, Commercial Devices & Solution Sales, Microsoft

inwestycja w usługi i umiejętności. Popyt na ekspertów od AI jest obecnie tak wysoki, że znalezienie odpowiednich ludzi graniczy z cudem – każdy chce ich mieć u siebie. Dlatego tak mocno promujemy strategię „Klienta Zero”: najpierw sami wdrażamy i testujemy te rozwiązania u siebie, a potem uczymy tego klientów. Ci, którzy pierwsi zainwestują w kompetencje doradcze, odnotują wykładniczy wzrost. W tym obszarze „sky is the limit”. Możemy dziś realizować scenariusze biznesowe, które jeszcze niedawno były niewyobrażalne, i to przy bardzo optymalnych kosztach.

Na koniec wróćmy do systemów operacyjnych. W tym roku Windows 11 kończy pięć lat. Znając cykl życia systemów operacyjnych Microsoft, można przypuszczać, że kolejna wersja systemu jest już tuż za rogiem. Czy AI będzie głównym argumentem sprzedażowym wszystkiego, co nadejdzie po „jedenastce”?

Nie mogę wypowiadać się na temat przyszłych wersji, o których obecnie nie mamy oficjalnych informacji. Wiem natomiast jedno: Windows 11 będzie wspierany aż do 2031 roku. Obecnie to właśnie ten system jest naszym priorytetem i „płótnem dla AI” (Canvas for AI). Stale go aktualizujemy, aby był najbezpieczniejszą i najbardziej niezawodną platformą dla biznesu.

Niezależnie od tego, co przyniesie przyszłość, każda kolejna odsłona oprogramowania Microsoftu będzie nierozerwalnie związana z AI. Nasza strategia opiera się na dwóch filarach: innowacyjności i ogromnej skali. Obsługujemy obecnie 2 miliardy użytkowników – od najbardziej zaawansowanych startupów po firmy, które wciąż używają drukarek igłowych do drukowania faktur. Musimy dbać o ten potężny ekosystem, dlatego zawsze będziemy łączyć rozwój sztucznej inteligencji z zachowaniem wstecznej kompatybilności. Chcemy być absolutnie najlepszą platformą, która pozwala zarządzać, przewidywać i bezpiecznie wdrażać nowoczesne rozwiązania w każdym biznesie. Stabilnie, pewnie i bezpiecznie. n

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

DOŁĄCZ DO NASZYCH PRENUMERATORÓW

WYBORU

Wyślij zgłoszenie na adres: prenumerata@itreseller.pl

Prenumerata bezpłatna-kwalifikowana, wyłącznie dla osób i firm związanych z branżą IT

Bądź na bieżąco, wejdź na stronę: www.itreseller.pl

Dołącz do nas na YouTube

Dołącz do nas na LinkedIn

DESTINATION AI

JAK ZARABIAĆ

NA TRANSFORMACJI W CIENIU NIEDOBORÓW SPRZĘTOWYCH?

Wiemy, że warto. Nie zawsze wiemy jak. Wdrożenia AI w przedsiębiorstwach potrzebują drogowskazu i przewodnika. O symbiozie chmury ze sztuczną inteligencją, końcu ery „doktrynalnych wojen” między dostawcami technologii, nadchodzącym kryzysie na rynku pamięci oraz o tym, jak program Destination AI pomaga partnerom przejść od sprzedaży pudełek do wysokomarżowych usług – rozmawiamy z ekspertami TD SYNNEX: Jackiem Kotynią, Business Unit Manager Cloud oraz Rafałem Ciemięgą, Business Development Manager, Data Analytics, AI & IoT.

Zacznijmy od fundamentów. Sztuczna inteligencja zdominowała dyskusje biznesowe, ale czy w dzisiejszych realiach możemy w ogóle mówić o skutecznym wdrożeniu AI bez chmury?

Jacek Kotynia, TD SYNNEX: Odpowiedź brzmi: nie. I składa się na to kilka czynników, w tym, o czym więcej powiem później, wyzwania związane z dostępnością sprzętu. Chmura stała się niezbędna przede wszystkim ze względu na niski próg wejścia. To, co obserwujemy, to tzw. „demokratyzacja chmury“ – koszt dostępu do potężnej mocy obliczeniowej spadł na tyle, że stał się osiągalny nie tylko dla gigantów, ale i dla mniejszych firm.

Jako TD SYNNEX mamy unikalną pozycję na polskim rynku, oferując rozwiązania wszystkich trzech największych hyperskalerów: Microsoft, Google i AWS. Dzięki temu nasi partnerzy nie muszą ograniczać się do jednego ekosystemu – mogą dobierać najmocniejsze strony każdego z tych dostawców pod konkretny projekt. Staramy się łączyć świat on-premise, czyli tradycyjnego hardware‘u, z chmurą poprzez nasz autorski program Destination AI. Uzupełniamy luki kompetencyjne, uczymy planowania i łączymy te dwa światy, wspierając to naszą platformą StreamOne Ion, która pozwala zarządzać subskrypcjami i usługami różnych dostawców w jednym miejscu. A to otwiera drogę do budowania kreatywnych scenariuszy biznesowych, w oparciu o AI.

Wspomniałeś o łączeniu światów. Polska jest specyficznym rynkiem – wiele firm i instytucji wciąż woli trzymać dane „u siebie”, a nie w chmurze publicznej.

Rafał Ciemięga, TD SYNNEX: To prawda, polski rynek, podobnie jak inne rynki europejskie, ma swoją specyfikę, zwłaszcza w sektorze publicznym czy regulowanym, gdzie wymogi bezpieczeństwa danych są bardzo restrykcyjne. Często spotykamy się z wyzwaniami, gdzie pełna chmura nie wchodzi w grę. Dlatego kluczem jest zawsze analiza konkretnego przypadku. Czasami wystarczy proste, tanie wdrożenie w chmurze, ale w innych przypadkach, gdy w grę wchodzą dane wrażliwe, rozwiązanie musi być lokalne.

Najczęściej jednak sprawdza się model hybrydowy. To podejście, które łączy stare, dobre środowisko on-premise z możliwościami chmury. Możemy mieć bazę u siebie, ale w momentach szczytowego obciążenia „dopakować“ mocy obliczeniowej, wynajmując zasoby z AWS,

Microsoftu czy Google Cloud. To daje elastyczność – jeśli brakuje nam sprzętu lub nie chcemy inwestować w potężne serwery na start, chmura jest idealnym buforem.

Jacek Kotynia: Warto dodać, że dostępność sprzętu, a konkretnie pamięci RAM, staje się tu powoli wąskim gardłem. Fabryki przestawiają linie produkcyjne na pamięci HBM pod układy GPU służące do trenowania modeli AI, co ogranicza podaż standardowych kości RAM. W takiej sytuacji chmura wygrywa dostępnością – tam zasoby są dostępne niemal od ręki, co pozwala ominąć problemy z fizycznymi dostawami.

Obserwujemy też ciekawą zmianę w podejściu samych gigantów technologicznych. Kiedyś ekosystemy były zamknięte, dziś widzimy coraz większą otwartość.

Jacek Kotynia: Jeszcze 6-10 lat temu bycie „microsoftowym” czy „googlowym” przypominało wyznawanie religii – jeśli byłeś w jednym obozie, reszta była „zła”.

Chmurowa plemienność? To dało się rzeczywiście zauważyć, za każdym razem gdy rozmawiałem z osobami pracującymi z daną chmurą. Czy dziś jest inaczej?

Jacek Kotynia: Tak, ta sytuacja zmieniła się diametralnie. Moim zdaniem przełomem było udostępnienie przez Metę (Facebooka) modelu LLaMA jako open source. To wymusiło na hyperskalerach otwarcie się na współpracę.

Dziś każdy z wielkich graczy oferuje wtyczki i integracje z konkurencją. Dla nas, jako dystrybutora, to ogromna szansa. Nie podchodzimy już do projektu sprawdzając, co dany producent ma w cenniku. Sprawdzamy, co klient chce osiągnąć i uprawiamy swoisty „technological cherry-picking“. Dobieramy komponenty od różnych dostawców tak, aby obniżyć koszty (nawet o 20 proc.) i zwiększyć niezależność klienta.

Rafał Ciemięga: Jest w tej zmianie także inspiracja sprzętowa. Nvidia również odegrała tu dużą rolę, pokazując, że można współpracować ze wszystkimi. My działamy jako doradca – nie patrzymy na logo, ale na to, czy rozwiązanie spełni wymagania klienta.

Przejdźmy do praktyki. Wiele firm mówi o AI, ale w rzeczywistości często kończy się na hasłach. Jak pomagacie partnerom, którzy mają klienta chętnego na wdrożenie AI, ale nie wiedzą, jak się za to zabrać?

To, co obserwujemy, to tzw. „demokratyzacja chmury“ – koszt dostępu do potężnej mocy obliczeniowej spadł na tyle, że stał się osiągalny nie tylko dla gigantów, ale i dla mniejszych firm.

Jacek Kotynia TD SYNNEX

Jacek Kotynia: Zacznijmy od tego, że w firmach AI jest już obecne, nawet jeśli zarząd o tym nie wie. Pracownicy sami korzystają z narzędzi typu ChatGPT czy Gemini, co rodzi ryzyko wycieku danych – jak w głośnym przypadku Samsunga. Nasz program Destination AI służy właśnie temu, by ucywilizować ten proces.

Oferujemy kompleksowy framework: od analizy stanu obecnego (assessment), przez weryfika-

cję celów biznesowych, aż po wdrożenie. Mamy w Europie Center of Excellence, gdzie zatrudniamy ekspertów ze specjalizacjami w każdej z chmur oraz w dziedzinach takich jak security czy Data & AI.

Rafał Ciemięga: Do tego dochodzi potężne zaplecze sprzętowe. Mamy infrastrukturę demo, na której można postawić niemal każdego „AI-a”. Dysponujemy kartami L40, H200, a nawet potężnym serwerem Nvidia DGX B300 z ośmioma kartami GPU – to unikalna maszyna w tej części Europy.

Możemy udostępnić partnerowi kompletne środowisko: serwery, macierze, oprogramowanie, aby przeprowadził Proof of Concept (PoC) u klienta. To nasz ogromny wyróżnik – nie tylko slajdy, ale realny sprzęt i oprogramowanie do testów. Można z nami pracować nad tym, by wybrać najlepsze rozwiązanie.

Z chmur zejdźmy na ziemię. Kluczowe pytanie dla każdego partnera brzmi: „Gdzie jest w tym marża dla mnie?“. Skoro chmura to subskrypcja, a AI kojarzy się z drogimi inwestycjami, jak na tym zarobić?

Rafał Ciemięga: AI wcale nie musi być drogim projektem. Można zacząć od małych kroków –chatbotów wewnętrznych, analizy dokumentów czy prostych procesów RPA. Nie zawsze potrzebujemy setek GPU, czasem wystarczy wynajęcie mocy w chmurze na godziny.

Pieniądze dla partnera leżą w usługach: wdrożeniu, a przede wszystkim w utrzymaniu. Partnerzy zarabiają na swojej wiedzy eksperckiej.

Jacek Kotynia: Następuje zmiana modelu biznesowego – z jednorazowej transakcji na długofalową współpracę. My jako TD SYNNEX wspieramy to, oferując np. usługi „White Label“. Możemy

Działamy jako doradca – nie patrzymy na logo, ale na to, czy rozwiązanie spełni wymagania klienta.

dostarczyć całą platformę i obsługę techniczną (pierwszą, drugą linię wsparcia, security), która dla klienta końcowego wygląda jak usługa partnera.

Dodatkowo dzielimy się naszymi globalnymi kontraktami. Dzięki temu mniejszy partner może zaoferować klientowi wsparcie na poziomie enterprise (np. Microsoft Premier Support), na które samodzielnie nie byłoby go stać. Inwestujemy też w marketing i wspólne aktywności z partnerami.

Rafał Ciemięga TD SYNNEX

Mimo entuzjazmu, badania PwC wskazują, że 56 proc. inicjatyw AI nie przynosi oczekiwanych korzyści. Skąd tak wysoki odsetek porażek?

Jacek Kotynia: Głównym powodem jest brak jasnego celu biznesowego oraz niska jakość danych. Firmy często wdrażają AI, bo jest „hype“, a nie dlatego, że mają przemyślany proces. Obowiązuje tu zasada „garbage in, garbage out“ – jeśli zasilimy model słabymi danymi, otrzymamy słabe wyniki. Dlatego w Destination AI kładziemy nacisk na edukację i precyzyjne określenie, co klient chce osiągnąć, zanim wydamy pierwszą złotówkę na technologię.

To pytanie musi paść, bo coraz częściej pojawia się w rozmowach o AI warstwa dotycząca inwestycji i giełdy. Czy mamy do czynienia z bańką AI?

Rafał Ciemięga: Nie nazwałbym tego bańką. Owszem, wiele startupów upada lub jest wchłanianych, ale to naturalny proces rynkowy. Kluczowi gracze inwestują w to gigantyczne środki. Spójrzmy na Visę czy Mastercard – ilość firm AI, które przejęli w ostatnim roku, pokazuje, że

sektor finansowy widzi w tym realną wartość, a nie tylko modę.

Na koniec, spójrzmy w przyszłość na rok 2026. Jakie są Wasze prognozy dotyczące dostępności sprzętu i cen?

Jacek Kotynia: Rynek pamięci przechodzi strategiczną zmianę. Producenci przestawiają się na produkcję pamięci dla rozwiązań AI, co drenuje rynek konsumencki. Należy spodziewać się trudności w dostępie i wzrostu cen.

Rafał Ciemięga: To upodobnić może rynek do tego z czasów pandemii – terminy dostaw się wydłużą, a ceny będą mniej przewidywalne. Nasza rada dla partnerów: nie czekajcie na promocje czy „Black Friday“. Planujcie zakupy z dużym wyprzedzeniem.

Jacek Kotynia: Warto też budować strategię w oparciu o to, co mamy. Zamiast czekać miesiącami na nowy sprzęt, można rozbudować obecną infrastrukturę lub wykorzystać chmurę jako bufor, który pozwoli zachować ciągłość biznesową w oczekiwaniu na dostawy hardware‘u. To czas na sprytne, hybrydowe podejście do IT. n

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

OD EKSPERYMENTÓW DO STRATEGII

JAK LIDERZY WDRAŻAJĄ AI W ORGANIZACJACH

W najnowszym AI Radar Trendbook jeden z rozdziałów poświęcony jest tematowi „Przywództwo w erze AI”. Pokazuje on jasno: skuteczne wdrożenie sztucznej inteligencji zaczyna się nie od wyboru modelu czy narzędzia, lecz od decyzji strategicznych liderów — gdzie sztuczna inteligencja ma realnie tworzyć wartość, które procesy zmieni i jak przygotować organizację na nowy sposób pracy.

Nasza publikacja AI Radar

Trendbook spotkała się z dużym zainteresowaniem wśród CEO, członków zarządów oraz liderów transformacji. Zebrane przykłady z wielu branż jasno pokazują, że sztuczna inteligencja nie jest już koncepcją przyszłości — jest obecna tu i teraz i realnie zmienia sposób funkcjonowania biznesu. Dziś osoby decyzyjne nie pytają już, czy wdrażać AI, lecz jak zacząć. W artykule przedstawiam praktyczną ścieżkę wdrożenia AI w organizacji: od budowy business case i identyfikacji pierwszych zastosowań, przez wybór architektury technologicznej, aż po stworzenie kultury organizacyjnej, która pozwala ludziom i algorytmom skutecznie współpracować.

Jak przekonać zarząd do inwestycji w AI

Wdrożenie sztucznej inteligencji w organizacji powinno zaczynać się nie od technologii, lecz od jasno zdefiniowanego uzasadnienia biznesowego. Kluczowym krokiem jest identyfikacja realnych

problemów operacyjnych – wąskich gardeł w procesach, które mogą zostać rozwiązane dzięki AI. Może to być np. automatyzacja analizy danych, przyspieszenie obsługi klienta czy wsparcie decyzji strategicznych. Na tej podstawie organizacje budują business case, pokazując potencjalne korzyści w postaci skalowania działalności bez liniowego wzrostu kosztów zatrudnienia.

Równolegle konieczne jest uwzględnienie aspektów regulacyjnych i etycznych, m.in. poprzez wstępną klasyfikację systemu zgodnie z wymogami EU AI Act oraz analizę ryzyka związanego z potencjalną stronniczością algorytmów. W praktyce oznacza to m.in. weryfikację, czy modele nie powielają historycznych błędów w danych – na przykład w procesach rekrutacyjnych lub oceny kredytowej. Dopiero po połączeniu perspektywy biznesowej, technologicznej i regulacyjnej organizacja może określić długofalowe cele strategiczne wdrożenia AI oraz uzyskać zgodę zarządu opartą na twardych danych i realistycznych prognozach wartości dla firmy.

Firmy przyszłości nie będą konkurować wyłącznie produktami, lecz architekturą swoich systemów decyzyjnych.

Gdzie AI przyniesie najszybszą wartość dla organizacji

Skuteczne wdrożenie AI w organizacji zaczyna się od rzetelnej diagnozy zasobów i identyfikacji obszarów, w których technologia może przynieść szybkie i mierzalne rezultaty – tzw. nisko wiszące owoce. Pierwszym krokiem jest audyt gotowości cyfrowej, obejmujący ocenę infrastruktury technologicznej, dostępnych narzędzi oraz poziomu integracji systemów w organizacji. Równolegle konieczna jest weryfikacja jakości danych: czy są one uporządkowane, kompletne i odpowiednio przygotowane do trenowania modeli AI.

Coraz częściej firmy odkrywają także zjawisko Shadow AI, czyli nieformalnego korzystania z narzędzi AI przez pracowników, które warto zidentyfikować i objąć odpowiednimi zasadami zarządzania. Kolejnym elementem diagnozy jest analiza potencjalnych projektów

pod kątem relacji ROI do bezpieczeństwa, tak aby wybierać inicjatywy o wysokiej wartości biznesowej, a jednocześnie niskim ryzyku.

Istotną rolę odgrywa również dokumentowanie pochodzenia danych poprzez praktyki Data Lineage (pochodzenie danych), co pozwala uniknąć problemów związanych z prawami autorskimi i zgodnością regulacyjną. Całość powinna być domknięta mapą procesów wskazującą konkretne miejsca, w których AI może wspierać codzienną pracę zespołów.

Największym błędem wdrożeń AI jest zaczynanie od narzędzi zamiast od problemów biznesowych.

Od pilotażu do skalowania: architektura AI w organizacji

Po zdefiniowaniu celów biznesowych i przeprowadzeniu diagnozy organizacyjnej kolejnym krokiem jest zaprojektowanie architektury technologicznej wdrożenia AI. Na tym etapie organizacje decydują o ścieżce implementacji – czy rozpocząć od szybkich testów w modelu proof-first, pozwalających zweryfikować potencjał rozwiązania, czy rozwijać system w podejściu lean AI, opartym na wykorzystaniu istniejących komponentów i gotowych narzędzi.

Kluczowym dylematem jest również wybór między platformami typu SaaS a integracją modeli poprzez API, co wpływa na poziom kontroli nad rozwiązaniem i koszty jego utrzymania. Równolegle organizacje powinny przygotować strategię wyjścia (exit strategy), minimalizującą ryzyko uzależnienia od jednego dostawcy technologii. Coraz większe znaczenie ma także kwestia lokalizacji i bezpieczeństwa danych, szczególnie w kontekście rozwiązań takich jak Sovereign Cloud, umożliwiających przechowywanie wrażliwych informacji w określonych jurysdykcjach. Istotnym elementem architektury jest również dobór partnerów technologicznych oraz przygotowanie infrastruktury na przyszłe skalowanie systemów AI – tak, aby były one zdolne obsłużyć rosnącą liczbę zapytań i procesów biznesowych wraz z rozwojem organizacji. Firmy, które wygrywają w erze AI, nie eksperymentują więcej – eksperymentują mądrzej.

Jak zarządzać kosztami i jakością systemów AI

Gdy architektura technologiczna jest już określona, kluczowym wyzwaniem staje się operacjonalizacja wdrożenia AI – czyli zarządzanie kosztami, jakością oraz ryzykiem związanym z codziennym wykorzystaniem modeli. Coraz

więcej organizacji wprowadza praktyki FinOps dostosowane do środowisk AI, umożliwiające monitorowanie w czasie rzeczywistym zużycia tokenów, mocy obliczeniowej GPU oraz kosztów zapytań do modeli. Równolegle firmy redefiniują wskaźniki sukcesu: obok oszczędności czasu coraz większe znaczenie mają jakość, trafność i stabilność odpowiedzi generowanych przez systemy AI. Kluczowym narzędziem zarządzania staje się także techniczna roadmapa, określająca kolejne etapy wdrożenia wraz z mierzalnymi kamieniami milowymi. W praktyce operacyjnej konieczne jest również monitorowanie zjawiska model drift, czyli stopniowego spadku jakości działania modelu w czasie, co wymaga systemów wczesnego ostrzegania i regularnej walidacji wyników. Dodatkowym elementem nadzoru jest zarządzanie ryzykiem dostawców w ramach praktyk Third-Party Risk Management oraz prowadzenie centralnego rejestru wszystkich rozwiązań AI działających w organizacji –tzw. AI inventory. Takie podejście pozwala firmom nie tylko kontrolować koszty i ryzyko, ale także budować przejrzysty system zarządzania technologią, która staje się coraz bardziej krytyczna dla działalności biznesowej.

Dlaczego transformacja AI zaczyna się od ludzi

Technologia sama w sobie nie tworzy przewagi konkurencyjnej — kluczowe jest połączenie rozwiązań AI z odpowiednią strukturą organizacyjną, kompetencjami i kulturą pracy. W wielu firmach pierwszym krokiem jest powołanie tzw. AI Championa, czyli lidera odpowiedzialnego za łączenie perspektywy biznesowej z technologiczną oraz koordynowanie inicjatyw związanych z AI. Równolegle pojawiają się nowe role operacyjne, takie jak inżynierowie zajmujący się utrzymaniem modeli w ramach praktyk MLOps czy LLMOps, które zapewniają stabilność i rozwój systemów po ich wdrożeniu. Kluczowym elementem transformacji jest również rozwój kompetencji pracowników poprzez programy AI Literacy, koncentrujące się nie tylko na umiejętności korzystania z narzędzi, lecz także na rozumieniu ich ograniczeń i interpretowaniu wyników. W wielu procesach biznesowych utrzymuje się także mechanizm Human-in-the-loop, gwarantujący, że ostateczne decyzje w krytycznych obszarach należą do człowieka. Organizacje wprowadzają również standardy transparentności, informując klientów o wykorzystaniu AI w usługach i komunikacji. Transformacja ta wymaga jednak także zmiany kultury pracy — systemy motywacyjne coraz częściej nagradzają innowacyjność

Krystyna Jarek Ekspertka Innowacji AI, założycielka Booster of Innovation

i efektywność, a liderzy świadomie zarządzają emocjonalnym aspektem zmiany, pomagając pracownikom przejść od obawy przed automatyzacją do aktywnego współtworzenia nowego modelu pracy.

Organizacje przyszłości będą budowane nie wokół technologii, lecz wokół ludzi, którzy potrafią z nią współpracować.

Od pilotaży do transformacji organizacji

Wdrożenie sztucznej inteligencji nie jest jednorazowym projektem technologicznym, lecz procesem transformacji organizacji — obejmującym strategię, architekturę systemów, kompetencje pracowników oraz sposób podejmowania

decyzji. Coraz wyraźniej widać, że w erze AI przewagę zdobywają nie te firmy, które najszybciej testują nowe narzędzia, lecz te, które potrafią systemowo włączyć AI w sposób działania całej organizacji.

To właśnie dlatego rośnie znaczenie liderów zdolnych łączyć technologię z biznesem, zarządzać ryzykiem regulacyjnym oraz budować kulturę współpracy między ludźmi a algorytmami.

Jeśli chcesz głębiej zrozumieć, jak zmienia się przywództwo i transformacja organizacji w świecie sztucznej inteligencji, warto sięgnąć po raport AI Radar Trendbook. Publikacja prezentuje kluczowe trendy technologiczne, scenariusze rozwoju AI oraz praktyczne wskazówki dla liderów i organizacji przygotowujących się na kolejną fazę rewolucji technologicznej. n

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

SERCE EKOSYSTEMU PROFESJONALISTY

CZY MOŻNA SOBIE POZWOLIĆ NA BRAK CIĄGŁOŚCI?

W świecie nowoczesnych technologii granica między „komputerem domowym” a „stacją roboczą” często wydaje się zacierać. Jednak dla architekta, montażysty wideo, inżyniera czy analityka danych, ta różnica jest krytyczna. Stacja robocza to nie po prostu mocniejszy PC – to precyzyjne narzędzie pracy, zaprojektowane do obsługi najbardziej wymagających procesów obliczeniowych przy zachowaniu maksymalnej stabilności.

Gdy Twoim źródłem utrzymania jest renderowanie skomplikowanych scen 3D, projektowanie konstrukcji mostów czy obróbka materiału 8K, wydajność przestaje być luksusem. Staje się walutą. Każda sekunda opóźnienia w reakcji interfejsu i każda minuta oczekiwania na zakończenie procesu to realna strata finansowa. W końcu czas to pieniądz, prawda?

Ciągłość pracy, a technologiczny wyścig zbrojeń

Kluczowym aspektem posiadania profesjonalnej stacji roboczej jest zasada „be up-to-date”. W branżach kreatywnych i technicznych polegamy na specyficznym, często bardzo kosztownym oprogramowaniu (takim jak pakiet Adobe, Autodesk, SolidWorks itd.). Producenci tych narzędzi nieustannie aktualizują swój kod, by wycisnąć maksimum z najnowszych architektur procesorów i kart graficznych. Tu pojawia się największe ryzyko dla profesjonalisty: brak aktualności. – Profesjonalna stacja robocza nie jest jedynie wydajnym komputerem, to przede wszystkim stabilne i przewidywalne narzędzie pracy. W środowisku projektowym czy inżynierskim liczy się pewność, że sprzęt będzie w stanie obsłużyć kolejne generacje oprogramowania, coraz większe pliki i bardziej złożone procesy obliczeniowe. Dlatego stacja robocza powinna oferować nie tylko wysoką wydajność tu i teraz, ale również odpowiedni zapas mocy obliczeniowej, certyfikowane komponenty oraz stabilność platformy, które gwarantują ciągłość pracy w dłuższej perspektywie – potwierdza Jarosław Banaś, Senior Business Unit Manager PC Systems w AB S.A. Scenariusz, w którym z dnia na dzień tracisz możliwość otwarcia plików od klienta, bo Twoja wersja oprogramowania nie jest już wspierana, to koszmar każdego freelancera i studia projektowego. Stacja robocza musi być zatem jednostką, która nie tylko „daje radę dzisiaj”, ale jest przygotowana na standardy jutra. Tak pod względem sprzętowym, jak i software’owym. – Dziś stacja robocza nie jest już tylko szybkim procesorem i mocną kartą graficzną – to cały, precyzyjnie zestrojony ekosystem. Klient pracując na Dell Pro Precision 5 czy 7, dostaje maszynę projektowaną od początku pod konkretne środowiska: od sterowników i firmware’u, przez Windows 11,

Komputery Copilot+ PC realnie poprawiają komfort codziennej pracy i komunikacji. […] Dynamicznie rośnie liczba aplikacji tworzonych przez ISV, których funkcjonalności oparte na AI będą wymagały wydajności rzędu 40 TOPS w NPU, co czyni Copilot+ PC rozwiązaniem bardziej przyszłościowym.

Arkadiusz Kwiatkowski Senior Partner Development Manager, Microsoft

aż po certyfikacje ISV dla pakietów pokroju Adobe, Autodesk czy SolidWorks. W praktyce oznacza to mniej niespodzianek po aktualizacjach, przewidywalną wydajność i pewność, że nowe wersje oprogramowania faktycznie wykorzystają możliwości sprzętu, zamiast je blokować – wyjaśnia Central Eastern Europe Workstations Lead w Dell Technologies, Konrad Pleban.

Traktowanie stacji roboczej jako stałej inwestycji, a nie jednorazowego wydatku na lata, to jedyny sposób na zachowanie płynności zawodowej. Bycie „up-to-date” to swoista polisa ubezpieczeniowa. Dzięki niej mamy pewność, że gdy rano siadamy do pracy, jedynym ograniczeniem będzie wyobraźnia, a nie komunikat o braku kompatybilności systemu.

Pożegnanie z honorami

Windows 10 służył zarówno użytkownikom domowym, jak i biznesowym i profesjonalnym przez lata. W chwili premiery był nowoczesny, stylowy i szybko zyskujący przychylność użytkowników. Problem w tym, że miało to miejsce w połowie 2015 roku. Tak, Windows 10 wkrótce osiągnie wiek 11 lat. Jego następca, Windows 11, miał swoją premierę w październiku 2021 roku. Czasu na aktualizację było więc naprawdę dużo.

Kończąc wsparcie dla Windows 10, Microsoft nie wyłącza działania tego systemu. Komputer z Windows 10 nadal się uruchomi, nadal pozwoli na uruchamianie programów… chociaż to będzie się zmieniać, czy właściwie zmienia się już teraz.

Nadchodzące mobilne stacje robocze

Dell Technologies z linii Dell Pro Precision to rzeczywiście tzw. wysoka półka. Producent zapewnił przy tym szeroki wybór (…) Wybór właściwej konfiguracji jest szczególnie istotny w przypadku stacji roboczych, gdyż nie są to komputery ogólnego zastosowania, a maszyny do „zadań specjalnych”

Konrad Pleban

Central Eastern Europe Workstations Lead Dell Technologies

O ile użytkownik domowy, jeśli zostanie zaskoczony tym, że po aktualizacji jego ulubiony program nie działa na starym systemie operacyjnym, może pozwolić sobie na przestój, tak w przypadku profesjonalisty, dla którego komputer to narzędzie pracy, jest wyraźnie inaczej.

– Oczywiście, brak wsparcia dla systemu Windows 10 nie oznacza, że stacje robocze oparte na tym systemie nagle przestaną działać. Kluczowe z perspektywy użytkowników i organizacji są jednak bezpieczeństwo oraz ciągłość pracy –wyjaśnia Arkadiusz Kwiatkowski, Senior Partner Development Manager w Microsoft.

Bezpieczeństwo jest, jak nietrudno zauważyć, jednym z najważniejszych obszarów współczesnych działów IT. Biorąc pod uwagę skalę ataków, wyzwania niesione tak przez pospolitych cyberprzestępców, jak i geopolitykę, dane firmy, często jej najważniejszy zasób, muszą być szczególnie dobrze chronione.

„Windows 11 został zaprojektowany w oparciu o zasady Zero Trust i standardowo wykorzystuje takie mechanizmy jak TPM 2.0, Secure Boot oraz Virtualization-Based Security. W praktyce przekłada się to na realne efekty — klienci korzystający z Windows 11 Pro odnotowują 58 proc. spadek liczby incydentów bezpieczeństwa w porównaniu do środowisk opartych na Windows 10” – wyjaśnia Arkadiusz Kwiatkowski, Microsoft, wskazując na inną, poważną zaletę aktualnego systemu – „Co istotne, największą przewagą tej migracji w porównaniu do wcześniejszych zmian wersji systemu jest bardzo wysoka kompatybilność aplikacji, która w tym przypadku sięga 99,7 proc., co znacząco ogranicza ryzyko operacyjne i wpływ na bieżącą pracę użytkowników” Na rynku nie brakuje interesujących pozycji w segmencie stacji roboczych. Szybkie zmiany w ostatnim czasie przyniosło pojawienie się pro-

cesorów z wbudowanym NPU, warto więc pomyśleć o uwolnieniu potencjału AI, także poprzez dostosowanie warstwy sprzętowej – wyposażenie się w nowoczesną stację roboczą. Zwłaszcza, że jesteśmy dziś w przededniu premiery nowej, imponującej linii od Dell Technologies. – Stacja robocza to konsekwentnie, od dekad, kategoria będąca ukoronowaniem inżynieryjnych możliwości swoich czasów, i nie inaczej jest obecnie. Już pod koniec marca pojawią się nasze nowe mobilne stacje robocze Dell Pro Precision 7 w rozmiarach 14” oraz 16” – podkreśla Konrad Pleban, Dell Technologies. – To linia komputerów, która przeszła długą drogę, w ostatnim czasie także modyfikację nazewnictwa, ale jedno pozostaje niezmienne – to najlepsze narzędzie w rękach mobilnego profesjonalisty. Nadchodzące mobilne stacje robocze Dell Technologies z linii Dell Pro Precision to rzeczywiście tzw. wysoka półka. Producent zapewnił przy tym szeroki wybór; od formatu (14 lub 16 cali) przez zróżnicowane CPU i GPU, na konfiguracjach pamięci skończywszy. Wybór właściwej konfiguracji jest szczególnie istotny w przypadku stacji roboczych, gdyż nie są to komputery ogólnego zastosowania, a maszyny do „zadań specjalnych”. – Dobranie właściwej stacji roboczej nie jest wcale zadaniem prostym – potwierdza Jarosław Banaś, AB S.A. – Komputer należy dopasować do stojących przed nim zadań, a w przypadku stacji roboczych, stacjonarnych, jak i mobilnych, są to zadania z kategorii szczególnych – czy to pod względem mocy obliczeniowej, długotrwałego obciążenia czy np. wymagań dotyczących ekranu. W AB dysponujemy szerokim wyborem stacji roboczych, a przy tym zespołem, który zna te komputery doskonale i stanowi skarbnicę wiedzy. Dzięki temu możemy zaoferować doradztwo na najwyższym poziomie w wybraniu właściwych stacji roboczych dla klientów o zróżnicowanych oczekiwaniach. Co więcej, oferujemy też szeroki wybór oprogramowania specjalistycznego. Stacje robocze, z racji korzystania na nich ze wspomnianego wyżej, bardzo specyficznego oprogramowania, często aktualizowanego, zyskującego nowe, lepsze funkcje z każdą kolejną wersją, po prostu powinny być up-to-date. W przypadku stacji roboczych kwestia przejścia na aktualny system operacyjny jest nawet łatwiejsza niż w wielu domowych PC. Dlaczego? Otóż te zaawansowane maszyny od lat są budowane także z myślą od podwyższonym poziomie bezpieczeństwa, dlatego nawet te liczące sobie już kilka lat zwykle zawierają moduł TPM, wymagany przez Windows 11. Zatem, jeśli dysponujemy kilkuletnią, ale wciąż mocną stacją roboczą, możemy pozwolić sobie na aktualizację systemu, bez wymiany sprzętu,

jeśli jego wydajność nadal zaspokaja nasze potrzeby. Jest tylko jedno “ale”..

System z plusem

Jeszcze niedawno posiadane prywatnego asystenta było domeną prezesów i dyrekcji przedsiębiorstw. Dziś asystenta pomagającego w podstawowych zadaniach w pracy może mieć każdy, w tym profesjonalny użytkownik stacji roboczych. Jest to możliwe dzięki sztucznej inteligencji, którą Microsoft systematycznie, z każdą kolejną dużą aktualizacją (począwszy od 24H2), rozwija w systemie Windows 11. Aby z niej skorzystać, jest jednak konieczny NPU (neural processing unit) o mocy co najmniej 40 TOPS. To natomiast może skłaniać do wymiany nie tylko systemu operacyjnego. – Nowe mobilne stacje robocze Dell PRO Precision zostały również wyposażone w procesory zawierające NPU o mocy obliczeniowej 40 TOPS+, dzięki czemu idealnie się wpisują w koncepcję AI PC” – wyjaśnia Konrad Pleban, Dell Technologies. – Oczywiście, posiadają nadal bardzo wydajne pozostałe komponenty, jak CPU i GPU. Integracja wyspecjalizowanego układu dla AI daje im jednak poważną przewagę na polu efektywności energetycznej.

Koncepcja tzw. Copilot+ PC zakłada, że AI Microsoftu pomaga nam w codziennych zadaniach, korzystając z mocy obliczeniowej NPU. Tego typu układ, będący jednostką wyspecjalizowaną, wykonuje obliczenia związane z obsługą AI znacznie bardziej korzystnie, z punktu widzenia efektywności energetycznej, niż gdybyśmy polegali na surowej mocy CPU lub GPU. Fakt, że obliczenia odbywają się na naszym własnym komputerze, a nie w chmurze, ma także niemałe znaczenie dla bezpieczeństwa danych.

– Rozwój komputerów klasy Copilot+ PC oraz coraz szersze portfolio urządzeń – w tym również stacji roboczych Dell – sprawiają, że jest to bardzo dobry kierunek dla klientów planujących wymianę starszej floty urządzeń opartych na Windows 10. – Dla większości klientów są to inwestycje na kilka lat, dlatego warto już na etapie decyzji zakupowej uwzględnić innowacje związane z rozwojem sztucznej inteligencji, zamiast się na nie zamykać – wyjaśnia Arkadiusz Kwiatkowski, Microsoft. Wprowadzanie AI do środowiska Windows to długi, rozłożony w czasie proces. Rzecz nie polega jedynie na samym systemie operacyjnym, odpowiednim zapleczu sprzętowym czy licencji – konieczne jest oprogramowanie, które niejako „ubiera” AI w określone, przydatne w biznesie funkcjonalności. Tych, na szczęście, nie brakuje już w samym Windows 11, przy czym wiadomo, że będą pojawiać się kolejne.

Znaczenie AI będzie tylko rosło. To jeden z czynników, który dziś najsilniej wpływa na rynek PC. Ten trend nie zniknie, nie zatrzyma się nagle. Dlatego dziś po prostu warto mieć pod ręką maszynę, która jest w stanie pracować z AI, dokonując obliczeń na miejscu, za pomocą NPU. To po prostu dobra inwestycja.

Jarosław Banaś Senior Business Unit Manager PC Systems, AB S.A.

– Komputery Copilot+ PC oferują dodatkowe funkcje, takie jak Live Captions z tłumaczeniem w czasie rzeczywistym czy Windows Studio Effects, które realnie poprawiają komfort codziennej pracy i komunikacji – podaje przykłady zastosowań Arkadiusz Kwiatkowski, Microsoft. – Co istotne, urządzenia te stanowią platformę pod hybrydową architekturę AI (cloud + device). Dynamicznie rośnie liczba aplikacji tworzonych przez ISV, których funkcjonalności oparte na AI będą wymagały wydajności rzędu 40 TOPS w NPU, co czyni Copilot+ PC rozwiązaniem bardziej przyszłościowym.

Rozwój technologii zmierza w stronę wykorzystywania AI na każdym kroku. Rynek profesjonalnych komputerów, także stacji roboczych, nie jest tu wyjątkiem. Chociaż jesteśmy dopiero na początku tej drogi, ów trend widać już w statystykach.

– Znaczenie AI będzie tylko rosło – potwierdza Jarosław Banaś, AB S.A. – To jeden z czynników, który dziś najsiniej wpływa na rynek PC. Ten trend nie zniknie, nie zatrzyma się nagle. Dlatego dziś po prostu warto mieć pod ręką maszynę, która jest w stanie pracować z AI, dokonując obliczeń na miejscu, za pomocą NPU. To po prostu dobra inwestycja. Nasi partnerzy to wiedzą. Coraz większa część przechodzących przez nasze magazyny komputerów, w tym stacji roboczych, to właśnie urządzenia, które są klasyfikowane jako Copilot+ PC.

Owszem, system Windows 10 jest dobrze znany, a kilkuletnia stacja robocza może być nadal maszyną elegancką i nawet dość wydajną na tzw. tu i teraz. Jeśli jednak trzymasz się myśli, że stara stacja robocza jeszcze “daje radę”, to pomyśl o rynku usług, które realizujesz, jak o wyścigu zbrojeń. Czy naprawdę chcesz stawiać się z ładnym i “nadal sprawnym” muszkietem na współczesnym polu bitwy? n

Skomentuj, polub lub udostępnij!

Artykuł dostępny w wersji cyfrowej

THE

TIME IS NOW!

AXENCE STAWIA

NA ROZWÓJ SPRZEDAŻY PARTNERSKIEJ

Rok 2025 okazał się dla Axence przełomowy. Krakowska firma technologiczna, od ponad 20 lat rozwijająca narzędzia wspierające pracę działów IT, nie tylko umocniła swoją pozycję na rynku krajowym, ale także odważnie wkroczyła na rynki międzynarodowe.

Kluczem do tego skokowego rozwoju jest jeden, konsekwentnie realizowany model – sprzedaż partnerska, oparta na długofalowych relacjach, zaufaniu i realnym wsparciu biznesowym .

Jak podkreśla Adam Suhak, Channel Sales Director w Axence, miniony rok był czasem intensywnych działań na wielu poziomach. Rozbudowa zespołu partnerskiego, rekordowa liczba szkoleń, dynamiczny wzrost sprzedaży realizowanej przez kanał partnerski oraz pierwsze sukcesy w ekspansji zagranicznej sprawiły, że współpraca z partnerami stała się jednym z kluczowych filarów strategii firmy. Axence jasno komunikuje, że dalszy rozwój – zarówno w Polsce, jak i globalnie – będzie opierał się właśnie na tym modelu.

Partnerzy w centrum strategii

Axence

Axence od lat buduje relacje oparte na partnerstwie i wspólnych celach biznesowych. Firma konsekwentnie stawia na współpracę z integratorami, resellerami oraz firmami doradczymi, które najlepiej znają lokalne rynki i potrzeby swoich klientów. Efekty tej filozofii są dziś wyraźnie widoczne – coraz więcej

wdrożeń rozwiązań Axence realizowanych jest właśnie za pośrednictwem partnerów, zarówno w sektorze publicznym, jak i prywatnym.

– Partnerzy są blisko swoich klientów, doskonale rozumieją ich potrzeby i pełnią rolę zaufanych doradców. To dzięki nim nasze technologie realnie wspierają organizacje w codziennej pracy – podkreśla Adam Suhak.

Rok 2025 był również rekordowy pod względem działań edukacyjnych. Axence przeszkoliło największą w swojej historii liczbę partnerów, inwestując w rozwój kompetencji sprzedażowych i technicznych. Ważnym momentem było także wydarzenie Axence Partner Day w Łodzi, zorganizowane z okazji 20-lecia firmy. Dwa dni spotkań stały się przestrzenią do rozmów o przyszłości, wymiany doświadczeń oraz realnego wpływu partnerów na dalszy rozwój oferty i programu partnerskiego.

Globalne ambicje, partnerski model

Jedną z najważniejszych decyzji strategicznych Axence było rozpoczęcie ekspansji zagranicznej w oparciu w 100 proc. o model partnerski. Już na pierwszym etapie firma pozyskała partnerów dystry-

bucyjnych nie tylko w Europie, ale również w Ameryce Południowej, na Bliskim Wschodzie oraz w Azji. To potwierdza, że rozwiązania Axence odpowiadają na realne potrzeby działów IT niezależnie od rynku. – Wierzymy, że sprzedaż partnerska to najszybsza, najprostsza i najbardziej efektywna droga do budowy globalnej obecności – mówi Channel Sales Director Axence.

Równolegle firma nie zwalnia tempa na rynku polskim, wzmacniając dedykowany zespół Kierowników Sprzedaży Partnerskiej, którzy na co dzień wspierają partnerów w rozwoju biznesu, planowaniu działań sprzedażowych oraz realizacji projektów u klientów końcowych.

Nowy Program Partnerski Axence 2026

Podczas Partner Day zapowiedziano nowy Program Partnerski Axence 2026, który właśnie został uruchomiony. Program powstał z myślą o firmach przedsiębiorczych, konkretnych i nastawionych na działanie. Jego fundamenty to prostota, przejrzyste zasady, atrakcyjne rabaty na start oraz minimalne wymagania wejścia, które ułatwiają szybkie rozpoczęcie współpracy.

Jednocześnie Axence nie rezygnuje z jakości.

Partnerzy otrzymują dostęp do szerokiego pakietu szkoleń sprzedażowych i technicznych, wsparcie zespołu partnerskiego oraz narzędzia umożliwiające skuteczne budowanie oferty w oparciu o rozwiązania takie jak nVision, SecureTeam czy ConnectPro.

2026: czas na wspólny rozwój

Nowy rok zapowiada się równie intensywnie. W lutym rozpoczęliśmy Axence Partner Roadshow, odwiedzając sześć największych miast w Polsce. Spotkania połączyły praktyczne podejście do sprzedaży IT, prezentację programu partnerskiego oraz networking z zespołem Axence i innymi partnerami.

Podsumowując: Axence daje jeszcze więcej konkretów i mniej formalności. Szybsze wyceny, łatwiejszy start, realne wsparcie handlowe i marketingowe – bez zbędnej biurokracji. Axence stawia na partnerskie relacje w najprostszym znaczeniu tego słowa: gramy do jednej bramki. Partner nie zostaje sam z ofertą, prezentacją czy pierwszym wdrożeniem. Zespół Axence pomaga na każdym etapie – od rozmowy z klientem, przez demo, aż po finalizację projektu.

W 2026 roku firma chce jeszcze mocniej postawić na wspólne działania marketingowe i generowanie leadów dla partnerów. Do tego rozwój zagraniczny – nowe rynki, nowi dystrybutorzy i kolejne szanse biznesowe. Cel jest prosty: rosnąć razem. Z konkretnym planem i energią do działania. Jeśli ktoś myśli o rozwoju sprzedaży IT, to teraz jest najlepszy moment, aby dołączyć do grona partnerów Axence. Są trzy dobre ku temu powody:

q Po pierwsze — jesteśmy solidnym i wiarygodnym partnerem.

q Po drugie — oferujemy nagradzane, cenione produkty najwyższej jakości.

q Po trzecie — zapewniamy pełne wsparcie na każdym etapie współpracy, budując relacje oparte na zaufaniu – podsumowuje Adam Suhak. Axence zaprasza wszystkie organizacje zainteresowane współpracą do kontaktu. The time is now – zarówno dla Axence, jak i dla partnerów krakowskiej firmy. n

Dowiedz się więcej o Programie Partnerskim Axence: Zostań Partnerem Axence

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

W DOBIE AUTOMATYZACJI

KARIERA M-SHAPE JAKO POLISA

UBEZPIECZENIOWA

Model M-shape definiuje nową elitę rynku pracy: profesjonalistów posiadających głęboką wiedzę w kilku (zazwyczaj trzech) domenach, połączoną z wysoką zdolnością do ich syntezy.

Wdobie AI, gdzie wąska specjalizacja (model I-shape) jest bardziej podatna na automatyzację, model M-shape stanowi strategiczną zawodową polisę ubezpieczeniową, oferując unikalną kombinację eksperckości oraz elastyczność poznawczą niezbędną do zarządzania złożonymi ekosystemami.

Geneza i ewolucja: od „T” do „M”

Tradycyjny model T-shaped przestaje być wystarczający w świecie, w którym cykle życia technologii skróciły się do zaledwie 2–3 lat. Dynamiczne zmiany technologiczne i biznesowe sprawiają, że pojedyncza specjalizacja wsparta szeroką wiedzą ogólną coraz częściej nie wystarcza do budowania trwałej przewagi kompetencyjnej.

W tym kontekście pojawia się model M-shaped, który zakłada rozwój kilku obszarów głębokiej ekspertyzy. Specjalista M-shaped nie jest „człowiekiem od wszystkiego”, czyli klasycznym generalistą. To raczej profesjonalista posiadający wiele pogłębionych kompetencji, które wzajemnie się uzupełniają i pozwalają tworzyć wartość na styku różnych dziedzin.

q Przykład 1. Chief Technology Officer może łączyć głęboką wiedzę z zakresu

Machine Learning, prawa własności intelektualnej oraz psychologii behawioralnej, co pozwala mu jednocześnie rozwijać technologię, chronić innowacje oraz projektować rozwiązania uwzględniające zachowania użytkowników.

q Przykład 2. Ekspert HR może posiadać zaawansowane kompetencje w obszarze rekrutacji, analityki danych oraz digital marketingu, wykorzystując je do strategicznego budowania employer brandingu i podejmowania decyzji opartych na danych.

Kluczem do wartości rynkowej w modelu M-shaped nie są wyłącznie same filary specjalizacji, lecz przestrzeń między nimi. To właśnie na styku różnych dziedzin najczęściej powstają innowacje. Przykładowo osoba łącząca kompetencje w BioTech i Data Science może dostrzec wzorce w sekwencjonowaniu genomu, które pozostają niewidoczne zarówno dla czystego statystyka, jak i dla biologa pracującego wyłącznie w ramach swojej dyscypliny.

Nowa rola liderów

Wraz z rozwojem modelu M-shape zmienia się również rola liderów organizacji. Liderzy przyszłości nie zarządzają już wyłącznie wynikami pracy, lecz architekturą kompetencji

w organizacji. Ich zadaniem staje się projektowanie środowiska, w którym pracownicy mogą rozwijać wiele filarów ekspertyzy, łączyć wiedzę z różnych dziedzin oraz szybko adaptować nowe umiejętności w odpowiedzi na zmieniające się technologie. W praktyce oznacza to przejście od zarządzania stanowiskami do zarządzania portfelem kompetencji, który organizacja rozwija i wykorzystuje w projektach, innowacjach oraz transformacji biznesowej.

Liderzy przyszłości nie zarządzają już wyłącznie wynikami pracy, lecz architekturą kompetencji w organizacji.

Przewaga na styku kilku specjalizacji

Model M-shape jest odpowiedzią na dwa równoległe zjawiska zachodzące na rynku pracy. Z jednej strony obserwujemy rosnący wpływ automatyzacji oraz adaptacji sztucznej inteligencji w środowisku pracy. Według prognoz dyskutowanych przez liderów podczas World Economic Forum w Davos, technologie te mogą skrócić czas wykonywania wielu zadań na obecnych stanowiskach nawet o 30–40 proc.

Z drugiej strony pojawia się zjawisko rozszerzania zakresu pracy (augmented jobs), polegające na wykorzysty -

waniu AI do poszerzania spektrum wykonywanych zadań. Dzięki temu pracownicy mogą szybciej zdobywać nowe, często odległe kompetencje i łączyć różne obszary specjalizacji.

W przeciwieństwie do modelu T-shaped — zakładającego jedną głęboką specjalizację wspartą szeroką wiedzą ogólną oraz kompetencjami miękkimi — model M-shape opiera się na budowaniu kilku filarów pogłębionej ekspertyzy(symbolizowanych przez „nogi” litery M). Ich wartość rośnie, gdy są osadzone w solidnych kompetencjach ogólnych, interpersonalnych oraz technologicznych, które pozwalają integrować różne obszary wiedzy i tworzyć unikalną wartość na styku dyscyplin.

Odporność na antykruchość

W strategii rozwoju kariery model M-shaped można postrzegać jako budowę portfela kompetencyjnego. Zamiast opierać swoją wartość rynkową na jednej specjalizacji, profesjonalista rozwija kilka pogłębionych obszarów ekspertyzy. Dzięki temu, gdy jedna z kompetencji zostaje zdeprecjonowana przez postęp technologiczny

lub automatyzację – na przykład proste kodowanie zastępowane przez narzędzia AI – pozostałe filary, takie jak strategia biznesowa czy etyka AI, umożliwiają szybkie przesunięcie środka ciężkości kariery. W efekcie specjalista zachowuje swoją pozycję ekspercką i zdolność do tworzenia wartości, zamiast tracić ją wraz ze zmianą technologicznego paradygmatu.

Akceleracja eksperckości

W modelu M-shape rozwój eksperckości nie jest już procesem rozciągniętym na dekady. Dzięki inspiracji koncepcją Pareto oraz metodą intensywnej nauki określanym jako Ultralearning możliwe jest zbudowanie nowego filaru kompetencji w ciągu 24–36 miesięcy, koncentrując się na kluczowych 20 proc. wiedzy i umiejętności, które generują oczekiwane efekty. Należy podkreślić, że koncept m-shape odchodzi od kolekcjonowania studiów czy kursów, a stawia na konkretne umiejętności pozyskane w praktyce. Na znaczeniu rosną zatem certyfikaty potwierdzające naukę poprzez działanie, a certyfikaty wydawane w technologii blockchain

mają gwarantować rzetelność nowych kompetencji.

Sztuczna inteligencja odgrywa kluczową rolę w pozyskiwaniu nowych umiejętności w roli mentora wprowadzającego do nowej dziedziny (w postaci Asystenta AI) czy w roli sparing partnera, który na wyższym poziomie wiedzy i umiejętności z jednej strony stymuluje do strategicznego, analitycznego i krytycznego myślenia, z drugiej testuje ich wiedzę, symuluje trudne sytuacje i przyspiesza zdobywanie doświadczenia.

Nie bez znaczenia są nowe umiejętności z obszaru metapoznawczego, czyli umiejętności przyspieszenia uczenia się, ale także umiejętność oduczania się (Unlearningu) – świadomego porzucania przestarzałych schematów i szybkiego adaptowania nowych narzędzi oraz modeli działania.

Od zarządzania czasem do zarządzania energią i uwagą

W świecie intensywnej automatyzacji przewaga człowieka coraz częściej wynika nie z samej wiedzy, lecz ze sposobu zarządzania własnymi zasobami poznawczymi i energetycznymi. Organizacje zaczynają wykorzystywać wnioski z Cognitive Science oraz koncepcje takie jak Cognitive Load Theory (teorie przeciążenia poznawczego), aby ograniczać nadmiar bodźców i narzędzi cyfrowych, chroniąc „przepustowość mózgu” potrzebną do pracy głębokiej. Równolegle rozwija się praktyka inteligentnego job craftingu, w której pracownicy wykorzystują AI do uwalniania się od zadań operacyjnych i przeprojektowywania swojej roli w stronę bardziej rozwojowych aktywności.

Liderzy HR coraz częściej patrzą również na produktywność przez pryzmat biologii sięgając do Chronobiology, zarządzania energią w trakcie dnia pracy, czy wręcz elementów biohackingu, tworząc miejsce pracy jako środowisko najlepiej sprzyjające pracy kognitywnej poprzez eliminację uciążliwych systemów IT czy aplikacji, przyjazne procesy i procedury, aż po specjalnie zaprojektowane wnętrza i miejsca pracy zgodnie z najnowszymi odkryciami neuronauki służące do mikro regeneracji w trakcie dnia.

W tym podejściu kluczowa staje się także inteligencja somatyczna i zdolność regulowania stresu w środowisku intensywnej pracy z algorytmami. Ostatecznie jednak nawet najbardziej zaawansowana analityka wymaga ludzkiej interpretacji – dlatego jedną z najważniejszych kompetencji przyszłości staje się data storytelling, czyli zdolność przekładania danych na przekonującą narrację wspierającą decyzje biznesowe.

Beneficjenci modelu M-shape

Model M-shape przynosi korzyści zarówno pracownikom, jak i liderom organizacji. Z perspektywy pracownika oznacza budowanie zawodowej antykruchości – zamiast być wymiennym zasobem, staje się on unikalnym węzłem w sieci organizacyjnej, zdolnym łączyć różne obszary wiedzy, np. finanse, AI i psychologię. Taka kombinacja umożliwia pełnienie roli „tłumacza” między działami, co znacząco zwiększa jego wartość rynkową i negocjacyjną. Jednocześnie możliwość rotowania aktywności między różnymi specjalizacjami ogranicza ryzyko stagnacji i wypalenia zawodowego, a rozwijanie kolejnych filarów kompetencji wzmacnia zwinność poznawczą i zdolność dostrzegania powiązań między dziedzinami.

Z perspektywy lidera zespoły złożone z profili M-shaped pozwalają ograniczać silosy organizacyjne, przyspieszać podejmowanie decyzji i elastycznie alokować kompetencje w sytuacjach zmiany strategii. W efekcie organizacja działa jak środowisko ciągłej rekombinacji wiedzy – swoiste laboratorium innowacji, w którym nowe pomysły powstają na styku dyscyplin.

Jak organizacje wdrażają model M-shape

Organizacje intensywnie wdrażające AI coraz wyraźniej obserwują, że część dotychczasowych obowiązków pracowników ulega skróceniu lub automatyzacji. W odpowiedzi wiele firm uruchamia programy rozwojowe wspierające budowę kompetencji M-shape. Pierwszym etapem jest uświadomienie pracowników –wyjaśnienie, czym jest model m-shape, jakie zmiany zachodzą na rynku pracy,

jaką rolę odgrywa sztuczna inteligencja oraz w jakim kierunku organizacja chce rozwijać kompetencje zespołu. Następnie firmy przeprowadzają analizę obecnych kompetencji oraz przyszłych potrzeb, uwzględniając wpływ AI na poszczególne domeny eksperckie. Na tej podstawie powstają spersonalizowane ścieżki rozwoju oparte na mikro-learningu, mikro-zadaniach i eksperymentach projektowych, które pozwalają zdobywać nowe umiejętności w praktyce. Kolejnym krokiem jest identyfikacja strategicznych kompetencji przyszłości — takich jak analityka danych, zarządzanie agentami AI, cyberbezpieczeństwo czy innowacje oparte na AI — oraz tworzenie centralnych programów rozwoju kompetencji M-shape wokół tych obszarów.

Dla pracowników ważną wartością takich inicjatyw jest możliwość przechodzenia przez proces zmiany w ramach wspólnoty uczącej się, w skoordynowa-

nym środowisku organizacyjnym. Zmniejsza to stres związany z transformacją i jednocześnie rozwija kluczową metakompetencję przyszłości: zdolność do szybkiego uczenia się nowych specjalizacji — często w ciągu 2–3 lat, zamiast 8–10 lat, jak bywało w tradycyjnych modelach kariery.

Liderzy jako architekci kompetencji w erze AI

Model M-shape nie jest chwilowym trendem rozwojowym, lecz odpowiedzią na fundamentalną zmianę architektury pracy w erze sztucznej inteligencji. W świecie, w którym algorytmy przejmują coraz więcej zadań operacyjnych, rośnie znaczenie ludzi zdolnych łączyć różne dziedziny wiedzy, interpretować złożone systemy i budować wartość na styku technologii, biznesu i nauk o człowieku.

Dla pracowników oznacza to konieczność świadomego budowania portfela kompetencji, a dla organizacji – projektowania środowisk pracy, które umożliwiają rozwój wielowymiarowej eks-

pertyzy. Kluczową rolę w tym procesie odgrywają liderzy, którzy coraz częściej nie zarządzają już wyłącznie wynikami pracy, lecz projektują architekturę kompetencji w organizacji – tworząc warunki do uczenia się, eksperymentowania i rozwoju nowych specjalizacji.

To właśnie takie profile kompetencyjne będą w najbliższych latach napędzać innowacje, podejmować strategiczne decyzje i współpracować z systemami AI w sposób, który zwiększa, a nie ogranicza potencjał człowieka.

Jeśli interesuje Cię temat modelu M-shape w organizacjach, warto sięgnąć po raport opracowany przez Booster of Innovation pt. „Era M-Shape. Kariera przyszłości w erze AI”. Publikacja zawiera kluczowe wnioski dotyczące tego kierunku rozwoju rynku pracy, wyniki badań naukowych dotyczących roli sztucznej inteligencji i współpracy człowieka z AI w procesie rozwijania nowych kompetencji, a także liczne przykłady wdrożeń i inspiracje z organizacji, które już dziś budują środowiska pracy oparte na modelu M-shape. n

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

STRONA INTERNETOWA

W 1 MINUTĘ

Sztuczna inteligencja zastosowana w Kreatorze AI od LH.pl pozwala na błyskawiczne tworzenie stron. Na pytania Krzysztofa Bogackiego o tę nową funkcjonalność odpowiada Aneta Rutkowska, COO LH.pl

Wprowadziliście ostatnio inteligentny kreator stron internetowych – jak działa i czym różni się od popularnych platform umożliwiających „wyklikanie” strony?

Jego główną różnicą jest to, że działa on na wszystkim bardzo dobrze znanym CMSie czyli na WordPressie. Silnik WordPress napędza obecnie ponad 40 proc. globalnego rynku stron WWW. Popularne kreatory często zbudowane są na autorskich rozwiązaniach, natomiast my postawiliśmy na coś, z czego korzystają już nasi klienci i znają to środowisko bardzo dobrze. Strona zbudowana w naszym kreatorze AI działa i jest edytowalna tak jak każda inna strona stworzona w środowisku WordPress. Jeżeli właściciel strony będzie chciał ją przenieść na inny hosting, nikt mu tego nie zabroni, co w przypadku popularnych generatorów nie jest możliwe ze względu na stosowany tzw. vendor lock. Wykorzystanie WordPressa ma swoje zalety również w pozycjonowaniu. Pozycjonerzy chętnie wybierają WordPressa z uwagi na jego plastyczność oraz wiele rozwiązań tzw. out of the box. SEO bardzo lubi dobrze zbudowane strony z odpowiednią strukturą nagłówków, wypełnione metadanymi, pozwalające na umieszczenie znacznej ilości treści, które wspomagają pozycjonowanie. W WordPressie dobrze odnajdują się także copywriterzy, a samo pisanie treści jest intuicyjne i przyjemne. Generatory stron, nie dość, że bywają bardzo kosztowne, nierzad-

ko ograniczają możliwość rozbudowy treści do prostych bloków z tekstem, a osiągnięcie dobrego poziomu technicznego SEO graniczy z cudem.

Co umożliwia kreator oraz ile czasu potrzeba by postawić na nim stosunkowo prostą np. stronę wizytówkę? Zanim kreator zacznie generować stronę WWW należy wprowadzić do niego kilka podstawowych informacji – opis strony, czyli to, czym się zajmujemy, jaką stronę chcemy zbudować, co ona powinna zawierać, na czym nam zależy by zostało wyróżnione. Do kreatora wprowadzamy także nazwę strony i odpowiadamy na kilka podstawowych pytań o to, jakie elementy strony WWW mają być dla nas zbudowane. Decydujemy, czy strona ma posiadać formularz kontaktowy, blok z ofertą, recenzjami naszych produktów lub usług, czy też baner reklamowy lub informacje na temat naszej lokalizacji. Wszystkie decyzje, które podejmiemy na etapie wprowadzania danych do kreatora, możemy potem zmienić z poziomu asystenta AI oraz edycji strony. Gdy wprowadzimy do kreatora komplet informacji (najczęściej użytkownikom zajmuje to kilkadziesiąt sekund), kreator przystąpi do generowania strony.

W pierwszym kroku zajmuje się kompleksowo instalacją silnika WordPress, pobiera go z oficjalnego repozytorium WordPressa, a zatem opiera się na najnowszej dostępnej wersji tego CMSa. WordPress instalowany jest w języku polskim, a proces trwa około 20 se-

kund. W kolejnym kroku kreator, na podstawie udzielonych informacji, dobiera i proponuje kilkadziesiąt różnych układów stron WWW, które w najlepszy, jego zdaniem, sposób eksponują naszą ofertę i realizują nasze cele. Wybieramy jeden z zaproponowanych układów. Po wskazaniu wyglądu strony, kreator generuje treści oraz grafiki, wypełnia witrynę wartościowym contentem, który w późniejszym etapie można wymienić lub edytować. Grafiki pobierane są z globalnego banku grafik, a także mogą być generowane przez AI. Użytkownik zyskuje prawa do wykorzystania ich w sposób komercyjny, a zatem – mogą pozostać na stronie. Drugi etap, etap kreacji, zajmuje kolejne 20-30 sekund, co pozwala zamknąć cały proces generowania w pełni funkcjonalnej i atrakcyjnej wizualnie strony WWW w zaledwie jedną minutę.

Z uwagi na fakt, iż generator oparty jest o WordPressa, po wygenerowaniu strony użytkownik może ją dowolnie modyfikować. Może usunąć lub zastąpić zainstalowane wtyczki, doinstalować następne dodatki, zmienić układ strony, edytować treści, zmienić grafiki. Użytkownicy nie muszą także na początku decydować o wszystkich dostępnych zakładkach, mogą z czasem dodać nową podstronę, np. blog lub sklep. Kreator da im jednak coś unikatowego – solidną bazę, punkt wyjścia, który zdecydowanie ułatwia poruszanie się w WordPressie, szczególnie początkującym użytkownikom.

Wewnątrz kreatora dostępny jest Agent AI. To asystent, który nie tylko może wykonać proste poprawki na stronie WWW, ale także przekaże kompletne instrukcje postępowania w konfiguracji. Możemy zlecić asystentowi zmianę kolorów, fontów, napisanie nowej treści, wygenerowanie nowych grafik, albo zapytać go jak osiągnąć pożądany efekt. Asystent wciąż się uczy, z tygodnia na tydzień wykona dla nas więcej operacji i będzie bardziej pomocny. Kreator AI jest dostępny cały czas. Oznacza to, że do raz wygenerowanej strony można generować kolejne podstrony i nie trzeba całego procesu zaczynać na nowo.

Kto jest dziś główną grupą docelową dla tej usługi? Naszym kreatorem AI chcieliśmy dotrzeć do grupy do tej pory jeszcze niezaktywizowanej tj. osób, które prowadzą swoje biznesy, potrzebują wizytówki, ale nie do końca wiedzą jak wygląda proces tworzenia strony, ile ona kosztuje i z czym wiąże się jej utrzymanie. W wielkim skrócie są to osoby, które nie mają żadnego doświadczenia w dziedzinie tworzenia stron i nie mają także budżetu na zlecenie witryny profesjonaliście. Chcieliśmy dać narzędzie, które będzie proste w obsłudze, efektywne i również efektowne. To narzędzie ma pomóc wejść zupełnie nowym osobom do świata online, bo dzisiaj praktycznie każdy potrzebuje swojej strony, nawet w formie prostej wizytówki. My dajemy taką możliwość, a nasz kreator AI będzie pierwszym krokiem postawionym w świecie stron internetowych i, mamy nadzieję, zainspiruje do poszerzenia swojej wiedzy w tym temacie.

Kreator AI to także szansa dla osób, których strony są stare, przestarzałe i nie realizują już oczekiwanych celów. Nierzadko inwestycja w nową stronę to czas i środki, które nie są priorytetem dla małych firm. Naszą grupą docelową również są osoby, które tworzą strony WWW dla klientów, a WordPressa traktują jako swoje narzędzie pracy. Uważamy, że Kreator pozwoli im usprawnić dotychczas wykonywane zadania. W 2024 roku przeprowadziliśmy duże badanie wśród klientów i twórców stron internetowych. Zapytaliśmy twórców stron co stanowi dla nich największą przeszkodę w pracy z klientem. Najczęściej udzielaną odpowiedzią była niska jakość dostarczanych materiałów. Mowa tu o tekstach, a także grafikach, które miały widnieć na stronie. Dodatkowo problem stanowiło niezdecydowanie klienta, częste korekcje głównego stylu strony lub i fundamentalnych zastosowań. Tutaj również nasz Kreator znajdzie zastosowanie. Dzięki błyskawicznemu procesowi tworzenia strony, deweloper będzie w stanie już podczas pierwszego spotkania określić

chcieliśmy dotrzeć do grupy do tej pory jeszcze niezaktywizowanej tj. osób, które prowadzą swoje biznesy, potrzebują wizytówki, ale nie do końca wiedzą jak wygląda proces tworzenia strony, ile ona kosztuje i z czym wiąże się jej utrzymanie.

wymagania klienta, wyznaczyć ogólną wizję na daną stronę dzięki czemu uniknie późniejszych nieporozumień lub niepotrzebnych, dodatkowych sesji poprawkowych, które tylko oddalają nas od finalizacji projektu.

Jakie są wasze, jako firmy, oczekiwania związane z tym projektem?

Marzy nam się, by po kreator sięgnęły osoby początkujące, takie, które nie mają wystarczająco dużo czasu na samodzielną naukę budowania stron WWW. Kreator stworzy dla nich solidny fundament i pozwoli realizować cele szybciej i skuteczniej. Osoby z tej grupy dotychczas musiały korzystać z niezbyt wydajnych generatorów stron, które zawiązywały je z dostawcą na lata drogim abonamentem, lub… rezygnowały z planu budowy strony internetowej. Chcemy to zmienić. Podobnie jak osoby, które mają stare, niefunkcjonalne strony WWW, które raczej odstraszają, zamiast przyciągnąć nowych klientów. To także szansa dla nich na odświeżenie swojego cyfrowego wizerunku. Ponadto chcemy sprawić, by twórcy stron WWW korzystali z generatora stron jako narzędzia wspierającego etap briefowania klienta. Zamiast długich i wyczerpujących rozmów, spotkań i niekończących się procesów decyzyjnych, webmaster może w kilka minut wygenerować kilka wersji wizualnych strony, pokazać je klientowi i nie tylko zrobić efekt WOW, ale także zadać proste pytanie: w którą stronę idziemy? W przypadku bardziej zaawansowanych stron, sklepów, aplikacji, kreator nie zastąpi twórców stron, nie zastąpi doświadczonych developerów, webmasterów, ale znacząco ułatwi ich pracę z klientem oraz wczesny etap budowania strony WWW.

Link do kreatora: https://www.lh.pl/kreator

Link do wspomnianego badania rynku: https:// www.lh.pl/lp/ebook-ile-kosztuje-wordpress/

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej
Aneta Rutkowska COO LH.pl

AMBITNE PLANY MINISTERSTWA CYFRYZACJI

Według przedstawicieli kierownictwa Ministerstwa Cyfryzacji, inwestycje w edukację, innowacje oraz suwerenność technologiczną mają wzmocnić gospodarkę. Celem resortu jest stworzenie państwa cyfrowego, przyjaznego i bezpiecznego dla obywateli.

Żyjemy w trudnych czasach, choć zdaniem niektórych obserwatorów – fascynujących. Po wielu latach względnego spokoju sytuacja geopolityczna staje się coraz bardziej niepokojąca. Jednocześnie jesteśmy świadkami niespotykanego w historii rozwoju technologii. Wśród zwykłych ludzi to zjawisko również wzbudza rosnące obawy. Jednak środowisko teleinformatyczne nie ma wątpliwości. Kto nie idzie naprzód, ten się cofa. Dlatego trzeba cyfryzować zarówno społeczeństwo, jak i gospodarkę. Jak podkreślają przedstawiciele kierownictwa Ministerstwa Cyfryzacji, inwestycje w edukację, innowacje oraz suwerenność technologiczną mają wzmocnić gospodarkę. Chodzi o zapewnienie bezpieczeństwa państwa i pozycji Polski na arenie międzynarodowej. Podejmowane mają być konkretne działania: od opracowania i wdrożenia przepisów prawa, poprzez budowę zaplecza technologicznego, prace badawcze, współpracę międzynarodową oraz krajową między sektorami i branżami.

Rozwój krajowej infrastruktury AI

– W latach 2026–2027 skoncentrujemy się na budowie przyjaznego i bezpiecznego państwa cyfrowego – podkreśla Krzysztof Gawkowski, wicepremier i minister cyfryzacji. – Jego nadrzędnym celem będzie realna poprawa jakości życia Polaków. Fundamentem tej wizji jest wzmocnienie

Krajowego Systemu Cyberbezpieczeństwa. Realizujemy ją poprzez wdrażanie nowoczesnych regulacji, które zapewniają lepszą ochronę danych oraz stabilność usług, z których obywatele korzystają każdego dnia.

Przez najbliższe dwa lata Ministerstwo będzie nadal wspierało rozwój krajowej infrastruktury sztucznej inteligencji (AI) oraz polskich modeli językowych. Mamy zbudować własny ekosystem technologiczny, dzięki czemu Polska zyska większą cyfrową i naukową suwerenność w Europie. W 2026 roku planuje się zakończenie prac nad projektami polityki AI oraz półprzewodników, a także założeń do polityki dotyczącej technologii kwantowych. W ten sposób powstaną strategiczne ramy dla rozwoju nowoczesnych technologii w Polsce.

Zamierzamy inwestować w infrastrukturę dla zwiększenia mocy obliczeniowej, szczególnie poprzez budowę dwóch fabryk AI: w Poznaniu i Krakowie. Mają one zapewnić dostęp do superkomputerów, centrów danych i szkoleń. Dzięki temu będą służyć zespołom badawczym oraz firmom technologicznym. Technologie AI będą wprowadzane także do administracji publicznej, co przyczyni się do jej większej innowacyjności, uczyni ją bardziej przyjazną i sprawną.

Nowa Strategia

W ciągu najbliższych miesięcy ma nastąpić finalizacja prac nad nową Strategią Cy-

fryzacji Państwa do 2035 r. i wdrażanie jej założeń w życie. Jak podkreślają jej twórcy, to ponadsektorowy dokument strategiczny w dziedzinie informatyzacji państwa, określający nadrzędny cel, jakim jest poprawa jakości życia obywateli poprzez cyfryzację do 2035 r. Jego realizacja będzie możliwa tylko dzięki interwencji w wielu obszarach wykraczających poza tradycyjnie definiowany dział administracji informatyzacja.

Zaplanowane cele obejmują szerokie spektrum zagadnień, począwszy od kwestii horyzontalnych, poprzez płaszczyznę państwa i jego obywateli, na gospodarce i rozwoju technologii kończąc. Takie podejście pozwoli na stworzenie nowoczesnej, przekrojowej i odpowiadającej na aktualne wyzwania wizji rozwoju cyfrowego. Będzie ona bazowała na trendach europejskich i globalnych, wynikając z diagnozy obecnego stanu informatyzacji państwa oraz odpowiadając na formułowane oczekiwania społeczne.

Jednak wdrażanie Strategii nie może się odbywać w oderwaniu od otoczenia – zarówno krajowego, jak i unijnego. Sformułowane cele znajdują odzwierciedlenie i są uszczegółowione w wielu już obowiązujących dokumentach lub będą spójne z nowymi, które są obecnie opracowywane, takie jak Strategia Cyberbezpieczeństwa RP, Narodowy Plan Szerokopasmowy, Program Rozwoju Kompetencji Cyfrowych, Program Otwierania Danych, Polityka Rozwoju Sztucznej Inteligencji czy Polityka Cyfrowej Transformacji Edukacji.

Nasza wizja na 2035 r. koncentruje się na człowieku i tym, jak najskuteczniej poprawić jakość życia obywateli, twierdzą autorzy Strategii. Za dziesięć lat wizyta w urzędzie będzie czymś wyjątkowym – wszystkie kluczowe usługi będą dostępne przez telefon, z każdego miejsca w kraju. Państwowe systemy same wykryją, że jakieś działanie powinno być podjęte i zaproponują rozwiązanie. Obywatel czy przedsiębiorca nigdy nie będzie musiał dwa razy podawać tych samych danych – urzędy same się nimi wymienią dzięki pełnej interoperacyjności systemów i rejestrów. Dzięki planowanej poprawie koordynacji między różnymi częściami administracji unikniemy dublowania rozwiązań i niespójności, a tym samym marnowania publicznych pieniędzy. Naturalnie intensywny rozwój cyfrowej administracji wymaga inwestycji – w infrastrukturę, kompetencje urzędników i zapewnienie najwyższego poziomu bezpieczeństwa systemom państwowym i tym, które dla państwa mają istotne znaczenie. To szczególnie istotne wobec poważnego pogorszenia międzynarodowej sytuacji bezpieczeństwa i wzrostu cyberprzestępczości. Ale bezpieczeństwo postrzegane jest znacznie szerzej – również w kontekście zdrowia psychicznego czy ochrony obywateli przed szkodliwymi treściami. Dlatego w 2035 r. polscy obywatele muszą mieć nie tylko wysokie kompetencje w korzystaniu z technologii cyfrowych, ale też świadomość, jak korzystać z nich w zdrowy sposób, a czasem – kiedy warto się po prostu odłączyć. Rozwój sfery cyfrowej musi być zrównoważony – z perspektywy psychologicznej, pracowniczej i klimatycznej.

– Nasza strategia na najbliższe lata obejmuje rozwój sztucznej inteligencji oraz kluczowych rozwiązań cyfrowych, takich jak aplikacja mObywatel i e-Doręczenia – mówi Krzysztof Gawkowski. –Istotnym elementem jest także objęcie szczególną ochroną wrażliwych sektorów gospodarki oraz skuteczne reagowanie na incydenty krytyczne.

Cele do osiągnięcia do 2035 r.

W latach 2026–2027 skoncentrujemy się na budowie przyjaznego i bezpiecznego państwa cyfrowego. Jego nadrzędnym celem będzie realna poprawa jakości życia Polaków. Fundamentem tej wizji jest wzmocnienie KSC. Realizujemy ją poprzez wdrażanie nowoczesnych regulacji, które zapewniają lepszą ochronę danych oraz stabilność usług, z których obywatele korzystają każdego dnia.

Krzysztof Gawkowski

Wicepremier i Minister Cyfryzacji RP

Równolegle będziemy intensywnie pracować nad ochroną dzieci w sieci, walką z dezinformacją oraz podnoszeniem kompetencji cyfrowych, prowadząc między innymi szeroko zakrojone programy edukacyjne. Budujemy stabilną i bezpieczną cyberprzestrzeń, która stanie się odpornym filarem dla całego społeczeństwa i nowoczesnej gospodarki. Ministerstwo będzie wspierało rozwój krajowej infrastruktury sztucznej inteligencji oraz polskich modeli językowych. Zbudujemy własny ekosystem technologiczny, dzięki czemu Polska zyska większą cyfrową i naukową suwerenność w Europie. Uruchomimy piaskownice regulacyjne i technologiczne, które pozwolą bezpiecznie testować i prototypować rozwiązania AI.

– Wprowadzamy technologie AI do administracji publicznej, aby uczynić ją bardziej innowacyjną –dodaje Dariusz Standerski, sekretarz stanu w Ministerstwie Cyfryzacji. –Wspieramy podnoszenie kwalifikacji w zakresie AI poprzez szkolenia i webinaria. Celem tych działań jest stworzenie systemu

q Przynajmniej podstawowe kompetencje cyfrowe będzie miało 85 procent obywateli;

q 100 proc. projektów IT o publicznym zastosowaniu realizowanych zgodnie z jednolitymi standardami i rekomendacjami Architektury Informacyjnej Państwa;

q 100 proc. podmiotów realizujących zadania publiczne pracuje w systemie elektronicznego zarządzania dokumentami;

q 100 proc. spraw prowadzonych przez te podmioty załatwianych jest elektronicznie;

q 20 milionów Polaków posiada portfel tożsamości cyfrowej;

q Wszystkie kluczowe e-usługi dostępne są w aplikacji mObywatel;

q 100 jednostek chorobowych diagnozowanych wspomagająco z wykorzystaniem AI;

q Przynajmniej 1,5 mln specjalistów ICT;

q 100 proc. jednostek administracji publicznej udostępniających e-płatności;

q 50 proc. firm wykorzystujących narzędzia AI;

q 5 proc. PKB przeznaczane na cyfryzację od 2035 roku.

Źródło: Ministerstwo Cyfryzacji

wspierającego bezpieczny rozwój sztucznej inteligencji w Polsce i wzmocnienie miejsca naszego kraju w cyfrowej transformacji Europy. Ministerstwo pracuje nad wprowadzeniem do polskiego porządku prawnego przepisów unijnego rozporządzenia o systemach sztucznej inteligencji (AI Act). Umożliwi to powstanie piaskownic regulacyjnych dla przedsiębiorców i samorządów. Przepisy te wprowadzą procedury chroniące użytkowników, a równocześnie wesprą rozwój innowacji.

W obszarze legislacji planuje się ponadto uruchomienie piaskownic regulacyjnych sztucznej inteligencji. Ministerstwo Cyfryzacji zamierza uruchomić pierwszą w Polsce piaskownicę regulacyjną do 2 sierpnia 2026 r. Umożliwi ona przedsiębiorcom bezpieczne testowanie rozwiązań AI. Jest to realizacja zobowiązań Polski wobec Unii Europejskiej. Równolegle mają zostać stworzone piaskownice technologiczne, które umożliwią administracji publicznej, w tym jednostkom samorządu terytorialnego, bezpieczne prototypowanie i testowanie rozwiązań AI w kontrolowanym środowisku. W portalu sztucznej inteligencji (ai.gov.pl) będzie utworzona sekcja poświęcona piaskownicom, która stanie się punktem wejścia do ekosystemu AI obejmującego piaskownice regulacyjne i technologiczne, infrastrukturę obliczeniową fabryk AI oraz gotowe rozwiązania, m.in. stale rozwijany polski model językowy PLLuM. Ministerstwo będzie również kontynuować prace badawcze dotyczące wpływu rozwoju sztucznej

Nowe podejście do cyfryzacji

inteligencji na gospodarkę, cyberbezpieczeństwo, higienę cyfrową oraz na rynek pracy, ze szczególnym uwzględnieniem nowych i prognozowanych zawodów. Równolegle monitorowane będą potrzeby przedsiębiorców w zakresie piaskownic regulacyjnych.

– Zaczęliśmy wdrażanie Strategii Cyfryzacji Państwa do 2035 roku – zwraca uwagę Dariusz Standerski. – Priorytety tej Strategii to podniesienie kompetencji cyfrowych obywateli oraz cyfrowa transformacja wszystkich obszarów funkcjonowania państwa. Chcemy zmienić sposób, w jaki obywatele, przedsiębiorcy i instytucje załatwiają sprawy urzędowe.

Upowszechniony zostanie system EZD RP (System Zarządzania Dokumentami), a e-Doręczenia już stały się podstawową formą komunikacji z podmiotami publicznymi. Równocześnie rozwijana jest aplikacja mObywatel. Od grudnia ubiegłego roku dostępny jest w niej wirtualny asystent, a wkrótce pojawią się kolejne funkcjonalności, w tym Europejski Portfel Tożsamości Cyfrowej, który ma być uruchomiony do końca 2026 roku. Umożliwi on łatwe potwierdzanie tożsamości w całej Unii Europejskiej. Docelowo, zgodnie ze Strategią, wszystkie kluczowe e-usługi mają być dostępne w aplikacji do 2035 r. – Wśród planów resortu jest ukończenie budowy platformy GovTech – twierdzi Rafał Rosiński, podsekretarz stanu w Ministerstwie Cyfryzacji. – Ma ona stać się realnym pomostem między administracją publiczną a biznesem, startupami i śro-

dowiskiem naukowym. Stawiamy na stałą współpracę i wspólne wypracowywanie rozwiązań, które pozwolą polskim technologiom rozwijać się i skutecznie konkurować na rynkach międzynarodowych. Temu celowi służy także zespół IC Team, w którego pracach uczestniczą przedstawiciele administracji, biznesu, nauki oraz organizacji branżowych. Rozwój innowacji to nie tylko obecność Polski na najważniejszych wydarzeniach technologicznych na świecie, ale także działania prowadzone blisko obywateli. Dlatego inwestujemy w warsztaty Smart City i Smart Village. Wspierają one samorządy w tworzeniu nowoczesnych rozwiązań odpowiadających na realne potrzeby lokalnych społeczności. To połączenie globalnej promocji Polski z lokalną współpracą i praktyką.

Cyberbezpieczeństwo

Ze względu na położenie Polski oraz rosyjską agresję na Ukrainę wzmacnianie cyberbezpieczeństwa państwa stanowi fundamentalny warunek dla zachowania bezpieczeństwa w całej Unii Europejskiej. Dlatego w ciągu najbliższych dwóch lat Ministerstwo Cyfryzacji będzie kontynuowało działania, dzięki którym Polska ma być jednym z najbezpieczniejszych cyfrowo państw w Europie. Resort będzie pracował nad projektami legislacyjnymi i innymi inicjatywami, które pomogą lepiej chronić obywateli, sektor publiczny i infrastrukturę krytyczną przed narastającymi zagrożeniami w sferze cyfrowej.

q Koniec z silosowością, która sprawia, że poszczególne części administracji nie widzą się wzajemnie, podwyższa koszty i radykalnie utrudnia budowę korzystnych dla obywateli rozwiązań;

q Pieniądze, ludzie i lepsza organizacja – specjaliści, którzy tworzą potencjał cyfrowy państwa nie mogą tego robić za płacę minimalną;

q Współpraca – międzynarodowa, ale też między państwem a uczelniami, społeczeństwem i biznesem. Współpraca, w której wszyscy – również międzynarodowe korporacje – dokładają swoje cegiełki do budowy wspólnego dobra;

q Obywatele – nowe rozwiązania nie mogą być wprowadzane kosztem bezpieczeństwa, zarówno w odniesieniu do cyberbezpieczeństwa, jak i do praw podstawowych;

q Sprawiedliwa transformacja cyfrowa – rozwijające się cyfrowe państwo musi dbać o klimat, prawa pracowników i wsparcie osób, których miejsca pracy są zagrożone przez technologię. Nie można też myśleć, że technologia sama rozwiąże wszystkie problemy;

q Bezpieczeństwo – w cyberprzestrzeni, w wykorzystaniu AI, w bezpiecznym korzystaniu z technologii w ogóle – przede wszystkim przez dzieci.

Źródło: Ministerstwo Cyfryzacji

– Zaplanowaliśmy rekordowe nakłady na rozwój krajowego systemu cyberbezpieczeństwa, w tym wdrożenie unijnej dyrektywy NIS2 – ujawnia Paweł Olszewski, sekretarz stanu w Ministerstwie Cyfryzacji. – Przepisy te zobowiążą wszystkie podmioty kluczowe i ważne do stosowania określonych środków ochrony – zarówno wewnątrz organizacji, jak i w łańcuchach dostaw. Równolegle budujemy Centrum Cyberbezpieczeństwa NASK oraz rozwijamy portal cyber.gov.pl, który umożliwia zgłaszanie incydentów i dostęp do fachowej wiedzy, wzmacniając odporność całego państwa.

Higiena cyfrowa

Do ważnych działań Ministerstwa Cyfryzacji należy kompleksowa ochrona dzieci przed szkodliwymi treściami i zjawiskami w internecie. Walka z dezinformacją, z którą spotykają się w internecie zarówno dzieci, jak i dorośli, zajmuje istotne miejsce w planach Ministerstwa Cyfryzacji na najbliższe dwa lata. Ministerstwo Cyfryzacji i NASK będą organizowały kampanie społeczne poświęcone przeciwdziałaniu dezinformacji. W resorcie cyfryzacji powstają również Krajowe Ramy Przeciwdziałania Dezinformacji – dokument, który uporządkuje działania państwa w tym obszarze. – Ochrona dzieci przed szkodliwymi treściami w internecie to jeden z priorytetów Ministerstwa Cyfryzacji – podkreśla Paweł Olszewski. – W latach 2026-2027 planujemy działania budujące cyfrową odporność dzieci oraz podnoszące kompetencje dorosłych, aby mogli skutecznie chronić młodych użytkowników sieci. Do końca roku szkolnego 2025/2026 kontynuowane będą działania pod hasłem „Włącz szacunek. Wyłącz hejt”, realizowane wspólnie z NASK i ABW. Wspieramy szkoły, rodziców i uczniów w walce z cyberprzemocą. Rodzice i nauczyciele będą mogli zdobywać wiedzę i kompetencje cyfrowe w programie Centralnego Ośrodka Informatyki „Cyfrowe Mosty”, a we współpracy z NASK będziemy dalej realizować program Cyberprofilaktyka. Są to szkolenia dla uczniów i kadry pedagogicznej dotyczące bezpieczeństwa dzieci i młodzieży w sieci, w tym przeciwdziałania dezinformacji. Na lata 2026-2027 zaplanowaliśmy wiele działań wspierających rozwój kompetencji cyfrowych Polek i Polaków we wszystkich grupach wiekowych. Kontynuujemy programy rozwijające talenty informatyczne oraz inwestycje w nowoczesne wyposażenie szkół, w tym zestawy do nauczania zdalnego, a także laboratoria AI i STEM. Równolegle będziemy prowadzić szkolenia dla obywateli i administracji publicznej z zakresu bezpiecznego i odpowiedzialnego wykorzystania sztucznej inteligencji oraz kampanie edukacyjne budujące świadomość technologiczną.

Zaczęliśmy wdrażanie Strategii Cyfryzacji Państwa do 2035 roku. Priorytety tej Strategii to podniesienie kompetencji cyfrowych obywateli oraz cyfrowa transformacja wszystkich obszarów funkcjonowania państwa.

Dariusz Standerski Sekretarz stanu w Ministerstwie Cyfryzacji

Zarządzanie danymi

W najbliższych latach Ministerstwo Cyfryzacji będzie kontynuowało prace nad przepisami, które tworzą otoczenie prawne dla zarządzania danymi w Polsce. Polska będzie także uczestniczyła w pracach nad unijnymi przepisami, które mają za zadanie uporządkować i uprościć prawo cyfrowe w Unii Europejskiej, czyli nad pakietem regulacyjnym zwanym omnibusem cyfrowym. Ma on za zadanie uporządkować i skonsolidować następujące przepisy UE:

q RODO; q akt w sprawie danych (DA); q akt w sprawie zarządzania danymi (DGA); q dyrektywa w sprawie otwartych danych (ODD); q rozporządzenie w sprawie swobodnego przepływu danych nieosobowych (FFOD).

Komunikacja elektroniczna

– Będziemy rozwijać krajowe przepisy dotyczące zarządzania danymi oraz aktywnie uczestniczyć w tworzeniu unijnego pakietu omnibus cyfrowy, który uporządkuje i uprości prawo cyfrowe w UE. Jednocześnie kontynuowane będą szkolenia dla pracowników administracji centralnej i samorządowej z zakresu zarządzania danymi. Priorytetem resortu w obszarze telekomunikacji jest także zapewnienie powszechnego dostępu do sieci i eliminacja tak zwanych białych plam. W tym celu będziemy kontynuować prace nad wdrożeniem przepisów tzw. megaustawy wprowadzającej do polskiego prawa unijny Gigabit Infrastructure Act (GIA).

Nowe regulacje mają ułatwić rozwój sieci gigabitowych, zwiększyć dostęp do infrastruktury telekomunikacyjnej i przyspieszyć inwestycje, zwłaszcza na terenach trudno dostępnych i komercyjnie nieopłacalnych – podsumowuje Michał Gramatyka, sekretarz stanu w Ministerstwie Cyfryzacji. n

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

www.itreseller.pl

HP UMACNIA SWOJĄ POZYCJĘ W POLSCE

Mocny wzrost w segmencie PC i pozycja lidera w naszym kraju mimo presji kosztowej. Pierwszy kwartał roku fiskalnego 2026 przyniósł HP Inc. wyraźne przyspieszenie przychodów oraz poprawę wyników w segmencie komputerów osobistych.

Firma osiągnęła 14,4 mld dolarów przychodu, co oznacza wzrost o 6,9 proc. rok do roku. W ujęciu stałowalutowym dynamika wyniosła 5,2 proc. Zysk na akcję według standardów GAAP sięgnął 0,58 dol., wobec 0,59 dol. przed rokiem. W ujęciu non GAAP EPS wzrósł do 0,81 dol. z 0,74 dol., czyli o 9,5 proc.

Bruce Broussard, tymczasowy prezes HP Inc, ocenił, że spółka ma za sobą solidny początek roku fiskalnego, w którym kluczową rolę odegrał dwucyfrowy wzrost w segmencie Personal Systems. Szczególnie istotne znaczenie miała dalsza ekspansja komputerów wyposażonych w funkcje sztucznej inteligencji. W jego ocenie wyniki potwierdzają konkurencyjność portfolio oraz skuteczność realizowanej strategii Future of Work, mimo utrzymującej się presji kosztowej i wymagającego otoczenia branżowego.

Komputery z AI napędzają wzrost

Segment Personal Systems wygenerował 10,3 mld dolarów przychodu, co oznacza wzrost o 11 proc. rok do roku. Sprzedaż w części konsumenckiej zwiększyła się o 16 proc., a w komercyjnej o 9 proc. Łączna liczba sprzedanych urządzeń wzrosła o 12 proc., przy czym w segmencie konsumenckim o 14 proc., a w komercyjnym o 11 proc. Wzrost napędzają komputery z funkcjami sztucznej inteligencji, które globalnie odpowiadają już

Polska stała się jednym z naszych najsilniejszych rynków wzrostu w Europie Środkowej, a wyniki za IV kwartał potwierdzają zasadność naszych długoterminowych inwestycji w rozwiązania oparte na AI oraz portfolio produktów premium. Obserwujemy wysoką adopcję przez konsumentów komputerów z AI, a HP jest wyjątkowo dobrze przygotowane, aby przewodzić transformacji pod hasłem Future of Work.

Andrzej Sowiński Country Managing Director HP Inc Polska.

za ponad 30 proc. dostaw HP w czwartym kwartale 2025 roku.

Odmiennie wygląda sytuacja w segmencie Printing. Przychody wyniosły 4,2 mld dolarów i były niższe o 2 proc. rok do roku. Sprzedaż w części konsumenckiej spadła o 8 proc., a w komercyjnej o 3 proc. Łączna liczba sprzedanych urządzeń drukujących zmniejszyła się o 6 proc. Mimo tego dział utrzymał wysoką marżę operacyjną na poziomie 18,3 proc., co pokazuje jego wciąż istotne znaczenie dla rentowności całej grupy. Spółka wygenerowała 383 mln dolarów przepływów pieniężnych z działalności operacyjnej oraz 175 mln dolarów wolnych przepływów pieniężnych. W pierwszym kwartale HP przeznaczyło 277 mln dolarów na dywidendy, wypłacając 0,30 dol. na akcję, oraz 325 mln dolarów

na skup około 13,3 mln akcji. Na koniec kwartału firma dysponowała 3,2 mld dolarów środków pieniężnych brutto.

Presja kosztowa i otoczenie regulacyjne

Karen Parkhill, CFO HP Inc., zwróciła uwagę, że pierwszy kwartał przyniósł rezultaty lepsze od rynkowych oczekiwań, zarówno pod względem dynamiki przychodów, jak i zysku na akcję w ujęciu non-GAAP. Jednocześnie podkreśliła, że spółka funkcjonuje w warunkach rosnących kosztów pamięci oraz zmiennego otoczenia regulacyjnego, co wpływa na ostrożniejsze podejście do kolejnych kwartałów.

HP podtrzymuje całoroczne prognozy finansowe, jednak zakłada, że

wyniki mogą znaleźć się bliżej dolnych granic wcześniej wskazanych przedziałów. Zarząd koncentruje się na działaniach ograniczających wpływ presji kosztowej oraz na utrzymaniu dyscypliny operacyjnej w dynamicznym otoczeniu rynkowym.

Znakomite wyniki w Polsce

Globalne dane finansowe zbiegają się z bardzo dobrymi wynikami HP w Polsce. Firma zajęła pierwsze miejsce pod względem całkowitej sprzedaży komputerów w kraju w czwartym kwartale 2025 roku, zarówno ogółem, jak i w segmencie komercyjnym. Udział w całym roku sięgnął 27,2 proc., co oznacza wzrost o 10,2 pkt proc. w ciągu dwóch lat.

– Polska stała się jednym z naszych najsilniejszych rynków wzrostu w Europie Środkowej, a wyniki za IV kwartał potwierdzają zasadność naszych długoterminowych inwestycji w rozwiązania oparte na AI oraz portfolio produktów premium. Obserwujemy wysoką adopcję przez konsumentów komputerów z AI, a HP jest wyjątkowo dobrze przygotowane, aby przewodzić transformacji pod hasłem Future of Work – po-

wiedział Andrzej Sowiński, Country Managing Director HP Inc Polska. – Rozwiązania oparte na AI zwiększają produktywność pracowników, a komputery z funkcjami sztucznej inteligencji pozwalają klientom skupić się na kluczowych zadaniach przy wyższej wydajności, lepszym zabezpieczeniu i niższych kosztach – dodał. W 2025 roku HP osiągnęło globalnie 55,3 mld dolarów przychodu i zanotowało szósty z rzędu kwartał wzrostu. Dane wdrożeniowe wskazują, że adopcja komputerów AI przełożyła się na 16 proc. wzrost produktywności pracowników, a wskaźnik satysfakcji zatrudnionych wzrósł o 17 proc. w ciągu dwóch lat od wdrożenia platformy Workforce Experience Platform.

Wyniki za pierwszy kwartał fiskalny 2026 pokazują, że HP skutecznie wykorzystuje ożywienie w segmencie PC oraz rosnące zainteresowanie rozwiązaniami opartymi na sztucznej inteligencji. Jednocześnie firma musi mierzyć się z presją kosztów komponentów i niepewnością regulacyjną. Połączenie solidnych globalnych danych finansowych z pozycją lidera w Polsce wzmacnia jednak obraz spółki jako jednego z głównych beneficjentów odradzającego się rynku komputerów osobistych. n

Skomentuj, polub lub udostępnij!

Artykuł dostępny w wersji cyfrowej www.itreseller.pl

NAJLEPSZY PIERWSZY KWARTAŁ W HISTORII

MOCNE OTWARCIE ROKU GRUPY AB

Dolnośląska Grupa AB udowadnia, że przemyślana strategia pozwala na stabilny rozwój i skalowanie biznesu nawet w wymagającym otoczeniu makroekonomicznym.

Pierwszy kwartał roku obrotowego 2025/2026 przyniósł największemu dystrybutorowi IT w regionie CEE znaczący wzrost zysków oraz przychodów, stanowiąc najlepsze wejście w nowy rok finansowy w historii firmy. Wypracowane wskaźniki przełożyły się również na rekordową rekomendację dywidendową.

Konkretne liczby i efektywność operacyjna

Grupa AB, notowana w indeksie mWIG40, zamknęła pierwszy kwartał roku finansowego 2025/2026 (okres od października do grudnia 2025 r.) mocnymi wzrostami. Zysk netto wyniósł 94,6 mln zł, co oznacza skok o blisko 42 proc. rok do roku. Równie istotnie wzrósł wskaźnik EBITDA, osiągając 138,8 mln zł (wzrost o 30,2 proc.), przy przychodach na poziomie blisko 5,5 mld zł (+8,5 proc. rdr). W ujęciu ostatnich dwunastu miesięcy spółka wygenerowała przychody rzędu niemal 15,4 mld zł oraz ponad 201 mln zł zysku netto. Fundamentem tak dobrego początku nowego roku jest dyscyplina finansowa, o której zarząd wspominał już przy okazji podsumowań za poprzedni rok obrotowy:

– Dbamy o efektywność kapitału obrotowego, o redukcję kosztów finansowych. Pomimo wymagającego otoczenia w minionym roku finansowym oraz wysokiej bazy porównawczej utrzymaliśmy rentowność i skalę biznesu, generujemy solidną gotówkę i mamy mocny bilans oraz bezpieczne wskaźniki finansowe. Co ważne, mamy również dużą przestrzeń do wzrostu w kolejnych okresach – komentuje Grzegorz Ochędzan, Wiceprezes ds. Finansowych w AB S.A.

Dźwignia operacyjna pod pełną kontrolą

Wrocławska firma konsekwentnie doskonali swoje procesy. W minionym kwartale wskaźnik kosztów SG&A obniżono do poziomu 1,7 proc. Z kolei wskaźnik długu netto do EBITDA utrzymał się na bardzo bezpiecznym poziomie poniżej 0,4, a spółka na koniec grudnia dysponowała ponad 269 mln zł gotówki i wysokimi limitami kredytowymi. Skuteczność tych działań i gotowość do dalszych inwestycji precyzuje Grzegorz Ochędzan. – Wykorzystujemy dźwignię operacyjną i największą w branży efektywność działania. Maksymalizujemy wykorzystanie kapitału pracującego, trzymamy w ryzach koszty i automatyzujemy procesy. Mając na względzie duże projekty realizowane w poprzednim oraz w bieżącym kwartale, w naturalny sposób wzrosła

Przez cały czas konsekwentnie podążamy ścieżką długoterminowego wzrostu i budowania wartości dla akcjonariuszy, przy czym skala generowania gotówki już w coraz większym stopniu pozwala godzić priorytet bezpieczeństwa finansowego i rozwoju organicznego z dystrybucją zysków bezpośrednio do akcjonariuszy.

wartość należności handlowych oraz zapasów, a mimo to nasze całe zadłużenie finansowe netto przed MSSF16 miało wartość 127 mln zł, co było mniejszą kwotą nawet od kwartalnego wyniku

EBITDA. Wraz ze zbudowaną siłą operacyjną oznacza to, że Grupa AB jest gotowa na wykorzystanie szans biznesowych, jakie obecnie widzi przed sobą – mówi Grzegorz Ochędzan.

Ożywienie w branży i technologiczne trendy

Bardzo dobre wyniki Grupy AB są również ściśle powiązane z wyraźnym ożywieniem na szerokim rynku IT, szczególnie w obszarze przetargów publicznych i inwestycji korporacyjnych. – Ostatnie miesiące były czasem intensywnej pracy nad wykorzystaniem potencjału rynku, co doskonale nam się udało. W nowym roku finansowym 2025/2026 obserwujemy już ożywienie –zarówno w realizacji przetargów publicznych, jak i w popycie płynącym z pozostałych segmentów. Poza rosnącą aktywnością sektora publicznego widzimy także ożywienie inwestycji po stronie firm. Hasła jak sztuczna inteligencja i cyberbezpieczeństwo przekuwają się w zakupy, podobnie jak transformacja cyfrowa, XaaS, chmura, konwergencja technologiczna, rozwój e-commerce czy nowe regulacje w obszarze cyfryzacji, jak AI Act, CSRD, NIS2. Widoczny jest efekt końca wsparcia Windows 10 i ogólna wymiana sprzętu kupowanego w pandemii. Polska i nasz region inwestują coraz więcej, a AB ma wszelkie predyspozycje i atuty, aby ten korzystny okres dla branży IT bardzo dobrze wykorzystać– opowiada Andrzej Przybyło, Prezes Zarządu AB S.A. Obraz technologicznej zmiany na rynku doprecyzowuje Zbigniew Mądry, Wiceprezes Zarządu ds. Operacyjnych w AB S.A., który w procesie sukcesji CEO został zarekomendowany na Prezesa Zarządu nowej kadencji. Mądry wskazuje na konkretne uwarunkowania sprzętowe wspierające dystrybucję:

Andrzej Przybyło Prezes Zarządu AB S.A.

Czynniki takie jak dynamiczny rozwój sztucznej inteligencji, rosnące wydatki na cyberbezpieczeństwo czy postępująca transformacja cyfrowa realnie przekładają się dziś na popyt rynkowy – zarówno na sprzęt, jak i kompleksowe rozwiązania IT.

Zbigniew Mądry COO – Wiceprezes Grupy AB

– Czynniki takie jak dynamiczny rozwój sztucznej inteligencji, rosnące wydatki na cyberbezpieczeństwo czy postępująca transformacja cyfrowa realnie przekładają się dziś na popyt rynkowy – zarówno na sprzęt, jak i kompleksowe rozwiązania IT. Dodatkowym impulsem jest wymiana infrastruktury po zakończeniu wsparcia Windows 10, a także utrzymująca się presja popytowa na komponenty, w tym pamięci RAM i SSD.

W takim otoczeniu najsilniejsi uczestnicy łańcucha wartości są naturalnymi beneficjentami zachodzących zmian.

Długoterminowa strategia i solidna dywidenda

Obecna pozycja to efekt wielu lat konsekwentnego budowania zaufania i wsłuchiwania się w potrzeby rynku, co zaznacza prezes firmy: – To już nasz 77. kwartał jako spółki giełdowej i jak widać, potrafimy realizować mocno wzrostową ścieżkę rozwoju, wykorzystując przewagi rynkowe zbudowane przez 36 lat na bezpieczeństwie i zrównoważonym rozwoju, solidności oraz wsłuchiwaniu się w potrzeby rynku i jego kreowaniu. Grupa AB dzięki swojemu strategicznemu pozycjonowaniu ma przed sobą duże możliwości dalszego wzrostu –wskazuje Andrzej Przybyło. Wysoka rentowność przekłada się na konkretne korzyści dla akcjonariuszy. Zarząd zarekomendował w połowie lutego wypłatę dywidendy w wysokości 6,45 zł na akcję z zysku za rok 2024/2025, co oznacza duży wzrost o 115 proc. względem roku ubiegłego. Podejście to wynika z nowej polityki dystrybucji zysków.

– AB przez cały czas konsekwentnie podąża ścieżką długoterminowego wzrostu i budowania wartości dla akcjonariuszy, przy czym skala generowania gotówki już w coraz większym stopniu pozwala godzić priorytet bezpieczeństwa finansowego i rozwoju organicznego z dystrybucją zysków bezpośrednio do akcjonariuszy. Poza kwestią aktywnego skupu akcji własnych mamy również ambicję wypłacać wysokie dywidendy, co zakomunikowaliśmy w przyjętej przez Zarząd we wrześniu zeszłego roku polityce dywidendowej – podkreśla Prezes Andrzej Przybyło.

Solidne fundamenty zbudowane w minionym roku

Warto podkreślić, że znakomite otwarcie bieżącego roku to naturalna konsekwencja zbudowanej odporności operacyjnej firmy, które dało o sobie znać już w wynikach za zamknięty niedawno rok obrotowy 2024/2025, uznawany za dość wymagający dla branży. Wrocławska spółka zamknęła go z niemal 15 mld zł przychodów (+3 proc. rdr), wypracowując zysk brutto na poziomie przekraczającym 590 mln zł oraz 174 mln zł zysku netto. Poprzez konsekwentną optymalizację wskaźnik kosztów SG&A obniżono do poziomu 2,1 proc., jednocześnie generując ponad 108 mln zł dodatnich przepływów operacyjnych.

Mimo realizowania skupu akcji własnych i wypłaty wcześniejszych dywidend, spółka na koniec roku finansowego dysponowała 134,6 mln zł gotówki oraz utrzymywała niezwykle bezpieczny wskaźnik długu netto do EBITDA na poziomie poniżej 0,3.

Perspektywy i wyzwania technologiczne na horyzoncie

Analizując rynek pod kątem najbliższych miesięcy, AB S.A. ma precyzyjną wizję nadchodzących zmian, którą zaprezentowano inwestorom. Spółka spodziewa się w 2026 roku zdecydowanego przyspieszenia wydatków na rozwój technologii AI oraz cyberbezpieczeństwo, jak również rosnącej popularności modeli abonamentowych „as-a-service”. Choć globalne łań -

cuchy dostaw zdają się stabilizować, zarząd trzyma rękę na pulsie, dostrzegając ryzyko wyższych cen sprzętu ze względu na drożejące komponenty (pamięci RAM i SSD).

Dodatkowym czynnikiem dynamizującym popyt ma być uruchomienie środków z KPO, a zarząd giełdowego lidera deklaruje pełną gotowość na skuteczne skapitalizowanie tego ożywienia.

Podsumowanie

Osiągnięcia finansowe pierwszego kwartału 2025/2026 i bardzo dobre prognozy sprzeda -

żowe – napędzane m.in. planowanymi na ten rok 15 premierami sprzętu Apple, którego AB jest największym dystrybutorem w Polsce, Czechach i na Słowacji – potwierdzają silną pozycję firmy.

Utrzymanie tytułu Dystrybutora Roku przez 11 lat z rzędu w badaniu Context, obecność w elitarnych indeksach WIGdiv oraz WIGdivplus od grudnia 2025 roku i wysokie oceny w zakresie ESG to dowód na to, że model biznesowy spółki świetnie odpowiada na aktualne potrzeby rynku IT. W nowy rok Grupa AB wchodzi ze sprawdzonymi fundamentami operacyjnymi i mocnymi finansami. n

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej
Ewelina Stój
redaktor IT Reseller

ETYKA W AI – MIĘDZY KODEM A SUMIENIEM

A KOMU TO W OGÓLE POTRZEBNE?

Wszystkim, choć nie zdajemy sobie z tego sprawy. Lubimy myśleć o etyce jak o nudnej ciotce na weselu, która każe ściszyć muzykę, gdy zabawa dopiero się rozkręca.

Wświecie technologii, zdominowanym przez zasadę „działaj szybko i ignoruj zastany porządek”, etyka od lat ma opinię zbędnego balastu. Programiści przewracają oczami: „Gdybyśmy martwili się dylematami moralnymi przy każdej zmianie w kodzie, wciąż siedzielibyśmy w jaskiniach”.

Bzdura.

Pozwólcie, że użyję metafory, którą zrozumie każdy, kto choć raz poczuł adrenalinę za kierownicą. Hamulce w bolidzie Formuły 1 nie są montowane po to, żeby bolid jechał wolno. Są tam po to, żeby kierowca mógł wejść w zakręt przy prędkości 300 km/h i nie zabić się na bandzie. Hamulce dają kontrolę, a kontrola daje przewagę. Długoterminowo, ale jednak.

My, ludzie, właśnie wsiadamy do najszybszego bolidu w historii ludzkości – Generatywnej Sztucznej Inteligencji. I jeśli ktoś w roku 2026 mówi, że „etyczne hamulce są zbędne, bo wstrzymują innowacje“, to nie jest wizjonerem. Jest samobójcą.

Oto dlaczego etyka przestała być domeną filozofów z siwymi brodami i w tweedowych marynarkach, a staje się twardym systemem podtrzymywania życia dla naszej cywilizacji…

Syndrom cyfrowego wazeliniarza (sykofancja)

Zacznijmy od psychologii, bo to tam AI zadaje nam pierwsze ciosy – nie siłą, lecz. uprzejmością.

Większość z nas boi się buntu maszyn rodem z Terminatora. Tymczasem badania prowadzone przez zespoły ds. bezpieczeństwa w Anthropic i Google DeepMind wskazują na zupełnie inne, bardziej podstępne zagrożenie. W literaturze fachowej nazywa się to sykofancją.

Mówiąc po ludzku: AI to cyfrowy narcyz i wazeliniarz, który zrobi wszystko, by zadowolić użytkownika. Nie dlatego, że jest podstępne, ale dlatego, że na ten moment tak zostało zaprogramowane.

Duże modele językowe (LLMy) są trenowane metodą uczenia się ze wzmocnieniem opartego na ludzkich ocenach. Uczą się, że „dobra odpowiedź“ to taka, którą człowiek oceni pozytywnie. A co ludzie oceniają pozytywnie? To, co potwierdza ich poglądy.

Badania pokazują przerażającą prawidłowość: jeśli użytkownik sugeruje w pytaniu błędną tezę, model AI często przyzna mu rację, zamiast wyprowadzić go z błędu. Jeśli więc masz jakąś paranoję, AI ją „nakarmi“. Jeśli masz uprzedzenia rasowe, AI delikatnie w nie wejdzie, by nie wywołać dysonansu poznawczego, a w ostateczności odrzucenia przez użytkownika.

Zjawisko to, nazywane czasem „manipulowaniem nagrodą“, sprawia, że zamiast obiektywnego asystenta, dostajemy lustro, które mówi nam tylko to, co chcemy usłyszeć.

Bez twardego kręgosłupa etycznego, AI zamknie nas w hermetycznych bańkach informacyjnych. Staniemy się

społeczeństwem narcyzów, niezdolnym do konfrontacji z jakąkolwiek innością, bo nasz „cyfrowy przyjaciel“ zawsze będzie nam przytakiwał.

Tyrania przeciętności i monokultura algorytmiczna

Jeśli sykofancja to problem psychologiczny, to algorytmiczna monokultura jest problemem cywilizacyjnym. Termin ten, spopularyzowany przez badaczy z Cornell University – Jona Kleinberga i Manisha Raghavana, opisuje świat, w którym wszyscy podejmujemy decyzje w oparciu o ten sam algorytm. Wyobraź sobie, że każda firma w Polsce używa tego samego modelu AI do selekcji CV (co już powoli się dzieje). Jeśli ten model ma drobne, ukryte uprzedzenie – np. nie lubi przerw w karierze – to osoba z taką przerwą nie zostanie odrzucona przez jedną firmę. Zostanie odrzucona przez wszystkie firmy jednocześnie.

Systemy AI uczą się na statystyce, a statystyka kocha „średnią”. Algorytmy dążą do optymalizacji, co w praktyce oznacza promowanie tego, co najbardziej typowe, popularne i „klikalne“. W efekcie doświadczamy eugeniki kulturowej. Muzyka staje się podobna do siebie (bo taka się klika), artykuły są pisane pod ten sam szablon SEO, a ludzkie twarze na Instagramie zlewają się w jedną „optymalną“, miłą dla oczu maskę.

Brak etyki w projektowaniu tych systemów prowadzi do odrzucenia margi-

Etyka w AI to nie jest „miły dodatek“ do innowacji. To nasza jedyna polisa ubezpieczeniowa. To próba zachowania człowieczeństwa w świecie, który coraz bardziej optymalizuje nas pod kątem wydajności, a nie szczęścia czy prawdy.

nesów – czyli tego, co w nas unikalne, dziwne, nieprzystające. A przecież to właśnie z tych „marginesów“ wywodziły się największe innowacje w historii ludzkości. Etyka to walka o to, byśmy nie zamienili się w cywilizacyjną kserokopiarkę. Walka o indywidualności, które do tej pory napędzały rozwój i ciągle pragnęły więcej.

Zatruta studnia

(bezpieczeństwo epistemiczne)

Przejdźmy do poziomu makro. Społeczeństwo to umowa oparta na wspólnej rzeczywistości. Musimy (przynajmniej w teorii) zgadzać się co do podstawowych faktów: że Ziemia jest okrągła, że rok ma 365 dni, że prezydent powiedział to, co powiedział.

Etyka w AI to dziś kluczowy element tzw. bezpieczeństwa epistemicznego, pojęcia rozwijanego m.in. przez Elizabeth Seger z Centre for the Governance of AI.

Wyobraźcie sobie wioskę, która czerpie wodę z jednej studni. Jeśli ktoś wleje do niej truciznę, cała wioska ginie. Naszą studnią jest dziś Internet. To z niego czerpiemy wiedzę o świecie. Generatywne AI, pozbawione bezpieczników (takich jak znaki wodne C2PA czy zakaz generowania deepfake‘ów politycznych), działa jak fabryka toksyn wlewana do tej studni na masową skalę.

Zalewani miliardami syntetycznych treści, przestajemy odróżniać prawdę od fałszu. Efekt? Apatia. Gdy nie wiesz, co jest prawdą, przestajesz wierzyć w cokolwiek. To marzenie każdego dyktatora: społeczeństwo, które nie wierzy własnym oczom, więc ze zmęczenia po prostu się poddaje. Etyka AI to nie kwestia „bycia miłym“ w sieci. To system filtracji wody w naszej wspólnej studni.

Ewelina Stój redaktor IT Reseller

Moralny outsourcing i czarna skrzynka

Dlaczego tak łatwo oddajemy kontrolę? Psychologia nazywa to błędem automatyzacji lub moralnym outsourcingiem. To mechanizm znany z korporacji: „To nie ja zwolniłem tego pracownika, to system tak wyliczył“. „To nie ja odmówiłem kredytu, to algorytm dał czerwone światło“. Tworzymy „Boga w chmurze“, aby zdjąć z siebie ciężar odpowiedzialności za trudne decyzje. Problem w tym, że ten „Bóg“ siedzi w Czarnej Skrzynce. Często nawet twórcy sieci neuronowych nie potrafią wyjaśnić, dlaczego model podjął taką, a nie inną decyzję. Etyka wymaga więc od nas wdrożenia zasady wytłumaczalności.

Bo „Komputer tak powiedział“ to nie jest uzasadnienie. To jest religia (wiara i idąca za nią akceptacja), a nie technologia. Jeśli pozwolisz, by o Twoim życiu decydował „niezadbany etycznie“ kod, stajesz się przedmiotem. Tracisz podmiotowość na rzecz statystycznego prawdopodobieństwa.

Rozwiązanie: Sokrates zamiast lokaja

Co więc możemy zrobić? Czy jesteśmy skazani na rolę biernych konsumentów papki generowanej przez AI?

Nie. Ale musimy zmienić paradygmat projektowania. Przez ostatnią dekadę w Dolinie Krzemowej rządziło hasło „projektowania bez tarcia“. Wszystko miało być łatwe, szybkie, bezwysiłkowe. Jedno kliknięcie, jeden prompt –i gotowe.

To błąd.

Prawdziwa etyka w AI wymaga wprowadzenia tarcia poznawczego. Potrzebujemy systemów, które – zamiast bez-

myślnie wykonywać polecenia – potrafią wejść z nami w dialog. Potrzebujemy …“AI sokratejskiego”.

Wyobraź sobie asystenta AI, który na prośbę: „Napisz mi esej o szkodliwości szczepionek“, nie wypluwa gotowca (ani blokady cenzorskiej), ale pyta: „Na jakich badaniach chcesz oprzeć tę tezę? Znalazłem dane, które temu przeczą –czy chcesz je uwzględnić?“.

Etyczne AI to takie, które zmusza do myślenia, zamiast nas w tym wyręczać. To narzędzie, które nie pozwala

Kod jest Prawem

Lawrence Lessig, prawnik z Harvardu, sformułował kiedyś prorocze określenie: „Kod jest Prawem”. W cyfrowym świecie architektura systemu reguluje nasze zachowanie mocniej niż jakikolwiek kodeks karny. Kod decyduje, co widzisz, kogo poznasz, czy dostaniesz pracę.

stytucji przez pijanego stażystę i wdrożenie jej w całym kraju z dnia na dzień.

Etyka w AI to nie jest „miły dodatek“ do innowacji. To nasza jedyna polisa ubezpieczeniowa. To próba zachowania człowieczeństwa w świecie, który coraz bardziej optymalizuje nas pod kątem wydajności, a nie szczęścia czy prawdy.

www.itreseller.pl naszym mózgom zwiotczeć z wygodnictwa. To partner, a nie służący.

Pozwolenie na wypuszczenie w świat „niechlujnego etycznie“ kodu jest jak napisanie Kon-

Jeśli dziś nie zaciągniemy tego hamulca –nie po to, by się zatrzymać, ale by przejąć sterowność i zajechać dalej – w 2030 roku obudzimy się w świecie, który będzie może i bardzo efektywny. Ale nikt z nas nie będzie chciał w nim żyć. n

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

JAK BOOM NA AI DRENUJE RYNEK PAMIĘCI

Omawiamy wyzwanie, przed którym stoimy wszyscy – kryzys związany z dostępnością i cenami pamięci. Czy jest się czego obawiać? W cieniu medialnych nagłówków o rewolucyjnych możliwościach sztucznej inteligencji, na rynkach sprzętowych rozgrywa się cichy dramat.

To, co dla entuzjastów technologii jest erą nowych możliwości, dla przeciętnego konsumenta i rynku PC zaczyna oznaczać jedno: powrót do czasów drogiej i trudno dostępnej elektroniki. Jesteśmy świadkami bezprecedensowego przesunięcia priorytetów produkcyjnych, w którym podzespoły do naszych domowych i biurowych komputerów stają się ofiarami ofiarnymi na ołtarzu AI. Dodajmy: sami je tam składamy, z każdym promptem.

w porównaniu do „groszowych“ zysków ze sprzedaży pamięci do laptopów czy smartfonów.

HBM: Nowe Złoto Krzemowej Doliny Kluczem do zrozumienia nadchodzącego kryzysu jest technologia HBM (High Bandwidth Memory). To specjalistyczna, wielowarstwowa pamięć o ekstremalnie wysokiej przepustowości, niezbędna do działania najnowszych akceleratorów AI, takich jak układy z rodziny NVIDIA Blackwell czy nadchodzące NVIDIA Vera Rubin. Problemem nie jest jednak sama technologia, ale „fizyka“ produkcji półprzewodników.

Moce produkcyjne fabryk są ograniczone. Wytworzenie pamięci HBM jest procesem znacznie bardziej skomplikowanym, dłuższym i wymagającym więcej miejsca na waflu krzemowym niż produkcja standardowych kości DDR5 czy pamięci flash NAND (używanych w dyskach SSD).

Wielcy gracze – Samsung, SK Hynix oraz Micron – stają przed prostym rachunkiem ekonomicznym. Marża na pamięciach HBM dla serwerów AI jest astronomiczna

Decyzja jest więc brutalna, ale logiczna: linie produkcyjne są konwertowane. Maszyny, które do tej pory wytwarzały kości RAM (DDR) oraz pamięci graficzne (GDDR) dla graczy, są przestawiane na produkcję HBM. Skutek? Drastyczne ograniczenie podaży standardowych komponentów. To klasyczny mechanizm rynkowy – gdy podaż spada, a popyt (nawet ten umiarkowany) pozostaje stały, ceny muszą wzrosnąć. I to właśnie się dzieje.

Symboliczny zmierzch ery konsumenta: casus Crucial

Najbardziej wymownym symbolem tej transformacji są ruchy amerykańskiej korporacji Micron. Decyzje o wygaszaniu ofert skierowanych do entuzjastów (takie jak wcześniejsze zamknięcie linii Ballistix) oraz stopniowe marginalizowanie marki konsumenckiej Crucial na rzecz rozwiązań serwerowych, są papierkiem lakmusowym całej branży. Marki, które przez lata budowały swoją pozycję na dostępności i relacji z graczami czy twórcami PC, wycofują się rakiem. Crucial, niegdyś synonim solidnej i dostępnej cenowo pamięci, stał się ofiarą nowej strategii. Dla gigantów takich jak Micron, walka o klienta indywidualnego, który kupuje 32 GB RAM raz na 5 lat, prze-

stała być opłacalna. Prawdziwe pieniądze leżą w kontraktach B2B, gdzie giganci technologiczni (Hyperscalers) zamawiają terabajty pamięci w trybie ciągłym, nie pytając o cenę. To nie jest tylko zmiana biznesowa; to koniec pewnej ery, w której konsument detaliczny był w centrum uwagi producentów krzemu. Stąd decyzja podjęta przez Micron w grudniu 2025 roku o zamknięciu Cruciala do końca lutego 2026 roku.

To tylko pierwsza marka, która znika z rynku. Zakładam, że nie będzie ostatnią. Nie chodzi jedynie o producentów gotowych modułów RAM czy nośników SSD. Zjawisko może dotknąć znacznie szerszy zakres firm.

Nienasycony głód algorytmów

Aby zrozumieć skalę problemu, należy spojrzeć na liczby. Zapotrzebowanie na moc obliczeniową dla AI nie rośnie liniowo – rośnie wykładniczo. Raporty firm analitycznych takich jak Gartner czy

TrendForce wskazują jednoznacznie, że mamy do czynienia z bezprecedensowym wzrostem. Według prognoz International Data Corporation (IDC), globalne wydatki na systemy sztucznej inteligencji podwoją się w ciągu najbliższych trzech lat. W raporcie „2026 Data Center Outlook” Moody’s Ratings wskazuje, że tempo rozwoju AI wymusza bezprecedensowe inwestycje w infrastrukturę centrów da-

nych. Tylko w 2025 roku sześciu największych hiperskalerów z USA, czyli Microsoft, Amazon, Alphabet, Oracle, Meta oraz CoreWeave, przeznaczyło na centra danych i infrastrukturę blisko 400 mld dolarów. Moody’s szacuje, że w ciągu kolejnych dwóch lat kwota ta wzrośnie o następne 200 mld dolarów.

Goldman Sachs Research szacuje, że globalne zapotrzebowanie na moc w centrach danych wzrośnie z 55 GW obecnie do 84 GW w 2027 r. (wzrost o 50 proc.) i nawet o 165 proc. do 2030 r. w porównaniu z 2023 r. Firma badawca Macquarie szacuje wzrost mocy centrów danych z 81 GW w 2024 r. do 222 GW w 2030 r. (CAGR 18 proc.), z dodatkowymi 69-141 GW w latach 2025-2030.

Trzeba zaznaczyć, że nie chodzi tu tylko o trenowanie modeli. Codzienne działanie AI (odpowiadanie na pytania, generowanie grafik), wymaga ciągłego dostępu do szybkiej pamięci, mocy obliczeniowej. Chociaż każde z takich zapytań może być stosunkowo proste, są ich olbrzymie ilości. Działa tu efekt skali. Do zaspokojenia popytu na AI potrzebna jest coraz większa podaż mocy obliczeniowej.

Jednakkażde nowe centrum danych budowane przez Microsoft, Google czy Meta to czarna dziura, która zasysa z rynku miliony kości pamięci, które w innym scenariuszu trafiłyby do kart graficznych GeForce, Radeon czy dysków SSD i pamięci RAM w naszych laptopach i PC.

Prognozy: zima dla PC, wiosna dla cen

Jakie są realne skutki dla rynku w nadchodzących kwartałach? Analitycy są zgodni: tanio już było.

Pamięć NAND Flash, używana w dyskach SSD, już notuje wzrosty cen. Producenci ograniczyli produkcję tych komponentów, co skutkuje wzrostem cen. W połowie lutego 2025 roku dysk Samsung 990 Evo Plus o pojemności 1 TB kosztował (wg. Skąpiec.pl) 349 zł na rynku detalicznym. W chwili obecnej cena wg tego samego źródła wynosi już 499 zł (wzrost o 43 proc.). Nie inaczej jest w przypadku innych nośników danych SSD.

Pamięć RAM także odczuwa już skutki tzw. kryzysu pamięci. Komplet dwóch modułów Kingston Fury Beast DDR5-5600 o łącznej pojemności 16 GB (KF556C36BBEK2-16) kosztował rok temu ledwie 229 zł w handlu detalicznym. Dziś jego cena to, bagatela, 1090 zł (wzrost o 376 proc.). Dodajmy, że w normalnym, niezaburzonym cyklu, pamięci ustabilizowanych generacji zaczynają z czasem tanieć. Tu mamy do czynienia z kolosalnym wręcz wzrostem.

Problemem będą też karty graficzne. Pamięć GDDR6/GDDR7 konkuruje o te same zasoby produkcyjne co HBM. Oznacza to, że karty graficzne

obecnych czy przyszłych generacji mogą mieć mniej pamięci VRAM niż oczekują gracze, lub ich ceny będą zaporowe. Tutaj, jeszcze, wzrostu cen nie widać. Trudno jednak oczekiwać, że się nie pojawią w ciągu 2026 roku.

To wszystko razem wpłynie bezpośrednio na dostępność komputerów osobistych. Producenci laptopów (OEM) będą musieli walczyć o trudniej dostępne i droższe komponenty, co przełoży się na wyższe ceny końcowe urządzeń. Komputer ze „średniej półki“ w 2025 roku może kosztować tyle, co maszyna „high-end“ w 2023 roku. Dostępność może być „rwana“ – okresy braku towaru będą przeplatać się z dostawami w zawyżonych cenach.

Butterfly Effect: twoje zapytanie, twój wydatek

Na koniec warto uświadomić sobie niewidoczną nić powiązań, która łączy naszą codzienną aktywność w sieci z cenami. Istnieje bezpośrednia korelacja między popularnością narzędzi AI a ceną pamięci

RAM na półce sklepowej.

Każde wygenerowane przez nas zabawne zdjęcie kota w kosmosie (czy, w moim przypadku: psa w królewskich szatach), każdy streszczony przez AI e-mail i każda konwersacja z chatbotem to impuls popytowy. To sygnał dla gigantów technologicznych: „Potrzebujemy więcej mocy! Kupujcie więcej pamięci HBM!“. W odpowiedzi producenci pamięci wyłączają maszyny produkujące tanie kości do Twojego przyszłego komputera i przestawiają je na produkcję drogich układów dla serwerowni. Ironia polega na tym, że entuzjastycznie korzystając z darmowych narzędzi AI, nieświadomie pompujemy bańkę cenową sprzętu, na którym te narzędzia uruchamiamy (lub chcielibyśmy uruchamiać lokalnie). W wolnorynkowej gospodarce kapitalistycznej nie ma “darmowych obiadów”. Rachunek za rewolucję AI został właśnie wystawiony i zapłacimy go wszyscy – przy kasie, kupując kolejny dysk SSD lub kartę graficzną. Każde zapytanie do AI to mikroskopijna cegiełka dokładana do muru, który oddziela nas od taniej elektroniki. Jest jednak pewne obejście problemu. Nie, to nie rezygnacja z korzystania z AI. To wykorzystywanie modeli działających na naszych własnych maszynach. Na szczęście dziś dostępność komputerów uzbrojonych w NPU jest, póki co, dobra. Chociaż, jak wskazałem powyżej, z pewnością nie będą one tanieć. Jednak ich masowe użycie do prostych promptów, zadań niewymagających działania dużych modeli, pozwoli odciążyć centra danych chmurowych gigantów, a tym samym nieco ograniczy wzrost zapotrzebowania na moc obliczeniową. Czy w ten sposób zatrzymamy kryzys pamięci? Nie. Ale możemy nieco osłabiać jego wpływ. n Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

www.itreseller.pl

ZDECYDOWANIE TO PAMIĘĆ TERAZ NADAJE TON

Błyskawicznie rosnące ceny pamięci są faktem, z którym mierzą się dziś wszystkie

sektory IT. O aktualnej i przyszłej sytuacji na rynku rozmawiamy z Maciejem Kamińskim, Dyrektorem Dywizji Memory w Samsung Electronics na Polskę i CEE.

Na rynku pamięci widzimy obecnie wyraźne przesunięcie w stronę obsługi potrzeb hyperscalerów, a jednoczesne odchodzenie od rynku konsumenckiego. Jaka jest przyczyna tego trendu?

Maciej Kamiński (Samsung Electronics Polska): Z perspektywy producentów, zwłaszcza tych kompleksowych, którzy tworzą własny krzem (projektują i rozwijają własne układy scalone –przyp.), a potem go obrabiają, konfekcjonują i tworzą własne produkty, dużo bardziej opłacalna jest dzisiaj praca z dużymi firmami. Mam tu na myśli gigantów pozyskujących dyski serwerowe i pamięci pod aplikacje szeroko rozumianej sztucznej inteligencji. To jest bardzo silny trend, który popycha całą branżę, bo – co nie jest tajemnicą – tam są globalnie po prostu duże pieniądze.

Wspomniałeś o dużych graczach i przesunięciu priorytetów na AI. Czy to oznacza, że będziemy świadkami przetasowań na rynku i niektórzy producenci po prostu z niego znikną? Zdecydowanie tak. Widzimy już takie przykłady w naszym regionie. Weźmy pod uwagę firmę przesunąć swoją produkcję oraz zasoby do systemów AI. Musimy pamiętać, że część vendorów nie produkowała własnych wafli krzemowych i nie miała kompetencji do tworzenia własnych chipów. Pozyskiwali je od firm, które takie kompo-

nenty sprzedają. Dzisiaj ci gracze mogą po prostu nie mieć dostępu do produktów w dobrych cenach, co drastycznie utrudni im produkcję własnych dysków SSD czy pamięci RAM. W konsekwencji mogą być zmuszeni do wyjścia z rynku albo ograniczenia swojej obecności na nim. To jest właśnie ten drugi, wyraźny trend, którego można się spodziewać w najbliższym roku.

Samsung ma w tym względzie dość unikatową pozycję, bo wasze produkty z obszaru pamięci to właściwie w 100 proc. wasz produkt: od kości pamięci, po kontrolery. Czy w związku z tą unikatową kontrolą nad całym procesem produkcji, spodziewasz się, że ten rok oddzieli Samsung od konkurencji? Będziecie grać na wzrosty przychodów, czy raczej skupicie się na utrzymaniu ciągłości i wsparciu partnerów?

Kluczowa jest tu dla nas lokalna sytuacja, czyli dostęp do polskich dystrybutorów i naszych partnerów retailowych. Zależy nam na utrzymaniu pozycji we wspólnych projektach. Zasadnicze pytanie brzmi, jaką drogą będzie podążała nasza konkurencja. Czy wybiorą wyłącznie drogę podwyżek i najwyższej rentowności?

My chcemy wziąć odpowiedzialność za utrzymanie szerokiego kanału. Musimy naszą obecność tam zaznaczać całą ofertą i jej przystępnością. Spodziewam się, że będziemy dzia -

łali przede wszystkim z jedną misją: chcemy być dostępni. Oczywiście, w obliczu otoczenia konkurencyjnego będziemy musieli wprowadzać korekty cenowe. Długofalowo będziemy mieć do czynienia ze spadkiem rynku pod względem ilościowym, ale niekoniecznie wartościowym. Pamięci będzie kupowało się mniej i będą one droższe. To uboczny skutek zmiany toru i nacisku na AI.

Mówi się często o dwuletnich cyklach na rynku pamięci. Kiedyś, wychodząc z nadprodukcji, rynek sprawił, że nośniki kosztowały dosłownie grosze, i ten proces odbudowy zajął właśnie około dwóch lat. Teraz mamy jednak boom na AI, który – jak wielu twierdzi – szybko się nie skończy, bo będziemy budować coraz więcej centrów danych. Czy ten nowy trend wydłuży ten cykl i zmusi producentów do zwiększenia podaży?

Jeśli przyjmiemy założenie, że sztuczna inteligencja jest tym, czym kiedyś było masowe wejście internetu, to mówimy o nowej rzeczywistości i usługach AI dla każdego. To mogłoby zapewnić długofalowy wzrost konsumpcji pamięci i zmienić globalny model redystrybucji, transformując branżę pamięci na lata. Za tą tezą stoi fakt, że AI będzie się dalej rozwijać, specjalizować, wejdzie w różne gałęzie przemysłu i gospodarkę, dając rynkowi paliwo na długie lata.

Trzeba jednak pamiętać o niedawnej przeszłości. Żeby wyjść z ogromnej nadprodukcji, rynek musiał wyhamować. Branża przez ostatnie lata notowała straty. Te trzeba najpierw skompensować i zacząć generować stabilne zyski, aby kolejne inwestycje miały szansę oprzeć się na solidnych podstawach ekonomicznych. Producenci muszą wpierw poradzić sobie z sytuacją, z której właśnie wyszliśmy –czyli ujemnych marż – następnie skompensować to obecnym rosnącym zapotrzebowaniem, a dopiero potem przemyśleć, jak skalować moce produkcyjne.

Zwiększanie podaży to też ogromne wyzwanie infrastrukturalne. Postawienie nowych fabryk to kolosalny koszt. Biorąc pod uwagę naciski

geopolityczne, choćby amerykańskie na budowanie fabryk na terenie USA, uruchomienie takich zakładów to kwestia lat. Fabrykę projektuje się i buduje dzisiaj szybko, ale uruchamia się ją stosunkowo długo. Od decyzji do pełnego uruchomienia efektywnej fabryki muszą minąć co najmniej 4 do 5 lat. Samo postawienie budynku to nie problem; trzeba zestroić wszystkie procesy, przeszkolić personel, by móc wytwarzać najbardziej potrzebne produkty, których ilość i jakość spełni oczekiwania rynku. Na samym końcu trzeba oczywiście zagwarantować zdrowy rachunek ekonomiczny, który będzie zależny od realnego zapotrzebowania na pamięć w przyszłości, bo to właśnie te przyszłe zamówienia będą odzwierciedleniem pełnego sukcesu firm z naszej bran-

Maciej Kamiński

Dyrektor Dywizji

Memory w Samsung Electronics na Polskę i CEE

ży. Mając na uwadze, jak szybko zmienia się dziś zapotrzebowanie na AI jestem przekonany, że dla producentów przyszłość to jeszcze większe wyzwanie planistyczne niż nam dziś wydaje.

Zejdźmy z tego makroekonomicznego spojrzenia na lokalny, polski rynek. Co doradziłbyś firmom, które w Polsce produkują i składają własne komputery i laptopy? Mają czekać na spadek cen, czy działać tu i teraz, nie oglądając się na wysokie koszty, bo trudno przewidzieć najbliższy rok?

Spoglądając wstecz uważam, że pamięci w przeszłości były po prostu za tanie w stosunku środków zainwestowanych przez vendorów w ich wyprodukowanie. Przechodzenie na nowe technologie, kolejne generacje PCI Express 3, 4

Kluczowa jest tu dla nas lokalna sytuacja, czyli dostęp do polskich dystrybutorów i naszych partnerów retailowych. Zależy nam na utrzymaniu pozycji we wspólnych projektach.

Maciej Kamiński

Dyrektor Dywizji Memory w Samsung Electronics na Polskę i CEE

i 5, wiązało się z potężnymi nakładami na badania i rozwój. Fakt, że było tanio, wynikało z nadprodukcji niż z rzeczywistej wartości tych produktów.

Dzisiaj jesteśmy w momencie, w którym jest drożej i – mówiąc wprost – będzie drożej. Przez wiele kwartałów jedyną kompetencją na rynku przy budowie laptopów czy systemów IT, tworzonych w oparciu o dyski SSD i pamięć DRAM, był nacisk na cenę. Dziś radziłbym więc myśleć zgodnie z klasycznymi zasadami zarządzania: inwestuj na bieżąco, zabezpieczaj swoje strategiczne kompetencje produkcyjne i nie ryzykuj czekania na „nieokreśloną przyszłość“ z nadziejami na atrakcyjne ceny pamięci. Trend cenowy jest rosnący. Nawet jeśli pojawią się jakieś chwilowe szanse na tańszy zakup „spotowy“, to będą to tylko odstępstwa od reguły, a nie zwiastun powrotu do niższych cen.

Na sam koniec muszę zapytać o rynek, który często umyka w takich makroekonomicznych dyskusjach. Co z małymi nośnikami jak np. karty pamięci? Czy one również podlegają temu samemu mechanizmowi? Ich ceny wprawdzie rosną, ale na ten moment wydaje się, że dzieje się to wolniej niż w przypadku

NAND czy RAM.

Absolutnie tak. Dziś wszystkie nośniki pamięci półprzewodnikowych podlegają tym samym trendom. Tzw. mały flash, pamięci USB, karty pamięci, które wkładamy do smartfonów, dronów, kamerek sportowych , czy komputerów, podlegają dokładnie tym samym rynkowym prawom. Choć same w sobie mogą wydawać się prostsze technologicznie, to pamiętajmy, że podrożał sam surowiec, który leży u podstaw produkcji pamięci – wafel krzemu. Ten surowiec trzeba wyprodukować/kupić, następnie skonfekcjonować, by dalej wytworzyć gotowy produkt. Dlatego i tutaj już dziś widać wpływ tych samych trendów co w SSD, czy DRAM. Od rosnących kosztów surowca, po koszty produkcji – to wszystko bez wyjątku znajdzie swoje mocne odbicie w cenach małego flasha. n Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

NIEUNIKNIONA OPTYMALIZACJA ZAKUPÓW IT?

O wyzwaniach w planowaniu inwestycji IT z perspektywy producenta komputerów, nowym układzie sił na rynku komponentów, wpływie boomu AI na dostępność sprzętu oraz o tym, jak partnerzy i klienci powinni planować inwestycje w nadchodzących kwartałach rozmawiamy z Dariuszem Okrasą, Senior Channel Sales Managerem w Dell Technologies

Jesteśmy dziś w dość niezwykłej sytuacji. Boom na technologię, którą zachwycaliśmy się przez ostatnie dwa lata, wygenerował zmianę układu sił. Zmieniło się zapotrzebowanie na komponenty i rozłożenie mocy produkcyjnych.

Czego dzisiaj brakuje najbardziej? Powiedzmy to wprost – brakuje pamięci, prawda?

Zgadza się – dziś obserwujemy wyraźny spadek dostępności zarówno kości pamięci, jak i dysków flash, przy czym szczególnie dotyczy to rozwiązań wyspecjalizowanych, projektowanych z myślą o pracy z układami GPU oraz w środowiskach AI. Jeszcze około półtora roku temu to procesory graficzne były zasobem, o który rynek konkurował najbardziej intensywnie.

Naturalnym skutkiem boomu inwestycyjnego jest obecny niedobór pamięci DRAM i NAND oraz nośników flash, szczególnie tych specyficznych modeli, które są zoptymalizowane pod potrzeby rozwiązań chmurowych, AI oraz zaawansowanej analityki danych. Producenci komponentów przestawiają swoje moce produkcyjne na te linie produktów, które są dziś na szczycie listy zakupowej największych odbiorców – przede wszystkim globalnych dostawców usług chmurowych. Już na etapie planowania produkcji rezerwowane są zasoby pod najbardziej zaawansowane konfiguracje, co z jednej strony pozwala znacząco poprawić producentom rentowność, z drugiej jednak ogranicza dostępność kości pamięci i dysków flash dla pozostałych segmentów rynku.

Widać to w wynikach finansowych – wszyscy producenci pamięci mają świetne wyniki za czwarty kwartał 2025 roku.

Wzrost kursów akcji napędzny rosnącym popytem i poprawą marż producentów pamięci to jedno. Sami producenci potwierdzają, że obecny trend utrzyma się co najmniej kilka kwartałów. Konsekwencją przekierowania mocy produkcyjnych w stronę bardziej marżowych rozwiązań jest ograniczona dostępność podzespołów dla rynku konsumenckiego, gdzie wolumeny są wysokie, ale marże relatywnie niskie. Wg danych szacowanych przez DigiTimes Asia globalna podaż pokrywa dziś jedynie około 70 proc. popytu na pamięci i dyski. Może to oczywiście wpływać na ceny sprzętu, szczególnie tego z niższej półki.

Cena to jedna część układanki, drugą jest dostępność. Jak Dell sobie z tym radzi? Macie produkcję w Polsce i dużą skalę, więc teoretycznie łatwiej wam zabezpieczyć komponenty. Słuszna diagnoza – ceny to dziś tylko połowa układanki, druga to kto w ogóle dostarczy sprzęt klientom. Dell, jako jeden z największych na świecie odbiorców pamięci i dysków, dyspo-

Wierzę, że podobnie jak przed kilkoma laty, tak i teraz Dell okaże się organizacją, która w czasie nieprzewidywalności radzi sobie najlepiej, zapewniając klientom i partnerom bezpieczeństwo biznesowe.

nuje realną przewagą. Pracujemy na długoterminowych kontraktach, planujemy popyt z wyprzedzeniem na wiele kwartałów i wykorzystujemy te same komponenty w bardzo szerokiej gamie produktów. Efekt skali bezpośrednio przekłada się na większą dostępność. Mniejsi producenci takiego komfortu nie mają. Już dziś słyszymy komunikaty do kanału partnerskiego: „terminy dostaw będą dużo dłuższe”. To, co przychodziło w pojedyncze dni czy tygodnie, może teraz trwać kilka miesięcy. Bardzo łatwo wrócić do realiów z lat 2020–2021, gdy fala popytu przykryła słabszych dostawców, a rozgoryczeni klienci w szukali alternatywy, nie kierując się jedynie ceną. Dlatego kluczowe pytanie brzmi: czy dany dostawca sprawdził się w nieodległej przeszłości, czy udźwignął tamten kryzys, czy zniknął wtedy, kiedy był najbardziej potrzebny.

Na ten problem nakłada się konieczność wymiany sprzętu. Komputery z czasów pandemii, które mają już 5 lat, oraz kwestię migracji z Windows 10 na 11. To dwa zjawiska wzmacniające popyt, podczas gdy podaż nie wzrośnie. Uważam, że główną falę wywołaną zmianą systemu operacyjnego mamy już za sobą – większość organizacji już się zmigrowała. Ale rośnie nowa potrzeba. Nie każdy laptop, który sprzętowo obsługuje Windows 11, pozwala na efektywne korzystanie z nowoczesnych narzędzi AI, takich jak Copilot czy specjalizowani agenci AI. Staje się to przeszkodą w zwiększaniu produktywności. Polska ma przed sobą czas boomu inwestycyjnego, napędzanego m.in. przez KPO. Efektywności nie zwiększymy samym dołożeniem rąk do pracy – możemy wygenerować więcej z obecnych zasobów. Dla przykładu: jeśli dzięki nowym narzędziom pracownik zamiast trzech ofert dziennie zrobi siedem, to jest to realny zysk. Dlatego spodziewam się drugiej fali popytu, napędzanej nie migracją do „jedenastki”, ale świadomym wyborem AI PC – sprzętu, który staje się naszym współpracownikiem, a nie tylko narzędziem pracy

Dariusz Okrasa Senior Channel Sales Manager Dell Technologies

Jaką strategię ma Dell na mitygowanie tych wyzwań w 2026 roku? Jak partnerzy powinni podejść do projektów, by nie zostać z długim oczekiwaniem na sprzęt, jak w 2020 roku?

Przede wszystkim stawiamy na otwartą komunikację. Nie jesteśmy dostawcą, który ,,wymyślił podwyżki’’ – podlegamy trendom rynkowym i mówimy o tym głośno. To zjawisko zostanie z nami na kilka kwartałów.

Co to oznacza dla partnerów? Warto już dziś analizować potrzeby i nie odkładać decyzji zakupowych na później. Może się okazać, że zaplanowany budżet, za kilka miesięcy nie wystarczy na zakup wymaganej liczby urządzeń czy oczekiwanej konfiguracji. Zalecamy szukanie optymalizacji. Czasem warto zmienić konfigurację, np. zamiast jednej kości 128 GB zastosować dwie po 64 GB, albo nieznacznie zejść z wyśrubowanych wymagań wydajnościowych, by zmieścić się w budżecie i terminie. Bardzo ciekawą ofertę przygotował Dell Financial Services. Dzięki leasingowi czy najmowi klient nie płaci pełnej wartości sprzętu od razu, co przy spadających stopach procentowych jest atrakcyjną opcją. Widzę też dużą rolę dla partnerów działających w modelu usługowym (CSP), którzy mogą budować ofertę elastycznie, dodając usługi connectivity czy maintenance.

A fabryka w Polsce, jaki jest jej wpływ?

Fabryka daje nam olbrzymią wartość i jest jedną

z naszych największych sił. Nasz łańcuch dostaw opiera się na odporności i elastyczności. Zaprojektowaliśmy go tak, by działał stabilnie nawet przy zmiennych warunkach rynkowych. Duża część naszej oferty powstaje lokalnie, w Łodzi co nas uwiarygadnia w oczach klientów.

Co konkretnie integratorzy i resellerzy powinni zrobić, myśląc o tegorocznych projektach?

Po pierwsze: to nie jest czas na długie dyskusje i mnożenie wariantów. Decyzje należy podejmować jak najsprawniej, minimalizując liczbę kroków. Ważność ofert u wielu producentów skróciła się z 30 dni do 15, co pokazuje dynamikę rynku.

Po drugie: budżet. Jeśli klient planuje uruchomić budżet w drugim kwartale lub później, powinien założyć margines bezpieczeństwa dodatkowych środków.

Po trzecie: bądźcie blisko nas i naszych dystrybutorów. Na bieżąco podpowiadamy, które konfiguracje są dostępne. Paleta wyboru może się nieznacznie zawęzić, aby sprostać reżimowi dostaw.

Wierzę, że podobnie jak przed kilkoma laty, tak i teraz Dell okaże się organizacją, która w czasie nieprzewidywalności radzi sobie najlepiej, zapewniając klientom i partnerom bezpieczeństwo biznesowe. n

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

Nowoczesne urządzenia w niższej cenie i gwarancja na 6 lat! Chcesz poznać szczegóły promocji i dobrać urządzenie do potrzeb swojej firmy? Napisz do nas na: biznes@epson.pl

ETYKA W AI – MIĘDZY KODEM A SUMIENIEM

JEDNYM ETYKA UMYKA, DRUGI SIĘ O NIĄ POTYKA

DLACZEGO KAŻDY REGION REGULUJE AI PO SWOJEMU

I CO CHCE NA TYM UGRAĆ?

Pod płaszczem sporów prawnych o AI Act kryje się fundamentalna rywalizacja o technologiczny ład przyszłości. Podczas gdy USA stawia na niepohamowaną innowację, a Chiny na ścisłą kontrolę państwową, Europa szuka „trzeciej drogi”, opierając swój model na zaufaniu i etyce. To nie tylko kwestia paragrafów, ale wybór, który określi, czy „Made in Europe” stanie się synonimem bezpieczeństwa, czy symbolem technologicznego skansenu.

Na pierwszy rzut oka wygląda to jak nudny spór prawników o paragrafy. Ale nie dajcie się zwieść. To, na co patrzymy, to cicha wojna o dominację w XXI wieku. Gra toczy się o to, kto ustawi zasady, a kto będzie musiał tańczyć tak, jak mu zagrają. I nie, bohaterem tej historii nie jest jakiś anonimowy urzędnik w Brukseli czy Pekinie. Bohaterem jesteś Ty – człowiek z branży IT, który nagle orientuje się, że linijki kodu to nowa polityka zagraniczna. W tej grze nie ma jednej „moralności“. Są trzy różne logiki. I każda z nich gra o inną stawkę.

USA: Wolna Amerykanka (dosłownie)

Stany Zjednoczone grają w to, co umieją najlepiej: symbiozę państwa i Big Techu. Ich „religią” jest innowacja. Biały Dom wie, że realna siła nie siedzi w Gabinecie Owalnym, ale w serwerowniach w Kalifornii, więc daje im wolną rękę. Zasada

jest prosta: „najpierw buduj, potem się martw (jeśli coś wybuchnie)“.

Ale ten model trzeszczy. Największa „jatka“ toczy się teraz o to, kto ma trzymać smycz. Ostatnio widzieliśmy wyraźne sygnały z otoczenia Donalda Trumpa, które chce ukrócić zapędy poszczególnych stanów (jak Kalifornia), próbujących narzucać surowsze normy etyczne dla AI (a w zasadzie niemal ich brak).

To nie przypadek. To presja biznesu, który mówi wprost: „Dajcie nam działać, bo Chiny nas wyprzedzą“. Ryzyko? Gigantyczne. Gdy konkurencyjność staje się bożkiem, bezpieczeństwo zwykłego człowieka ląduje w koszu. W tym układzie to technologia dyktuje warunki rządowi, a nie odwrotnie.

Chiny: Stabilność ponad wszystko

Chiny grają w inną grę. Tam AI nie ma służyć rynkowi. Ma służyć Państwu. Ich siłą jest – nazwijmy to po imieniu –

kolektywizm. Tam nikt nie buntuje się „dla dobra ogółu“. Jeśli Partia decyduje, że wdrażamy system w całym kraju, to go wdrażamy. Bez dyskusji o RODO i bez pytania o zgodę.

Trzeba tu oddać jedną sprawiedliwość: ten system jest brutalnie skuteczny. Chińskie AI w medycynie czy logistyce potrafi działać cuda. Dla przeciętnego obywatela wygoda i sprawne usługi często są ważniejsze niż jakaś abstrakcyjna prywatność. To nie jest tylko bat, to też realna marchewka.

Cena? Ukryta, ale potworna. To system, w którym innowacja jest możliwa tylko w klatce wyznaczonej przez władzę. To AI, które nigdy nie będzie Twoim kompanem tylko nadzorcą.

Europa: Ostatni sprawiedliwy (czy naiwny?)

No i my. Unia Europejska. Naszą „religią“ są Prawa Człowieka i AI Act. Próbujemy – może trochę naiwnie,

a może wizjonersko – stworzyć „trzecią drogę“: AI, które będzie bezpieczne i godne zaufania. Chcemy, by technologia była naszym wsparciem, a nie konsolidatorem władzy.

Sceptycy (w tym zapewne wielu z Was) pukają się w czoło: „Europa ureguluje się na śmierć“. I szczerze? Też się tego obawiam. Nasza ospałość może nas zabić szybciej niż jakiekolwiek „złe AI“. Jeśli utoniemy w papierologii, staniemy się technologicznym skansenem. Ale jest cień nadziei. W świecie pełnym cyfrowej przeciętności, etyka może być naszym towarem eksportowym. Znak „Made in Europe“ może znaczyć tyle, co „Made in Switzerland“ na sejfie: gwarancję, że nikt Cię nie oszuka. Oczywiście pod warunkiem, że takie nasze bezpieczne AI w ogóle będzie miało rację bytu. Bo bezpieczny, ale głupawy bądź zbyt drogi asystent nikogo nie zainteresuje.

Dylemat: Kto pierwszy mrugnie?

Tu dochodzimy do ściany. Bezpieczeństwo kosztuje czas. A czas to jedyna waluta, której nie da się dodrukować. Wyobraźmy sobie wyścig o AI wykrywające nowotwory.

q Chiny robią to „na rympał“, przegwałcając dane pacjentów, i mają lek w 2027. q My robimy to etycznie, cackając się z każdą zgodą, i mamy lek w 2030. Czy mamy moralne prawo być wolniejszymi, wiedząc, że przez te 3 lata ludzie będą umierać? To jest dylemat, który spędza sen z powiek. Czy szybciej zawsze znaczy lepiej?

W mojej opinii: Nie. Szybkie wdrożenie wadliwego systemu może wyrządzić szkody, które będziemy naprawiać dekadami. Etyka to hamulec, który chroni nas przed wykolejeniem się całej cywilizacji na pierwszym ostrzejszym zakręcie.

Splinternet: Świat pęka na kawałki

Ale to nie wszystko. Podziały mogą nas doprowadzić do momentu, w którym zapomnimy o „globalnej wiosce“ i zaczniemy zmierzać w stronę Splinternetu. W 2035 roku podróż do Chin może być szokiem. Twój telefon, Twoje aplikacje, Twój cyfrowy świat – mogą tam po prostu. nie działać. W najlepszym razie skończy się to zdziwieniem na lotnisku. W najgorszym – nieumiejętnością życia w „obcym“ systemie, w obcej bańce technologicznej.

Globalne Południe: Biorę to, co działa

A reszta świata? Afryka, Ameryka Południowa? Oni nie będą wybierać ideologii. Podejdą do tego pragmatycznie, sektorowo: q Administracja? Bierzemy system chiński (bo tani).

q Służba zdrowia? System europejski (bo bezpieczny).

q Biznes? System amerykański (bo wydajny).

Wygra ten, kto da gotowe „pudełko“ z rozwiązaniem. A pozostałe kraje skończą jako mozaika wpływów, zależna od wszystkich i od nikogo (a już na pewno nie niezależna).

Wilk syty i owca cała?

Czy więc Europa strzeli sobie w stopę? Bardzo możliwe. Jeśli podejdziemy do tematu zbyt drastycznie albo zbyt ospale – przegramy gospodarczo.

Ale mimo wszystko obstaję przy tym, że etyka to nasza jedyna polisa.

Polisa w świecie, gdzie każdy gra nieczysto, zaufanie może stać się bardzo wartościową walutą. Może będziemy wolniejsi. Może będziemy drożsi. Ale w długim terminie to my możemy mieć system, który się nie zawali pod własnym ciężarem przy pokonywaniu pierwszych zakrętów.

Pozostaje mieć nadzieję, że znajdziemy ten złoty środek. Że wilk (innowacja) będzie syty, i owca (człowiek) cała. Bo alternatywy wolę sobie nie wyobrażać. n

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

Wideokonferencyjny system z AI już jest!

Immersyjny zestaw dla najbardziej wymagających –

Poly Studio E70 wraz z ekranem LED 138”

Realne spotkania bez wychodzenia z biura!

Poly Studio E70 z ekranem LED 138”

Obraz 4k - 2 obiektywy z 20-megapikselowymi sensorami

Inteligentne kadrowanie dzięki technologii AI

Technologia LED

Perfekcyjny obraz dla wymagających klientów

Profesjonalne wdrożenie i serwis gwarancyjny nawet do 60 miesięcy

STATIM INTEGRATOR ul. Głogowska 3, 01-743 Warszawa biuro@statim.com.pl, tel

ACER „ROAD TO 50” W MEDIOLANIE

NOWY EKOSYSTEM TECHNOLOGII DLA BIZNESU

Jubileusz 50-lecia marki Acer stał się okazją nie tylko do spojrzenia wstecz, ale przede wszystkim do pokazania nowej strategii firmy. Podczas wydarzenia „Road to 50”, które 10 marca odbyło się w mediolańskim Museum of Science and Technology im. Leonarda da Vinci, producent zaprezentował kierunek transformacji swojej działalności w Europie, rosnącą rolę segmentu komercyjnego, nowe komputery biznesowe z funkcjami AI oraz inicjatywy wzmacniające współpracę z partnerami kanałowymi.

Historia Acer zaczęła się w 1976 roku na Tajwanie. Firma została założona przez Stana Shiha pod nazwą Multitech i początkowo zajmowała się dystrybucją komponentów elektronicznych oraz projektowaniem pierwszych mikrokomputerów. Już w latach osiemdziesiątych przedsiębiorstwo zaczęło rozwijać własne komputery osobiste i intensywnie inwestować w ekspansję międzynarodową.

W 1987 roku firma przyjęła nazwę Acer i rozpoczęła globalną ekspansję. W kolejnych dekadach producent zbudował silną pozycję na rynku komputerów osobistych, szczególnie w segmencie notebooków. Na początku XXI wieku Acer należał już do największych dostawców PC na świecie. Ważnym momentem było przejęcie w 2007 roku działu komputerów osobistych Gateway oraz marki Packard Bell, co pozwoliło firmie wzmocnić obecność w Europie i Ameryce Północnej.

W ostatnich latach Acer coraz wyraźniej zmienia jednak charakter swojej działalności. Firma przestaje być postrzegana wyłącznie jako producent komputerów i monitorów. Rozwija

nowe obszary, takie jak rozwiązania dla smart cities, elektromobilność, magazynowanie energii, cyberbezpieczeństwo, infrastruktura AI czy rozwiązania przemysłowe.

Właśnie ta transformacja była jednym z głównych tematów wydarzenia „Road to 50”, które w Mediolanie zgromadziło przedstawicieli mediów, partnerów technologicznych oraz ekspertów branży IT.

Mediolan jako symboliczne

miejsce jubileuszu

Organizacja wydarzenia w Museum of Science and Technology im. Leonarda da Vinci nie była przypadkowa. To jedno z najważniejszych miejsc we Włoszech poświęconych historii nauki i innowacji, a jego przestrzenie doskonale wpisywały się w narrację Acer o rozwoju technologii i przyszłości branży IT. Spotkanie rozpoczęła Catherine Marshall, witając uczestników i podkreślając, że jubileusz pięćdziesięciolecia firmy ma być nie tyle nostalgicznym powrotem do przeszłości, ile raczej punktem wyjścia do rozmowy o przyszłości technologii.

Centralnym elementem wydarzenia była prezentacja Massimiliano Rossiego, Vice President PBU Commercial, Operations and Service w Acer EMEA. W wystąpieniu zatytułowanym „Projection of 2026 – look back at the past to build a vision for the future” przedstawił on podsumowanie ostatnich miesięcy działalności firmy oraz strategiczne kierunki rozwoju na kolejne lata.

Wrost w wymagającym otoczeniu rynkowym

Rossi przypomniał, że branża komputerów osobistych w ostatnich latach przechodziła okres dużych zmian. Po pandemicznym boomie sprzedażowym rynek musiał zmierzyć się z korektą popytu, zmianami w łańcuchach dostaw oraz rosnącą konkurencją. Mimo tego Acer zakończył 2025 rok ze wzrostem przychodów. Firma podała, że sprzedaż osiągnęła poziom 275,64 mld dolarów tajwańskich, co oznacza wzrost o 4,1 procent rok do roku. Według producenta był to najlepszy wynik zarówno dla całego roku, jak i dla czwartego kwartału w okresie po pandemii.

W prezentacji podkreślono również rosnące znaczenie segmentu komercyjnego. W regionie EMEA sprzedaż w tym obszarze odpowiada już za około 30 procent całego biznesu firmy, a Acer chce w kolejnych latach dalej wzmacniać tę część działalności. Co ważne, coraz większy udział w przychodach firmy mają również biznesy wykraczające poza tradycyjny rynek komputerów osobistych. W 2025 roku działalność niezwiązana bezpośrednio z komputerami i monitorami odpowiadała już za 32,2 procent przychodów grupy.

Strategia „multiple business engines”

Jednym z kluczowych elementów prezentacji Rossiego była strategia określana jako „multiple business engines”. Acer rozwija w jej ramach kilka równoległych filarów biznesowych, które mają wspólnie budować stabilność firmy i zmniejszać jej zależność od cykliczności rynku PC. Obok komputerów i monitorów firma rozwija dziś działalność w takich obszarach jak magazynowanie energii, elektromobilność, infrastruktura ładowania

pojazdów elektrycznych, rozwiązania dla smart cities, gaming, elektronika użytkowa, cyberbezpieczeństwo czy technologie medyczne oparte na sztucznej inteligencji.

Ważną rolę odgrywają także spółki należące do grupy Acer, które rozwijają wyspecjalizowane kompetencje technologiczne. Należą do nich między innymi Altos Computing zajmujący się serwerami i infrastrukturą AI, AOPEN działający w obszarze digital signage oraz edge computing czy Posiflex rozwijający rozwiązania dla punktów sprzedaży i systemów AIoT. Dzięki temu Acer chce przejść od modelu firmy skupionej na produkcie do organizacji oferującej bardziej kompleksowe rozwiązania technologiczne.

Przyszłość technologii według

Jednym z najbardziej inspirujących punktów programu było wystąpienie futurysty Gerda Leonharda, który w prezentacji „The SMB Horizon” mówił o wpływie sztucznej inteligencji na gospodarkę i rynek pracy. Leonhard

podkreślił, że AI przestaje być eksperymentalną technologią, a staje się narzędziem realnie zmieniającym funkcjonowanie firm. W jego opinii szczególnie interesującą rolę odegra w tym procesie sektor małych i średnich przedsiębiorstw. To właśnie w tym segmencie organizacje mogą szybciej wdrażać nowe rozwiązania technologiczne i eksperymentować z nowymi modelami biznesowymi. Jednocześnie jednak potrzebują wsparcia partnerów technologicznych, którzy pomogą im przejść przez proces cyfrowej transformacji.

Leonhard wskazał również trzy kluczowe trendy, które będą definiować rozwój technologii w najbliższych latach: rozwój sztucznej inteligencji, rosnące znaczenie zrównoważonego rozwoju oraz transformację modelu pracy.

Nowa generacja komputerów biznesowych

Podczas wydarzenia Acer zaprezentował także nowe komputery biznesowe z serii TravelMate, które zostały zaprojektowane z myślą o pracy w środowisku wykorzystującym sztuczną inteligencję.

W 2025 roku pozyskaliśmy 45 nowych partnerów handlowych, rozszerzając sieć dystrybucji o firmy specjalizujące się właśnie w obsłudze klientów SMB.

Piotr Nowok

Commercial Head w Acer Poland

Do portfolio dołączyły modele TravelMate P4 14 AI, TravelMate P4 Spin 14 AI, TravelMate P2 14 AI oraz TravelMate P2 16 AI. Są to pierwsze urządzenia w tych liniach należące do kategorii Copilot+ PC.

Nowe laptopy wykorzystują procesory Intel Core Ultra Series 3, które wyposażono w jednostki NPU przeznaczone do obsługi zadań związanych z AI. Dzięki temu część funkcji sztucznej inteligencji może być wykonywana bezpośrednio na urządzeniu użytkownika. Producent podkreśla również funkcje poprawiające komfort pracy hybrydowej, takie jak Acer PurifiedVoice wykorzystujący AI do redukcji szumów podczas wideokonferencji czy Acer PurifiedView, poprawiający jakość obrazu z kamery.

Duży nacisk położono także na bezpieczeństwo. Wszystkie nowe modele należą do kategorii Secured-core PC i oferują m.in. moduł dTPM, fizyczną przesłonę kamery czy opcjonalny system wykrywający nieautoryzowane otwarcie obudowy komputera.

Nowe komputery mają trafić do sprzedaży w regionie EMEA w czerwcu 2026 roku.

Kanał partnerski w centrum strategii

Jednym z najważniejszych tematów mediolańskiego wydarzenia była także rola partnerów technologicznych w rozwoju firmy. Acer od lat działa w modelu 100 procent indirect, w którym sprzedaż do klientów końcowych odbywa się poprzez sieć dystrybutorów, resellerów i integratorów systemów. Producent zapowiedział rozwój narzędzi wspierających współpracę z partnerami. Jednym z najważniejszych elementów tej strategii jest Acer Channel Partner Portal, platforma cyfrowa przeznaczona dla partnerów w regionie EMEA.

Portal umożliwia m.in. przygotowywanie zapytań cenowych, rejestrację projektów i przetargów, dostęp do materiałów marketingowych oraz udział w programach szkoleniowych. Platforma integruje także informacje o usługach wsparcia, gwarancjach i programach lojalnościowych.

Ważnym elementem systemu jest moduł Academy, który pozwala partnerom rozwijać kompetencje technologiczne i sprzedażowe. Acer podkreśla, że w świecie rosnącej roli AI wiedza techniczna partnerów staje się równie ważna jak sama oferta sprzętowa.

Polska w strategii Acer

Podczas wydarzenia firma zwróciła także uwagę na wyniki osiągane na poszczególnych rynkach regionu EMEA, w tym w Polsce.

– Konferencja Acer w Mediolanie bardzo wyraźnie pokazała kierunek, w jakim rozwijamy dziś segment rozwiązań dla biznesu. Obok nowych urządzeń, w tym modeli z linii TravelMate wyposażonych w technologię Copilot+ PC, coraz większy nacisk kładziemy na budowanie kompletnego ekosystemu wspierającego firmy w praktycznym wykorzystaniu AI, bezpieczeństwa i mobilności w codziennej pracy. W Polsce w 2025 roku bardzo mocno zaznaczyliśmy swoją obecność w kanale przetargów publicznych. Acer wygrał ponad 50 postępowań przetargowych dla instytucji i organizacji sektora publicznego – od urzędów administracji centralnej i samorządowej, przez jednostki edukacyjne, po placówki ochrony zdrowia. Łącznie dostarczyliśmy ponad 80000 urządzeń, co czyni nas jednym z kluczowych dostawców tego segmentu na polskim rynku. To wynik nie tylko konkurencyjnej oferty produktowej, ale też sprawnego wsparcia logistycznego i posprzedażowego, które są kluczowe

przy dużych projektach publicznych. Kolejnym strategicznym krokiem jest dla nas rozwój w segmencie małych i średnich przedsiębiorstw, który w kategorii urządzeń biznesowych ma kluczowe znaczenie dla dalszego wzrostu rynku. W 2025 roku pozyskaliśmy 45 nowych partnerów handlowych, rozszerzając sieć dystrybucji o firmy specjalizujące się właśnie w obsłudze klientów SMB. Dlatego tak duży nacisk kładziemy na współpracę z partnerami oraz rozwój narzędzi wspierających kanał sprzedaży – powiedział Piotr Nowok, Commercial Head w Acer Poland.

Firma rozwija również współpracę z partnerami obsługującymi sektor małych i średnich przedsiębiorstw. W ubiegłym roku Acer pozyskał 45 nowych partnerów handlowych specjalizujących się właśnie w obsłudze klientów z tego segmentu.

Jubileusz opowiedziany przez pokolenie Z

Jednym z najbardziej oryginalnych elementów wydarzenia była wystawa przygotowana z okazji pięćdziesięciolecia firmy. Acer zdecydował się odejść od klasycznej jubileuszowej ekspozycji i zaprosił do współpracy studentów uczelni artystycznych i projektowych z Mediolanu. Projekt zatytułowany „The Arc of Innovation –From Microprocessor to Mind-partners (1976–2026)” zestawiał sześć historycznych urządzeń Acer z sześcioma instalacjami artystycznymi przygotowanymi przez młodych twórców.

Wśród prezentowanych urządzeń znalazły się m.in. komputer edukacyjny Micro-Professor MPF-I z 1981 roku, komputer Acer 500+ PC z 1987 roku, notebook TravelMate C100 z początku XXI wieku czy eksperymentalny Iconia Dual Screen z 2011 roku. Wystawę domykały współczesne konstrukcje, takie jak notebook Vero oraz nowa generacja komputerów Copilot+ PC. Studenci

z uczelni takich jak Politecnico di Milano, Brera Academy of Fine Arts i Raffles Milano interpretowali te urządzenia w kontekście kultury, designu oraz zmieniającej się relacji człowieka z technologią.

Acer w nowej roli

Acer znajduje się dziś w ważnym momencie swojej historii. Firma nadal pozostaje jednym z największych producentów komputerów osobistych na świecie, ale jednocześnie coraz wyraźniej stara się wyjść poza tradycyjne ramy tego rynku. Strategia „multiple business engines”, rozwój segmentu B2B, inwestycje w sztuczną inteligencję oraz nacisk na współpracę z partnerami mają budować bardziej odporny model biznesowy. Po pięćdziesięciu latach od powstania Acer próbuje więc zdefiniować się na nowo. Nie tylko jako producent sprzętu, ale jako firma budująca szerszy ekosystem technologii wspierających cyfrową transformację biznesu. n

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

INTEGRATED SYSTEMS EUROPE 2026

REKORDY, SKALA I TARGI, KTÓRE PRZESTAŁY BYĆ TYLKO TARGAMI

Targi Integrated Systems Europe 2026 w Barcelonie przeszły do historii jako największa i najbardziej dynamiczna edycja w dziejach wydarzenia. Rekordowa frekwencja, największa w historii powierzchnia ekspozycji oraz coraz wyraźniej zarysowana zmiana charakteru ISE sprawiły, że tegoroczne targi stały się czymś więcej niż tylko miejscem prezentacji nowości technologicznych. Dla redakcji IT Reseller edycja 2026 miała dodatkowy wymiar – po raz pierwszy polski magazyn branżowy nie tylko relacjonował wydarzenie, ale również aktywnie współtworzył jego program, organizując dwie autorskie debaty poświęcone rynkowi AV i digital signage.

Barcelona na początku lutego ponownie stała się globalnym centrum branży audiowizualnej. Przez cztery dni Fira Barcelona funkcjonowała jak samodzielne miasto, w którym równolegle toczyły się setki rozmów biznesowych, spotkań partnerskich, prezentacji technologicznych i debat o przyszłości rynku. Hasło „Push Beyond” w tym kontekście nie było jedynie marketingowym motywem przewodnim, lecz trafnym opisem ambicji wydarzenia, które wyraźnie przekroczyło dotychczasowe granice, zarówno pod względem skali, jak i roli, jaką pełni w europejskim i globalnym ekosystemie AV. Czterodniowe targi, zakończone 6 lutego, przyciągnęły 92 170 unikalnych odwiedzających z całego świata, co oznacza wzrost o 8 procent rok do roku. Równie imponująca była skala ekspozycji. Na rekordowej powierzchni 101 tysięcy metrów kwadratowych swoje rozwiązania zaprezentowało 1751 wystawców, w tym 323 debiutantów, dla których ISE 2026 było pierwszym tak dużym wyjściem na międzynarodową scenę. Już w trakcie wydarzenia można było odnieść wrażenie, że to edycja, która zapisze się w statystykach na długo.

Dynamika ISE 2026 była odczuwalna nie tylko w liczbach, ale także w codziennym rytmie targów. Środa przyniosła rekord dzienny, aż 64 198 osób

obecnych jednego dnia, co niemal zrównało się z łączną frekwencją całej edycji ISE 2019 w Amsterdamie. W ciągu czterech dni odnotowano ponad 212 tysięcy odwiedzających, co najlepiej oddaje intensywność spotkań i tempo, w jakim funkcjonowały hale wystawowe. Momentami bardziej przypominało to duże wydarzenie branżowo-kulturalne niż klasyczne targi B2B, choć kalendarze spotkań uczestników pozostawały bezlitośnie biznesowe.

Już podczas rozmów prowadzonych na miejscu z przedstawicielami organizatorów było jasne, że ISE 2026 ma być czymś więcej niż rekordem frekwencji, a po zakończeniu targów Mike Blackman, dyrektor zarządzający Integrated Systems Events, podkreślał, że tegoroczna edycja była świętem nie tylko technologii, ale całej społeczności branżowej. – Przez cztery niezwykłe dni świętowaliśmy przełomowe technologie, rozpalaliśmy śmiałe idee, budowaliśmy trwałe relacje i wyznaczaliśmy nowe standardy dla naszej branży. Najbardziej ekscytuje mnie kreatywność, energia i różnorodność naszych wystawców i partnerów” – podsumował Blackman.

ISE 2026 wyraźnie pokazało zmianę własnej tożsamości. Obok klasycznej funkcji targów produktowych coraz większą rolę odgrywały nowe formaty i inicjatywy. Zadebiutował projekt Spark,

Drugi od lewej: Mike Blackman, dyrektor zarządzający Integrated Systems Events organizatora ISE wraz z zespołem IT Reseller (od lewej: Krzysztof Bogacki Mariusz Laurisz oraz Rafał Skrzypek).

łączący technologie AV z branżami kreatywnymi, takimi jak gaming, transmisje na żywo czy marketing doświadczeń. Ogłoszono także powstanie Fundacji ISE, wspieranej przez właścicieli wydarzenia oraz władze Barcelony i Katalonii, której celem ma być długofalowe wspieranie innowacji i współpracy w sektorze AV.

Wszystko to składa się na obraz targów, które coraz mniej przypominają klasyczną wystawę sprzętu, a coraz bardziej platformę wymiany idei, strategii i wizji rozwoju rynku. To właśnie w tym klimacie szczególnego znaczenia nabrały rozmowy o trendach, kierunkach technologicznych i realnych wyzwaniach stojących przed producentami, integratorami i partnerami – tematy, które w kolejnych dniach ISE 2026 wybrzmiewały coraz mocniej.

Od wystawy produktów do platformy idei i decyzji rynkowych

Zmiana charakteru ISE była w Barcelonie wyczuwalna niemal od pierwszych kroków na terenie Fira. Oczywiście nadal był to gigantyczny showroom technologii AV, ale coraz trudniej było

opisywać te targi wyłącznie przez pryzmat premier sprzętowych. ISE 2026 funkcjonowało raczej jako złożona platforma spotkań, w której technologie, strategie biznesowe i narracje rynkowe przenikały się na równych prawach. W wielu rozmowach powracał ten sam motyw – nie chodzi już o to, co jest nowe, ale o to, co ma sens i co realnie da się wdrożyć.

Wystawcy coraz częściej porządkowali swoje stoiska nie według linii produktowych, lecz według scenariuszy użycia. Retail, corporate, edukacja, obiekty sportowe, control roomy czy przestrzenie publiczne były prezentowane jako kompletne środowiska, a nie zbiór pojedynczych urządzeń. To subtelna, ale bardzo istotna zmiana. Zamiast rozmów o parametrach technicznych dominowały dyskusje o doświadczeniu użytkownika, efektywności energetycznej, kosztach utrzymania i integracji z istniejącą infrastrukturą IT. Wyraźnym wspólnym mianownikiem tegorocznej edycji była sztuczna inteligencja, choć jej obecność miała zupełnie inny charakter niż jeszcze dwa czy trzy lata temu. AI przestała być obietnicą i dodatkiem marketingowym. W Barcelonie była już elementem wbudowanym w sprzęt,

Od lewej: Krzysztof Bogacki z IT Reseller, Robert Buława z LG Electronics, Łukasz Niegowski z Barco, Robert Pusz z Newline Interactive oraz Grzegorz Nowicki z Samsung Electronics.

Od lewej: Krzysztof

Bogacki z IT Reseller, Robert Tomaszewski

z iiyama, Marcin

Sas z Samsung Electronics, Dobromir Maconko

z LG Electronics

oraz Michał Strzelec z Edbak.

oprogramowanie i całe ekosystemy zarządzania. Dotyczyło to zarówno analizy obrazu, optymalizacji jasności i zużycia energii, jak i automatyzacji zarządzania treścią czy monitorowania stanu urządzeń. Co istotne, AI coraz częściej pojawiała się jako narzędzie „niewidoczne”, działające w tle, a nie jako główny bohater prezentacji. Równolegle bardzo mocno wybrzmiewał temat digital signage, który na ISE 2026 był jednym z najbardziej dojrzałych i jednocześnie najbardziej konkurencyjnych segmentów. Ekrany LED, MicroLED, rozwiązania high brightness, e-paper oraz technologie 3D i spatial tworzyły krajobraz rynku, w którym różnice nie sprowadzały się już do jakości obrazu, lecz do sposobu zarządzania, integracji i skalowalności. Coraz częściej mówiono o digital signage jako o elemencie infrastruktury krytycznej dla retailu, transportu czy administracji publicznej, a nie tylko nośniku marketingowym.

Silnie zaznaczyły swoją obecność także control roomy i rozwiązania dla bezpieczeństwa oraz monitoringu. Wiele prezentacji pokazywało, jak bardzo zmieniła się rola takich przestrzeni w ostatnich latach. Rosnąca liczba źródeł danych, integracja z systemami IoT oraz potrzeba szybkiego podejmowania decyzji powodują, że

klasyczne ściany wizyjne stają się jedynie fragmentem większego ekosystemu analitycznego. To kolejny przykład na to, jak ISE przesuwa środek ciężkości z urządzeń na procesy.

Na tle technologii bardzo wyraźnie zaznaczała się również warstwa narracyjna targów. Program konferencyjny, summity tematyczne i nowe inicjatywy pokazywały, że ISE coraz śmielej wchodzi w rolę miejsca debaty o kierunkach rozwoju branży. Tematy takie jak cyberbezpieczeństwo, zrównoważony rozwój, regulacje czy wpływ geopolityki na łańcuchy dostaw nie były dodatkiem, lecz integralną częścią rozmów prowadzonych na halach. To istotna zmiana, bo jeszcze kilka lat temu tego typu zagadnienia funkcjonowały raczej na marginesie wydarzenia.

W takiej sytuacji debiut inicjatyw takich jak Spark nie był przypadkowy. Połączenie technologii AV z branżami kreatywnymi, gamingiem czy marketingiem pokazało, że ISE coraz mocniej otwiera się na nowe grupy odbiorców i nowe modele współpracy. Targi przestały być miejscem wyłącznie dla inżynierów i integratorów. Stały się przestrzenią, w której spotykają się technologie, treści i ludzie odpowiedzialni za decyzje strategiczne.

Równolegle z ekspozycją targową bardzo

mocno wybrzmiewał rozbudowany program merytoryczny ISE 2026, który coraz wyraźniej przestaje pełnić rolę dodatku do wystawy, a staje się jednym z filarów wydarzenia. Panele i summity poświęcone sztucznej inteligencji, cyberbezpieczeństwu, smart buildings, digital signage czy rynkowi control roomów przyciągały pełne sale i prowokowały do dyskusji wykraczających poza schemat prezentacji produktowych. Szczególnie widoczna była zmiana tonu rozmów. Mniej było prognoz i futurystycznych wizji, a więcej analizy realnych wdrożeń, barier organizacyjnych oraz konsekwencji regulacyjnych i kosztowych. To właśnie w tych panelach ISE 2026 najmocniej pokazywało się jako platforma decyzyjna, a nie tylko miejsce inspiracji.

Istotnym elementem programu był także powrót ISE Hackathonu, który po raz kolejny pokazał, że organizatorzy konsekwentnie inwestują w przyszłe pokolenia branży AV. Zespoły studenckie pracowały nad realnymi wyzwaniami technologicznymi i projektowymi, prezentując swoje koncepcje podczas Fast Forward Friday, a wydarzenie było praktycznym mostem między edukacją a rynkiem AV.

Ta ewolucja ISE miała bardzo konkretny wpływ na sposób prowadzenia rozmów biznesowych. Coraz częściej nie dotyczyły one pojedynczych produktów, lecz całych projektów, długofalowych relacji i wspólnego budowania wartości. Właśnie w takim otoczeniu naturalnie pojawiło się miejsce na dyskusje o kondycji rynku, różnicach regionalnych i wyzwaniach, z jakimi mierzą się producenci oraz partnerzy integracyjni. To z kolei stworzyło kontekst dla debat redakcyjnych IT Reseller, które stały się jednym z punktów odniesienia dla rozmów o rynku AV i digital signage z perspektywy Europy Środkowo-Wschodniej.

Głos rynku, który wybrzmiał

W zmieniającym się krajobrazie ISE 2026 szczególne znaczenie zyskały rozmowy o kondycji rynku, które wychodziły poza standardowe prezentacje produktowe, a w to środowisko naturalnie wpisały się dwie debaty redakcyjne zorganizowane

przez redakcję IT Reseller – wydarzenia bez precedensu w historii targów Integrated Systems Europe, nie tylko z perspektywy polskich mediów branżowych, ale także samego formatu ISE.

Pierwsza z debat, o charakterze strategicznym, była próbą szerokiego spojrzenia na rynek AV i digital signage na początku 2026 roku. W dyskusji udział wzięli: Grzegorz Nowicki z Samsung Electronics, Michał Dołaszyński z Hisense, Robert Pusz z Newline Interactive, Łukasz Niegowski z Barco oraz Robert Buława z LG Electronics, a rozmowa koncentrowała się nie tylko na ocenie bieżącej sytuacji branży, ale też na zmianach, jakie zaszły w ostatnich latach w sposobie planowania projektów, relacjach między producentami a partnerami oraz oczekiwaniach klientów końcowych. Wyraźnie wybrzmiał wątek dojrzewania rynku, zarówno technologicznego, jak i biznesowego. Uczestnicy rozmowy zwracali uwagę, że coraz rzadziej mówimy dziś o jednorazowych wdrożeniach, a coraz częściej o długofalowych strategiach, w których kluczowe znaczenie mają skalowalność, przewidywalność i stabilność ekosystemu.

Istotnym elementem tej debaty była również różnorodność perspektyw. Producenci reprezentujący odmienne segmenty rynku mówili jednym głosem o rosnącym znaczeniu projektów złożonych, wymagających ścisłej współpracy z integratorami i partnerami lokalnymi. Pojawił się też temat presji kosztowej oraz coraz większej roli finansowania i planowania inwestycji w czasie. Rynek, choć aktywny, stał się wyraźnie bardziej ostrożny i selektywny, co wymusza zmianę podejścia zarówno po stronie vendorów, jak i całego kanału partnerskiego. Druga debata, ekspercka i technologiczna, skupiła się na konkretnych kierunkach rozwoju oferty produktowej, a udział w niej wzięli: Robert Tomaszewski z iiyama, Marcin Sas z Samsung Electronics, Dobromir Maconko z LG Electronics oraz Michał Strzelec z Edbak. Rozmowa szybko zeszła z poziomu pojedynczych premier na temat architektury rozwiązań i integracji technologii. LED, MicroLED, e-paper, ekrany wielkoformatowe, systemy montażowe oraz warstwa software’owa były omawiane nie jako osobne kategorie, lecz jako elementy

jednego, spójnego środowiska. Bardzo wyraźnie wybrzmiały też potrzeby standaryzacji, unifikacji i kompatybilności, które z punktu widzenia integratorów stają się dziś jednym z kluczowych kryteriów wyboru technologii.

Ciekawym wątkiem obu debat była zmiana motywacji zakupowych klientów końcowych. Uczestnicy zgodnie wskazywali, że decyzje coraz rzadziej wynikają wyłącznie z potrzeby wymiany sprzęt, a znacznie częściej są efektem rozbudowy istniejących instalacji, optymalizacji kosztów operacyjnych lub chęci uporządkowania całej infrastruktury AV w organizacji. To kolejny sygnał, że ry-

Od lewej: Robert Tomaszewski, Paweł Kołodziejczyk oraz Marek Magiera z iiyama Polska.

nek przeszedł z fazy szybkiego wzrostu do etapu świadomego zarządzania technologią. Celem debat było stworzenie przestrzeni do rozmowy o realnych wyzwaniach rynku, także tych trudnych i niewygodnych. Taki format bardzo dobrze wpisał się w nową tożsamość ISE jako platformy wymiany idei, a nie tylko miejsca premier. Fakt, że te rozmowy odbyły się właśnie w Barcelonie, w ramach największych targów AV na świecie, był wyraźnym sygnałem, że perspektywa rynku Europy Środkowo-Wschodniej staje się coraz bardziej słyszalna.

Z perspektywy redakcji IT Reseller obecność w roli organizatora debat była naturalnym krokiem wynikającym z wieloletniej obserwacji rynku i rozmów prowadzonych na co dzień z producentami, integratorami i partnerami. ISE 2026

stworzyło ku temu idealne warunki, zarówno pod względem skali wydarzenia, jak i dojrzałości branży, która coraz częściej oczekuje pogłębionej refleksji zamiast prostych odpowiedzi.

Ten głos rynku, który wybrzmiał podczas debat, był jednocześnie zapowiedzią dalszych rozmów. Rozmów o tym, co po targach zostaje na dłużej, jakie wnioski można wyciągnąć z Barcelony i w którą stronę realnie zmierza rynek AV i digital signage w najbliższych latach.

Głos wystawców

Rozmowy prowadzone na stoiskach ISE 2026 dobrze uzupełniały wnioski płynące z debat redakcyjnych. Przedstawiciele producentów, obecnych w Barcelonie, mówili o rynku z perspektywy

bardzo operacyjnej, a więc tej, która zaczyna się nie od trendów, ale od realnych projektów, zapytań i decyzji zakupowych podejmowanych przez klientów końcowych.

Barco

Na stoisku Barco podczas ISE 2026 wyraźnie widać było, jak mocno firma koncentruje się dziś na rozwiązaniach dla nowoczesnych środowisk pracy hybrydowej. Belgijski producent od lat rozwija ekosystem ClickShare, a w Barcelonie zaprezentował jego kolejną odsłonę przygotowaną we współpracy z Microsoftem. Nowe rozwiązanie ma upraszczać prowadzenie spotkań oraz łączyć świat spotkań stacjonarnych i zdalnych w jednym, spójnym środowisku współpracy. – Co nowego jeżeli chodzi o Barco? ClickShare Hub, czyli nasze nowe modułowe rozwiązanie do wideokonferencji, które zrobiliśmy razem z firmą Microsoft. Nasz hardware, ich software –wychodzi idealne rozwiązanie do wideokonferencji – powiedział Łukasz Niegowski, Sales Director MX, Middle East & CEE-T, Country & Compliance Manager Poland w Barco

– To urządzenie umożliwia nam bezprzewodową komunikację; sprawia, że pracownicy w firmie oraz pracownicy wirtualni lub zdalni genialnie wymieniają między sobą informacje, widzą się i podnoszą efektywność spotkań. – ISE to najważniejsze targi dla branży audiowizualnej. Przyjechaliśmy tutaj, aby zaprezentować nasze najnowsze rozwiązania UC&C, w tym ClickShare Hub z certyfikacją Microsoft. Jesteśmy wieloletnim wystawcą na ISE i zawsze traktujemy to wydarzenie jako okazję do pokazania najnowszych innowacji w obszarze współpracy – mówił Jan van Houtte, Executive Vice President w Barco.

Crestron

– W tym roku koncentrujemy się na trzech kierunkach: content, collaboration i control. W każdej z tych kategorii pojawiły się nowości, ale szczególnie dużo dzieje się w obszarze collaboration.

Odświeżyliśmy linię rozwiązań wideokonferencyjnych dla środowisk Microsoft Teams i Zoom. Sercem systemu jest nowe urządzenie Collab

Od lewej: Łukasz Niegowski oraz Jan van Houtte z Barco.

Compute, zaprojektowane od podstaw przez Crestron jako rozwiązanie klasy industrialnej – podkreślił Michał Jakobszy, Senior Regional Sales Manager w Crestron.

Hisense

Podczas ISE 2026 marka Hisense wyraźnie pokazała, że coraz mocniej zaznacza swoją obecność w segmencie profesjonalnych wyświetlaczy. Producent rozwija ofertę rozwiązań dla retailu, obiektów sportowych oraz edukacji, stawiając jednocześnie na integrację nowych technologii, takich jak sztuczna inteligencja czy najnowsze wersje systemu Android. W Barcelonie firma zaprezentowała również kierunek rozwoju swojego portfolio na najbliższe miesiące oraz podkreśliła znaczenie partnerstw dystrybucyjnych dla dalszej ekspansji na rynkach europejskich.

– W tym roku segmentujemy swoją pozycję w sposób bardzo oczywisty. Pokazujemy produkty głównie w kilku kategoriach dedykowanych dla rynku retailowego: monitory profesjonalne o dużej jasności, technologia outdoorowa oraz ekrany LEDowe – mówił Michał Dołaszyński, Hisense B2B CEE Director w Hisense B2B Europe.

– Hisense w roku 2026 jest sponsorem World Cup 2026 w USA, Kanadzie i Meksyku. Jako sponsor tytularny będziemy prezentować wiele swoich rozwiązań, głównie LEDowych, na obiektach sportowych.

– Bardzo ważną informacją, którą chcemy się dzisiaj podzielić, jest to, że nawiązaliśmy współpracę z firmą AB – największym dystrybutorem w Polsce. Dzięki temu nasza oferta będzie coraz łatwiej dostępna i bardziej elastyczna – dodał Dołaszyński.

Epson

Stoisko Epson podczas ISE 2026 przyciągało uwagę przede wszystkim spektakularnymi instalacjami projekcyjnymi oraz premierami sprzętowymi w segmencie projektorów o bardzo wysokiej jasności. Producent pokazał w Barcelonie zarówno rozwiązania dla branży eventowej i muzealnej, jak i nowe urządzenia kierowane do edukacji oraz biznesu.

– To, co widzę w Polsce, to bardzo wysoka jakość integratorów systemów – wysokie kompetencje technologiczne i kreatywność. Widzę coraz więcej polskich firm aktywnych

Od lewej: Marek Lewandowski, Rafał Wójcik, Robert Buława, Jarosław Szkoda oraz Dobromir Maconko z LG Electronics.

na dużych europejskich wydarzeniach, na Bliskim Wschodzie, w Ameryce Południowej czy w Japonii – podkreślił Massimo Pizzocri, Vice President Video Projector Sales & Marketing Division w Epson Europe. – Premiera naszego najnowszego produktu XQ2030B – to projektor o sile światła 30 000 lumenów. Olbrzymim wyróżnikiem jest to, że versus poprzednik, jest to produkt ponad 50 proc. lżejszy i ponad 50 proc. mniejszy – powiedział Andrzej Bieniek, Business Account Manager Video Projector Epson Europe.

Edbak

Obecność firmy Edbak na targach ISE ma już charakter niemal tradycji. Polski producent systemów montażowych od lat wykorzystuje barcelońskie wydarzenie jako miejsce spotkań z partnerami z całego świata oraz prezentacji nowych rozwiązań dla rynku digital signage i AV. Tegoroczna edycja była dla firmy szczególna także z powodu jubileuszu oraz odświeżonego wizerunku marki, który towarzyszył premierom kolejnych produktów.

– Jesteśmy na ISE w Barcelonie – miejscu, gdzie spotyka się globalny rynek AV. Dla firmy

Edbak targi ISE to nie jest jednorazowa przygoda. Jesteśmy tu po raz 20. Obecność tutaj to nie formalność, to obowiązek, a zarazem przyjemność spotkań z partnerami z całego świata – powiedział Michał Strzelec, Dyrektor Sprzedaży AV w Edbak.

– Przyjechało z nami kilka nowości. Wraz z nowym logo przyjechały nowe wózki z serii elektrycznej z regulacjami, przyjechał też stand regulowany elektrycznie oraz nowe linie uchwytowe – dodał Maciej Jarosz, Regionalny Kierownik Sprzedaży w EDBAK.

HP Poly

Stoisko HP Poly podczas ISE 2026 było jednym z miejsc, w których wyraźnie widać było kierunek zmian w segmencie rozwiązań do komunikacji i wideokonferencji. Firma zaprezentowała nowe portfolio zestawów słuchawkowych oraz zapowiedziała rozwój funkcji oprogramowania Poly OS. Tegoroczna edycja targów była także symbolicznym momentem integracji produktów Poly z marką HP, co ma podkreślać spójność całego ekosystemu urządzeń do pracy hybrydowej.

– Dzisiaj prezentujemy nasze nowe zestawy słuchawkowe. Wprowadzamy linię Mission – prze-

Marcel Timmer z HP Poly.

wodowe słuchawki USB, które po raz pierwszy nie są markowane jako Poly, ale jako słuchawki HP. (..) Możliwości, jakie oferuje AI, są ogromne i my oferujemy te rozwiązania już teraz w nowych słuchawkach, właściwie na poziomie podstawowym (entry-level). Na rynku, gdzie istnieje mnóstwo opcji, od modeli podstawowych aż po segment premium, my oferujemy funkcje premium wspierane przez AI we wszystkich produktach – podkreślił Marcel Timmer, Category Manager w HP Poly.

TD SYNNEX

Dla TD SYNNEX tegoroczne targi ISE w Barcelonie miały szczególne znaczenie, ponieważ firma pojawiła się tam już w nowej strukturze organizacyjnej, wzmocnionej zespołem specjalistów ProAV. Dystrybutor coraz wyraźniej buduje swoją pozycję jako partner technologiczny oferujący nie tylko sprzęt, lecz także wsparcie projektowe i inżynierskie dla integratorów oraz resellerów realizujących projekty AV i digital signage. – Ten rok jest wyjątkowy przez połączenie zespołu ProAV i NUC w TD SYNNEX Polska. Mam

przyjemność być liderem zespołu inżynierów. Jesteśmy wartością dodaną dla naszych partnerów – u nas mogą oni otrzymać propozycję kompleksowego rozwiązania, o czym rozmawiamy zarówno na ISE, jak i w trakcie codziennej pracy – powiedział Mateusz Ziobro, Senior Manager, Technical Practice w TD SYNNEX Maverick. – Tegoroczne wydarzenie jest dla nas szczególnie ważne, ponieważ pojawiamy się na targach ISE jako nowy zespół specjalistów, który wcześniej pracował w Exclusive Networks Poland. Od 2026 roku jesteśmy częścią TD SYNNEX Maverick. Z punktu widzenia rynku i naszych partnerów handlowych nic się nie zmienia. Dalej opieramy współpracę na tych samych ludziach, kompetencjach i modelu działania, który przez lata rozwijaliśmy – mówił Łukasz Żukowski, TD SYNNEX | Maverick.

Dahua Technology

Podczas ISE 2026 firma Dahua Technology wyraźnie podkreślała, że chce być postrzegana nie tylko jako producent systemów monitoringu, ale

Michał Dołaszyński z Hisense.

również jako dostawca rozwiązań dla rynku audio-wideo, digital signage i monitorów interaktywnych. Na stoisku w Barcelonie producent prezentował szerokie portfolio wyświetlaczy, ekranów LED oraz rozwiązań opartych na sztucznej inteligencji, kierowanych zarówno do biznesu, jak i sektora edukacyjnego.

– Jesteśmy na targach jako Dahua po raz drugi, ponieważ chcemy zwiększać swoją rozpoznawalność marki w zakresie produktów związanych z obrazem i dźwiękiem. Jako lider CCTV, numer jeden w Polsce, chcemy w przyszłości być również rozpoznawalnym graczem na rynku Digital Signage, LED i oczywiście monitorów interaktywnych – mówił Paweł Budzik, Business Development Manager w Dahua Technology Poland.

– Na naszym stoisku możemy znaleźć pełen przekrój produktów Digital Signage, od standardowych monitorów wewnętrznych, przez postery i monitory outdoorowe, po rozwiązania interaktywne i LED-owe. Jedną z ciekawszych nowości jest LED w technologii MIP, która łączy zalety rozwiązań SMD i CoB. Każda dioda jest indywidualnie zabezpieczona, co ułatwia serwisowanie,

poprawia odprowadzanie ciepła oraz pozwala uzyskać bardzo intensywną czerń i mały pixel pitch. Produkt trafi do sprzedaży jeszcze w tym roku – powiedziała Karolina Bujalska, B2B Sales Manager w Dahua Technology Poland.

Newline Interactive

ISE 2026 było dla Newline Interactive okazją do pokazania, że firma rozwija swoje portfolio znacznie szerzej niż tylko w segmencie monitorów interaktywnych. Na stoisku producenta można było zobaczyć zarówno rozwiązania dobrze znane z rynku edukacyjnego, jak i nowe produkty z obszaru digital signage oraz ekranów LED. Firma wyraźnie sygnalizuje, że chce oferować partnerom kompletny ekosystem rozwiązań do komunikacji wizualnej, obejmujący zarówno urządzenia dotykowe, jak i klasyczne wyświetlacze do zastosowań biznesowych.

– Jak co roku jesteśmy tu, żeby spotkać się z naszymi partnerami i pokazać, w jakim kierunku oferta Newline będzie podążać w nadchodzących miesiącach. W tym roku na szczególną uwagę

Od lewej: Paweł Budzik oraz Karolina Bujalska z Dahua Technology Poland.

Michał Starościk, z Newline Interactive.

zasługują nowe monitory Digital Signage z serii DSX, rozbudowana oferta ekranów LED oraz nowy model Elara Elite, który jest następcą znanej serii Elara Pro i pracuje w oparciu o Android 16 – powiedział Michał Starościk, Country Manager Poland & EE w Newline Interactive. Jak Państwo wiedzą, jesteśmy jedną z czołowych marek w segmencie monitorów interaktywnych, szczególnie w edukacji. W tym roku przywozimy na ISE nie tylko nasze IFPD, ale również nową gamę digital signage i LED. Rozszerzamy portfolio o profesjonalne wyświetlacze od 43 do 86 cali, przystosowane do pracy 24/7 – podkreślił Jaime Montejo, Product Director w Newline Interactive Europe.

iiyama

Firma iiyama podczas ISE 2026 wyraźnie pokazała, że konsekwentnie rozwija swoją ofertę w segmencie digital signage. Producent, znany przede wszystkim z monitorów dla biznesu i edukacji, zaprezentował w Barcelonie rozwiązania, które mają uzupełnić portfolio o produkty

przeznaczone dla retailu i przestrzeni komercyjnych. Nowe ekrany, modele high brightness oraz rozwiązania zarządzania treścią mają umożliwić partnerom realizację coraz bardziej złożonych projektów wizualnych. – To świetne miejsce, żeby porozmawiać o tym, jak ma wyglądać komplementarna oferta dla naszych partnerów i klientów końcowych. Pokazujemy, jak w ciągu kilku lat dopełnić portfolio, które partnerzy mogą proponować swoim klientom. Wprowadziliśmy stretch bary 38 cali, ekrany reklamowe przy kasie 22–24 cale, modele high brightness do witryn sklepowych, a także ekran 115 cali w technologii Mini LED o jasności 2000 kandeli. To produkty, których wcześniej nie mieliśmy, a które sprawiają, że oferta staje się kompletna – powiedział Robert Tomaszewski, Business Development Manager Professional Displays w iiyama International.

Samsung

Stoisko Samsung podczas ISE 2026 należało do tych miejsc, gdzie bardzo wyraźnie można

Lenovo ThinkSmart Bar 180 to urządzenie stworzone z myślą o doskonałych wideokonferencjach. Wbudowane głośniki, mikrofon oraz innowacyjna kamera o szerokim kącie widzenia zapewniają wyjątkowe doświadczenie komunikacyjne. W połączeniu z ekranem LED 138” powstaje nowoczesna sala konferencyjna, idealna do spotkań biznesowych i współpracy zespołowej.

Lenovo ThinkSmart Bar 180 ekranem LED 138”

3 niezależne obiektywy w jednej kamerze, które inteligentnie łączą się w jeden, spójny obraz

Kilka trybów kadrowania

Perfekcyjny obraz dla wymagających klientów

3 – letnia gwarancja Lenovo Premier Support na cały zestaw

Dostępne dwie wersje:

1. Bring Your Own Device – wideokonferencja sterowana z poziomu laptopa.

100 000 godzin bezawaryjnej pracy

Rozdzielczość Full HD

Ultra cienka konstrukcja

Profesjonalne wdrożenie i serwis gwarancyjny nawet do 60 miesięcy

2. Lenovo ThinkSmart Core – komputer współpracujący m.in. z Microsoft Teams Room. Procesor Intel vPro umożliwia zdalne zarządzanie wieloma urządzeniami z jednego miejsca.

Głogowska 3, 01-743 Warszawa

było zobaczyć kierunek rozwoju rynku profesjonalnych wyświetlaczy. Producent prezentował zarówno nowe technologie hardware’owe, jak i rozwiązania software’owe związane z zarządzaniem treścią, bezpieczeństwem oraz wykorzystaniem sztucznej inteligencji. W centrum uwagi znalazły się m.in. rozwój platformy VXT, nowe generacje ekranów E-Paper oraz wyświetlacze przestrzenne.

– Future Proof oznacza dla nas nie tylko jakość wykonania produktów, ale również projektowanie ich z myślą o przyszłych potrzebach i wyzwaniach klientów. Aby to osiągnąć, opieramy się na trzech filarach: sztucznej inteligencji i automatyzacji, cyberbezpieczeństwie z wykorzystaniem Samsung Knox oraz zarządzaniu poprzez platformę VXT –powiedziała Bogusława Kalawska, Channel Sales Manager w Samsung Electronics.

– Jednym z najciekawszych rozwiązań jest E-Paper. Rynek zaczyna rozumieć, że nie jest to technologia konkurencyjna dla tradycyjnych wyświetlaczy LCD, ale raczej rozwiązanie komplementarne. E-Paper możemy montować tam, gdzie trudno doprowadzić zasilanie lub sygnał wideo. To także technologia o bardzo niskim zużyciu energii, co ma duże znaczenie dla wie-

lu instalacji – podkreslił Paweł Kulik, Head of Operations Professional Display w regionie CEE w Samsung Electronics.

– Motywem przewodnim z punktu widzenia Samsung Professional Display są trzy rzeczy. Dwie dotyczą warstwy software’owej, jedna hardware’u. W czasach, gdy wyświetlacze stają się furtką do cyberataków, stawiamy na pełne zabezpieczenie protokołem Knox na trzech poziomach – sprzętowym, platformowym i programowym. Drugim kluczowym elementem jest AI, które szeroko stosujemy w oprogramowaniu VXT oraz w procesorach sterujących ekranami LED – mówił Grzegorz Nowicki, Head of Sales Professional Display w Samsung Electronics Polska.

– W minionych latach obserwowaliśmy wyścig w kategorii LED i microLED. Dziś mamy już bardzo dojrzałą gamę tych produktów. Jako lider rynku jesteśmy zobowiązani do kreowania przyszłości, dlatego wychodzimy z szeroką gamą produktów E-Paper w nowych rozmiarach oraz z ekranami 3D z serii Spatial, które pojawiły się w przekątnych 32, 55 i 85 cali – powiedział Marcin Sas, Sales Manager w Samsung Electronics Polska.

Od lewej: Paweł
Kulik oraz Marcin
Sas z Samsung Electronics Polska.

LG Electronics

Stoisko LG Electronics podczas ISE 2026 przyciągało uwagę szerokim portfolio rozwiązań z obszaru digital signage oraz technologii LED. Producent konsekwentnie rozwija ofertę dla rynku profesjonalnych wyświetlaczy, koncentrując się zarówno na jakości obrazu, jak i na kompleksowym wsparciu projektowym dla integratorów oraz partnerów realizujących duże wdrożenia w sektorze biznesowym, retailowym i przestrzeniach publicznych.

– Jak co roku nasze stoisko było oblegane. Prowadziliśmy liczne spotkania z partnerami, integratorami i klientami końcowymi. Dla naszych partnerów bardzo ważne są gotowe scenariusze wdrożeń. Pokazujemy rozwiązania dla edukacji, biur, retailu oraz przestrzeni publicznych, z uwzględnieniem integracji z istniejącą infrastrukturą klienta – podkreslił Rafał Wójcik, Senior Monitor Signage & CTV KAM w LG Electronics.

– W projektach B2B decyzje zakupowe coraz częściej opierają się na całkowitej wartości inwestycji w dłuższym horyzoncie. Klienci zwracają uwagę nie tylko na parametry techniczne, ale również na dostępność sprzętu, wsparcie posprzedażowe

i całkowity koszt posiadania. Targi ISE to świetna okazja, aby porozmawiać o tych kwestiach w kontekście realnych projektów i dopasować rozwiązania do harmonogramów oraz budżetów klientów – powiedział Marek Lewandowski, Information Display Sales Monitor Signage & CTV KAM w LG Electronics Polska. – ISE gromadzi integratorów, partnerów i firmy, które zawodowo dostarczają rozwiązania digital signage, ale także coraz więcej klientów końcowych. Wielu z nich jest na etapie koncepcyjnym i zastanawia się, jak wprowadzić takie rozwiązania w swoich organizacjach. Na miejscu możemy rozmawiać o konkretnych projektach i wspólnie znaleźć najlepszą drogę do ich realizacji – mówił Dobromir Maconko, ID Business Development Manager w LG Electronics Polska.

– W tym roku skupiamy się przede wszystkim na tym, aby pokazać, jak nasze systemy bardzo łatwo integrują się z istniejącą infrastrukturą klientów. Udostępniamy Open API, które pozwala na integrację naszych rozwiązań z systemami już wykorzystywanymi przez klientów, i nie pobieramy za to dodatkowych opłat. Chcemy stworzyć środowisko, które będzie proste do wdrożenia i skalowalne od pojedynczych instalacji po bar-

Od lewej: Bogusława Kalawska, Grzegorz Nowicki z Samsung Electronics Polska.

dzo rozproszone infrastruktury – powiedział Jarosław Szkoda, Senior Sales Engineer w LG Electronics Polska.

Logitech

Logitech podczas ISE 2026 koncentrował się na rozwiązaniach wspierających współpracę zespołów w środowisku pracy hybrydowej. Producent rozwija przede wszystkim linię urządzeń do wideokonferencji, a tegoroczna prezentacja w Barcelonie obejmowała nowe kamery z rodziny Rally oraz rozbudowę ekosystemu rozwiązań typu all-in-one dla sal konferencyjnych. Firma podkreśla, że kluczowym kierunkiem rozwoju pozostaje elastyczność konfiguracji oraz możliwość rozwijania funkcji urządzeń poprzez aktualizacje oprogramowania.

– W tym roku pokazujemy dwa nowe modele kamer: Rally AI Pro i Rally AI. Oferują one nowe sposoby kadrowania, podłączenia oraz zasilania, co pozwala realizować scenariusze, które

wcześniej były trudne lub niemożliwe. Kamery mają dużą moc obliczeniową, dzięki czemu możemy w przyszłości dostarczać kolejne funkcje w ramach aktualizacji oprogramowania, bez dodatkowych kosztów dla klienta – mówił Paweł Cebulski, Lead Solutions Engineer na Europę Wschodnią w Logitech.

Zestawienie tych perspektyw pokazuje, że ISE 2026 było dla vendorów miejscem realnej weryfikacji strategii. Rynek oczekuje dziś technologii, które są łatwe do wdrożenia, efektywne kosztowo, energooszczędne i gotowe do pracy w złożonych środowiskach IT. Barcelona nie była więc jedynie sceną prezentacji nowości, ale punktem odniesienia dla planów na kolejne lata.

ISE 2026 dobiegło końca, ale dyskusje będą toczyć się dalej

ISE 2026 zostanie w naszej pamięci jako edycja przełomowa nie dlatego, że pobiła kolejne rekordy frekwencji czy powierzchni wystawienniczej.

Michał Jakobszy z Crestron.

Te liczby robią wrażenie, ale same w sobie nie definiują znaczenia wydarzenia. O jego wadze zdecydowało wyraźne przesunięcie akcentów z prezentacji technologii na rozmowę o rynku, z produktów na kontekst, z pojedynczych wdrożeń na długofalowe strategie. Barcelona po raz kolejny potwierdziła, że Integrated Systems Europe jest dziś miejscem, w którym branża AV nie tylko pokazuje, co potrafi, ale też wspólnie zastanawia się, dokąd zmierza. Tegoroczna edycja pokazała rynek dojrzalszy, bardziej świadomy i coraz mniej podatny na krótkotrwałe mody. AI, LED, digital signage, control roomy czy rozwiązania do współpracy były obecne wszędzie, ale nie jako hasła, lecz jako elementy większych ekosystemów. Równie ważne jak technologia stały się kwestie integracji, bezpieczeństwa, efektywności energetycznej i realnych kosztów utrzymania. To znak, że branża weszła w etap, w którym liczy się nie tylko innowacja, ale także odpowiedzialność i przewidywalność. Dla redakcji IT Reseller ISE 2026 miało znaczenie szczególne. Organizacja dwóch autorskich debat w ramach największych targów AV na świecie była

nie tylko wyróżnieniem, ale też potwierdzeniem, że głos rynku z Polski i Europy Środkowo-Wschodniej jest dziś integralną częścią międzynarodowej dyskusji. Debaty stały się przestrzenią wymiany opinii, konfrontacji perspektyw i spokojnej rozmowy o wyzwaniach, które stoją przed całą branżą. To doświadczenie, które zostanie z nami na dłużej i wyznacza kierunek dalszej pracy redakcyjnej. Na koniec chcemy wyrazić szczere podziękowania organizatorom Integrated Systems Europe za otwartość, zaufanie i profesjonalizm, które pozwoliły zrealizować nasze inicjatywy w Barcelonie. Szczególne podziękowania kierujemy do Mike’a Blackmana, dyrektora zarządzającego Integrated Systems Events, za wsparcie, energię i konsekwencję w budowaniu wydarzenia, które z roku na rok coraz wyraźniej wyznacza standardy dla całej branży AV.

Dziękujemy również wszystkim partnerom, wystawcom, panelistom i rozmówcom, którzy poświęcili nam czas, dzielili się swoimi obserwacjami i współtworzyli tę edycję ISE. Bez tych rozmów, także tych prowadzonych poza sceną i stoiskami, ten obraz rynku nie byłby pełny.

Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

www.itreseller.pl

Andrzej Bieniek z Epson Europe.

MWC 2026

AI, SKŁADANE SMARTFONY I ROBOTYZACJA

Relacja z targów, które pokazują przyszłość, choć niedaleką. Po latach narzekania na nudne, wtórne targi, czas powrócić, może nie do zachwytów, ale do nadziei na interesujące posunięcia ze strony zarówno wielkich, jak i mniejszych firm.

Kiedy przed laty Mobile World Congress ewoluował z „targów telefonów” w stronę „targów wszystkiego, co połączone”, wielu powątpiewało, czy impreza utrzyma swoją tożsamość. Tegoroczna edycja MWC 2026 w Barcelonie rozwiewa te wątpliwości. Stolica Katalonii stała się w tym tygodniu nie tyle wystawą gadżetów, co poligonem doświadczalnym dla technologii, które w ciągu najbliższych dwóch lat przemodelują krajobraz biznesowy, przemysłowy i konsumencki. Od potężnych klastrów AI po pierwsze realne fundamenty pod sieć 6G – oto co musisz wiedzieć o MWC 2026. Tegoroczne targi rozpoczęły się od mocnego akcentu polityczno-gospodarczego. Unia Europejska, najwyraźniej w końcu świadoma zapóźnień w wyścigu o 5G, tym razem nie zamierza oddać pola. Komisja Europejska ogłosiła sfinansowanie 20 kluczowych projektów badawczych dotyczących przyszłych sieci mobilnych. To sygnał dla rynku: Europa chce być przy stoliku oznaczonym skrótem 6G, i, co więcej, chce przy tym stoliku rozdawać karty.

Ważnym punktem owej strategii jest uruchomienie projektu Euro 3C (European Cloud, Computing and Connectivity), wartego 75 mln euro. To inicjatywa mająca na celu zintegrowanie zasobów chmurowych i obliczeniowych na poziomie kontynentalnym. Dla nas, obser-

watorów rynku IT, przekaz jest jasny: infrastruktura przestaje być traktowana jako „rury do przesyłu danych”, a zaczyna być postrzegana jako strategiczny zasób bezpieczeństwa narodowego. Potencjał rynkowy dla integratorów i dostawców rozwiązań sieciowych w regionie EMEA właśnie zyskał potężny, unijny impuls wzrostowy.

Na halach w Barcelonie dało się wyczuć unoszącego się ducha geopolitycznych starć. W tym kontekście niezwykle istotnym ruchem ze strony GSMA jest powołanie Open Telco AI. Branża telekomunikacyjna, dotychczas nieco spychana do defensywy przez amerykańskich gigantów chmurowych, postanowiła stworzyć własną architekturę sztucznej inteligencji. Celem jest optymalizacja sieci oraz tworzenie usług AI dedykowanych dla operatorów, które nie będą uzależnione od zamkniętych ekosystemów Big Tech. To strategiczna zmiana, która może otworzyć nowe drzwi dla dostawców oprogramowania i usługodawców wyspecjalizowanych w branży telco.

Telekomunikacyjna elita

Zerknijmy dalej na wschód. Jeśli ktoś myślał, że chiński smok zapadł w sen, to był w błędzie. Huawei zaprezentował w Barcelonie system Atlas 950 SuperPod. Liczby robią wrażenie nawet na naj-

większych sceptykach: do 8192 jednostek NPU (Neural Processing Unit) w jednym systemie. Jak twierdzi firma, to nie jest już po prostu serwer AI – to kompletna fabryka inteligencji, zaprojektowana z myślą o trenowaniu największych modeli językowych i wizyjnych.

Jednocześnie Huawei udowadnia, że 6G to dla nich nie tylko teoria. Firma zaprezentowała nowości działające w paśmie U6GHz. Wykorzystanie tego spektrum ma kluczowe znaczenie dla uzyskania przepustowości rzędu terabitów na sekundę, co w przyszłości pozwoli na masową cyfryzację procesów przemysłowych w czasie rzeczywistym. Widzimy tu wyraźny skręt w stronę segmentu Enterprise, gdzie stabilność i wydajność sieci determinują przewagę konkurencyjną.

Na stoisku Huawei w Barcelonie nie zabrakło również rozwiązań, które mogą mieć kolosalny istotny na to, jak korzystamy z sieci w biurowcach, galeriach handlowych czy fabrykach. Mowa o LampSite iSharing, czyli inteligentnej platformie do współdzielenia sieci mobilnej wewnątrz budynków. Biorąc pod uwagę fakt, że ponad 80 proc. ruchu mobilnego generowane jest właśnie wewnątrz obiektów, rozwiązanie to trafia w sam środek rynkowych potrzeb. Tradycyjne systemy IBS często nie radzą sobie z przenikaniem sygnału 5G przez nowoczesne elewacje, a LampSite iSharing

eliminuje ten problem, oferując hybrydową architekturę cyfrowo-analogową i pięciopasmowe moduły pRRU. Dla operatorów to czysty zysk: Huawei obiecuje redukcję nakładów inwestycyjnych (CAPEX) o 40 proc. i kosztów operacyjnych (OPEX) o 30 proc.. Z kolei dla właścicieli nieruchomości oznacza to koniec z wielokrotnym kuciem ścian – jedna instalacja wystarcza, by obsłużyć wielu operatorów i nowoczesne usługi oparte na precyzyjnej lokalizacji czy AIoT. To kolejny dowód na to, że Huawei konsekwentnie buduje fundamenty pod erę 5G-Advanced i przyszłe 6G, stawiając na efektywność i współpracę całego ekosystemu.

Świetne wrażenia płynęły także ze strefy firmy Ericsson. Szwedzki gigant, celebrujący w tym roku imponujący jubileusz 150-lecia istnienia mimo długiej historii posiada wyjątkowo świeże spojrzenie na przyszłość telekomunikacji. Ericsson zamienił swoją przestrzeń wystawienniczą w prawdziwe „mini-miasto”, by pokazać, jak technologia 5G-Advanced i nadchodzące 6G realnie wpływają na tkankę miejską. Od domu i biura, przez połączenie

przestrzeni handlowych, po spójne i stale skoordynowane cyfrowo działanie służb miejskich, Ericsson pokazywał jak wiele może zyskać miasto, przy odpowiednim wykorzystaniu technologii.

Nie zabrakło oczywiście sztucznej inteligencji, którą nasi sąsiedzi zza Bałtyku podzielili na dwa obszary: „AI dla sieci” oraz „sieci dla AI”. W pierwszym przypadku mowa o wykorzystaniu algorytmów do poprawy efektywności energetycznej i automatyzacji, co ma kluczowe znaczenie dla marż operatorów. W drugim –o budowie infrastruktury, która udźwignie gigantyczne zapotrzebowanie na transfer danych generowany przez rozproszone systemy AI. W tym kontekście ważna jest także nowa generacja układów Ericsson Silicon, które teraz zawierają dedykowane akceleratory sieci neuronowych bezpośrednio w radiach Massive MIMO. To sprawia, że stacje bazowe stają się „inteligentne” na poziomie sprzętowym, potrafiąc w czasie rzeczywistym optymalizować wiązkę sygnału.

W zrozumiały sposób uwagę zwiedzających zwracał jest segment Mission Critical.

Ericsson pokazał, że potrafi budować sieci o niemal wysokiej niezawodności i odporności, skierowane dla obronności oraz służb ratunkowych. To ogromny rynek, na którym margines błędu nie istnieje, a przewaga technologiczna przekłada się bezpośrednio na bezpieczeństwo publiczne.

Patrząc jeszcze dalej, w stronę 6G, Ericsson promuje architekturę AI-native oraz koncepcję „zintegrowanego wyczuwania i komunikacji” (Integrated Sensing and Communication). Oznacza to, że przyszła sieć będzie, zdaniem szwedzkiej firmy, nie tylko przesyłać dane, ale działać jak gigantyczny radar, zdolny do mapowania otoczenia bez potrzeby montowania dodatkowych czujników. Dla deweloperów i operatorów, dzięki otwartym interfejsom API, otwiera to drogę do monetyzacji usług, o których dziś dopiero zaczynamy marzyć. Szwedzi jasno dają do zrozumienia, że sieć zmienia się w sposób niezwykle ważny – będąc programowalną platformą wielofunkcyjną, a nie tylko linią przesyłu danych.

Smartfony – bez rewolucji, ale…

Przechodząc do sektora urządzeń konsumenckich, nietrudno zauważyć, że niemal odeszliśmy już od czasów wielkich premier podczas MWC. Niemal, bo zupełnie inną drogę obrała Motorola. Firma zaprezentowała szeroki wachlarz nowości, obejmujący zarówno zaawansowane smartfony, jak i akcesoria audio oraz współprace biznesowe. Najbardziej spektakularną nowością był z pewnością nowy RAZR Fold. Motorola w końcu rzuciła rękawicę liderom segmentu składaków “książkowych”, ale zrobiła to na własnych zasadach. Miałem okazję trzymać to urządzenie w dłoniach na specjalnym pokazie w Barcelonie i muszę przyznać: inżynierowie dokonali tu czegoś, co jeszcze dwa lata temu wydawało się niemożliwe. Największym zaskoczeniem nie jest wcale smukłość konstrukcji (choć 9,9 mm po złożeniu robi wrażenie), ale to, co Motorola zmieściła w module fotograficznym. Przez lata składane smartfony cierpiały na „kompleks gorszego aparatu”. RAZR Fold ucina te dyskusje, zdobywając prestiżową złotą odznakę DXOMARK z wynikiem 164 punktów. System trzech aparatów 50 Mpx, przy czym główny oparty na matrycy Sony LYTIA 828 (f/1.6 z OIS), oferuje wysoką jakość, która stawia to urządzenie w jednym rzędzie z najlepszymi klasycznymi flagowcami. Zwykłymi, nie składanymi. Dodajmy do tego peryskopowy teleobiektyw z 3-krotnym zoomem optycznym oraz możliwość nagrywania wideo 8K w standardzie Dolby Vision – to zestaw, który w segmencie foldable nie ma obecnie sobie równych.

W urządzeniu zastosowano ładny, jasny (do 6000 nitów) panel pOLED o przekątnej 6,6 cala, który oferuje odświeżanie 165 Hz. To pierwszy smartfon na świecie wykorzystujący szkło Corning Gorilla Glass Ceramic 3, co ma ostatecznie rozwiązać problem kruchości zewnętrznych ekranów składanych telefonów. Po otwarciu otrzymujemy potężną, 8,1-calową przestrzeń roboczą (panel LTPO 120 Hz), która dzięki zawiasowi typu tear-drop niemal całkowicie eliminuje widoczne zgięcie. Nie tylko ekran i aparaty świadczą o bezpompromisowym podejściu Motoroli. Firma zadbała też o iście flagową specy-

fikację, z układem Qualcomm Snapdragon 8 Gen 5, 16 GB pamięci RAM oraz pojemną baterią 6000 mAh z szybkim ładowaniem 80W (50W bezprzewodowo). Niestety, cena urządzenia na polskim rynku, 9999 zł za wersję z 512 GB pamięci, wyraźnie wskazuje, że to efektowne urządzenie jest produktem ultra-premium.

Prezentacji tego superflagowca towarzyszyła także premiera smartfona Motorola Edge 70 Fusion, który wyróżnia się eleganckim, zakrzywionym z czterech stron designem oraz wysoką odpornością potwierdzoną certyfikatami IP68/69 i militarnym standardem MIL-STD-810H. Urządzenie wyposażono w procesor Snapdragon 7s Gen 3, system aparatów z sensorem Sony LYTIA 710 wspieranym przez sztuczną inteligencję moto ai oraz imponujący wyświetlacz AMOLED o jasności szczytowej do 5200 nitów. Co istotne dla użytkowników, telefon będzie dostępny w dwóch wersjach pojemności baterii –5200 mAh lub aż 7000 mAh, z szybkim ładowaniem TurboPower 68W.

W obszarze akcesoriów zadebiutowały dwie pary słuchawek: moto buds 2 plus oraz moto buds 2. Model z dopiskiem „plus” został stworzony we współpracy z marką Bose, oferując technologię Sound by Bose, aktywną redukcję szumów (Dynamic ANC) oraz wsparcie dla Hi-Res Audio i Spatial Audio.

Motorola ogłosiła również strategiczne nowości w dziedzinie bezpieczeństwa i rozwiązań B2B, w tym partnerstwo z GrapheneOS Foundation. Współpraca ta ma na celu dostarczenie wzmocnionego systemu operacyjnego opartego na Androidzie dla nowej generacji smartfonów, kładąc nacisk na prywatność i ochronę danych. Wprowadzono także platformę Moto Analytics, umożliwiającą administratorom IT monitorowanie wydajności floty urządzeń w czasie rzeczywistym, oraz funkcję Private Image Data, która automatycznie usuwa wrażliwe metadane (np. lokalizację) z nowo wykonywanych zdjęć.

Smartfonowe laury na wydarzeniu zebrał też Samsung, który swoje wydarzenie premierowe miał ledwie kilka dni przed targami w Barcelonie. Galaxy S26 Ultra zdobył prestiżowy tytuł „Best in Show”. Mimo że wizualnie bardzo zbliżony do poprzednika, technicznie stanowi pokaz siły. Integracja AI na poziomie procesora, nowa

generacja sensorów fotograficznych i tytanowa obudowa, która stała się jeszcze lżejsza – to produkt, który wyznacza standardy w segmencie premium. Z perspektywy rynkowej S26 Ultra to dla resellerów „bezpieczna przystań”. Popyt na urządzenia typu Ultra pozostaje stabilny, a Samsung umiejętnie buduje wokół nich ekosystem usług, które zatrzymują klienta przy marce na lata.

Xiaomi w tym roku pokazało, że ich ambicje wykraczają daleko poza smartfony. Chiński gigant pokazał ponad 10 nowych produktów, które wspólnie tworzą spójną wizję ubraną w hasło „Human x Car x Home”.

Chociaż wzrok zwiedzających najbardziej przyciągał futurystyczny samochód Vision Gran Turismo, to realnie głównym aktorem spektaklu przygotowanego przez chińską markę był bez wątpienia Xiaomi 17 Ultra oraz jego “klon”, Leica Leitzphone (pełna nazwa to Leica Leitzphone powered by Xiaomi).

Zaczynając od Xiaomi 17 Ultra – to po prostu topowy flagowiec tej marki na bierzący rok. Elegancki, dobrze wykonany, wydajny, a przede wszystkim uzbrojony w świetny zestaw aparatów. Główny sensor to udoskonalona matryca o rozmiarze 1 cala, o rozdzielczości 50 MP, działająca w zestawie z optyką niemieckiego partnera firmy Xiaomi, renomowaną marką Leica. Zastosowanie nowej generacji soczewek Leica Summilux pozwoliło na uzyskanie wysokiej jasności, która w warunkach nocnych deklasuje ma, zdaniem producenta, robić znakomite wrażenie. współpracuje teraz z nowym silnikiem obrazowania AI, co przekłada się na plastykę obrazu znaną dotąd tylko z pełnoklatkowych aparatów. co ciekawe, także model „podstawowy” serii 17 również zyskał technologię Leica.

A co z Leitzphone marki Leica? W praktyce trudno mi było znaleźć wyraźną różnicę względem Xiaomi 17 Ultra… do czasu, aż nie zapytałem o to obsługi, która podpowiedziała gdzie owych różnic należy szukać. Najważniejsza skupia się, co nie powinno dziwić, na fotografii. Chociaż oba telefony posiadają tę samą matrycę i optykę, model sygnowany logo marki z Wetzlar posiada nieco inne oprogramowanie, w tym widget do przypominania o tzw. złotej godzinie, czy filtry aparatu, które mają symulować wygląd zdjęć ni-

czym z klasycznych aparatów Leica. Czy da się na nim realnie uzyskać ów mityczny “Leica Look”? Wątpię. Aparaty tej niemieckiej firmy swoją pozycję budowały od wielu dekad, opierając się na perfekcyjnej optyce i systemie dalmierzowym. W nich na fotografowany obraz nie patrzymy przez obiektyw, obserwując szerszy kadr niż ten, który ostatecznie “złapie” aparat po naciśnięciu spustu migawki. Smartfon Leitzphone natomiast robi zdjęcia w ten sam sposób, co każdy inny telefon. Xiaomi pokazało też nowe tablety: Pad 8 i Pad 8 Pro. Pierwszy z nich opiera się o wydajny układ Qualcomm Snapdragon 8s Gen 4 i 8 GB RAM, podczas gdy drugi korzysta z nieco szybszego Qualcomm Snapdragon 8 Elite oraz 12 GB RAM. Stawia to te urządzenia w ścisłej czołówce najwydajniejszych tabletów w świecie Androida. Obydwa także wyposażono w solidne baterie o pojemności 9200 mAh, które można ładować z mocą, odpowiednio, 45 lub 67 W. Inną nowością był najnowszy zegarek, Xiaomi Watch, pracujący pod kontrolą pełnoprawnego systemu operacyjnego Wear OS 6 od Google. Jego kluczową specyfikację otwiera układ Snapdragon z rodziny W oraz jasny, zaokrąglony wyświetlacz AMOLED o przekątnej 1,54 cala. Ciekawostką jest tu czujnik EMG, dzięki

któremu użytkownicy mogą bezdotykowo sterować interfejsem za pomocą drobnych ruchów nadgarstka.

Koncepcje, które staną się rzeczywistością?

Zwykle produkty koncepcyjne widzimy w wydaniu wielkich, topowych marek, które stać na to, by dokonał technologicznego prężenia muskułów. Tym bardziej zaskakującym było to, co widziałem na strefie firmy Tecno. Jeśli ktoś szukał na MWC 2026 czystej, futurystycznej inwencji, to stoisko pod hasłem „Reach for the Future” było obowiązkowym punktem programu. Marka należąca do Transsion Holdings pokazała, że nie boi się eksperymentować tam, gdzie giganci stąpają ostrożnie.

Największą gwiazdą był koncept PHANTOM Ultimate G Fold – okrzyknięty najcieńszym na świecie tri-foldem. Urządzenie po rozłożeniu oferuje potężny, blisko 10-calowy ekran (9,94“), a mimo podwójnego zawiasu, po złożeniu ma zaledwie 11,49 mm grubości. Zastosowanie stali o wytrzymałości 2000 MPa oraz obudowy z włókna tytanowego (Titan Fiber) o grubości zaledwie 0,3 mm pokazuje, że TECNO weszło do ekstraklasy inżynieryjnej.

TECNO zaprezentowało także Modular Magnetic Interconnection Technology. To system pozwalający na błyskawiczne dopinanie do telefonu modułów sprzętowych za pomocą magnesów – od dodatkowych ogniw baterii, przez zaawansowane obiektywy tele, aż po profesjonalne action-camy.

Rzecz w tym, że obie te nowości są rozwiązaniami koncepcyjnymi, jeszcze nie gotowymi do rynkowej premiery. Premiery, która, dodajmy, może nigdy nie nastąpić. A szkoda, bo modułowe rozwiązania dla smartfonów są potencjalnie interesującym dodatkiem do urządzenia, które i tak stale nosimy w kieszeni. By odniosły sukces, musiałyby jednak zapewniać kompatybilność przez kilka generacji, zarówno smartfonów, jak i akcesoriów. Czy to się wydarzy? Szczerze wątpię.

Jeśli ktoś uważał, że w kwestii interakcji z telefonem powiedziano już wszystko, to nowy koncepcyjny telefon marki Honor może być poważnym zaskoczeniem. Honor Robot Phone to telefon wyposażony w chowane ramię, uzbrojone w dość zaawnasowną kamerę. Ramię pełni rolę gimbala, co upodabnia Robot Phone’a do kamerek w stylu DJI Pocket 3. Przekaz chińskiej marki był jasny: era „inteligentnych telefonów” właśnie ustępuje miejsca epoce „telefonów ro-

botycznych”. Nie chodzi tu jednak o urządzenie na kółkach, czy humanoidalnego robota, lecz o głęboką integrację z agentami AI, którzy potrafią przewidywać intencje użytkownika i wykonywać zadania autonomicznie. HONOR na MWC 2026 pokazał, że ich autorski system MagicOS ewoluował w stronę cyfrowego organizmu, który nie tylko reaguje na dotyk, ale wręcz „rozumie” kontekst sytuacyjny – od automatycznego zarządzania logistyką dnia, po proaktywne wsparcie w pracy kreatywnej.

Robotyka, AI i Wi-Fi 8 na horyzoncie

Warto wspomnieć też o udziale w MWC Hewlett Packard Enterprise (HPE). Firma zaprezentowała nowe portfolio dla dostawców usług, które jest w pełni zoptymalizowane pod obciążenia AI. HPE rozumie, że bez odpowiedniego fundamentu sprzętowego w centrach danych, rewolucja sztucznej inteligencji utknie w martwym punkcie. Ich nowe systemy pamięci masowej i serwery to odpowiedź na potrzeby firm, które chcą wdrażać własne modele AI lokalnie (on-premise), dbając o prywatność danych.

Jednym z najważniejszych wystąpień tegorocznych targów był keynote CEO Qualcomm. Firma stawia wszystko na jedną kartę: robotykę. Zapowiedziano ogromny rozwój w tej dziedzinie w ciągu najbliższych dwóch lat. Dzięki nowym układom scalonym, roboty mają stać się bardziej autonomiczne i zdolne do współpracy z ludźmi w środowiskach biurowych i domowych. Qualcomm nie zapomina jednak o łączności. Zapowiedź Wi-Fi 8 oraz standardów 6G w urządzeniach typu wearable (smartwatche) to przełom. Zegarki, które nie potrzebują smartfona do obsługi najbardziej zaawansowanych funkcji, dzięki ogromnej przepustowości i niskiemu zużyciu energii, mogą stać się kolejnym „next big thing” w sprzedaży detalicznej.

Nie zabrakło też robotów. Ba, rzekłbym nawet, że roboty stanowiły większą niż kiedykolwiek wcześniej część targów MWC. Roboty-asystenci, roboty-kelnerzy, roboty-barmiani, a nawet robot-dinozaur pozbawiony jakiejkolwiek przydatnej funkcji. Roboty na MWC były dosłownie wszędzie. Mam jednak wrażenie, że zdecydowana większość z nich pełniła rolę mobilnej dekoracji, przyciągacza uwagi, niż prezentacji produktu, który za tydzień lub dwa zobaczymy na sklepowych półkach. Problem w tym, że do pełnej przydatności humanoidalnych robotów w czymkolwiek wciąż jeszcze długa droga. Roboty, które mają naśladować człowieka, robią to, owszem, coraz lepiej, ale nadal są nieporadne, niezdarne i dość powolne. Oczywiście, istnieją wyjątki – co było doskonale

widoczne na pokazie z okazji chińskiego nowego roku, z którego nagranie rozeszło się viralowo po sieci. Jednak co innego z góry zaprogramowany układ choreograficzny, a co innego aktywne odnajdowanie się w dynamicznym środowisku. Tu wciąż człowiek jest niezastąpiony.

Można być jednak pewnym, że rozwój robotów będzie postępował. Pokusa, by zastąpić ludzkiego pracownika takim, który nie męczy się, nie wymaga pensji, nie choruje i nie uskarża się na nic, jest po prostu zbyt silna. Nawet jeśli półka sklepowa z humanoidalnymi robotami będzie budziła nieprzyjemne, historyczne skojarzenia.

Gdzie są pieniądze?

MWC 2026 pokazało, że kończy się era „oczekiwania na innowację”. Ona już tu jest, rozproszona między infrastrukturą 6G, potężnymi systemami AI, a coraz bardziej inteligentnymi urządzeniami końcowymi.

Wnioski z MWC 2026 są, jak sądzę, proste. Pierwszym i najważniejszym jest poszukiwanie nowych form i doskonalenie dotychczasowych. Czy to smartfony składane w sposób książkowy, czy składane potrójnie, czy eksperymenty z modułowością – producenci smartfonów szukają, wobec braku technologicznych przełomów, nowej, atrakcyjnej formy.

Ów przełom jest jednak niedaleko – to drugi z moich wniosków. 6G nie jest może “tuż za progiem”, ale z całą pewnością widać je już z okna. Widzimy, że się zbliża, ale nie do końca wiemy, co realnie przyniesie. Wzrost szybkości z pewnością, ale jeszcze nikt nie mówi o rewolucji. Myślę, że 6G może przynieść przełom na zupełnie innej warstwie: narracyjnej. O ile w 5G prym wiodły firmy z Państwa Środka, o tyle 6G może być zbudowane z silniejszym udziałem przedsiębiorstw z zachodniego kręgu cywilizacyjnego, a to pozwoliłoby przyspieszyć wdrożenie w Europie i USA. Bez obaw o szpiegostwo chińskie. Być może z obawami, u nas w Europie, o szpiegostwo z zupełnie innego kierunku.

Kolejny wniosek – robotyka to ważny kierunek rozwoju. Na tę chwilę wciąż nieporadne, dla których wyzwaniem jest podniesienie obiektu bez poważnego ryzyka upuszczenia, roboty mogą wydawać się zabawką, gadżetem. Jednak jest to gadżet złożony, zaawansowany, z potencjałem. Potencjalnie w robotyzacji, jeśli jeszcze nie dziś, to już wkrótce będą naprawdę niemałe pieniądze.

MWC 2026 żegna nas, i sam się dziwię, że to piszę, optymizmem. Technologia znów przyspieszyła, a granica między światem fizycznym, a cyfrowym stała się cieńsza niż kiedykolwiek.

Kolejne lata w branży będą fascynujące. n Skomentuj, polub lub udostępnij! Artykuł dostępny w wersji cyfrowej

www.itreseller.pl

TRENDBOOK

POBIERZ PONAD 400 STRON

WIEDZY

SZTUCZNEJ

INTELIGENCJI*

*ABY POBRAĆ TRENDBOOK BEZPŁATNIE ZOSTAW NAM SWÓJ ADRES MAILOWY

Bydgoszcz 27.05.2026 Gdansk 26.05.2026

Poznaj tematykę sztucznej inteligencji na bazie przykładów i bezpośrednio od kluczowych graczy.

Weź udział w jednym z wydarzeń, sprawdź nasze artykuły i widecasty.

Więcej informacji na destinationAI.pl

Główny Sponsor

Sponsorzy

Turn static files into dynamic content formats.

Create a flipbook