Sektor energetyczny przyspiesza wdrażanie rozwiązań AI. Bez odpowiedniego zarządzania zwiększa to podatność infrastruktury krytycznej na ataki

radioswinoujscie.pl 6 godzin temu
Zdjęcie: Sektor energetyczny przyspiesza wdrażanie rozwiązań AI. Bez odpowiedniego zarządzania zwiększa to podatność infrastruktury krytycznej na ataki


Nieautoryzowane wykorzystanie sztucznej inteligencji staje się jednym z głównych zagrożeń dla bezpieczeństwa firm, także w sektorze energetycznym. Z raportów wynika, iż choćby 47 proc. użytkowników korzysta z narzędzi AI poza kontrolą działów IT, co zwiększa ryzyko wycieku danych i cyberataków. W branży infrastruktury krytycznej skutki takich działań mogą mieć charakter systemowy.

– AI, czyli technologia, która szturmem zdobywa polskie przedsiębiorstwa i nie tylko, wdrażana bez przemyślanej strategii i tak zwanego governance'u to zaproszenie dla atakujących. Ta technologia jest w powszechnym użyciu, a więc niemal każdy dzisiaj ma do niej dostęp. Z powszechności jej stosowania wynika fakt, iż może być również wykorzystana przez osoby bądź organizacje, które chcą zaszkodzić naszemu przedsiębiorstwu – podkreśla w rozmowie z agencją Newseria Jarosław Zarychta, head of business development w Billennium.

Zjawisko określane jako shadow AI oznacza wykorzystywanie narzędzi sztucznej inteligencji poza kontrolą działów IT i cyberbezpieczeństwa, najczęściej z użyciem prywatnych kont pracowników. Według raportu Netskope „Cloud and Threat Report: Shadow AI and Agentic AI 2025” skala tego zjawiska rośnie wraz z upowszechnieniem generatywnej AI – niemal połowa użytkowników korzysta z niej w sposób niezarządzany, a przeciętna organizacja odnotowuje ok. 223 przypadki miesięcznie związane z przesyłaniem danych do aplikacji AI. Liczba użytkowników narzędzi generatywnej AI wzrosła trzykrotnie rok do roku, a liczba zapytań kierowanych do tych systemów – sześciokrotnie.

– W wielu organizacjach pracownicy mają dziś stosunkowo swobodny dostęp do dużych modeli językowych, takich jak ChatGPT, Google Gemini czy rozwiązania Anthropic, i wykorzystują je do formułowania zapytań, tzw. promptów. Problem polega na tym, iż często odbywa się to bez nadzoru zespołów cyberbezpieczeństwa oraz departamentów IT. Brak takiej kontroli oznacza realne ryzyko dla przedsiębiorstwa – w szczególności w przypadku organizacji infrastruktury krytycznej, takich jak spółki energetyczne – ponieważ otwiera nowe wektory ataku, których źródłem mogą być narzędzia oparte na sztucznej inteligencji – tłumaczy Jarosław Zarychta.

Według analiz Microsoftu choćby 71 proc. pracowników korzystało z narzędzi AI poza oficjalnymi rozwiązaniami udostępnianymi przez pracodawcę, a część świadomie omija obowiązujące polityki bezpieczeństwa.

Raport Netskope wskazuje, iż liczba dostępnych aplikacji generatywnej AI przekracza już 1,5 tys., a organizacje często nie mają narzędzi do monitorowania ich wykorzystania ani kontroli przepływu danych. Problem pogłębia fakt, iż pracownicy korzystają z wielu narzędzi jednocześnie – przeciętna firma stosuje co najmniej kilkanaście różnych aplikacji AI, co znacząco utrudnia zarządzanie ryzykiem. W efekcie powstają niewidoczne dla organizacji procesy przetwarzania danych oraz nowe wektory ataku, w tym związane z wykorzystaniem generatywnej AI do manipulacji treściami i podszywania się pod inne osoby.

– Proszę sobie wyobrazić sytuację, iż do dyrektora firmy energetycznej dzwoni prezes danego koncernu energetycznego i prosi o zlecenie do księgowości wykonania przelewu na konkretną kwotę do jakiegoś kontrahenta, a także mówi, żeby nie zadawać pytań, bo sprawa jest bardzo pilna. Wygenerowała to sztuczna inteligencja, to jest klasyczny deepfake, o ile nie wdrożymy jako przedsiębiorstwo energetyczne mechanizmów zapobiegania tego typu atakom, jesteśmy podatni m.in. na na podszywanie się pod ważne osoby w hierarchii naszej organizacji – tłumaczy head of business development w Billennium.

Rozwój AI zmienia charakter zagrożeń. Technologie generatywne mogą być wykorzystywane do automatyzacji phishingu, tworzenia złośliwego systemu czy generowania wiarygodnych materiałów deepfake, które utrudniają identyfikację ataku. Jednocześnie użytkownicy, wprowadzając do narzędzi AI dane operacyjne, finansowe czy techniczne, mogą nieświadomie przekazywać wrażliwe informacje do zewnętrznych systemów.

Rosnące znaczenie bezpieczeństwa w tym obszarze znajduje odzwierciedlenie w regulacjach unijnych. Firmy energetyczne muszą dziś równolegle odpowiadać na wymagania dyrektywy NIS2, krajowych przepisów o krajowym systemie cyberbezpieczeństwa (ustawa o KSC) oraz AI Act. Oznacza to, iż wykorzystanie sztucznej inteligencji przestaje być wyłącznie obszarem innowacji, a staje się elementem odpowiedzialności operacyjnej i zarządczej, bezpośrednio powiązanym z ryzykiem biznesowym i regulacyjnym.

– Powszechnie się narzeka na regulacje, niemniej jednak sektor energetyczny od lat pracuje z regulatorem rynkowym, podobnie jak sektor finansowy, telekomunikacyjny. Celem regulacji w tym przypadku jest ochrona konsumentów i przedsiębiorstw przed negatywnymi skutkami stosowania sztucznej inteligencji. Dzisiaj framework budowy bezpiecznego AI dla organizacji to przede wszystkim zbadanie swoich polityk wewnątrzorganizacyjnych, dostosowanie tych polityk do procedur i regulacji np. Unii Europejskiej – mówi Jarosław Zarychta.

Dyrektywa NIS2 nakłada na przedsiębiorstwa infrastruktury krytycznej obowiązki związane z zarządzaniem ryzykiem, raportowaniem incydentów oraz zabezpieczeniem łańcucha dostaw, natomiast AI Act wprowadza ramy dla bezpiecznego wykorzystania sztucznej inteligencji. Regulacje te wymagają m.in. identyfikacji systemów AI, oceny ryzyka oraz wdrożenia mechanizmów kontrolnych.

– Jako europejski rynek powinniśmy zbudować rozwiązania, które będą nas doskonale zabezpieczały przed różnego rodzaju zagrożeniami. Związane z tym elementy, takie jak zawarte w NIS 2 regulacje i wymagania, pozwalają nam się lepiej przygotować na to nowe środowisko. Po pierwsze, musimy zadbać o to, aby mieć pełną kontrolę nad danymi, po drugie – o to, aby te dane były bezpieczne, czyli pod kątem cyberbezpieczeństwa, m.in. szyfrowanie danych w spoczynku i w przesyle – ocenia Mariusz Aksamit, head of cloud delivery domain w Billennium.

Jednym z kluczowych kierunków rozwoju jest koncepcja tzw. sovereign cloud, czyli rozwiązań zapewniających pełną kontrolę nad danymi oraz ich przetwarzaniem w ramach określonej jurysdykcji. W połączeniu z architekturą multicloud pozwala to ograniczyć ryzyko uzależnienia od jednego dostawcy oraz zwiększyć odporność systemów na zakłócenia i ataki.

Coraz większe znaczenie ma także bezpieczeństwo całego łańcucha dostaw AI – od dostawców modeli i usług chmurowych, przez interfejsy API i integratorów, po dane wejściowe i kontekstowe wykorzystywane przez organizację. Słabo zabezpieczony element ekosystemu może przenosić ryzyko na całą organizację, co ma szczególne znaczenie w sektorze energetycznym jako infrastrukturze krytycznej.

– Dzięki temu będziemy mogli szerzej wykorzystać chociażby nadchodzące rozwiązania AI czy nowe elementy, które za chwilę się pojawią na rynku. Ma to też oczywiście ogromne znaczenie w kontekście bezpieczeństwa państwa, bo sektor energetyczny jest sektorem krytycznym – tłumaczy Mariusz Aksamit.

Unia Europejska planuje przeznaczyć setki miliardów euro na wzmacnianie odporności infrastruktury, w tym energetycznej i cyfrowej. Ma to wspierać rozwój bezpiecznych technologii oraz ograniczać ryzyka związane z cyberzagrożeniami.

– System energetyczny już w 1/3 próbuje wdrażać rozwiązania AI, natomiast pytanie, czy jest przygotowany, jest pochodną tego, w jaki sposób do tego podchodzi. Według badań SIG 72 proc. organizacji zajmujących się energią wdraża AI poniżej dobrze pojętych standardów bezpieczeństwa, które mamy w IT. Jest więc jeszcze trochę do poprawienia – ocenia head of cloud delivery domain w Billennium.

Kluczowym elementem bezpiecznego wdrażania AI jest governance, czyli zestaw zasad, procedur i narzędzi pozwalających kontrolować sposób wykorzystania tej technologii w organizacji. Oznacza to konieczność budowy spójnego systemu zarządzania AI, obejmującego m.in.: rejestr modeli i zastosowań, kontrolę dostępu i zgodności z regulacjami, monitoring wykorzystania narzędzi oraz pełną ścieżkę audytu działań użytkowników i modeli. Coraz częściej elementem takiego podejścia jest także kontrola kosztów korzystania z dużych modeli językowych oraz ograniczanie zjawiska shadow AI poprzez centralne polityki i narzędzia. Dokładnie takie rozwiązanie ma w swoim portfolio Billennium – AI Governance Suite, który działa jak „system operacyjny”, zapewniając bezpieczne wdrożenie AI w organizacji.

– Ustawodawca narzuca na przykład kilka elementów, które są wprost związane z governance'em AI, czyli między innymi konieczność zweryfikowania łańcucha dostaw AI w całej rozciągłości, konieczność zgłaszania incydentów związanych z AI w ciągu 24 godzin i regularne testy rozwiązań AI, które powinny być wykonywane. Ze względu na to, iż my jako Billennium pracujemy na tym rynku i mamy spore doświadczenie, wiemy, iż wiele tych aspektów stanowi spore wyzwanie dla firm, również z sektora energetycznego – mówi Mariusz Aksamit.

Idź do oryginalnego materiału