Marcin Gucia

Spis treści

ZSK 2/2025

Sztuczna inteligencja na przykładzie projektów Lubuskiego Centrum Cyfryzacji

Sztuczna inteligencja rewolucjonizuje nasze życie. Algorytmy AI znajdują zastosowanie w wielu branżach, takich jak IT, finanse czy w medycynie. Także administracja publiczna borykająca się z niedoborem kadr i środków wiąże duże nadzieje z wdrażaniem modeli sztucznej inteligencji. Polska jest w czołówce państw prowadzących prace w tym zakresie. Także województwo lubuskie ma już pierwsze doświadczenia z wdrażaniem sztucznej inteligencji.

Lubuskie Centrum Cyfryzacji jest wyspecjalizowaną spółką ze stuprocentowym udziałem Urzędu Marszałkowskiego Województwa Lubuskiego, utworzoną w celu wykonywania zadań użyteczności publicznej w zakresie cyfryzacji i cyberbezpieczeństwa. Działalność spółki jest skierowana do administracji publicznej oraz jednostek zależnych od województwa i ma charakter niekomercyjny. Spółka prowadzi wiele działań mających na celu wykorzystanie sztucznej inteligencji w realizacji usług publicznych. Są to zadania związane z nadzorem nad działającymi już systemami oraz budową nowych.

Wykorzystanie AI w diagnostyce

Obecnie spółka zarządza projektem  Medbrain L, którego celem jest wsparcie diagnostyki i medycyny systemami sztucznej inteligencji. Projekt składa się z trzech komponentów: Neuro Medbrain L – analiza obrazu radiologicznego mózgu, Mammo Medbrain L – analiza mammografii oraz Pulmo Medbrain L – analiza tomografii i prześwietleń płuc. Dzięki tym systemom zarówno lekarze, jak i pacjenci uzyskują korzyści w postaci szybszej i dokładniejszej diagnozy. Dodatkowo opis badania jest bardziej powtarzalny i standardowy, dzięki czemu pacjent szybko otrzymuje informację o swoim stanie zdrowia i w związku z tym może odpowiednio wcześniej wdrożyć leczenie. Niestety, wykorzystywane rozwiązania nie są idealne. Obecna dokładność systemu wynosi ponad 90%. Oznacza to, że jedno na dziesięć zdjęć jest niepoprawnie opisane. Takim wynikom daleko więc do wskaźników jakości osiąganych w innych branżach, np. poziomu dostępności usługi SLA (ang. service level agreement), który w branży IT wynosi 99,9%, czy osiągnięć w przemyśle samochodowym, w którym dochodzi do powstania jedynie sześciu błędnych wyrobów na milion (99,9994% dokładności systemu). Ta niedokładność sprawia, że narzędzia wykorzystujące AI w diagnostyce mogą być obecnie traktowane jedynie jako element przyspieszający pracę lekarzy i wciąż wymagający kontroli z ich strony. Dodatkowo z uwagi na ograniczenia uczenia maszynowego stosowane obecnie modele AI mają trudności w rozpoznawaniu rzadkich przypadków, ponieważ brakuje odpowiednio dużego treningowego zbioru danych. Pomyłki wynikają także ze sposobu przeprowadzenia badania czy różnych typów stosowanych tomografów.

AI a cyberbezpieczeństwo

Lubuskie Centrum Cyfryzacji prowadzi dodatkowo badania nad wykorzystaniem sztucznej inteligencji w dwóch obszarach – cyberbezpieczeństwo i administracja publiczna. W zakresie cyberbezpieczeństwa testowane są rozwiązania dotyczące logów i deobfuskacji. Oobfuskacja to technika polegająca na celowym zaciemnieniu lub utrudnieniu zrozumienia kodu źródłowego (lub danych), tak aby jego analiza i odtworzenie logicznej struktury było trudniejsze, przy zachowaniu pełnej funkcjonalności programu. Celem tych działań jest przeciwdziałanie cyberatakom i podniesienie poziomu cyberbezpieczenstwa. Jest to idealne zadanie dla wielkich modeli językowych (LLM), które doskonale radzą sobie z informacjami pisanymi. Logi systemowe charakteryzują się usystematyzowaną strukturą oraz dużą ilością tekstu. Sztuczna inteligencja doskonale radzi sobie z ich analizą.

AI w administracji państwowej

Prowadzone są również testy w zakresie wykorzystania sztucznej inteligencji do celów związanych z administracją publiczną. Jest to w obecnych czasach bardzo istotne działanie, gdyż urzędy mają problemy z naborami kadry i dążą do usprawniania pracy urzędników. Dodatkowym atutem administracji jest praca na danych tekstowych na podstawie procedur określonych w przepisach prawa i regulaminach, co stanowi doskonałe środowisko do wykorzystania dużych modeli językowych (LLM).

Sztuczna inteligencja może wspierać urzędników poprzez transkrypcję nagrań spotkań, wsparcie w pisaniu pism, sprawdzanie spójności projektowanych dokumentów z obowiązującym systemem prawnym. Systemy te mogą przejąć proste obowiązki, obsługując np. centrale telefoniczne albo czata odpowiadającego na proste pytania interesantów. Nie można jednak oddać takim systemom decyzyjności z uwagi na sposób ich funkcjonowania. W modelach sztucznej inteligencji decyzje podejmowane są na podstawie wbudowanej w nie wiedzy, co czyni ten proces nieprzejrzystym. Modele mogą dyskryminować lub faworyzować ze względu na to, jakie dane zostały przekazane systemowi w procesie ich uczenia.

Bardzo ważnym aspektem jest bezpieczeństwo przekazywanych danych do modeli sztucznej inteligencji. Szczególnie istotne jest, aby wrażliwe informacje nie opuszczały urzędu, dlatego najlepszą praktyką jest uruchamianie lokalnych modeli językowych (LLM) we własnym centrum danych lub w prywatnej chmurze, dzięki czemu cały proces przetwarzania odbywa się pod kontrolą organizacji. Niestety, jest to drogie rozwiązanie. Aby je zrealizować, niezbędne jest zapewnienie odpowiednich zasobów sprzętowych w postaci kart graficznych. Alternatywą jest korzystanie z publicznie dostępnych komercyjnych modeli językowych. Jednak ich stosowanie w administracji wymaga wprowadzenia jasnych zasad i procedur, aby zminimalizować ryzyko wycieku danych osobowych czy poufnych informacji. Przykładem takiego rozwiązania jest wprowadzony w stołecznym magistracie dokument „Kierunki odpowiedzialnego wykorzystania generatywnej sztucznej inteligencji w Urzędzie m.st. Warszawy”. Określa on praktyczne wskazówki i przykłady etycznego wykorzystania sztucznej inteligencji.

Odpowiedzialność za stosowanie AI

Sztuczna inteligencja zrewolucjonizuje naszą pracę – przyspiesza procesy, odciąża pracowników, pomaga interesantom. Ale każda technologia to tylko narzędzie. Jej skuteczność zależy od tego, kto i jak z niej korzysta. AI w większości zastosowań nas nie zastąpi. Przynajmniej nie teraz. Korzystając z niej, trzeba pamiętać, że halucynuje i wymaga sprawdzania oraz kontroli. To my jesteśmy odpowiedzialni za to, żeby nie wpaść w jej pułapki.

Pozostałe artykuły  w Kwartalniku 2/2025 dot. branży IT i cyberbezpieczeństwa:

  • Branżowe Centra Umiejętności wczoraj dziś i jutro, Andrzej Gazda
  • Ramy kwalifikacji jako wsparcie przy opracowywaniu wartościowych kwalifikacji wolnorynkowych w ZSK, Bogusław Dębski
  • Jak zmienia się codzienność branży IT w kontekście rozwoju sztucznej inteligencji, Krzysztof Kisielewski
  • Proces kreatywny jako odpowiedź na cyberzagrożenia, Tomasz Król
  • Sztuczna inteligencja na przykładzie projektów Lubuskiego Centrum Cyfryzacji, Marcin Gucia
  • Sektorowa Rama Kwalifikacji dla Cyberbezpieczeństwa, Edyta Cieszkowska, Andrzej Cieślak, Monika Drzymulska-Derda, dr Dawid Dymkowski, dr inż. Przemysław Jatkiewicz, Łukasz Jaworski, Tomasz Klekowski, dr inż. Rafał Kołodziejczyk, Beata Ostrowska, Mateusz Panowicz, Damian Parol, Mateusz Przywara, Dariusz Słomkowski, Sławomir Smugowski, Dawid Suder
  • Podcasty z ekspertami z branży IT i cyberbezpieczeństwa, Urszula Szulc

#FunduszeUE