using ai at work image
  • user circle icon Patrycja Kurzaj-Maniakoudakis
  • calendar icon Kwiecień 7, 2025

Polityka korzystania z AI w firmie: dlaczego każda organizacja powinna ją mieć

Od 2 lutego 2025 r. obowiązują pierwsze przepisy unijnego Rozporządzenia o Sztucznej Inteligencji (AI Act), które nakładają na firmy konkretne obowiązki w zakresie stosowania systemów AI. I choć wiele małych i średnich przedsiębiorstw może sądzić, że te regulacje ich nie dotyczą – bo nie zajmują się przecież tworzeniem oprogramowania ani zaawansowanymi rozwiązaniami technologicznymi – rzeczywistość jest inna. Nawet jeśli AI nie jest wpisana w działalność firmy, z dużym prawdopodobieństwem korzystają z niej… pracownicy.

AI w codziennej pracy – nowe wyzwania dla pracodawców

Coraz więcej osób wykorzystuje narzędzia oparte na sztucznej inteligencji – w tym generatywnej AI, takiej jak właśnie ChatGPT – do codziennych zadań: pisania maili, przygotowywania analiz, tworzenia dokumentów, a nawet planowania spotkań i sporządzania notatek z nich. Według danych Salesforce aż 61% pracowników (trzech na pięciu) już korzysta lub planuje korzystać z generatywnej AI, przy czym wielu z nich robi to bez oficjalnej zgody lub wiedzy pracodawcy. Ponad dwóch na trzech pracowników (68%) twierdzi, że generatywna sztuczna inteligencja pomoże im lepiej obsługiwać klientów. Co więcej, aż 54% pracowników obawia się, że wyniki generowane przez AI mogą być niedokładne, a 73% wskazuje na potencjalne ryzyko związane z bezpieczeństwem danych. Spośród osób, które stwierdziły, że planują korzystać z generatywnej sztucznej inteligencji, prawie 60% wskazało, że nie wie, jak to zrobić przy użyciu zaufanych źródeł danych lub przy jednoczesnym zapewnieniu bezpieczeństwa danych wrażliwych.

Powyższe prowadzi do wniosku, że firmy nie powiny ignorować obecności AI w swoim środowisku pracy. Nawet jeśli nie są dostawcami rozwiązań opartych na modelach AI, nie wdrażają AI formalnie, muszą liczyć się z tym, że technologia ta może być wykorzystywana w firmach przez pracowników – często w sposób niekontrolowany i nieprzewidywalny.

Czym jest generatywna AI?

Generatywna sztuczna inteligencja (ang. generative AI) to algorytmy zdolne do samodzielnej nauki (self-learning) i tworzenia nowych treści: tekstów, obrazów, wideo, dźwięków czy kodu komputerowego, na podstawie analizy dużych zbiorów danych. ChatGPT, DALL·E, Copilot czy Gemini to tylko kilka przykładów popularnych narzędzi tego typu. Ich kluczową cechą jest umiejętność „wnioskowania” – czyli generowania odpowiedzi, rekomendacji lub decyzji na podstawie zadanych danych wejściowych.

To właśnie ta zdolność sprawia, że narzędzia AI stają się tak przydatne w pracy – ale jednocześnie wiążą się z ryzykiem, zwłaszcza jeśli są wykorzystywane bez odpowiedniego nadzoru.

Rozporządzenie AI Act wprowadza podział systemów AI na różne poziomy ryzyka. Systemy (również modele GPAI takie jak ChatGPT) wykorzystywane np. w obszarze zatrudnienia – do rekrutacji, monitorowania wydajności pracowników czy oceny ich zachowania – mogą być uznawane za systemy wysokiego ryzyka. Dlaczego? Bo mogą wpływać na prawa pracownicze, prywatność oraz przyszłość zawodową zatrudnionych osób i mogą być stronnicze, tendencyjne, oparte na uprzedzeniach.

Wykorzystywanie AI przez pracowników – jakie kroki podjąć w kontekście AI Act

AI Act nakłada na wszystkie firmy dostarczające lub stosujące systemy AI, niezależnie od ich profilu działalności, obowiązek zapewnienia odpowiedniego poziomu kompetencji w zakresie AI wśród pracowników oraz osób korzystających z tych systemów w ich imieniu (art. 4 AI Act).

Oznacza to, że już teraz każda firma powinna:

  • - ustalić, czy pracownicy korzystają z AI podczas wykonywania obowiązków służbowych (np. do tworzenia e-maili, dokumentów) oraz ocenić poziom znajomości AI w swoim zespole,
  • - (w razie potrzeby, jeśli firma jest podmiotem stosującym AI) wdrożyć wewnętrzne procedury i polityki dotyczące korzystania z AI;
  • - zapewnić pracownikom odpowiednie szkolenia i wsparcie.

Dlaczego warto mieć politykę korzystania z AI?

Brak jasnych zasad korzystania z narzędzi AI w firmie może prowadzić do poważnych konsekwencji. Pracownicy mogą nieświadomie przetwarzać dane osobowe w sposób niezgodny z RODO, przesyłać wrażliwe informacje do publicznych systemów / modeli AI lub wykorzystywać generowane treści bez ich weryfikacji, a także naruszać tajemnicę przedsiębiorstwa i prawa autorskie.

Odpowiednia polityka korzystania z AI:

  • - określa dozwolone i niedozwolone sposoby użycia AI w firmie,
  • - wyznacza osoby odpowiedzialne za nadzór nad stosowaniem AI,
  • - wskazuje zasady przetwarzania danych w kontekście narzędzi AI,
  • - promuje odpowiedzialne i bezpieczne korzystanie z nowych technologii.

Polityka powinna być dopasowana do charakteru firmy, uwzględniać specyfikę branży, rodzaj przetwarzanych danych oraz realne potrzeby zespołu.

Zadbaj o AI-ready workplace

W obliczu dynamicznego rozwoju AI, firmy nie mogą pozostać bierne. Wdrożenie przejrzystych zasad, przeszkolenie zespołu i regularna weryfikacja wykorzystywanych narzędzi AI to dziś nie opcja, lecz konieczność. Tym bardziej, że z badań wynika, iż pracownicy, którzy ufają AI, są czterokrotnie bardziej świadomi sposobu, w jaki technologia ta jest wdrażana i zarządzana w ich organizacji.

Jeśli Twoja firma jeszcze nie podjęła działań w tym zakresie – to dobry moment, by zacząć. Nasza Kancelaria wspiera przedsiębiorstwa we wdrażaniu zgodnych z przepisami i dopasowanych do realnych potrzeb polityk korzystania z AI. Pomagamy tworzyć dokumenty, szkolenia i procedury, które chronią interesy firmy, jednocześnie umożliwiając bezpieczne i odpowiedzialne wykorzystanie nowoczesnych technologii.

* Źródło statystyk dotyczących wykorzystania generatywnej AI: salesforce.com.

arrow up icon