
Polityka korzystania z AI w firmie: dlaczego każda organizacja powinna ją mieć
Od 2 lutego 2025 r. obowiązują pierwsze przepisy unijnego Rozporządzenia o Sztucznej Inteligencji (AI Act), które nakładają na firmy konkretne obowiązki w zakresie stosowania systemów AI. I choć wiele małych i średnich przedsiębiorstw może sądzić, że te regulacje ich nie dotyczą – bo nie zajmują się przecież tworzeniem oprogramowania ani zaawansowanymi rozwiązaniami technologicznymi – rzeczywistość jest inna. Nawet jeśli AI nie jest wpisana w działalność firmy, z dużym prawdopodobieństwem korzystają z niej… pracownicy.
AI w codziennej pracy – nowe wyzwania dla pracodawców
Coraz więcej osób wykorzystuje narzędzia oparte na sztucznej inteligencji – w tym generatywnej AI, takiej jak właśnie ChatGPT – do codziennych zadań: pisania maili, przygotowywania analiz, tworzenia dokumentów, a nawet planowania spotkań i sporządzania notatek z nich. Według danych Salesforce aż 61% pracowników (trzech na pięciu) już korzysta lub planuje korzystać z generatywnej AI, przy czym wielu z nich robi to bez oficjalnej zgody lub wiedzy pracodawcy. Ponad dwóch na trzech pracowników (68%) twierdzi, że generatywna sztuczna inteligencja pomoże im lepiej obsługiwać klientów. Co więcej, aż 54% pracowników obawia się, że wyniki generowane przez AI mogą być niedokładne, a 73% wskazuje na potencjalne ryzyko związane z bezpieczeństwem danych. Spośród osób, które stwierdziły, że planują korzystać z generatywnej sztucznej inteligencji, prawie 60% wskazało, że nie wie, jak to zrobić przy użyciu zaufanych źródeł danych lub przy jednoczesnym zapewnieniu bezpieczeństwa danych wrażliwych.
Powyższe prowadzi do wniosku, że firmy nie powiny ignorować obecności AI w swoim środowisku pracy. Nawet jeśli nie są dostawcami rozwiązań opartych na modelach AI, nie wdrażają AI formalnie, muszą liczyć się z tym, że technologia ta może być wykorzystywana w firmach przez pracowników – często w sposób niekontrolowany i nieprzewidywalny.
Czym jest generatywna AI?
Generatywna sztuczna inteligencja (ang. generative AI) to algorytmy zdolne do samodzielnej nauki (self-learning) i tworzenia nowych treści: tekstów, obrazów, wideo, dźwięków czy kodu komputerowego, na podstawie analizy dużych zbiorów danych. ChatGPT, DALL·E, Copilot czy Gemini to tylko kilka przykładów popularnych narzędzi tego typu. Ich kluczową cechą jest umiejętność „wnioskowania” – czyli generowania odpowiedzi, rekomendacji lub decyzji na podstawie zadanych danych wejściowych.
To właśnie ta zdolność sprawia, że narzędzia AI stają się tak przydatne w pracy – ale jednocześnie wiążą się z ryzykiem, zwłaszcza jeśli są wykorzystywane bez odpowiedniego nadzoru.
Rozporządzenie AI Act wprowadza podział systemów AI na różne poziomy ryzyka. Systemy (również modele GPAI takie jak ChatGPT) wykorzystywane np. w obszarze zatrudnienia – do rekrutacji, monitorowania wydajności pracowników czy oceny ich zachowania – mogą być uznawane za systemy wysokiego ryzyka. Dlaczego? Bo mogą wpływać na prawa pracownicze, prywatność oraz przyszłość zawodową zatrudnionych osób i mogą być stronnicze, tendencyjne, oparte na uprzedzeniach.
Wykorzystywanie AI przez pracowników – jakie kroki podjąć w kontekście AI Act
AI Act nakłada na wszystkie firmy dostarczające lub stosujące systemy AI, niezależnie od ich profilu działalności, obowiązek zapewnienia odpowiedniego poziomu kompetencji w zakresie AI wśród pracowników oraz osób korzystających z tych systemów w ich imieniu (art. 4 AI Act).
Oznacza to, że już teraz każda firma powinna:
- - ustalić, czy pracownicy korzystają z AI podczas wykonywania obowiązków służbowych (np. do tworzenia e-maili, dokumentów) oraz ocenić poziom znajomości AI w swoim zespole,
- - (w razie potrzeby, jeśli firma jest podmiotem stosującym AI) wdrożyć wewnętrzne procedury i polityki dotyczące korzystania z AI;
- - zapewnić pracownikom odpowiednie szkolenia i wsparcie.
Dlaczego warto mieć politykę korzystania z AI?
Brak jasnych zasad korzystania z narzędzi AI w firmie może prowadzić do poważnych konsekwencji. Pracownicy mogą nieświadomie przetwarzać dane osobowe w sposób niezgodny z RODO, przesyłać wrażliwe informacje do publicznych systemów / modeli AI lub wykorzystywać generowane treści bez ich weryfikacji, a także naruszać tajemnicę przedsiębiorstwa i prawa autorskie.
Odpowiednia polityka korzystania z AI:
- - określa dozwolone i niedozwolone sposoby użycia AI w firmie,
- - wyznacza osoby odpowiedzialne za nadzór nad stosowaniem AI,
- - wskazuje zasady przetwarzania danych w kontekście narzędzi AI,
- - promuje odpowiedzialne i bezpieczne korzystanie z nowych technologii.
Polityka powinna być dopasowana do charakteru firmy, uwzględniać specyfikę branży, rodzaj przetwarzanych danych oraz realne potrzeby zespołu.
Zadbaj o AI-ready workplace
W obliczu dynamicznego rozwoju AI, firmy nie mogą pozostać bierne. Wdrożenie przejrzystych zasad, przeszkolenie zespołu i regularna weryfikacja wykorzystywanych narzędzi AI to dziś nie opcja, lecz konieczność. Tym bardziej, że z badań wynika, iż pracownicy, którzy ufają AI, są czterokrotnie bardziej świadomi sposobu, w jaki technologia ta jest wdrażana i zarządzana w ich organizacji.
Jeśli Twoja firma jeszcze nie podjęła działań w tym zakresie – to dobry moment, by zacząć. Nasza Kancelaria wspiera przedsiębiorstwa we wdrażaniu zgodnych z przepisami i dopasowanych do realnych potrzeb polityk korzystania z AI. Pomagamy tworzyć dokumenty, szkolenia i procedury, które chronią interesy firmy, jednocześnie umożliwiając bezpieczne i odpowiedzialne wykorzystanie nowoczesnych technologii.
* Źródło statystyk dotyczących wykorzystania generatywnej AI: salesforce.com.