Zarządzanie stresem jako priorytet biznesowy

Stres w pracy stał się wszechobecnym wyzwaniem w dynamicznych środowiskach korporacyjnych. Globalizacja, rosnące oczekiwania wydajności oraz presja związana z innowacjami technologicznymi powodują, że menedżerowie i pracownicy są coraz bardziej narażeni na przeciążenie. Chociaż umiarkowany poziom stresu może motywować i prowadzić do lepszych wyników, długotrwały stres w pracy niesie ze sobą realne zagrożenia zarówno dla jednostek, jak i dla organizacji.

Zarządzanie stresem jako priorytet biznesowy

Efektywne zarządzanie stresem nie jest już postrzegane jako indywidualna odpowiedzialność pracownika, ale jako kluczowy element strategii organizacyjnej. Badania wskazują, że pracownicy narażeni na przewlekły stres mają mniejszą wydajność, wyższy wskaźnik absencji oraz są bardziej podatni na wypalenie zawodowe. W konsekwencji firmy tracą produktywność, kreatywność oraz lojalność pracowników, co ostatecznie wpływa na wyniki finansowe.

Przywódcy organizacji muszą zatem opracować strategie przeciwdziałające zarówno codziennemu stresowi, jak i długofalowym skutkom wypalenia zawodowego. Jak pokazuje raport Harvard Business Review, organizacje, które inwestują w programy zdrowotne oraz inicjatywy redukcji stresu, doświadczają wzrostu produktywności nawet o 10-15% rocznie.

zestresowana pracownica

Przeciwdziałanie wypaleniu zawodowemu jako priorytet strategiczny

Wypalenie zawodowe, definiowane jako stan fizycznego i emocjonalnego wyczerpania spowodowanego chronicznym stresem, staje się coraz większym wyzwaniem. Z raportu Gallupa wynika, że prawie 76% pracowników doświadcza wypalenia zawodowego w ciągu swojej kariery, a 23% twierdzi, że odczuwa je bardzo często. Dla firm, które pragną utrzymać konkurencyjność, zrozumienie przyczyn oraz przeciwdziałanie wypaleniu zawodowemu staje się kluczowe.

Aby skutecznie zarządzać tym problemem, liderzy muszą wprowadzać systematyczne zmiany w kulturze organizacyjnej, promujące równowagę między pracą a życiem prywatnym. Obejmować to może elastyczne godziny pracy, programy zdrowotne oraz dostęp do coachingu i wsparcia psychologicznego.

radzenie sobie ze stresem

Skuteczne techniki zarządzania stresem

Istnieje kilka sprawdzonych metod, które firmy mogą wprowadzić, aby pomóc swoim pracownikom w zarządzaniu stresem:

  1. Promowanie inteligencji emocjonalnej: Przywódcy, którzy rozwijają swoją zdolność do empatyzowania i rozumienia emocji swoich pracowników, mogą skutecznie zarządzać stresem w zespołach. Inteligencja emocjonalna umożliwia szybsze rozwiązywanie konfliktów i lepsze zarządzanie napięciami w zespołach.
  2. Inwestycje w szkolenia dotyczące stresu: Organizacje powinny oferować programy szkoleniowe dotyczące przeciwdziałania stresowi oraz radzenia sobie w sytuacjach wysokiego napięcia. Szkolenia te mogą dotyczyć technik relaksacyjnych, zarządzania czasem, a także budowania odporności psychicznej.
  3. Tworzenie środowiska pracy wspierającego zdrowie psychiczne: Pracownicy, którzy czują się wspierani przez swoich przełożonych i współpracowników, są mniej podatni na długotrwały stres w pracy. Kluczowe jest również, aby liderzy dawali dobry przykład, dbając o równowagę między pracą a życiem prywatnym.

Korzyści dla organizacji

Przeciwdziałanie stresowi i wypaleniu zawodowemu ma bezpośrednie przełożenie na wyniki finansowe. Firmy, które inwestują w zdrowie psychiczne swoich pracowników, mogą zaobserwować wzrost zaangażowania, lojalności oraz kreatywności. W dłuższej perspektywie przyczynia się to do budowania silniejszej kultury organizacyjnej, zwiększonej retencji talentów oraz przewagi konkurencyjnej.

Badania przeprowadzone przez American Psychological Association pokazują, że pracodawcy, którzy wprowadzają programy zarządzania stresem, notują spadek wskaźnika absencji o 14%, a także wzrost satysfakcji z pracy o 11%. Jest to jednoznaczny sygnał, że inwestycje w zdrowie psychiczne przynoszą realne korzyści biznesowe.

pracownik słuchający muzyki

Wnioski

Stres w pracy nie musi być czynnikiem, który obniża efektywność i zaangażowanie pracowników. Przemyślane strategie zarządzania stresem, promowanie zdrowej kultury organizacyjnej oraz działania przeciwdziałające wypaleniu zawodowemu mogą przynieść znaczące korzyści zarówno dla pracowników, jak i dla całej organizacji. Dla liderów, którzy chcą zapewnić długotrwały sukces swoim zespołom, efektywne zarządzanie stresem jest priorytetem, który nie może być pomijany.

Negocjacje w biznesie: To nie kompromis prowadzi do sukcesu!

Wbrew powszechnym przekonaniom, kompromis nie zawsze jest najlepszym rozwiązaniem w negocjacjach biznesowych. W rzeczywistości, zbyt częste ustępstwa mogą prowadzić do straty zarówno na poziomie strategicznym, jak i finansowym. Dlaczego? Negocjacje to sztuka, w której nie chodzi o to, aby każdy “coś zyskał”, lecz o to, by skutecznie dążyć do osiągnięcia swoich celów. Klucz do sukcesu tkwi w przygotowaniu, strategii i stosowaniu odpowiednich technik negocjacyjnych.

Przygotowanie do negocjacji – fundament skuteczności

Bez odpowiedniego przygotowania do negocjacji ryzykujemy, że podejmiemy decyzje pod wpływem emocji lub presji. Badania przeprowadzone przez Harvard Business Review pokazują, że negocjatorzy, którzy poświęcają czas na przygotowanie (analizując potrzeby obu stron oraz potencjalne scenariusze), są o 60% bardziej skuteczni w osiąganiu swoich celów. Kluczowym elementem przygotowania jest dokładna analiza interesów drugiej strony oraz zrozumienie, jakie wartości są dla niej kluczowe.

Techniki negocjacyjne, które działają

Skuteczne techniki negocjacji opierają się na elastyczności, umiejętności słuchania oraz kreowaniu wartości. Do najskuteczniejszych metod należą:

  1. Technika BATNA (Best Alternative to a Negotiated Agreement) – W każdym procesie negocjacyjnym musisz znać swoją najlepszą alternatywę na wypadek, gdyby negocjacje nie zakończyły się sukcesem. Pozwala to na prowadzenie rozmów z większą pewnością i uniknięcie niekorzystnych kompromisów.
  2. Technika “złotej ciszy” – Umiejętność milczenia w kluczowych momentach negocjacji może prowadzić do tego, że druga strona poda więcej informacji lub będzie skłonna do ustępstw. Badania pokazują, że negocjatorzy stosujący taką technikę są postrzegani jako bardziej pewni swoich propozycji i lepiej przygotowani.
  3. Technika tworzenia wartości – Zamiast skupiać się wyłącznie na podziale zasobów, staraj się kreować dodatkowe wartości. Przykładowo, w negocjacjach cenowych można zaproponować długoterminową współpracę lub dodatkowe usługi, co zwiększy satysfakcję obu stron.
negocjacje
techniki negocjacji

Strategie negocjacyjne – jak wybrać odpowiednią?

Wybór odpowiedniej strategii negocjacyjnej zależy od tego, czy zależy nam na długoterminowej współpracy, czy jednorazowej transakcji. Zintegrowana strategia negocjacyjna, znana jako “win-win”, sprawdza się, gdy relacja między stronami jest kluczowa. Badania przeprowadzone przez Kellogg School of Management dowodzą, że negocjacje oparte na współpracy prowadzą do bardziej trwałych i korzystnych wyników dla obu stron.

Z drugiej strony, dystrybutywna strategia negocjacyjna (win-lose) może być skuteczna w sytuacjach, gdzie ważniejszy jest wynik finansowy niż relacje między stronami. Ta strategia opiera się na maksymalizacji własnych korzyści i często jest stosowana w krótkoterminowych transakcjach.

Style negocjacji – elastyczność kluczem do sukcesu

Znajomość różnych stylów negocjacji pozwala lepiej reagować na zachowania drugiej strony i dostosowywać swoje podejście. W biznesie często spotykamy się z:

  • Twardym stylem negocjacyjnym – skoncentrowanym na obronie własnych interesów i maksymalizacji zysków.
  • Miękkim stylem negocjacyjnym – zorientowanym na kompromis i długoterminowe relacje.
  • Stylem unikania – stosowanym w sytuacjach, gdy negocjator nie chce eskalować konfliktu lub kiedy decyzja może zostać odłożona w czasie.

Badania przeprowadzone przez Stanford University sugerują, że negocjatorzy, którzy potrafią elastycznie zmieniać swój styl w zależności od sytuacji, mają większe szanse na osiągnięcie optymalnych wyników.

zgoda

Wnioski

Negocjacje w biznesie to nie tylko proces dochodzenia do porozumienia, ale także kluczowy element strategii rozwoju firmy. Skuteczne techniki negocjacyjne opierają się na solidnym przygotowaniu, elastyczności i znajomości stylów negocjacyjnych. Osiąganie sukcesu w negocjacjach wymaga nie tylko umiejętności twardego targowania się, ale także zdolności do budowania wartości i długoterminowych relacji. Dzięki odpowiedniej strategii możesz nie tylko osiągnąć swoje cele, ale także stworzyć trwałą przewagę konkurencyjną na rynku.

ESG w MŚP

ESG, czyli zarządzanie kwestiami środowiskowymi, społecznymi i ładem korporacyjnym, staje się kluczowym elementem strategii wielu firm. Choć zazwyczaj kojarzy się z dużymi organizacjami, jego znaczenie dla małych i średnich przedsiębiorstw (MŚP) rośnie w szybkim tempie.

Jako doradca strategiczny oraz szef zespołu ekspertów w projekcie „Pracownicy – najlepsza inwestycja dla firmy”, mam możliwość współpracy z MŚP w regionie Małopolski, gdzie opracowaliśmy już 120 strategii HR (a przed nami kolejne 80). Pracując z naszymi klientami, widzimy, jak regulacja ESG wpłynie na przyszłość tych firm, nawet jeśli same jeszcze tego nie dostrzegają.

Jarosław Petz

Dlaczego MŚP powinny działać już teraz?

Na poziomie unijnym Dyrektywa CSRD wprowadza wymóg raportowania działań niefinansowych w określonym standardzie.

Choć niektóre MŚP, szczególnie te notowane na giełdzie, będą musiały dostosować się do tych wymagań dopiero w 2026 roku (z raportem w 2027), warto, aby już teraz podejmować odpowiednie kroki. Po pierwsze, ESG przynosi korzyści, takie jak zwiększona atrakcyjność dla inwestorów, lepsza reputacja, efektywniejsze zarządzanie ryzykiem i poprawa operacyjna. Co więcej, więksi partnerzy biznesowi już teraz oczekują od swoich dostawców wiarygodnych danych ESG, aby móc spełniać własne zobowiązania raportowe.

ESG w MŚP – na co realnie wpływa nowy model opowiadania o biznesie?

Zarządzanie środowiskowe (E)

Włączenie standardów ESG do zarządzania środowiskowego może wpływać na koszty funkcjonowania firmy (a dla niektórych firm z sektora GOZ zarządzanie środowiskowe stanowi trzon modelu biznesowego).

Przykładem wpływu ESG na model biznesu może być też np. obliczanie śladu węglowego: w firmach produkcyjnych zmniejszenie emisji CO₂ i optymalizacja zużycia zasobów naturalnych to nie tylko wymagania regulacyjne, ale także sposób na obniżenie kosztów operacyjnych. Z kolei w firmach usługowych, redukcja emisji może być osiągnięta poprzez zmiany w logistyce, pracę zdalną i bardziej efektywne zarządzanie energią. Ślad węglowy to okazja do strategicznego przekształcenia nie tylko postrzeganie firmy przez klientów, ale także na zmiany układu sił na rynkach, gdzie zrównoważone działania są coraz bardziej wymagane.

Zarządzanie społeczne (S) i HR

Poważne podejście do ESG i transparentność w zakresie społecznej odpowiedzialności (S) znacząco zwiększają atrakcyjność firmy w procesach HR, zarówno pod kątem rekrutacji, jak i motywacji pracowników. Obecnie wielu kandydatów wybiera pracodawców, których wartości są zgodne z ich własnymi przekonaniami. Firmy promujące różnorodność, równość płacową i dbające o dobrostan pracowników, mogą łatwiej przyciągać talenty.

ESG w procesach HR ma jednak nie tylko wpływ na rekrutację talentów, ale również na motywację i retencję pracowników – co jest szczególnie istotne na dzisiejszym rynku pracy, gdzie dobry pracownik jest „dobrem rzadkim”.

ESG w kontekście motywacji i retencji pracowników to przede wszystkim:

Długofalowe zaangażowanie

Pracownicy, którzy widzą i mogą sprawdzić (weryfikowalność twardych danych w raportach ESG to inny poziom, niż deklaracje z raportów CSR), że ich firma działa zgodnie z deklarowanymi wartościami, są bardziej zmotywowani do długoterminowej współpracy i zaangażowania wykraczającego poza rutynowe wykonywanie zadań. Firmy, które promują różnorodność, równość / transparentność płacową, dbałość o prawa pracowników i ich dobrostan budują silniejsze więzi z zespołem. Zrównoważona i społecznie odpowiedzialna kultura organizacyjna sprawia, że pracownicy utożsamiają się z misją firmy, co przekłada się na wyższy poziom zaangażowania. Organizacje te mają także mniejszą rotację pracowników, ponieważ osoby czują się doceniane i rozumieją, że ich praca ma realny wpływ na społeczeństwo i środowisko

Równość i włączenie społeczne

Firmy, które aktywnie wdrażają polityki związane z ESG, zwłaszcza te promujące różnorodność i włączenie społeczne, oferują środowisko pracy, w którym pracownicy czują się akceptowani, niezależnie od ich pochodzenia, wieku, płci czy orientacji. Zwiększenie transparentności w kwestiach takich jak równość wynagrodzeń i dostępność awansów eliminują poczucie niesprawiedliwości, co sprzyja lojalności. Badania pokazują, że organizacje, które realizują zasady równości i transparentności, notują wyższą satysfakcję pracowników oraz lepsze wyniki biznesowe. Znajduje też to regularne potwierdzenie w firmach, dla których przygotowujemy strategie HR – transparentność wzmacnia retencję, nawet jeżeli wiadomości nie są optymistyczne!

Wellbeing i zrównoważone warunki pracy

Zrównoważony rozwój, w tym troska o warunki pracy i wellbeing, staje się kluczowym elementem ESG, który wpływa na retencję pracowników. Firmy, które w ramach swojej strategii ESG promują zdrowie psychiczne i fizyczne, elastyczne formy pracy oraz work-life balance, mają niższe wskaźniki wypalenia zawodowego i absencji. Przykładem może być wdrożenie programów wsparcia psychologicznego, dodatkowych dni wolnych lub elastycznych godzin pracy, co pozwala pracownikom lepiej zarządzać swoimi obowiązkami zawodowymi i prywatnymi. Firmy takie stają się bardziej atrakcyjne dla obecnych pracowników, którzy nie tylko zostają w firmie dłużej, ale także stają się jej ambasadorami na rynku pracy.

Szkolenia i rozwój w duchu ESG

Pracownicy oczekują dziś nie tylko atrakcyjnych wynagrodzeń, ale także możliwości rozwoju i zdobywania nowych kompetencji. Firmy, które w ramach ESG inwestują w rozwój pracowników poprzez programy szkoleniowe, np. dotyczące zrównoważonego rozwoju, innowacji ekologicznych czy różnorodności, mogą liczyć na większe zaangażowanie ze strony zespołu. Dbanie o rozwój zawodowy i osobisty w kontekście ESG sprawia, że pracownicy widzą perspektywę długoterminowego rozwoju w firmie i czują się bardziej związani z organizacją.

Kultura odpowiedzialności

Tworzenie kultury organizacyjnej opartej na zasadach odpowiedzialności i transparentności buduje silniejsze relacje z pracownikami. Kiedy firmy stosują uczciwe praktyki biznesowe i jasno komunikują cele ESG, pracownicy czują, że są częścią czegoś większego, dlatego komunikacja wartości firmy jest absolutnie kluczowa od etapu rekrutacji aż po exbording. Uczestnictwo w wolontariatach, inicjatywach ekologicznych czy działaniach na rzecz lokalnych społeczności nie tylko motywuje, ale także wzmacnia poczucie przynależności i wspólnoty wśród pracowników.

Innym wymiarem nieoczywistego wejścia zarządzania ESG w obszary HR jest praca zdalna – mimo że obniża ślad węglowy związany z dojazdami do biura, to w modelu raportowania ESG może pojawić się wyzwanie związane z liczeniem emisji związanej z użytkowaniem energii w gospodarstwach domowych pracowników. Odpowiednie narzędzia mogą pomóc w bilansowaniu tego wpływu, co z kolei wpłynie na pełniejsze raportowanie ESG, ale postawi też przed HRami nowe pytanie o opłacalność modelu pracy zdalnej.

Zarządzanie ładem korporacyjnym (G)

Wdrożenie zasad ESG w obszarze ładu korporacyjnego znacząco zwiększa wiarygodność firmy w oczach partnerów biznesowych, inwestorów oraz instytucji finansowych. Przejrzyste struktury zarządzania i odpowiedzialności mogą istotnie obniżyć koszty finansowania firmy np. przez instytucje finansowe. Tradycyjnie w MŚP, zwłaszcza w firmach zarządzanych przez właścicieli, gdzie decyzje są podejmowane w sposób hierarchiczny, gdzie „szef ma zawsze rację”, wdrożenie zasad transparentności wynikających z ESG oznacza niekiedy radykalne zmiany, ale skutkujące przejrzystością procesu decyzyjnego, większym zaangażowaniem zespołu w zarządzanie i monitorowanie wyników działań. Zazwyczaj przynosi to bardzo szybko wymierne korzyści i buduje zaufanie wśród kluczowych interesariuszy.

Czego dotyczy zmiana w obszarze zarządzania?

Po pierwsze trzeba pamiętać, że ESG to nie jest wymóg prowadzenia biznesu w taki czy inny sposób. Nadal nikt nie dyktuje nam jak prowadzić własną firmę. ESG to jedynie (lub aż) obowiązek pokazania w uporządkowany sposób jak ten model zarządzania wygląda.

W obszarze G (Governance – Ład Korporacyjny) w ramach raportowania ESG, zgodnie z europejskimi standardami ESRS (European Sustainability Reporting Standards), firmy muszą dostarczać informacji na temat zasad zarządzania oraz praktyk, które wpływają na ich działanie. Obszar ten dotyczy transparentności procesów decyzyjnych, odpowiedzialności za prowadzenie firmy i relacji z interesariuszami.

Zatem raportowanie w obszarze G obejmuje:

Struktura i skład zarządu oraz rady nadzorczej

Firmy muszą przedstawić strukturę zarządzania, w tym o składzie zarządu, rady nadzorczej oraz komitetów (o ile je mają). Ważne informacje do umieszczenia w raporcie obejmują:

  • Różnorodność w organach korporacyjnych (np. różnorodność płci, wieku, doświadczeń, wykształcenia).
  • Kwalifikacje i kompetencje członków zarządu oraz rady nadzorczej, w kontekście wyzwań ESG.
  • Role i odpowiedzialności poszczególnych członków organów korporacyjnych oraz ich zaangażowanie w zarządzanie ESG.

Procesy decyzyjne i nadzorcze

Raportowanie obejmuje sposób w jaki firma podejmuje decyzje strategiczne, jakie procesy decyzyjne i nadzorcze są stosowane, oraz jak zarządzanie ESG jest włączone w te procesy.
Kluczowe kwestie to:

  • Jak firma monitoruje swoje wyniki w zakresie ESG.
  • Jakie procesy decyzyjne dotyczące ESG są stosowane na poziomie zarządu i rady nadzorczej.
  • Sposoby angażowania interesariuszy w procesy zarządzania i podejmowania decyzji.

Ryzyko i zarządzanie ryzykiem

Firmy przedstawiają mechanizmy zarządzania ryzykiem jakich używają, szczególnie w kontekście ryzyk związanych z ESG. To może obejmować:

  • Identyfikację i ocenę ryzyk związanych z klimatem, prawami człowieka, zmianami społecznymi czy technologicznymi.
  • Mechanizmy zarządzania ryzykiem, w tym polityki przeciwdziałania korupcji, oszustwom czy nieetycznym praktykom.
  • Ocena ryzyka i sposoby reagowania na zagrożenia zewnętrzne i wewnętrzne, w tym te wynikające z działalności operacyjnej oraz z łańcucha dostaw.

Etyka i integralność

Raportowanie obejmuje też zasady etyczne i wartości, których firma przestrzega w swojej działalności. W tym kontekście raporty ESG obejmują:

  • Zasady dotyczące przeciwdziałania korupcji, oszustwom oraz konfliktom interesów (np. czy mamy politykę dotyczącą zakupów ograniczającą możliwości korupcji)
  • Polityki i kodeksy etyczne obowiązujące w firmie oraz działania mające na celu ich wdrażanie i egzekwowanie
  • Sposoby monitorowania i zgłaszania naruszeń zasad etyki (np. czy firma wdrożyła wymagany od 25 września 2024 roku system obsługi sygnalistów)

Polityki i procedury dotyczące ESG

Firmy będę też przedstawiać informacje o zasadach (politykach i procedurach), które wprowadzają w celu zarządzania kwestiami ESG, w tym:

  • Sposoby integrowania ESG w strategii firmy.
  • Konkretne polityki dotyczące zarządzania środowiskowego, społecznego i ładu korporacyjnego.
  • Mechanizmy wdrażania i monitorowania realizacji celów ESG.

Relacje z interesariuszami i transparentność

Raportowanie obejmuje sposób, w jaki firma angażuje swoich interesariuszy, w tym pracowników, klientów, dostawców, społeczności lokalne oraz inwestorów. Ważne kwestie to:

  • Jakie mechanizmy komunikacji są stosowane.
  • Transparentność w zakresie udostępniania informacji o działaniach ESG.
  • Reakcje na uwagi i potrzeby interesariuszy, szczególnie w kontekście zarządzania zrównoważonym rozwojem.

Zgodność z regulacjami (compliance)

Firmy muszą przedstawić w raporcie, w jaki sposób przestrzegają przepisów i regulacji, w tym tych związanych z ESG, oraz jak monitorują zgodność swoich działań z obowiązującymi standardami prawnymi:

  • Przestrzeganie krajowych i międzynarodowych przepisów dotyczących praw człowieka, środowiska i odpowiedzialności społecznej.
  • Polityki zgodności (compliance) oraz procedury monitorowania zgodności działań z regulacjami.

Wynagrodzenia i polityka motywacyjna

Firmy muszą opisywać swoje systemy wynagrodzeń i motywacji powiązanych z realizacją celów ESG:

  • Informacje na temat wynagrodzeń zarządu i kadry kierowniczej (nie kwoty, ale zasady wyliczenia), szczególnie jeśli są one związane z realizacją strategii ESG.
  • Zasady wynagradzania, które promują działania proekologiczne i prospołeczne, np. programy motywacyjne zależne od wyników ESG.

Raportowanie w obszarze G pozwala inwestorom, klientom i innym interesariuszom ocenić, na ile firma działa zgodnie z zasadami dobrego ładu korporacyjnego, a także jak efektywnie zarządza ryzykiem oraz integruje wartości ESG w swoje procesy decyzyjne.

Dużo? No dużo, ale „krew pot i łzy” poleją się tylko w firmach, które zostawią ten temat na ostatnią chwilę. Pozostałe, które podejdą do tego zagadnienia z wyprzedzeniem i procesowo, raportowanie ESG nie spowoduje trzęsienia ziemi tylko będzie świetną okazją do gruntownej rewizji strategii i modelu biznesowego.

Podstawy prawne obowiązku raportowania ESG

W Unii Europejskiej kluczowym aktem prawnym jest Dyrektywa CSRD (Corporate Sustainability Reporting Directive), która wprowadza jednolite standardy raportowania ESG. Zastępując wcześniejszą Dyrektywę NFRD, CSRD znacząco rozszerza zakres firm zobowiązanych do raportowania i podnosi standardy raportowania. Obowiązek ten obejmie również wybrane MŚP notowane na giełdzie, które będą musiały raportować zarówno wpływ swojej działalności na środowisko, kwestie społeczne, jak i zarządzanie korporacyjne.

Kluczowe elementy dyrektywy to:

  • Zakres podmiotów

Dyrektywa CSRD rozszerza obowiązek raportowania na duże przedsiębiorstwa oraz niektóre MŚP, głównie te notowane na giełdzie. Terminy wprowadzenia obowiązku raportowania ESG w poszczególnych grupach są następujące:

Za 2024 (raportowanie w 2025 roku): duże jednostki interesu publicznego (JIP) – firmy, które obecnie podlegają dyrektywie NFRD, takie jak banki, ubezpieczyciele oraz duże spółki giełdowe zatrudniające ponad 500 pracowników.

Za 2025 (raportowanie w 2026 roku): duże przedsiębiorstwa, czyli takie, które spełniają co najmniej dwa z trzech kryteriów:

  • Przychody powyżej 40 milionów €.
  • Suma bilansowa pow. 20 milionów €
  • Zatrudnienie pow. 250 pracowników.

Za 2026 (raportowanie w 2027 roku): małe i średnie przedsiębiorstwa notowane na giełdzie, a także małe i niezłożone instytucje kredytowe oraz zakłady ubezpieczeń.

Za 2028 (raportowanie w 2029 roku): firmy spoza Unii Europejskiej, które prowadzą działalność na rynku unijnym i generują ponad 150 milionów euro przychodów w UE.

  • Zakres raportowania

Firmy muszą raportować dane dotyczące wpływu ich działalności na środowisko, społeczeństwo oraz zarządzanie, w tym emisje gazów cieplarnianych, różnorodność zatrudnienia, przestrzeganie praw człowieka i standardy ładu korporacyjnego.

  • Audyt i certyfikacja

Raporty ESG będą musiały być audytowane przez niezależne podmioty, co zapewni ich rzetelność (ustawa wprowadzająca zasady audytu podobno już wkrótce!).

Dlaczego twoja firma powinna wprowadzić ESG: klucz do zrównoważonego rozwoju

W erze rosnącej świadomości społecznej i ekologicznej, skrót ESG (Environmental, Social, and Governance) zyskuje na znaczeniu w biznesie. ESG oznacza podejście do prowadzenia działalności, które uwzględnia nie tylko zysk finansowy, ale także wpływ na środowisko, zaangażowanie społeczne oraz jakość zarządzania. Zrozumienie i wdrożenie ESG w firmie to nie tylko trend, ale coraz częściej konieczność, której nie można ignorować. Dlaczego? Oto kilka kluczowych powodów, dla których warto rozważyć implementację ESG.

1. Zwiększenie zaufania i reputacji

Dzisiejsi konsumenci, inwestorzy i partnerzy biznesowi coraz bardziej cenią firmy, które działają w sposób odpowiedzialny i transparentny. Przejrzyste działania związane z ESG mogą znacznie zwiększyć zaufanie do Twojej firmy. Przedsiębiorstwa, które prowadzą działalność z poszanowaniem zasad ESG, są postrzegane jako bardziej wiarygodne i zaangażowane społecznie. Przykładem może być firma Patagonia, która zyskała szerokie uznanie za swoje działania na rzecz ochrony środowiska, co przekłada się na silną lojalność klientów i partnerów biznesowych.

wdrażanie esg w firmie

2. Lepszy dostęp do kapitału

Inwestorzy coraz częściej kierują swoje środki do firm przestrzegających zasad ESG. Fundusze inwestycyjne, jak np. BlackRock, stawiają na przedsiębiorstwa, które dążą do zrównoważonego rozwoju. W efekcie, firmy stosujące ESG mogą liczyć na lepszy dostęp do kapitału oraz korzystniejsze warunki finansowania. Inwestorzy postrzegają je jako mniej ryzykowne i bardziej przyszłościowe.

zaangażowanie w esg

3. Poprawa efektywności operacyjnej

Zrównoważone praktyki mogą przyczynić się do redukcji kosztów operacyjnych i zwiększenia efektywności. Przykładem mogą być inicjatywy związane z oszczędnością energii czy redukcją odpadów. Firma Unilever dzięki swoim inicjatywom ESG zmniejszyła zużycie wody o 29% i ilość odpadów o 31%, co przyniosło znaczne oszczędności.

4. Atrakcyjność dla talentów

Dla wielu młodych profesjonalistów, wartości firmy są kluczowym czynnikiem przy wyborze pracodawcy. Firmy, które dbają o środowisko i społeczeństwo, są bardziej atrakcyjne dla najlepszych talentów. Google i Tesla to przykłady firm, które przyciągają talenty dzięki silnemu zaangażowaniu w kwestie ESG.

5. Przygotowanie na regulacje

Regulacje dotyczące ESG stają się coraz bardziej rygorystyczne. Przykładem mogą być nowe przepisy Unii Europejskiej dotyczące raportowania niefinansowego, które zobowiązują duże firmy do ujawniania informacji na temat ich wpływu na środowisko, społeczeństwo i zarządzanie. Firmy, które już teraz wdrażają ESG, będą lepiej przygotowane na przyszłe wymagania regulacyjne.

przygotowanie do esg

6. Długoterminowa zrównoważona wartość

Integracja ESG to inwestycja w przyszłość firmy. Długoterminowe korzyści obejmują stabilniejszy wzrost, większą odporność na kryzysy oraz trwałe relacje z interesariuszami. Przykładem może być firma Danone, która za sprawą silnej strategii ESG zyskała na wartości rynkowej i lojalności klientów, nawet w trudnych czasach gospodarczych.

Jak zacząć?

Wprowadzenie zasad ESG w firmie to proces, który wymaga zaangażowania i przemyślanej strategii. Oto kilka kroków, które mogą pomóc:

  1. Ocena Aktualnej Sytuacji: Zbadaj, jakie praktyki ESG już istnieją w Twojej firmie i jakie obszary wymagają poprawy.
  2. Zdefiniowanie Celów: Określ, jakie cele ESG są dla Twojej firmy najważniejsze i jak je mierzyć.
  3. Planowanie Działań: Stwórz plan działań, który uwzględnia zarówno krótko-, jak i długoterminowe inicjatywy.
  4. Zaangażowanie Pracowników: Angażuj pracowników na wszystkich szczeblach, aby budować świadomość i wsparcie dla działań ESG.
  5. Monitorowanie i Raportowanie: Regularnie monitoruj postępy i raportuj wyniki, aby być transparentnym wobec interesariuszy.

Podsumowanie

Integracja zasad ESG to kluczowy krok w kierunku zrównoważonego rozwoju Twojej firmy. Dzięki temu nie tylko poprawisz swoją reputację i dostęp do kapitału, ale także zwiększysz efektywność operacyjną, przyciągniesz talenty i przygotujesz się na przyszłe regulacje. Warto więc rozważyć wdrożenie ESG już dziś, aby budować trwałą wartość i przyszłość swojej firmy.

Kluczowe terminy dotyczące zarządzania sztuczną inteligencją

 

Dziedzina sztucznej inteligencji szybko ewoluuje w różnych sektorach i branżach, pozostawiając specjalistów ds. technologicznych i zarządzania bez wspólnej terminologii używanej w zarządzaniu sztuczną inteligencją.

Nawet wyszukiwanie definicji “sztucznej inteligencji” zwraca szereg definicji i przykładów. Od filmowych, takich jak HAL 9000 z “2001: Odysei kosmicznej”, przez kreatywne, takie jak Midjourney i sztuka generatywna DALL-E, po powszechne, takie jak autokorekta wiadomości e-mail i mapy mobilne, przypadki użycia i zastosowania sztucznej inteligencji wciąż rosną i rozszerzają się na wszystkie aspekty życia.

Dzięki zgodzie Międzynarodowego Stowarzyszenia Specjalistów ds. Prywatności (IAPP) udostępniamy wszystkim osobom zainteresowanym rozwojem swoich kompetencji w obszarze sztucznej inteligencji Kluczowe terminy dotyczące zarządzania sztuczną inteligencją” opracowane przez IAPP. Niniejszy glosariusz pierwotnie ukazał się w Centrum Zasobów IAPP i został udostępniony za ich zgodą.

Tłumaczenie zostało wykonane przez Langas Regtech zostało opublikowane w 20 lipca 2023 roku.

 

Niniejszy glosariusz, opracowany w oparciu o liczne materiały, ma na celu zapewnienie zwięzłych, ale zniuansowanych definicji i wyjaśnień niektórych z najpopularniejszych terminów związanych obecnie ze sztuczną inteligencją.

Accountability / Rozliczalność

The obligation and responsibility of the creators, operators and regulators of an AI system to ensure the system operates in a manner that is ethical, fair, transparent and compliant with applicable rules and regulations (see fairness and transparency).

Accountability ensures that actions, decisions and outcomes of an AI system can be traced back to the entity responsible for it.

Obowiązek i odpowiedzialność twórców, operatorów i organów regulacyjnych systemu sztucznej inteligencji w celu zapewnienia, że system działa w sposób etyczny, uczciwy, przejrzysty i zgodny z obowiązującymi zasadami i przepisami (zob. uczciwość i przejrzystość).

Rozliczalność zapewnia, że działania, decyzje i wyniki systemu sztucznej inteligencji można prześledzić wstecz do podmiotu za nie odpowiedzialnego.

 

Active learning / Aktywne uczenie

A subfield of AI and machine learning where an algorithm can select some of the data it learns from. Instead of learning from all the data it is given, an active learning model requests additional data points that will help it learn the best.

→ Also called query learning

Poddziedzina sztucznej inteligencji i uczenia maszynowego, w której algorytm może wybrać część danych, z których się uczy. Zamiast uczyć się na podstawie wszystkich podanych danych, model aktywnego uczenia się żąda dodatkowych próbek danych, które pomogą mu uczyć się najlepiej.

→ Nazywane również uczeniem z zapytań

 

AI governance / Zarządzanie Sztuczną Inteligencją

A system of policies, practices and processes organizations implement to manage and oversee their use of AI technology and associated risks to ensure the AI aligns with an organization’s objectives, is developed and used responsibly and ethically, and complies with applicable legal requirements. System zasad, praktyk i procesów wdrażanych przez organizacje w celu zarządzania i nadzorowania wykorzystania technologii opartych na sztucznej inteligencji i związanego z tym ryzyka, aby zapewnić, że sztuczna inteligencja jest zgodna z celami organizacji, jest rozwijana i wykorzystywana w sposób odpowiedzialny i etyczny oraz jest zgodna z obowiązującymi wymogami prawnymi.

 

Algorithm / Algorytm

 

A computational procedure or set of instructions and rules designed to perform a specific task, solve a particular problem or produce a machine learning or AI model

(see machine learning model)

Procedura obliczeniowa lub zestaw instrukcji i reguł zaprojektowanych w celu wykonania określonego zadania, rozwiązania określonego problemu lub stworzenia modelu uczenia maszynowego lub sztucznej inteligencji

(zob. model uczenia maszynowego).

 

Artificial general intelligence / Ogólna sztuczna inteligencja

 

AI that is considered to have human-level intelligence and strong generalization capability to achieve goals and carry out a variety of tasks in different contexts and environments.

AGI is still considered a theoretical field of research and contrasted with “narrow” AI, which is used for specific tasks or problems.

→ Acronym: AGI

Sztuczna inteligencja, która jest uważana za posiadającą inteligencję na poziomie ludzkim i silną zdolność uogólniania do osiągania celów i wykonywania różnorodnych zadań w różnych kontekstach i środowiskach.

Ogólna sztuczna inteligencja (spotyka się też określenie “silna” – tłum.) jest nadal nadal uważana za teoretyczny obszar badań i przeciwstawiana “wąskiej” (lub “słabej” – tłum.) sztucznej inteligencji, która jest wykorzystywana do konkretnych zadań lub problemów. do konkretnych zadań lub problemów.

→ Akronim: AGI

 

Artificial intelligence / Sztuczna inteligencja

 

Artificial intelligence is a broad term used to describe an engineered system where machines learn from experience, adjusting to new inputs (see input data) and potentially performing tasks previously done by humans. More specifically, it is a field of computer science dedicated to simulating intelligent behavior in computers.

It may include automated decision-making.

→ Acronym: AI

Sztuczna inteligencja to szeroki termin używany do opisania systemu inżynieryjnego, w którym maszyny uczą się na podstawie doświadczenia, dostosowując się do nowych danych wejściowych i potencjalnie wykonując zadania wcześniej wykonywane przez ludzi. Mówiąc dokładniej, jest to dziedzina informatyki poświęcona symulowaniu inteligentnych zachowań w komputerach.

Może obejmować zautomatyzowane podejmowanie decyzji.

→ Akronim: AI

 

Automated decision-making / Zautomatyzowane podejmowanie decyzji

 

The process of making a decision by technological means without human involvement Proces podejmowania decyzji za pomocą środków technologicznych bez udziału człowieka.

 

Bias / Stronniczość

 

There are several types of bias within the AI field.

  • Computational bias is a systematic error or deviation from the true value of a prediction that originates from a model’s assumptions or the data itself (see input data).
  • Cognitive bias refers to inaccurate individual judgment or distorted thinking, while societal bias leads to systemic prejudice, favoritism, and/or discrimination in favor of or against an individual or group.

Bias can impact outcomes and pose a risk to individual rights and liberties.

W dziedzinie sztucznej inteligencji istnieje kilka rodzajów stronniczości (uprzedzeń):

  • Stronniczość obliczeniowa to systematyczny błąd lub odchylenie od prawdziwej wartości prognozy, które wynika z założeń modelu lub samych danych (patrz dane wejściowe).
  • Stronniczość poznawcza odnosi się do niedokładnej indywidualnej oceny lub zniekształconego myślenia, podczas gdy stronniczość społeczna prowadzi do systemowych uprzedzeń, faworyzowania i/lub dyskryminacji na korzyść lub przeciwko jednostce lub grupie.

Stronniczość może wpływać na wyniki i stanowić zagrożenie dla praw i wolności jednostki.

 

Bootstrap aggregating / Agregacją metodą bootstrap

 

A machine learning method that aggregates multiple versions of a model (see machine learning model) trained on random subsets of a data set. This method aims to make a model more stable and accurate.

→ Sometimes referred to as bagging

Metoda uczenia maszynowego, która agreguje wiele wersji modelu (zob. model uczenia maszynowego) wytrenowanych na losowych podzbiorach danych. Metoda ta ma na celu uczynienie modelu bardziej stabilnym i dokładnym.

→ Czasami określana jako bagging

 

Chatbot / Czatbot

 

A form of AI designed to simulate human-like conversations and interactions that uses natural language processing to understand and respond to text or other media.

Because chatbots are often used for customer service and other personal help applications, chatbots often ingest users’ personal information.

Forma sztucznej inteligencji zaprojektowana do symulowania rozmów i interakcji podobnych do ludzkich, która wykorzystuje przetwarzanie języka naturalnego do rozumienia i reagowania na tekst lub inne media.

Ponieważ chatboty są często wykorzystywane do obsługi klienta i innych aplikacji pomocy osobistej, często gromadzą one dane osobowe użytkowników.

 

Classification model (Classifiers) / Model klasyfikacyjny (klasyfikatory)

 

A type of model (see machine learning model) used in machine learning that is designed to take input data and sort it into different categories or classes. Rodzaj modelu (patrz model uczenia maszynowego) wykorzystywany w uczeniu maszynowym, który jest przeznaczony do sortowania na różne kategorie lub klasy danych wejściowych.

 

Clustering (or clustering algorithms) / Klastrowanie (lub algorytmy klastrowania)

 

An unsupervised machine learning method where patterns in the data are identified and evaluated, and data points are grouped accordingly into clusters based on their similarity. Metoda maszynowego uczenia nienadzorowanego, w której wzorce w danych są identyfikowane i oceniane, a próbki danych są odpowiednio grupowane w klastry na podstawie ich podobieństwa.

 

Computer vision / Widzenie komupterowe

 

A field of AI that enables computers to process and analyze images, videos and other visual inputs. Dziedzina sztucznej inteligencji, która umożliwia komputerom przetwarzanie i analizowanie obrazów, filmów i innych danych wizualnych.

 

Conformity assesment / Ocena zgodności

 

An analysis, often performed by a third-party body, on an AI system to determine whether requirements, such as establishing a risk management system, data governance, record-keeping, transparency and cybersecurity practices have been met Analiza, często przeprowadzana przez organ zewnętrzny, dotycząca systemu sztucznej inteligencji w celu ustalenia, czy spełniono wymagania, takie jak ustanowienie systemu zarządzania ryzykiem, zarządzanie danymi, prowadzenie dokumentacji, przejrzystość i praktyki w zakresie cyberbezpieczeństwa

 

Contestability / Możliwość sprzeciwu

 

The principle of ensuring that AI systems and their decision-making processes can be questioned or challenged. This ability to contest or challenge the outcomes, outputs and/or actions of AI systems can help promote transparency and accountability within AI governance.

Zasada zapewnienia możliwości kwestionowania lub podważania systemów sztucznej inteligencji i ich procesów decyzyjnych. Zdolność do kwestionowania lub podważania wyników, rezultatów i/lub działań systemów AI może pomóc w promowaniu przejrzystości i odpowiedzialności w ramach zarządzania AI.

 

Corpus / Korpus

 

A large collection of texts or data that a computer uses to find patterns, make predictions or generate specific outcomes.

The corpus may include structured or unstructured data and cover a specific topic or a variety of topics.

Duży zbiór tekstów lub danych wykorzystywanych do znajdowania wzorców, tworzenia prognoz lub generowania określonych wyników.

Korpus może zawierać ustrukturyzowane lub nieustrukturyzowane dane i obejmować określony temat lub różne tematy

 

Decision tree / Drzewo decyzyjne

 

A type of supervised learning model used in machine learning (see also machine learning model) that represents decisions and their potential consequences in a branching structure. Przykład modelu uczenia nadzorowanego (patrz model uczenia maszynowego), który reprezentuje decyzje i ich potencjalne konsekwencje w strukturze rozgałęzionej/drzewiastej.

 

Deep learning / Uczenie głębokie

 

A subfield of AI and machine learning that uses artificial neural networks. Deep learning is especially useful in fields where raw data needs to be processed, like image recognition, natural language processing and speech recognition. Poddziedzina sztucznej inteligencji i uczenia maszynowego, która wykorzystuje sztuczne sieci neuronowe.

Uczenie głębokie jest szczególnie przydatne w dziedzinach, w których konieczne jest przetwarzanie surowych danych, takich jak rozpoznawanie obrazów, przetwarzanie języka naturalnego i rozpoznawanie mowy.

 

Discriminative model / Model dyskryminatywny

 

A type of model (see also machine learning model) used in machine learning that directly maps input features to class labels and analyzes for patterns that can help distinguish between different classes.

It is often used for text classification tasks, like identifying the language of a piece of text. Examples are traditional neural networks, decision trees and random forest.

Typ modelu (patrz model uczenia maszynowego) wykorzystywany w uczeniu maszynowym, który bezpośrednio mapuje cechy wejściowe na etykiety klas i analizuje wzorce, które mogą pomóc w rozróżnieniu różnych klas.

Jest często używany do zadań klasyfikacji tekstu, takich jak identyfikacja języka fragmentu tekstu. Przykładami są tradycyjne sieci neuronowe, drzewa decyzyjne i lasy losowe.

 

Entropy / Entropia

 

The measure of unpredictability or randomness in a set of data used in machine learning.

A higher entropy signifies greater uncertainty in predicting outcomes.

Miara nieprzewidywalności lub losowości w zestawie danych wykorzystywanych w uczeniu maszynowym.

Wyższa entropia oznacza większą niepewność w przewidywaniu wyników.

 

Expert system / System ekspercki

 

A form of AI that draws inferences from a knowledge base to replicate the decision-making abilities of a human expert within a specific field, like a medical diagnosis. Forma sztucznej inteligencji, która korzysta z reguł i informacji stworzonych przez ekspertów dziedzinowych zapisanych w bazie wiedzy w celu odtworzenia zdolności decyzyjnych ludzkiego eksperta w określonej dziedzinie, takiej jak diagnoza medyczna.

 

Explainability / Wyjaśnialność (XAI)

 

The ability to describe or provide sufficient information about how an AI system generates a specific output or arrives at a decision in a specific context to a predetermined addressee. XAI is important in maintaining transparency and trust in AI.
Zdolność do opisania lub dostarczenia wystarczających informacji o tym, w jaki sposób system sztucznej inteligencji generuje określone dane wyjściowe lub podejmuje decyzję w określonym kontekście dla z góry określonego adresata. XAI jest ważne dla utrzymania przejrzystości i zaufania do sztucznej inteligencji.

 

Exploratory data analysis / Eksploracyjna analiza danych

 

Data discovery process techniques that take place before training a machine learning model in order to gain preliminary insights into a data set, such as identifying patterns, outliers, and anomalies and finding relationships among variables.
Techniki procesu odkrywania danych, które mają miejsce przed uczeniem modelu uczenia maszynowego w celu uzyskania wstępnego wglądu w zestaw danych, takich jak identyfikacja wzorców, wartości odstających i anomalii oraz znajdowanie relacji między zmiennymi.

 

Fairness / Niedyskryminacja

 

An attribute of an AI system that ensures equal and unbiased treatment of individuals or groups in its decisions and actions in a consistent, accurate manner.

It means the AI system’s decisions should not be affected by certain sensitive attributes like race, gender or religion.

Cecha systemu sztucznej inteligencji, która zapewnia równe i bezstronne traktowanie osób lub grup w swoich decyzjach i działaniach w spójny, dokładny sposób.

Oznacza to, że na decyzje systemu sztucznej inteligencji nie powinny mieć wpływu pewne wrażliwe cechy, takie jak rasa, płeć lub religia.

 

Federated learning / Uczenie rozproszone

 

A machine learning method that allows models (see also machine learning model) to be trained on the local data of multiple edge devices or servers.

Only the updates of the local model, not the training data itself, are sent to a central location where they get aggregated into a global model — a process that is iterated until the global model is fully trained.

Metoda uczenia maszynowego, która umożliwia trenowanie modeli (patrz  model uczenia maszynowego) na danych lokalnych wielu urządzeń końcowych lub serwerów.

Tylko aktualizacje modelu lokalnego, a nie same dane szkoleniowe, są wysyłane do centralnej lokalizacji, gdzie są agregowane w model globalny – proces ten jest powtarzany, dopóki model globalny nie zostanie w pełni przeszkolony.

 

Foundation model / Model bazowy

 

A large-scale, pretrained model for AI capabilities, such as language (see also large language model), vision, robotics, reasoning, search or human interaction, that can function as the base for other applications.

The model is trained on extensive and diverse data sets.

Wieloskalowy, wstępnie wytrenowany model dla możliwości sztucznej inteligencji, takich jak język (patrz także duży model językowy), wizja, robotyka, rozumowanie, wyszukiwanie lub interakcja międzyludzka, który może funkcjonować jako baza dla innych aplikacji.

Model jest trenowany na obszernych i zróżnicowanych zestawach danych.

 

Generalization / Uogólnianie

 

The ability of a model (see machine learning model) to understand the underlying patterns and trends in its training data and apply what it has learned to make predictions or decisions about new, unseen data. Zdolność modelu (patrz model uczenia maszynowego) do zrozumienia podstawowych wzorców i trendów w danych szkoleniowych i zastosowania tego, czego się nauczył, do przewidywania lub podejmowania decyzji dotyczących nowych, niewidocznych danych.

 

Generative AI / Generatywna Sztuczna Inteligencja

 

A field of AI that uses machine learning models trained on large data sets to create new content, such as written text, code, images, music, simulations and videos.

These models are capable of generating novel outputs based on input data or user prompts.

Dziedzina sztucznej inteligencji, która wykorzystuje modele uczenia maszynowego wyszkolone na dużych zbiorach danych do tworzenia nowych treści, takich jak tekst pisany, kod, obrazy, muzyka, symulacje i filmy.

Modele te są w stanie generować nowe wyniki w oparciu o dane wejściowe lub podpowiedzi użytkownika.

 

Greedy algorithms / Zachłanne algorytmy

 

A type of algorithm that makes the optimal choice to achieve an immediate objective at a particular step or decision point, based on the available information and without regard for the longer-term optimal solution. Rodzaj algorytmu, który dokonuje optymalnego wyboru na danym etapie lub w danym punkcie decyzyjnym, w celu osiągnięcia natychmiastowego celu, w oparciu jedynie o dostępne informacje i bez względu na długoterminowe optymalne rozwiązanie.

 

Hallucinations / Halucynacje

 

Instances where a generative AI model creates content that either contradicts the source or creates factually incorrect output under the appearance of fact. Przypadki, w których model generatywny sztucznej inteligencji tworzy treści, które są sprzeczne ze źródłem lub tworzą niepoprawne dane wyjściowe pod pozorem faktów.

 

Inference / Predykcja

 

A type of machine learning process where a trained model (see also machine learning model) is used to make predictions or decisions based on input data. Rodzaj procesu uczenia maszynowego, w którym wyszkolony model (patrz także model uczenia maszynowego) jest wykorzystywany do przewidywania lub podejmowania decyzji na podstawie danych wejściowych.

 

Input data / Dane wejściowe

 

Data provided to or directly acquired by a learning algorithm or model (see machine learning model) for the purpose of producing an output.

It forms the basis upon which the machine learning model will learn, make predictions and/or carry out tasks.

Dane dostarczane lub bezpośrednio pozyskiwane przez algorytm lub model uczący się (zob. model uczenia maszynowego) w celu uzyskania danych wyjściowych.

Stanowią one podstawę, na której model będzie się uczył, tworzył prognozy i/lub wykonywał zadania.

 

Large language model / Duży model językowy (LLM)

 

A form of AI that utilizes deep learning algorithms to create models (see also machine learning model) trained on massive text data sets to analyze and learn patterns and relationships among characters, words and phrases.

There are generally two types of LLMs: generative models that make text predictions based on the probabilities of word sequences learned from its training data (see also generative AI) and discriminative models that make classification predictions based on probabilities of data features and weights learned from its training data (see also discriminative model). The term “large” generally refers to the model’s capacity measured by the number of parameters.

Forma sztucznej inteligencji, która wykorzystuje algorytmy głębokiego uczenia do tworzenia modeli (patrz także model uczenia maszynowego) szkolonych na ogromnych zbiorach danych tekstowych w celu analizowania i uczenia się wzorców i relacji między znakami, słowami i frazami.

Zasadniczo istnieją dwa rodzaje LLM: modele generatywne, które przewidują tekst na podstawie prawdopodobieństw sekwencji słów wyuczonych z danych szkoleniowych (patrz także generatywna sztuczna inteligencja) oraz modele dyskryminatywne, które przewidują klasyfikację na podstawie prawdopodobieństw cech danych i wag wyuczonych z danych szkoleniowych (patrz także model dyskryminacyjny). Termin “duży” ogólnie odnosi się do pojemności modelu mierzonej liczbą parametrów.

 

Machine learning / Uczenie maszynowe (ML)

 

A subfield of AI involving algorithms that enable computer systems to iteratively learn from and then make decisions, inferences or predictions based on data (see input data). These algorithms build a model from training data to perform a specific task on new data without being explicitly programmed to do so.

Machine learning implements various algorithms that learn and improve by experience in a problem-solving process that includes data cleansing, feature selection, training, testing and validation.

Companies and government agencies deploy machine learning algorithms for tasks such as fraud detection, recommender systems, customer inquiries, natural language processing, health care, or transport and logistics.

Poddziedzina sztucznej inteligencji obejmująca algorytmy, które umożliwiają systemom komputerowym iteracyjne uczenie się, a następnie podejmowanie decyzji, wnioskowanie lub przewidywanie na podstawie danych (patrz dane wejściowe). Algorytmy te budują model na podstawie danych szkoleniowych, aby wykonać określone zadanie na nowych danych bez konieczności ich wyraźnego zaprogramowania.

Uczenie maszynowe wdraża różne algorytmy, które uczą się i doskonalą dzięki doświadczeniu w procesie rozwiązywania problemów, który obejmuje czyszczenie danych, wybór funkcji, szkolenie, testowanie i walidację.

Firmy i agencje rządowe wdrażają algorytmy uczenia maszynowego do zadań takich jak wykrywanie oszustw, systemy rekomendacji, zapytania klientów, przetwarzanie języka naturalnego, opieka zdrowotna lub transport i logistyka.

 

Machine learning model / Model uczenia maszynowego

 

A learned representation of underlying patterns and relationships in data, created by applying an AI algorithm to a training data set.

The model can then be used to make predictions or perform tasks on new, unseen data.

Wyuczona reprezentacja podstawowych wzorców i relacji w danych, utworzona przez zastosowanie algorytmu sztucznej inteligencji do zestawu danych szkoleniowych.

Model ten można następnie wykorzystać do prognozowania lub wykonywania zadań na nowych, niewidzianych przez model danych.

 

Multimodal models / Modele wielomodalne

 

A type of model used in machine learning (see machine learning model) that can process more than one type of input or output data, or ‘modality,’ at the same time.

For example, a multi-modal model can take both an image and text caption as input and then produce a unimodal output in the form of a score indicating how well the text caption describes the image. T

hese models are highly versatile and useful in a variety of tasks, like image captioning and speech recognition.

Rodzaj modelu używanego w uczeniu maszynowym (patrz model uczenia maszynowego), który może przetwarzać więcej niż jeden typ danych wejściowych lub wyjściowych, lub “modalność”, w tym samym czasie.

Na przykład model wielomodalny może przyjmować zarówno obraz, jak i opis tekstowy jako dane wejściowe, a następnie generować jednomodalne dane wyjściowe w postaci wyniku wskazującego, jak dobrze tekst opisuje obraz.

Modele te są bardzo wszechstronne i przydatne w różnych zadaniach, takich jak opisywanie obrazów i rozpoznawanie mowy.

 

Natural language processing / Przetwarzanie języka naturalnego

 

A subfield of AI that helps computers understand, interpret and manipulate human language by transforming information into content. It enables machines to read text or spoken language, interpret its meaning, measure sentiment, and determine which parts are important for understanding. Poddziedzina sztucznej inteligencji, która pomaga komputerom rozumieć, interpretować i manipulować ludzkim językiem poprzez przekształcanie informacji w treść. Umożliwia maszynom czytanie tekstu lub języka mówionego, interpretowanie jego znaczenia, mierzenie wydźwięku i określanie, które części są ważne dla zrozumienia.

 

Neural networks / Sieci neuronowe

 

A type of model (see  machine learning model) used in machine learning that mimics the way neurons in the brain interact with multiple processing layers, including at least one hidden layer.

This layered approach enables neural networks to model complex nonlinear relationships and patterns within data. Artificial neural networks have a range of applications, such as image recognition and medical diagnosis.

Typ modelu (zob. model uczenia maszynowego) wykorzystywany w uczeniu maszynowym, który naśladuje sposób interakcji neuronów w mózgu z wieloma warstwami przetwarzania, w tym co najmniej jedną warstwą ukrytą.

To warstwowe podejście umożliwia sieciom neuronowym modelowanie złożonych nieliniowych relacji i wzorców w danych. Sztuczne sieci neuronowe mają szereg zastosowań, takich jak rozpoznawanie obrazów i diagnostyka medyczna.

 

Overfitting / Przeuczenie

 

A concept in machine learning in which a model (see machine learning model) becomes too specific to the training data and cannot generalize to unseen data, which means it can fail to make accurate predictions on new data sets. Koncepcja w uczeniu maszynowym, w której model (patrz model uczenia maszynowego) staje się zbyt specyficzny dla danych szkoleniowych i nie może uogólniać się na niewidziane dane, co oznacza, że może nie być w stanie dokonywać dokładnych prognoz na nowych zestawach danych.

 

Oversight / Nadzór

 

The process of effectively monitoring and supervising an AI system to minimize risks, ensure regulatory compliance and uphold responsible practices.

Oversight is important for effective AI governance, and mechanisms may include certification processes, conformity assessments and regulatory authorities responsible for enforcement.

Proces skutecznego monitorowania i nadzorowania systemu sztucznej inteligencji w celu zminimalizowania ryzyka, zapewnienia zgodności z przepisami i utrzymania odpowiedzialnych praktyk.

Nadzór jest ważny dla skutecznego zarządzania sztuczną inteligencją, a mechanizmy mogą obejmować procesy certyfikacji, oceny zgodności i organy regulacyjne odpowiedzialne za egzekwowanie przepisów.

 

Post processing / Przetwarzanie końcowe

 

Steps performed after a machine learning model has been run to adjust the output of that model.

This can include adjusting a model’s outputs and/or using a holdout data set – data not used in the training of the model – to create a function that is run on the model’s predictions to improve fairness or meet business requirements.

Kroki wykonywane po uruchomieniu modelu uczenia maszynowego w celu dostosowania danych wyjściowych tego modelu.

Może to obejmować dostosowanie danych wyjściowych modelu i/lub użycie zestawu danych wstrzymanych – danych niewykorzystanych w szkoleniu modelu – w celu utworzenia funkcji, która jest uruchamiana na prognozach modelu w celu poprawy uczciwości lub spełnienia wymagań biznesowych.

 

Preprocessing / Przetwarzanie wstępne

 

Steps taken to prepare data for a machine learning model, which can include cleaning the data, handling missing values, normalization, feature extraction and encoding categorical variables.

Data preprocessing can play a crucial role in improving data quality, mitigating bias, addressing algorithmic fairness concerns, and enhancing the performance and reliability of machine learning algorithms.

Kroki podejmowane w celu przygotowania danych dla modelu uczenia maszynowego, które mogą obejmować czyszczenie danych, obsługę brakujących wartości, normalizację, ekstrakcję cech i kodowanie zmiennych kategorycznych.

Wstępne przetwarzanie danych może odgrywać kluczową rolę w poprawie jakości danych, łagodzeniu stronniczości, rozwiązywaniu problemów związanych z uczciwością algorytmów oraz zwiększaniu wydajności i niezawodności algorytmów uczenia maszynowego.

 

Random forest / Las losowy

 

A supervised machine learning (see  supervised learning) algorithm that builds multiple decision trees and merges them together to get a more accurate and stable prediction. Each decision tree is built with a random subset of the training data (see also bootstrap aggregating), hence the name “random forest.”

Random forests are helpful to use with data sets that are missing values or very complex.

Algorytm nadzorowanego uczenia maszynowego (zob.  uczenie nadzorowane), który buduje wiele drzew decyzyjnych i łączy je ze sobą, aby uzyskać dokładniejszą i stabilniejszą prognozę. Każde drzewo decyzyjne jest budowane z losowego podzbioru danych treningowych (patrz także agregacja bootstrap), stąd nazwa “las losowy”.

Lasy losowe są pomocne w przypadku zestawów danych, w których brakuje wartości lub które są bardzo złożone.

 

Reinforcement learning / Uczenie ze wzmocnieniem

 

A machine learning method that trains a model to optimize its actions within a given environment to achieve a specific goal, guided by feedback mechanisms of rewards and penalties. This training is often conducted through trial-and-error interactions or simulated experiences that do not require external data.

For example, an algorithm can be trained to earn a high score in a video game by having its efforts evaluated and rated according to success toward the goal.

Metoda uczenia maszynowego, która trenuje model w celu optymalizacji jego działań w danym środowisku, aby osiągnąć określony cel, kierując się mechanizmami sprzężenia zwrotnego nagród i kar. Trening ten jest często przeprowadzany metodą prób i błędów lub symulowanych doświadczeń, które nie wymagają zewnętrznych danych.

Przykładowo, algorytm można wytrenować tak, by osiągał wysokie wyniki w grach wideo, oceniając jego wysiłki na podstawie sukcesów w dążeniu do celu.

 

Reliability / Niezawodność

 

An attribute of an AI system that ensures it behaves as expected and performs its intended function consistently and accurately, even with new data that it has not been trained on. Cecha systemu sztucznej inteligencji, który zapewnia, że zachowuje się on zgodnie z oczekiwaniami i wykonuje swoją zamierzoną funkcję konsekwentnie i dokładnie, nawet z nowymi danymi, na których nie został przeszkolony.

 

Robotics / Robotyka

 

A multidisciplinary field that encompasses the design, construction, operation and programming of robots. Robotics allow AI systems and software to interact with the physical world. Multidyscyplinarna dziedzina obejmująca projektowanie, budowę, obsługę i programowanie robotów. Robotyka umożliwia systemom sztucznej inteligencji i oprogramowaniu interakcję ze światem fizycznym.

 

Robustness / Solidność

 

An attribute of an AI system that ensures a resilient system that maintains its functionality and performs accurately in a variety of environments and circumstances, even when faced with changed inputs or an adversarial attack. Atrybut systemu sztucznej inteligencji, który zapewnia odporność systemu, który zachowuje swoją funkcjonalność i działa dokładnie w różnych środowiskach i okolicznościach, nawet w obliczu zmienionych danych wejściowych lub ataku przeciwnika.

 

Safety / Bezpieczeństwo

 

The development of AI systems that are designed to minimize potential harm to individuals, society, property and the environment.

Rozwój systemów sztucznej inteligencji, które są zaprojektowane tak, aby zminimalizować potencjalne szkody dla osób, społeczeństwa, mienia i środowiska.

 

Supervised learning / Uczenie nadzorowane

 

A subset of machine learning where the model (see also machine learning model) is trained on input data with known desired outputs. These two groups of data are sometimes called predictors and targets, or independent and dependent variables, respectively.

This type of learning is useful for training an AI to group data into specific categories or making predictions by understanding the relationship between two variables.

Podzbiór uczenia maszynowego, w którym model (patrz także model uczenia maszynowego) jest trenowany na danych wejściowych ze znanymi pożądanymi wynikami. Te dwie grupy danych są czasami nazywane odpowiednio predyktorami i celami lub zmiennymi niezależnymi i zależnymi.

Ten rodzaj uczenia jest przydatny do szkolenia sztucznej inteligencji w celu grupowania danych w określone kategorie lub dokonywania prognoz poprzez zrozumienie związku między dwiema zmiennymi.

 

Synthetic data / Dane syntetyczne

 

Data generated by a system or model (see  machine learning model) that can mimic and resemble the structure and statistical properties of real data.

It is often used for testing or training machine learning models, particularly in cases where real-world data is limited, unavailable or too sensitive to use.

Dane generowane przez system lub model (zob. model uczenia maszynowego), które mogą naśladować i przypominać strukturę i właściwości statystyczne rzeczywistych danych.

Są one często wykorzystywane do testowania lub szkolenia modeli uczenia maszynowego, szczególnie w przypadkach, gdy dane rzeczywiste są ograniczone, niedostępne lub zbyt wrażliwe, aby je wykorzystać.

 

Testing data / Dane testowe

 

A subset of the data set used to provide an unbiased evaluation of a final model (see machine learning model).

It is used to test the performance of the machine learning model with new data at the very end of the model development process.

Podzbiór zestawu danych wykorzystywany do zapewnienia bezstronnej oceny ostatecznego modelu (patrz model uczenia maszynowego).

Służy do testowania wydajności modelu uczenia maszynowego z nowymi danymi na samym końcu procesu opracowywania modelu.

 

Training data / Dane treningowe

 

A subset of the data set that is used to train a model (see also machine learning model) until it can accurately predict outcomes, find patterns or identify structures within the training data.

Podzbiór zestawu danych, który jest używany do trenowania modelu (patrz także model uczenia maszynowego), dopóki nie będzie on w stanie dokładnie przewidywać wyników, znajdować wzorców lub identyfikować struktur w danych szkoleniowych.

 

Transfer learning model / Transferowy model uczenia

 

A type of model (see also machine learning model) used in machine learning in which an algorithm learns to perform one task, such as recognizing cats, and then uses that learned knowledge as a basis when learning a different but related task, such as recognizing dogs. Rodzaj modelu (zob. także model uczenia maszynowego) stosowany w uczeniu maszynowym, w którym algorytm uczy się wykonywać jedno zadanie, takie jak rozpoznawanie kotów, a następnie wykorzystuje tę wyuczoną wiedzę jako podstawę podczas uczenia się innego, ale powiązanego zadania, takiego jak rozpoznawanie psów.

 

Transparency / Przejrzystość

 

The extent to which information regarding an AI system is made available to stakeholders, including if one is used and an explanation of how it works.

It implies openness, comprehensibility and accountability in the way AI algorithms function and make decisions.

Zakres, w jakim informacje dotyczące systemu sztucznej inteligencji są udostępniane zainteresowanym stronom, w tym informacje o tym, czy jest on używany i wyjaśnienie jego działania.

Oznacza to otwartość, zrozumiałość i odpowiedzialność w sposobie działania i podejmowania decyzji przez algorytmy sztucznej inteligencji.

 

Trustworthy AI / Wiarygodna sztuczna inteligencja

 

In most cases used interchangeably with the terms responsible AI and ethical AI, which all refer to principle-based AI development and governance (see also AI governance), including the principles of security, safety, transparency, explainability, accountability, privacy, nondiscrimination/nonbias, among others.

W większości przypadków używane zamiennie z terminami odpowiedzialna sztuczna inteligencja i etyczna sztuczna inteligencja, które odnoszą się do rozwoju i zarządzania sztuczną inteligencją w oparciu o zasady (patrz także zarządzanie sztuczną inteligencją), w tym między innymi zasady bezpieczeństwa, przejrzystości, wyjaśnialności, odpowiedzialności, prywatności, niedyskryminacji / braku uprzedzeń.

 

Turing test / Test Turinga

 

A test of a machine’s ability to exhibit intelligent behavior equivalent to, or indistinguishable from, that of a human. Alan Turing (1912-1954) originally thought of the test to be an AI’s ability to converse through a written text. Test zdolności maszyny do wykazywania inteligentnego zachowania równoważnego lub nieodróżnialnego od ludzkiego. Alan Turing (1912-1954) pierwotnie uważał, że testem jest zdolność sztucznej inteligencji do konwersacji za pomocą tekstu pisanego.

 

Underfitting / Niedouczenie

 

A concept in machine learning in which a model (see machine learning model) fails to fully capture the complexity of the training data. This may result in poor predictive ability and/or inaccurate outputs.

Factors leading to underfitting may include too few model parameters or epochs, having too high a regularization rate, or using an inappropriate or insufficient set of features in the training data.

Koncepcja w uczeniu maszynowym, w której model (patrz model uczenia maszynowego) nie jest w stanie w pełni uchwycić złożoności danych szkoleniowych. Może to skutkować słabą zdolnością predykcyjną i/lub niedokładnymi wynikami.

Czynniki prowadzące do niedouczenia mogą obejmować zbyt małą liczbę parametrów modelu lub epok, zbyt wysoki współczynnik regularyzacji lub użycie niewłaściwego lub niewystarczającego zestawu funkcji w danych szkoleniowych.

 

Unsupervised learning / Uczenie nienadzorowane

 

A subset of machine learning where the model is trained by looking for patterns in an unclassified data set with minimal human supervision. The AI is provided with preexisting data sets and then analyzes those data sets for patterns.

This type of learning is useful for training an AI for techniques such as clustering data (outlier detection, etc.) and dimensionality reduction (feature learning, principal component analysis, etc.).

Podzbiór uczenia maszynowego, w którym model jest trenowany poprzez wyszukiwanie wzorców w niesklasyfikowanym zestawie danych przy minimalnym nadzorze człowieka. Sztuczna inteligencja otrzymuje wcześniej istniejące zestawy danych, a następnie analizuje je w poszukiwaniu wzorców.

Ten rodzaj uczenia się jest przydatny do szkolenia sztucznej inteligencji w zakresie technik takich jak grupowanie danych (wykrywanie wartości odstających itp.) i redukcja wymiarowości (uczenie się cech, analiza głównych składowych itp.).

 

Validation data / Dane walidujące

 

A subset of the data set used to assess the performance of the model (see machine learning model) during the training phase.

Validation data is used to fine-tune the parameters of a model and prevent overfitting before the final evaluation using the test data set.

Podzbiór zbioru danych wykorzystywany do oceny wydajności modelu (patrz model uczenia maszynowego) podczas fazy uczenia.

Dane walidujące są wykorzystywane do dostrajania parametrów modelu i zapobiegania nadmiernemu dopasowaniu przed ostateczną oceną przy użyciu zestawu danych testowych.

 

Variables / Zmienne

 

In the context of machine learning, a variable is a measurable attribute, characteristic or unit that can take on different values. Variables can be numerical/quantitative or categorical/qualitative.

W kontekście uczenia maszynowego zmienna jest mierzalnym atrybutem, cechą lub jednostką, która może przyjmować różne wartości. Zmienne mogą być liczbowe/ilościowe lub kategoryczne/jakościowe.

 

Variance / Wariancja

 

A statistical measure that reflects how far a set of numbers are spread out from their average value in a data set. A high variance indicates that the data points are spread widely around the mean. A low variance indicates the data points are close to the mean. In machine learning, higher variance can lead to overfitting.

The trade-off between variance and bias is a fundamental concept in machine learning. Model complexity tends to reduce bias but increase variance. Decreasing complexity reduces variance but increases bias.

Miara statystyczna, która odzwierciedla, jak daleko zestaw liczb jest rozłożony od ich średniej wartości w zestawie danych. Wysoka wariancja wskazuje, że punkty danych są szeroko rozrzucone wokół średniej. Niska wariancja wskazuje, że punkty danych znajdują się blisko średniej. W uczeniu maszynowym wyższa wariancja może prowadzić do nadmiernego dopasowania.

Kompromis między wariancją a stronniczością jest podstawową koncepcją w uczeniu maszynowym. Złożoność modelu ma tendencję do zmniejszania stronniczości, ale zwiększa wariancję. Zmniejszenie złożoności zmniejsza wariancję, ale zwiększa stronniczość modelu.

 

Powyższe tłumaczenie zweryfikował Maciej Biesek – Data Scientist zajmujący się problematyką przetwarzania języka naturalnego, uczenia maszynowego i uczenia głębokiego. Pasjonat rozwoju sztucznej inteligencji, mentor i nauczyciel technik programowania i wykorzystywania uczenia maszynowego do rozwiązywania realnych problemów.

Dziękujemy!

Key Terms for AI Governance produced by the International Association of Privacy Professionals originally appeared in the IAPP Resource Center. It is reprinted with permission.

The translation has not been provided by the IAPP and was published on 20/07/2023.

Skuteczności szkoleń prawnych

Przed ostatnie kilka lat miałem okazję z bliska obserwować dwa systemy kształcenia prawnego: rynkowe szkolenia nieformalne, prowadzone przez ekspertów zajmujących się poszczególnymi tematami (np. prawo budowlane, prawo dla działów zakupów, szkolenia compliance czy AML) oraz zintegrowane szkolenie dla prawników, czyli np. aplikację radcowską prowadzoną przez Izby Radców Prawnych.

Przyglądając się tym dwóm całkowicie różnym systemom kształcenia chciałbym podzielić się swoimi doświadczeniami i podpowiedziami dotyczącymi pomiaru efektywności szkoleń prawnych.

Dlaczego uważam, że to jest ważne?

Szkolenia prawne nieformalne, czyli prowadzone poza systemem uniwersyteckim czy aplikacją zawodową, są jednym z największych fragmentów rynku edukacji B2B w Polsce. 

Prawo zmienia się nieustannie (czy to poprzez nowe akty prawne, czy to przez zmieniającą się interpretację, linię orzeczniczą lub wreszcie – jak np. w przypadku AI – przez zmieniające się warunki stosowania poszczególnych rozwiązań prawnych). Ponadto prawo jest taką dziedziną, którą warto co jakiś czas po prostu przypomnieć, choćby ze względu na rotację pracowników. I wreszcie – konsekwencje wynikające z braku zapewnienia compliance czyli zgodności działania z prawem, regulacjami wewnętrznymi czy etyką bywają po prostu bardzo kosztowne, narażając firmy na kary, nieefektywność działań lub szkody wizerunkowe.

Ze względu na wielopoziomowe skutki niskich kompetencji prawnych w firmach, pomiar efektywności tych szkoleń stanowi duże wyzwanie (oczywiście, jeżeli ktoś ma ochotę tę efektywność mierzyć). Ponadto pomiar skuteczności szkoleń prawnych ma, moim zdaniem, kluczowe znaczenie dla określenia kondycji i skuteczności programu compliance firmy.

Proponuję poniżej 5 wskaźników ilościowych oraz 5 wskaźników jakościowych, które można wziąć pod uwagę podczas pomiaru skuteczności programu zgodności. Zawsze warto zastosować przynajmniej po jednym z każdego typu wskaźników dla oceny jakości szkolenia. Pozwoli to na kompleksową ocenę skuteczności szkolenia prawnego. Połączenie to pozwala na identyfikację obszarów do poprawy a także mocnych stron programu szkoleniowego.

Wskaźniki ilościowe

Wskaźnik ukończenia

Wskaźnik ukończenia, czyli odsetek pracowników, którzy ukończyli szkolenie, to wbrew pozorom nie jest oczywisty wskaźnik. Szczególnie dobrze widać to w przypadku wieloetapowych szkoleń online (elearningowych lub mieszanych). Jest to wskaźnik pokazujący ile osób, spośród tych, które rozpoczęły szkolenie, je ukończyło. To samo zjawisko można zmierzyć stosując wskaźnik porzucenia (dropout rate), czyli badając jaka część uczestników porzuciła szkolenie w trakcie kursu.

prawne

Wysoki wskaźnik ukończenia (lud odpowiednio: niski wskaźnik porzucenia) wskazuje, że szkolenie jest subiektywnie postrzegane jako wartościowe lub/i ważne dla uczestników oraz że są oni zaangażowani / zmotywowani do podnoszenia kwalifikacji.

Z drugiej strony niski wskaźnik ukończenia szkolenia sugeruje, że szkolenie może nie odpowiadać potrzebom lub zainteresowaniom pracowników, może nie być prezentowane przystępnym językiem lub angażującej formie lub też szkolenie jest zbyt trudne merytoryczne.

Szczególnie w przypadku szkoleń dla nie-prawników prowadzonych przez prawników-procesualistów te problemy występują szczególnie często. Przyzwyczajenie do rozmowy wyłącznie „miedzy nami prawnikami”, prowadzonej bardzo specyficznym, często sformalizowanym językiem, powoduje, że często trudno jest im przekazać swoją olbrzymią wiedzę i  doświadczenie uczestnikom szkolenia.

Moim zadaniem jako L&D jest przejście z ekspertem przez szkolenie i podpowiedzenie mu w jaki sposób przedstawić trudne zagadnienie w taki sposób, aby było to jak najefektywniejsze. Takie działanie bardzo poprawia sytuację w przypadku, gdy wskaźnik ukończenia jest niski.

Warto przy tym zwrócić uwagę, że ze względów kulturowych wskaźnik ukończenia przy szkoleniach na żywo (stacjonarnych lub online) jest nieadekwatny: uczestnicy często czują się zobowiązani zostać na szkoleniu, nawet gdy niewiele z niego wynoszą. „Nie wypada” im z niego wyjść. Podejście to też zmienia się wraz z pokoleniem – „Z”tki mają mniejsze opory przed „głosowaniem nogami” gdy szkolenie im nie odpowiada.

Przy kursach e-learningowych lub blended-learningowych najłatwiej jest śledzić ten wskaźnik w systemie typu LMS.

Case study

Firma ubezpieczeniowa zdecydowała się przeprowadzić program szkolenia e-learningowego dotyczącego ochrony danych osobowych i zgodności z przepisami dotyczącymi prywatności dla swoich agentów. Program obejmujący wykłady e-learningowe, mikrotesty, handouty oraz case’y zajmował łącznie 9 godzin roboczych. Dostęp do szkolenia przydzielono na 30 dni 400 pracownikom i monitorowano wskaźnik ukończenia w czasie. Po zakończeniu programu szkoleniowego okazało się, że

  • 18% pracowników ukończyło całe szkolenie w pierwszym tygodniu;
  • dalsze 60% pracowników ukończyło szkolenie w drugim tygodniu, realizując je z mniejszą intensywnością niż pierwsza grupa;
  • dalsze 10% pracowników ukończyło szkolenie dopiero w czwartym tygodniu, wyraźnie starając się zmieścić w czasie.

Szkolenia nie ukończyło 8% pracowników spośród tych, którzy je rozpoczęli (4% w ogóle nie rozpoczęło kursu).

Analiza wyników wykazała, że wysoki wskaźnik ukończenia był związany z krótkimi materiałami szkoleniowymi (tzw. pigułkami wiedzy), interaktywnymi ćwiczeniami i odpowiednim czasem przeznaczonym na szkolenie. Uczestnikom nie była w żadnym momencie podana informacja o negatywnych konsekwencjach nieukończenia szkolenia, jednak doświadczenia wskazują, że wizja egzekucji wpłynęłaby na te 4%, które w ogóle nie przystąpiło do procesu rozwojowego, w niewielkim zaś stopniu oddziaływałaby na 8% „uciekinierów”.

Wskaźnik utrzymania wiedzy

Wskaźnik utrzymania (retencji) wiedzy to odsetek pracowników, którzy są w stanie przypomnieć sobie i zastosować materiał szkoleniowy po pewnym czasie. Wskaźnik ten pomaga określić długoterminową skuteczność programu szkoleniowego.

Jeśli wskaźnik retencji jest wysoki, sugeruje to, że szkolenie skutecznie przekazuje i wzmacnia kluczowe koncepcje, natomiast szczegóły wciąż mogą „umykać”.

Jeśli wskaźnik retencji jest niski, może to wskazywać, że materiał szkoleniowy (nie koniecznie samo szkolenie) nie jest wystarczająco użyteczny lub że format wymaga zmiany w celu poprawy retencji.

Poprawa wskaźnika retencji jest możliwa na wiele sposobów, z czego jeden jest szczególnie skuteczny – wykorzystanie pracowników, którzy ukończyli szkolenie do dzielenia się wiedzą ze współpracownikami (poprowadzenie szkolenia wewnętrznego lub chociaż dłuższa prezentacja podczas spotkania wewnętrznego).

Konfucjusz powiedział „„Powiedz mi, a zapomnę, pokaż mi, a zapamiętam, pozwól mi zrobić, a zrozumiem.”  Owo „zrobić” to nie tylko zastosowanie wiedzy w praktyce, to także przekazanie wiedzy dalej. Każdy, kto kiedykolwiek udzielał korepetycji świetnie wie o co chodzi, prawda?

Jak mierzyć?

  • Najprościej – udostępnij quiz z wymaganym poziomem zdawalności 70% w ramach kursu, choć nie koniecznie od razu po jego zakończeniu. Zadbaj o motywację do jego wypełnienia (np. uzależnij przekazanie certyfikatu od ukończenia quizu).

Moim zdaniem najlepiej jest udostępnić quiz tydzień lub dwa po szkoleniu: wówczas rzeczywiście zmierzymy jaka część kompetencji „została”, a jaka ulotniła się wraz z emocjami wywołanymi przez szkolenie. Stosunkowo wysoki wymagany próg zdawalności powoduje, że uczestnicy przed jego wykonaniem odświeżą i poukładają sobie wiedzę, co – przy drugim podejściu po samym szkoleniu – także wzmocni efekt uczenia się.

Case study

Firma logistyczna skierowała 5 swoich logistyków na szkolenie dotyczące przepisów Incoterms. Tydzień po zakończeniu szkolenia przeprowadzono quiz, który wymagał opanowania materiału na poziomie 80% lub lepszym – w jego wyniku 4 osoby od razu uzyskała certyfikat, zaś jedna musiała przystąpić do egzaminu ponownie. Na razie zatem retencja wiedzy – 100%. Po upływie kolejnych trzech miesięcy od szkolenia dział HR przeprowadził krótką ankietę wśród uczestników szkolenia, aby sprawdzić, jak dobrze pamiętają i stosują zdobytą wiedzę. Ankieta składała się z krótkiego opisu stanu faktycznego, do którego zadano 4 pytania typu „jak byś się zachował?”. Okazało się, że 3 pracowników osiągnęło wymagany poziom opanowania w teście (75% poprawnych odpowiedzi) będąc w stanie skutecznie przypomnieć sobie i zastosować materiał ze szkolenia w codziennej pracy. Ciekawostką było to, że osoba która musiała dwukrotnie podjeść do egzaminu po szkoleniu miała najlepsze wyniki z ankiecie po 3 miesiącach.

Takie wyniki wskazują, że szkolenie zapewniło zadowalający poziom retencji wiedzy, choć istniało pole do poprawy. Jak poprawić retencję wiedzy? – odsyłam do artykułu „Jaki jest cel zarządzania wiedzą w organizacji biznesowej?

Poprawa wydajności

Poprawa wydajności mierzy, w jaki sposób szkolenie wpłynęło na codzienną pracę uczestników lub całego działu lub organizacji. To jest tak naprawdę ów „święty graal” szkolenia – próba odpowiedzi na pytanie czy szkolenia przyniosło pożądaną zmianę w firmie, nie tylko u pracownika.

Można to ustalić na podstawie ocen przed i po szkoleniu, a także na podstawie informacji zwrotnych od menedżerów lub innych pracowników. Jeśli szkolenie doprowadziło do wymiernej poprawy wydajności, takiej jak zwiększona efektywność, zmniejszenie liczby błędów lub poprawa zadowolenia klientów, jest to dobry znak, że szkolenie było skuteczne.

Problemem są oczywiście w zobiektywizowane wskaźniki. Niekiedy można je dość prosto ustalić (np. procent postępowań reklamacyjnych zgłoszonych przed klientów do organów kontrolnych lub do sądu, które się „ostały”, czyli których poprawność została potwierdzona przez niezależny organ). Czasem poziom kompetencji prawnych przekłada się na większy spokój i pewność tego, co się robi, co jest słabo mierzalne, ale bardzo wyraźnie wyczuwalne. Jest też jeszcze ważny, choć rzadko eksponowany czynnik – szkolenia prawne budują wewnętrzny wizerunek firmy wśród pracowników jako firmy dbającej o compliance, w tym zgodność z prawem, dobrymi obyczajami a także etyką, mimo, że szkolenia tego bezpośrednio nie dotyczą. Buduje się trwałe skojarzenie: firma dba o znajomość prawa – firma stara się działać zgodnie z prawem – firma stara się działać etycznie – pracuję w firmie działającej etycznie i zgodnie z prawem. A taki wizerunek jest nie do przecenienia.

Jak mierzyć

  • Przeprowadź badanie wskaźników charakterystycznych dla zagadnienia, wynikających z Twojej oceny problemu, przed szkoleniem oraz 6 miesięcy po szkoleniu
  • Przeprowadź ankietę wśród kierowników zespołów, HR i liderów działów prawnych

Case study

Pewna kancelaria prawna zdecydowała się przeprowadzić szkolenie z negocjacji dla swoich prawników. Przed szkoleniem zbadano 6ciomesięczną efektywność prowadzonych przez nich negocjacji i porównano je z wynikami negocjacji z okresu 6 miesięcy po szkoleniu, dbając o porównywalność spraw.

Dodatkowo, po zakończeniu szkolenia poproszono szefów praktyk o ocenę wydajności prawników po szkoleniu. Okazało się, że skuteczność prawników, którzy ukończyli szkolenie, była znacznie wyższa od umiejętności negocjacyjnych pozostałych pracowników, co było widoczne w takich wskaźnikach jak np. liczba sporów rozwiązanych na etapie przedsądowym.

Zwrot z inwestycji

Zwrot z inwestycji (ROI) to wskaźnik finansowy, który pomaga określić, czy koszt szkolenia jest uzasadniony korzyściami, jakie zapewnia. ROI można mierzyć na różne sposoby, w tym zwiększone przychody, zmniejszone koszty lub lepszą retencję pracowników. Dodatni ROI wskazuje, że szkolenie jest opłacalną inwestycją, podczas gdy ujemny ROI sugeruje, że szkolenie wymaga ponownej oceny lub modyfikacji.

Jak mierzyć

  • Z góry określ cele szkolenia z zakresu prawa.
  • Śledzenie kosztów programu szkoleniowego.
  • Zmierz wpływ programu szkoleniowego poprzez ocenę, ankietę lub utratę przychodów na wydatki związane z nieprzestrzeganiem przepisów.
  • Oblicz ROI za pomocą poniższego wzoru: ROI = (zysk z inwestycji – koszt inwestycji) / koszt inwestycji.

Case study

Firma prawnicza ABC zdecydowała się przeprowadzić szkolenie z obsługi klienta dla swoich prawników, aby poprawić jakość obsługi klienta i zwiększyć zadowolenie klientów. Przed szkoleniem firma określiła cele, takie jak zwiększenie liczby pozytywnych opinii klientów i zmniejszenie reklamacji. Po zakończeniu szkolenia firma zbierała dane dotyczące liczby pozytywnych opinii klientów, reklamacji i innych mierników satysfakcji klientów.

Następnie obliczono ROI, porównując uzyskane korzyści finansowe (np. wzrost przychodów, zmniejszenie kosztów reklamacji) do kosztów inwestycji w szkolenie. Dodatni ROI wskazywał na to, że szkolenie przyniosło firmie wymierne korzyści finansowe.

Zadowolenie pracowników

Zadowolenie pracowników mierzy, jak personel postrzega program szkoleniowy. Można to ustalić za pomocą ankiet, grup fokusowych lub wywiadów indywidualnych. Jeśli pracownicy uznają szkolenie za angażujące, pouczające i istotne, jest bardziej prawdopodobne, że docenią i zastosują zdobyte umiejętności i wiedzę. Jeśli pracownicy są niezadowoleni ze szkolenia, może być konieczne zrewidowanie treści, formatu lub metody dostarczania, aby lepiej zaspokoić ich potrzeby. Nasza zdolność do integracji formularzy i ankiet z naszymi usługami szkoleniowymi umożliwiła naszym klientom obsługę swoich pracowników i dostawców!

Jak mierzyć

  • Tu narzędzi jest mnóstwo, jednak najczęściej stosuje się ankietę wśród wszystkich pracowników

Case study

Firma energetyczna przeprowadziła ankietę wśród swoich pracowników działów prawnych, biura zarządu, compliance i innych zajmujących się tematyką prawną (a w tego typu spółkach to niemal połowa firmy) dotyczącą programu szkoleń prawnych, które oferuje swoim pracownikom. Ankietę zaprojektowano w taki sposób, aby ocenić, jak pracownicy postrzegają jakość i użyteczność szkoleń. Zadano pytania dotyczące angażującego sposobu dostarczania materiałów, zrozumiałości treści szkoleniowych oraz przydatności zdobytej wiedzy w codziennej pracy. Wyniki ankiety wykazały, że 80% pracowników było zadowolonych z programu szkoleń, co sugeruje, że szkolenia były (subiektywnie) wartościowe, a zdobyte umiejętności były praktyczne i stosowalne w pracy.

Podejście jakościowe

Testy i egzaminy

Jednym z najbardziej tradycyjnych sposobów pomiaru skuteczności szkoleń jest przeprowadzenie testów kompetencyjnych in/out lub egzaminów. Można przygotować pytania, które sprawdzą wiedzę uczestników na temat zagadnień prawnych, procedur lub przepisów. Testy i egzaminy umożliwiają jednoznaczne ocenienie stopnia przyswojenia wiedzy i zrozumienia mechanizmów, które są kluczowe w danej dziedzinie prawa.

Niezależna certyfikacja, czyli potwierdzenie kwalifikacji przez zewnętrzny egzamin, ma pozytywny wpływ zarówno na obiektywną, jak i subiektywną ocenę wartości szkolenia. Dlaczego?

  1. Obiektywna ocena wartości
    Niezależna certyfikacja może dostarczyć obiektywny sposób mierzenia i porównywania umiejętności i wiedzy uczestników szkolenia. Egzamin, który jest opracowany przez niezależne ciało certyfikujące lub instytucję, zapewnia standardy, których trzeba się trzymać. To daje pewność, że uczestnicy muszą wykazać się określonym poziomem kompetencji, aby uzyskać certyfikat. Obiektywna ocena wartości szkolenia opiera się na faktycznych wynikach uczestników na egzaminie, co może być istotnym wskaźnikiem dla pracodawców lub innych zainteresowanych stron.
  2. Wiarygodność
    Certyfikat dodaje wiarygodności samemu szkoleniu. Potwierdzenie kwalifikacji przez zewnętrzną instytucję certyfikującą może świadczyć o wysokim standardzie szkolenia i potwierdzać, że uczestnicy posiadają określone umiejętności i wiedzę. To może przekonać pracodawców, klientów lub innych interesariuszy, że szkolenie było wartościowe i uczestnicy mają rzeczywiste umiejętności.
  3. Porównywalność
    Dzięki niezależnej certyfikacji można porównywać umiejętności i kwalifikacje uczestników szkolenia. Jeśli różni uczestnicy zdobyli ten sam certyfikat, oznacza to, że musieli wykazać się podobnym poziomem wiedzy i umiejętności. To ułatwia pracodawcom lub innym zainteresowanym stronom dokonanie porównań między różnymi kandydatami lub pracownikami, a także ocenę, czy dany kandydat spełnia wymagania danej funkcji.
  4. Motywacja uczestników
    Możliwość zdobycia niezależnego certyfikatu może stanowić motywację dla uczestników szkolenia. Wiedząc, że istnieje możliwość potwierdzenia swoich umiejętności poprzez zewnętrzny egzamin, uczestnicy mogą być bardziej zaangażowani i skoncentrowani na nauce. To może prowadzić do lepszych wyników i większego zaangażowania w proces szkoleniowy.

Niezależna certyfikacja ma zdecydowanie pozytywny wpływ na ocenę wartości szkolenia, zarówno obiektywnie, jak i subiektywnie. Dostarcza ona mierzalne wskaźniki kompetencji i wiarygodności, co może pomóc w ocenie wartości szkolenia przez różne zainteresowane strony. Jednak certyfikacja w skrajnych może rozleniwiać dostawców szkoleń. Przykładem może być tu właśnie aplikacja prawnicza kończąca się egzaminem zawodowym. Izby starają się dostarczać kursy jak najwyższej jakości, ale motywacja uczestników do samego udziału w aplikacji jak i do nauki wynika z wizji trudnego egzaminu państwowego, od którego zależy ich przyszłość zawodowa.

Analiza case study

Wykorzystanie case study to skuteczny sposób oceny praktycznego zastosowania wiedzy prawnej. Można poprosić uczestników szkolenia o rozwiązanie rzeczywistych przypadków lub sytuacji, w których muszą zastosować zdobytą wiedzę w praktyce. Analiza case study pozwala na mierzenie umiejętności praktycznego myślenia i rozwiązywania problemów, które są ważne w dziedzinie prawa.

Właśnie w formie case study (lub bardziej po polsku – kazusów) prowadzone są egzaminy prawnicze. W dużym uproszczeniu – na podstawie podanego stanu faktycznego należy zadziałać jak prawnik, angażując wszystkie swoje kwalifikacje – zarówno wiedzę, jak umiejętność jej zastosowania, kompetencje językowe, umiejętność opanowania emocji, zarządzanie czasem… Wadą takiego systemu weryfikacji wiedzy jest pracochłonność procesu walidacji (sprawdzenia kwalifikacji), jednak ta metoda jest moim zdaniem najdoskonalsza. Stosuje się ją zresztą w wielu innych wypadkach, jak np. przy egzaminach certyfikowanych przez Stowarzyszenie Compliance Polska z zakresu compliance i AML.

Oceny prowadzącego

Bezpośrednie opinie od uczestników szkoleń na temat prowadzącego są również ważne dla oceny jakości szkoleń. 
Po zakończeniu szkolenia najczęściej poprosi się uczestników o wypełnienie ankiety oceniającej prowadzącego. Pytania mogą dotyczyć kompetencji prowadzącego, jego zdolności do przekazania wiedzy, zrozumiałości prezentacji i interakcji z uczestnikami.

Warto taką ocenę zrobić po szkoleniu, a nie na jego zakończenie – wówczas ankieta staje się realnym narzędziem oceny, a nie plebiscytem popularności eksperta.

Obserwacja zastosowania w praktyce

Innym sposobem oceny skuteczności szkoleń z tematyki prawo jest obserwacja praktycznej aplikacji zdobytej wiedzy. Można poprosić uczestników o przedstawienie przykładów lub symulacje praktycznych sytuacji, w których muszą wykorzystać zdobytą wiedzę. Obserwacja praktycznej aplikacji wiedzy umożliwia ocenę umiejętności uczestników w realnym środowisku pracy.

Analiza wskaźników biznesowych

W przypadku szkoleń prawnych istnieją również wskaźniki biznesowe, które mogą być użyteczne do pomiaru skuteczności. Na przykład, można zbadać:

  • czy zmniejszyła się liczba naruszeń prawnych w organizacji?
  • czy poprawiła się efektywność działu reklamacji?
  • czy ograniczyły się koszty związane z naruszeniami prawnymi?

Analiza takich wskaźników może wskazywać na skuteczność szkoleń i ich wpływ na organizację. Oczywiście dobór wskaźników oznacza, że wcześniej (przed szkoleniem) statystyki też były prowadzone, a nie jest to standard.

Podsumowanie

Mierzenie skuteczności programów szkoleń prawnych wymaga połączenia wskaźników jakościowych i ilościowych. Ilościowe robią wszyscy – jakościowe mało kto.

Przyczyny są przynajmniej dwie – jedna oczywista, druga mniej.

  • Pierwszą jest koszt, a w zasadzie brak powszechnego przekonania, że badanie skuteczności szkolenia jest na tyle ważne, że warto za nie zapłacić. Skoro klienci szkoleń mają tu podejście „za darmo to uczciwa cena” to trudno się dziwić firmom szkoleniowym, że robią niezbędne minimum, czyli przede wszystkim badanie ankietowe zadowolenia uczestników.
  • Druga – organizacje kierujące pracowników na szkolenia rzadko stosują jakościowe narzędzia badania efektywności pracy pracowników zajmujących się prawem. Uważa się, że to taka tajemna, nieuchwytna dziedzina, której nie godzi się badać nam, maluczkim (w sensie – nie prawnikom). Podobnie jak kiedyś było z medycyną, prawda?

Śledzenie wskaźników ukończenia, utrzymania wiedzy, poprawy wydajności, zwrotu z inwestycji i zadowolenia pracowników pozwala dostawcom szkoleń prawnych identyfikować obszary wymagające poprawy i upewnić się, że ich programy szkoleniowe spełniają potrzeby zarówno pracowników, jak i ich klientów (choćby wewnętrznych).

Początek trilogu o AIA

W połowie czerwca 2023. Parlament Europejski zatwierdził swój mandat negocjacyjny („Stanowisko PE”) w sprawie wniosku UE dotyczącego rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (“Akt o sztucznej inteligencji” czyli “AIA”). Głosowanie w PE oznacza, że instytucje UE mogą teraz rozpocząć negocjacje trójstronne (Rada zatwierdziła swój mandat negocjacyjny w grudniu 2022 r.). Ostateczna wersja AI Act spodziewana jest przed końcem 2023 roku.

Wydanie stanowiska Parlamentu Europejskiego rozpoczyna trilog.

Trilog to etap uzgodnieniowy, w którym Parlament, Rada i Komisja Europejska podejmują negocjacje w celu osiągnięcia porozumienia w sprawie treści końcowego aktu prawodawczego (w tym wypadku Artificial Intelligence Act – AIA). Negocjacje odbywają się na podstawie stanowiska Parlamentu oraz opinii i sugestii Rady. Podczas trilogu przedstawiciele Parlamentu, Rady i Komisji będą spotykać się, aby omówić różnice i próbować znaleźć kompromisowe rozwiązania.

Po zakończeniu trilogu, jeśli Parlament, Rada i Komisja osiągną porozumienie, następuje procedura formalna, w której stanowisko Parlamentu i Rady zostaje poddane ostatecznej procedurze przyjęcia. W przypadku przyjęcia aktu prawodawczego przez obie instytucje, staje się on prawnie wiążący dla państw członkowskich i jest implementowany w prawodawstwie krajowym.

W sprawie AIA, Parlament Europejski zaproponował szereg istotnych poprawek do pierwotnego tekstu Komisji, który pochodzi z 2021 roku.

Poniżej przedstawiamy niektóre z kluczowych zmian wprowadzonych przez PE:

Zmiany w kluczowych definicjach

PE wprowadził szereg istotnych zmian w definicjach stosowanych w ustawie o sztucznej inteligencji (art. 3). Zgodnie ze stanowiskiem PE:

  • Definicja „systemu AI” została dostosowana do definicji systemu AI OECD. System sztucznej inteligencji jest teraz definiowany jako „system oparty na maszynach, który jest zaprojektowany do działania na różnych poziomach autonomii i który może, w celach jawnych lub ukrytych, generować dane wyjściowe, takie jak prognozy, zalecenia lub decyzje, które wpływają na środowisko fizyczne lub wirtualne”.
  • Użytkownicy systemów AI są teraz nazywani „podmiotami wdrażającymi”.

Tekst PE zawiera ponadto szereg nowych definicji, w tym:

  • „Osoby dotknięte”, czyli „każda osoba fizyczna lub grupa osób, które podlegają systemowi AI lub na które system AI ma inny wpływ”.
  • „Model podstawowy”, który oznacza „model sztucznej inteligencji, który jest szkolony na szerokich danych na dużą skalę, jest zaprojektowany pod kątem ogólności wyników i może być dostosowany do szerokiego zakresu charakterystycznych zadań”. Dostawcy modeli podstawowych podlegają obecnie szeregowi szczegółowych obowiązków wynikających z ustawy o sztucznej inteligencji.
  • „System sztucznej inteligencji ogólnego przeznaczenia”, który jest „systemem sztucznej inteligencji, który może być używany i dostosowywany do szerokiego zakresu zastosowań, dla których nie został celowo i specjalnie zaprojektowany”.

Ogólne zasady mające zastosowanie do systemów AI

Stanowisko PE ustanawia zestaw sześciu podstawowych zasad, które mają zastosowanie do wszystkich systemów sztucznej inteligencji regulowanych przez AIA. Zasady te to:

  • ludzka odpowiedzialność i nadzór;
  • odporność techniczna i bezpieczeństwo;
  • prywatność i zarządzanie danymi;
  • przejrzystość;
  • różnorodność, niedyskryminacja i sprawiedliwość; oraz
  • dobrostan społeczny i środowiskowy.

Klasyfikacja systemów AI

PE zaproponował istotne zmiany w wykazie zakazanych praktyk/systemów AI.

Nowe zakazy obejmują: (1) biometryczne systemy kategoryzacji, które kategoryzują osoby fizyczne zgodnie z wrażliwymi lub chronionymi atrybutami lub cechami lub w oparciu o wnioskowanie o tych atrybutach lub cechach; oraz (2) systemy AI, które tworzą lub rozszerzają bazy danych rozpoznawania twarzy poprzez nieukierunkowane pobieranie obrazów twarzy z Internetu lub nagrań CCTV.

Ponadto Parlament Europejski rozszerzył listę systemów i aplikacji AI, które należy uznać za obarczone wysokim ryzykiem. Lista systemów wysokiego ryzyka w stanowisku PE obejmuje na przykład niektóre systemy sztucznej inteligencji wykorzystywane przez duże platformy mediów społecznościowych do rekomendowania treści użytkownikom.

Zgodnie z zasadami zaproponowanymi przez PE, dostawcy niektórych systemów AI mogą obalić domniemanie, że system powinien być uznany za system AI wysokiego ryzyka. Wymagałoby to złożenia zawiadomienia do organu nadzorczego lub urzędu ds. sztucznej inteligencji (tego ostatniego, jeśli system sztucznej inteligencji ma być używany w więcej niż jednym państwie członkowskim), które dokonają przeglądu i odpowiedzą w ciągu trzech miesięcy, aby wyjaśnić, czy uważają system sztucznej inteligencji za obarczony wysokim ryzykiem.

Stanowisko PE nakłada ponadto szczególne wymogi na generatywne systemy sztucznej inteligencji (jak na przykład popularny ChatGPT), takie jak obowiązek ujawnienia, że treści zostały wygenerowane przez sztuczną inteligencję, zaprojektowanie systemu sztucznej inteligencji w sposób uniemożliwiający generowanie nielegalnych treści oraz publikowanie podsumowań danych chronionych prawem autorskim wykorzystywanych do szkolenia.

Korekty obowiązków w kontekście systemów AI wysokiego ryzyka

PE wprowadza również znaczące zmiany w obowiązkach dostawców systemów sztucznej inteligencji wysokiego ryzyka, wymagając od nich np:

  • Zapewnienia, że osoby fizyczne odpowiedzialne za ludzki nadzór nad systemami AI wysokiego ryzyka są w szczególności świadome ryzyka automatyzacji lub tendencyjności systemowych potwierdzeń.
  • Dostarczania specyfikacji danych wejściowych lub wszelkich innych istotnych informacji w zakresie wykorzystywanych zbiorów danych, w tym ich ograniczeń i założeń, z uwzględnieniem zamierzonego celu oraz przewidywalnego i racjonalnie przewidywalnego niewłaściwego użycia systemu AI.
  • Upewnienie się, że system sztucznej inteligencji wysokiego ryzyka spełnia wymogi dostępności.

Ponadto obowiązki podmiotów wdrażających systemy sztucznej inteligencji wysokiego ryzyka zostały znacznie rozszerzone i obecnie obejmują:

  • W przypadku niektórych systemów AI – informowanie osób fizycznych o tym, że podlegają one korzystaniu z systemów AI wysokiego ryzyka oraz że mają prawo do uzyskania wyjaśnień na temat wyników działania systemu.
  • Przed oddaniem do użytku lub użyciem systemu sztucznej inteligencji wysokiego ryzyka w miejscu pracy podmioty wdrażające konsultują się z przedstawicielami pracowników i informują pracowników, że będą podlegać systemowi.
  • Przeprowadzić ocenę wpływu na prawa podstawowe (patrz poniżej).

Obowiązek przeprowadzenia oceny skutków w zakresie praw podstawowych.

Jak wspomniano powyżej, przed użyciem systemu sztucznej inteligencji wysokiego ryzyka niektóre podmioty wdrażające będą zobowiązane do przeprowadzenia oceny wpływu na prawa podstawowe. Ocena ta powinna obejmować co najmniej następujące elementy:

  • jasny zarys celu, w którym system będzie używany;
  • jasny zarys zamierzonego zakresu geograficznego i czasowego korzystania z systemu;
  • kategorie osób fizycznych i grup, na które może mieć wpływ korzystanie z systemu;
  • weryfikację, czy korzystanie z systemu jest zgodne z odpowiednimi przepisami unijnymi i krajowymi dotyczącymi praw podstawowych;
  • racjonalnie przewidywalny wpływ korzystania z systemu sztucznej inteligencji wysokiego ryzyka na prawa podstawowe;
  • szczególne ryzyko szkody, które może mieć wpływ na osoby zmarginalizowane lub grupy szczególnie wrażliwe;
  • racjonalnie przewidywalny negatywny wpływ korzystania z systemu na środowisko;
  • szczegółowy plan, w jaki sposób zidentyfikowane szkody i negatywny wpływ na prawa podstawowe zostaną złagodzone; oraz
  • system zarządzania, który wdroży podmiot wdrażający, w tym nadzór nad ludźmi, rozpatrywanie skarg i dochodzenie roszczeń.

W procesie przygotowywania oceny skutków w zakresie praw podstawowych od podmiotów wdrażających może być wymagane nawiązanie współpracy z organami nadzorczymi i zewnętrznymi zainteresowanymi stronami, takimi jak agencje ochrony konsumentów i agencje ochrony danych.

Wyłączenie niektórych nieuczciwych warunków umownych w umowach AI z MŚP lub startupami

Stanowisko PE wprowadza nowy przepis ograniczający prawo kontrahenta do jednostronnego narzucania pewnych warunków umownych związanych z dostawą narzędzi, usług, komponentów lub procesów, które są wykorzystywane lub zintegrowane z systemem sztucznej inteligencji wysokiego ryzyka, lub środków zaradczych w przypadku naruszenia lub rozwiązania zobowiązań związanych z tymi systemami w umowach z MŚP lub startupami.

Przykłady niedozwolonych postanowień obejmują warunki umowne, które:

  • wyłączają lub ograniczają odpowiedzialność strony, która jednostronnie narzuciła warunek, za działania umyślne lub rażące niedbalstwo;
  • wyłączają środki zaradcze przysługujące stronie, na którą jednostronnie narzucono warunek, w przypadku niewykonania zobowiązań umownych lub odpowiedzialności strony, która jednostronnie narzuciła warunek, w przypadku naruszenia tych zobowiązań; oraz
  • przyznają stronie, która jednostronnie narzuciła warunek, wyłączne prawo do ustalenia, czy dostarczona dokumentacja techniczna i informacje są zgodne z umową lub do interpretacji jakiegokolwiek warunku umowy.

Środki wspierające innowacje

Rozdział V projektu AIA, który zawiera środki wspierające innowacje (w tym tzw. sandboxy dotyczące regulacji AI), został w stanowisku PE rozszerzony i wyjaśniony. Jeden z nowych przepisów wymaga od państw członkowskich UE promowania badań i rozwoju rozwiązań AI, które wspierają wyniki korzystne społecznie i środowiskowo, takie jak

  • rozwiązania zwiększające dostępność dla osób niepełnosprawnych;
  • zwalczanie nierówności społeczno-ekonomicznych oraz
  • osiąganie celów w zakresie zrównoważonego rozwoju i ochrony środowiska.

Grzywny

Stanowisko PE znacząco zmienia grzywny, które mogą być nakładane na mocy ustawy o sztucznej inteligencji. PE proponuje, aby:

  • Nieprzestrzeganie przepisów dotyczących zakazanych praktyk związanych z AI podlegało karom administracyjnym wysokości do 40 000 000 EUR lub, jeżeli sprawca jest przedsiębiorstwem, w wysokości do 7% jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
  • Nieprzestrzeganie zasad określonych w art. 10 (dane i zarządzanie danymi) i art. 13 (przejrzystość i dostarczanie informacji użytkownikom) podlegało karze administracyjnej wysokości do 20 000 000 EUR lub, jeżeli sprawcą jest spółka, do 4% jej całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
  • Nieprzestrzeganie innych wymogów i obowiązków wynikających z ustawy o sztucznej inteligencji podlegało administracyjnej karze pieniężnej wysokości do 10 000 000 EUR lub, jeżeli sprawcą jest spółka, do 2% jej całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
  • Dostarczenie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym i właściwym organom krajowym w odpowiedzi na wniosek podlegało administracyjnej karze pieniężnej do 5 000 000 EUR lub, jeżeli sprawcą jest spółka, do 1% jej całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.

Należy również zauważyć, że w stanowisku PE proponuje się, aby kary (w tym grzywny) wynikające z ustawy o sztucznej inteligencji, a także związane z nimi koszty postępowania sądowego i roszczenia odszkodowawcze, nie mogły podlegać klauzulom umownym ani innym formom umów o podziale obciążeń między dostawcami a dystrybutorami, importerami, podmiotami wdrażającymi lub innymi stronami trzecimi.

Wzmocnione środki ochrony prawnej

W AIA wprowadzono nowy rozdział dotyczący środków zaradczych dostępnych dla osób poszkodowanych w obliczu potencjalnych naruszeń zasad wynikających z ustawy o sztucznej inteligencji. Szczególnie istotne jest wprowadzenie podobnego do RODO prawa do złożenia skargi do organu nadzorczego.

Światowe organy nadzoru badają ChatGPT

Europejska Rada Ochrony Danych powołała grupę roboczą ds. ChatGPT w celu monitorowania i zbadania kwestii jego zgodności z unijnymi regulacjami dotyczącymi ochrony danych osobowych przy m.in. generowaniu tekstów i rozmów z ludźmi.

Głównym celem grupy ds. ChatGPT jest opracowanie wytycznych dotyczących ochrony danych osobowych w związku z wykorzystaniem systemów sztucznej inteligencji do generowania tekstów i rozmów. Grupa będzie badać różne aspekty związane z ochroną danych, takie jak przetwarzanie danych osobowych, prawa użytkowników, bezpieczeństwo i odpowiedzialność za szkody wynikające z wykorzystania ChatGPT.

W skład grupy ds. ChatGPT wchodzą eksperci ds. ochrony danych osobowych, przedstawiciele różnych organów nadzorczych oraz innych zainteresowanych stron. Grupa ta będzie działać we współpracy z innymi organami i grupami roboczymi Europejskiej Rady Ochrony Danych Unii Europejskiej aby zapewnić koordynację działań i osiągnięcie celów wyznaczonych przez Radę.

Zagrożenia związane z wykorzystaniem ChatGPT do generowania tekstów i rozmów zostały zidentyfikowane przez Europejską Radę Ochrony Danych Unii Europejskiej  i mogą obejmować:

  • Naruszenie prywatności i ochrony danych osobowych: ChatGPT może zbierać i przetwarzać dane osobowe użytkowników, takie jak informacje o preferencjach, zachowaniach i intencjach. W związku z tym istnieje ryzyko naruszenia prywatności i ochrony danych osobowych.
  • Ryzyko dyskryminacji i uprzedzeń: ChatGPT może wprowadzać błędne założenia i uprzedzenia, na przykład w zakresie płci, rasy, orientacji seksualnej czy wyznania, co może prowadzić do dyskryminacji.
  • Ryzyko dezinformacji i fałszywych informacji: ChatGPT może generować nieprawdziwe lub mylące informacje, co może prowadzić do dezinformacji i manipulacji opinii publicznej.
  • Bezpieczeństwo cybernetyczne: ChatGPT może być podatny na ataki cybernetyczne, które mogą prowadzić do naruszenia bezpieczeństwa danych i prywatności użytkowników.
  • Odpowiedzialność za decyzje podejmowane przez ChatGPT: ChatGPT może podejmować decyzje, na przykład w zakresie rekomendacji produktów lub usług, co może prowadzić do odpowiedzialności prawnej za szkody wynikające z tych decyzji.

Organy publiczne na całym świecie zajmujące się ochroną danych osobowych i prywatności podejmują działania w sprawie ChatGPT.

Na poziomie europejskim, już w 2020 roku Europejska Rada Ochrony Danych Unii Europejskiej wydała wytyczne dotyczące wykorzystania sztucznej inteligencji, w tym systemów generujących teksty i rozmowy, z uwzględnieniem kwestii ochrony prywatności i danych osobowych. EDPB również powołała grupę roboczą ds. ChatGPT, o której powyżej mowa, aby badać zagadnienia związane z ochroną danych w kontekście tego systemu.

Na poziomie krajowym, w wielu krajach istnieją organy i agencje ds. ochrony prywatności, które także podejmują działania w kwestii ChatGPT. Na przykład w Stanach Zjednoczonych Federalna Komisja Handlu (Federal Trade Commission, FTC) wydała wezwanie do złożenia raportów od dziewięciu firm, które oferują narzędzia oparte o działanie sztucznej inteligencji, w tym ChatGPT, celem zbadania kwestii związanych z prywatnością i bezpieczeństwem.

Polska

W Polsce organem odpowiedzialnym za ochronę danych osobowych jest Urząd Ochrony Danych Osobowych (UODO). Zgodnie z informacjami dostępnymi na stronie internetowej UODO, w 2021 roku urząd ten wydał rekomendacje dotyczące wykorzystania sztucznej inteligencji, w tym ChatGPT, z uwzględnieniem kwestii ochrony prywatności i danych osobowych. Urząd Ochrony Danych Osobowych wystąpił ostatnio do włoskiej agencji ochrony danych (Garante per la protezione dei dati personali) w sprawie ChatGPT. UODO chce zbadać, czy ChatGPT przestrzega europejskiej regulacji o ochronie prywatności, a także potencjalne ryzyko naruszania prywatności użytkowników.

UODO nie otrzymał do tej pory (kwiecień 2023) skarg dotyczących korzystania z ChatGPT i nie przeprowadził kontroli w związku z jego funkcjonowaniem, ale bada sprawę. Urząd liczy na uregulowanie kwestii sztucznej inteligencji na poziomie unijnym i organizuje inicjatywy edukacyjne oraz naukowe w celu lepszego zrozumienia wspomnianej technologii, a także, potencjalnych zagrożeń. UODO poprosił także włoską agencję ochrony danych o udostępnienie informacji dotyczących wykorzystania ChatGPT przez instytucje publiczne i prywatne we Włoszech.

Włochy

We Włoszech organem odpowiedzialnym za ochronę danych osobowych jest Garante per la protezione dei dati personali, czyli urząd ochrony danych osobowych. Garante zajmuje się ochroną danych osobowych oraz podejmuje działania w zakresie regulacji i nadzoru w tym obszarze.

W kontekście ChatGPT, Garante wskazuje na zagrożenia związane z wykorzystaniem sztucznej inteligencji, w tym systemów generujących teksty i rozmowy, pod kątem prywatności i ochrony danych. W związku z tym, Garante opublikował wytyczne dotyczące wykorzystania sztucznej inteligencji w grudniu 2020 roku, w których dostrzegł konieczność ochrony danych osobowych i prywatności użytkowników oraz wskazał, że przed wdrożeniem takich systemów należy dokładnie zbadać ich wpływ na prywatność i ochronę danych.

Ponadto, we wrześniu 2021 roku Garante wszczął postępowanie wyjaśniające w sprawie wykorzystania przez Facebook systemu sztucznej inteligencji w tzw. smart glasses, który może naruszać prywatność i ochronę danych osobowych użytkowników. Postępowanie to ma na celu zbadać, czy Facebook przestrzega przepisów dotyczących ochrony danych osobowych i czy jego system respektuje prywatność użytkowników. Warto również dodać, że we Włoszech tematem zajmuje się również krajowe centrum ds. cyberbezpieczeństwa (Centro Nazionale Cyber ​​Difesa), które monitoruje zagrożenia związane z bezpieczeństwem cybernetycznym, w tym zagrożenia wynikające z wykorzystania sztucznej inteligencji.

Niemcy

W Niemczech organem nadzorującym ochronę danych osobowych jest Federalny Komisarz do spraw Ochrony Danych i Wolności Informacyjnej (BfDI). BfDI jest niezależnym organem nadzorczym, który zajmuje się ochroną danych osobowych, a także promuje świadomość w zakresie prywatności i bezpieczeństwa danych dla wszystkich organów publicznych rządu federalnego.

W kontekście ChatGPT, BfDI wskazuje na konieczność ochrony danych osobowych użytkowników oraz na zagrożenia związane z wykorzystaniem sztucznej inteligencji, w tym systemów generujących teksty i rozmowy. W związku z tym, BfDI opublikował wytyczne dotyczące wykorzystania sztucznej inteligencji w maju 2021 roku, w których zwrócił uwagę na konieczność przestrzegania przepisów dotyczących ochrony danych osobowych oraz na potrzebę wyjaśnialności w stosowaniu sztucznej inteligencji.

BfDI również podejmuje konkretne działania w sprawie ChatGPT. W 2021 roku, BfDI wszczął postępowanie przeciwko platformie Clubhouse, która wykorzystuje system generowania tekstów w celu automatycznego generowania transkrypcji rozmów. Postępowanie to ma na celu zbadać, czy Clubhouse przestrzega przepisów dotyczących ochrony danych osobowych oraz czy jego system generowania tekstów respektuje prywatność użytkowników. Ponadto, w Niemczech istnieje również Federalne Biuro ds. Bezpieczeństwa Sieci Informacyjnych (BSI), które jest odpowiedzialne za monitorowanie i przeciwdziałanie zagrożeniom związanym z bezpieczeństwem cybernetycznym, w tym zagrożenia wynikające z wykorzystania sztucznej inteligencji.

Francja

W kontekście ChatGPT, władze francuskie podjęły kilka działań dotyczących ochrony prywatności i danych osobowych użytkowników. Jeden z organów zajmujących się ochroną danych w Francji to Komisja ds. Informacji i Wolności (Commission nationale de l’informatique et des libertés, CNIL). W maju 2021 roku, CNIL opublikowała swoje wytyczne dotyczące sztucznej inteligencji, w których podkreśla konieczność ochrony prywatności i danych osobowych użytkowników, a także na potrzebę przejrzystości i odpowiedzialności w stosowaniu sztucznej inteligencji.

Ponadto, w lipcu 2021 roku CNIL wszczęła postępowanie przeciwko platformie do nauki języków, Duolingo, która wykorzystuje system generowania tekstu, w tym ChatGPT, do automatycznego tłumaczenia tekstów użytkowników. Postępowanie to ma na celu zbadać, czy Duolingo przestrzega przepisów dotyczących ochrony danych osobowych i prywatności użytkowników, a także czy jego system generowania tekstu respektuje prywatność użytkowników. W tym samym okresie francuski organ nadzorczy ochrony danych osobowych wydał również decyzję nakładającą na Google karę w wysokości 500 milionów euro za naruszanie przepisów dotyczących prywatności i danych osobowych użytkowników w związku z wykorzystaniem plików cookie.

W sierpniu 2021 roku, francuski rząd przedstawił projekt ustawy dotyczącej sztucznej inteligencji, który ma na celu regulację stosowania sztucznej inteligencji i ochronę danych użytkowników. Projekt ustawy zakłada, że systemy oparte na sztucznej inteligencji, w tym ChatGPT, będą musiały być transparentne i odpowiedzialne, a także przestrzegać przepisów dotyczących ochrony danych osobowych użytkowników.

Co dalej?

Jako model językowy, ChatGPT nie jest bezpośrednio regulowany przez Europejską Radę Ochrony Danych ale może podlegać przepisom dotyczącym ochrony danych osobowych. W związku z tym, kolejne kroki Rady wobec ChatGPT mogą obejmować:

  1. Monitorowanie działań ChatGPT w odniesieniu do ochrony danych osobowych, aby upewnić się, że model spełnia wymogi regulacyjne.
  2. Przeprowadzanie audytów bezpieczeństwa w celu upewnienia się, że ChatGPT przestrzega wymogów dotyczących bezpieczeństwa i prywatności danych.
  3. Współpraca z dostawcami technologii i twórcami modelu, aby zapewnić zgodność z regulacjami dotyczącymi ochrony danych.
  4. Podejmowanie działań w przypadku naruszenia prywatności lub bezpieczeństwa danych przez ChatGPT, w tym na przykład nałożenie kar lub innych sankcji.
  5. Przeprowadzanie badań dotyczących wpływu modeli językowych na prywatność i bezpieczeństwo danych, w tym na przykład badania dotyczące wykorzystania danych wrażliwych lub kwestii związanych z identyfikacją osobistą.
  6. Opracowywanie i aktualizowanie wytycznych dotyczących prywatności i bezpieczeństwa danych dla modeli językowych, takich jak ChatGPT, aby pomóc w zapewnieniu zgodności z regulacjami dotyczącymi ochrony danych i prywatności.

Odpowiedzialność Rady Nadzorczej za wdrożenie i utrzymanie systemu compliance

Jak obecnie, po nowelizacji Kodeksu spółek handlowych, wygląda odpowiedzialność Rady Nadzorczej za wdrożenie i utrzymanie systemu compliance? A jak się do tego ma projekt nowelizacji ustawy o odpowiedzialności podmiotów zbiorowych za czyny zabronione pod groźbą kary?

Do zakresu działania rady nadzorczej z istoty tego organu należy prowadzenie stałego nadzoru i kontroli działalności spółki, mając przede wszystkim na względzie interes spółki. Obowiązek ten sam w sobie stanowi pewien zalążek systemu compliance i pozycjonuje radę nadzorczą jako organ, który nadaje ton działaniom w tym zakresie.

Ogólnie rzecz ujmując, system compliance w spółce ma zapewniać zgodność działalności spółki z szeroko rozumianymi regulacjami prawnymi i ograniczać sytuacje wystąpienia nieprawidłowości. Jednak o ile system compliance występuje stosunkowo często w przypadku spółek publicznych w związku z Dobrymi Praktykami Spółek Notowanych na GPW 2021, o tyle w spółkach nieposiadających statusu spółek publicznych występuje on stosukowo rzadko i postrzegany jest jako element kosztowny oraz hamujący biznes. Jednak wbrew pozorom system ten bardzo często istotnie przyczynia się do ograniczenia strat w sytuacji, w której w ramach przedsiębiorstwa wystąpi delikt administracyjny czy nawet przestępstwo.

Nowelizacja KSH wprowadziła w tym zakresie istotną zmianę polegającą zasadniczo na obowiązku posiadania systemu compliance przez praktycznie każdą spółkę akcyjną, a przynajmniej na corocznej ocenie tego, czy taki system powinien być w spółce wdrożony. Rada nadzorcza w swoich rocznych sprawozdaniach musi bowiem ujmować ocenę sytuacji spółki z uwzględnieniem adekwatności i skuteczności systemu compliance.

Obowiązkiem rady nadzorczej jest zatem weryfikować, czy system compliance jest adekwatny, bądź też wymaga zmian i wzmocnienia jego roli z uwagi na np. wielkość spółki, jej obroty, narażenie na wystąpienie nieprawidłowości.

Zmiana ta ma również istotne znaczenie z dwóch powodów.

Po pierwsze, w ostatnich dwóch latach Komisja Nadzoru Finansowego („KNF”) rozpoczęła intensywne nakładanie administracyjnych kar pieniężnych na członków rad nadzorczych. W toku takich postępowań KNF ocenia należytą staranność członków tych organów
w sprawowanych przez nich obowiązkach. Ocena ta ma charakter indywidualny i dokonywana jest w perspektywie zidentyfikowanego w ramach działalności spółki naruszenia np. obowiązków sprawozdawczych. Brak oceny systemów compliance przez radę nadzorczą czy też brak rekomendacji ich wdrożenia, pomimo istnienia obiektywnie takiej potrzeby, z pewnością zostanie uznany za działanie niestaranne.

Po drugie, zmiana ta ma również istotne znaczenie w perspektywie projektowanej nowelizacji ustawy o odpowiedzialności podmiotów zbiorowych za czyny zabronione pod groźbą kary. Przesłanką odpowiedzialności podmiotu zbiorowego na gruncie projektowanej nowelizacji będzie m.in. wystąpienie takiej nieprawidłowości w organizacji działalności podmiotu zbiorowego, która ułatwiła lub umożliwiła popełnienie czynu zabronionego. Za taką nieprawidłowość projekt ustawy uznaje m.in. brak wyznaczenia osoby lub komórki organizacyjnej nadzorującej przestrzeganie przepisów regulujących działalność podmiotu zbiorowego – innymi słowy komórki compliance. Z kolei przesłanką wyłączającą odpowiedzialność podmiotu zbiorowego ma być dochowanie należytej staranności przez wszystkie organy tej spółki, a więc np. radę nadzorczą. Skoro tak, to brak przyjęcia systemu compliance, pomimo corocznej oceny i obiektywnej potrzeby jego wdrożenia, istotnie zwiększy ryzyko odpowiedzialności spółki na gruncie projektowanej nowelizacji.

To wszystko powoduje, że system compliance przestaje być jedynie dobrą praktyką, a staje się powoli wymogiem bezwzględnie obowiązujących przepisów prawa.

Czekając na ustawę o sygnalistach

W grudniu mija rok, od kiedy Dyrektywa (UE) 2019/1937 w sprawie ochrony osób zgłaszających naruszenia prawa Unii powinna zostać zaimplementowana przez państwa członkowskie. Polska wciąż jest w grupie krajów, które nie wprowadziły odpowiednich przepisów chroniących sygnalistów.

Komisja Europejska w 2022 r. dwukrotnie upominała już spóźnialskie państwa, wzywając do pełnej transpozycji i udzielenia odpowiedzi na temat przyczyn zaniechań. Dalsza zwłoka grozi wniesieniem sprawy do Trybunału Sprawiedliwości Unii Europejskiej i nałożeniem kar finansowych. Istnieje duża szansa, że zdyscyplinuje to rząd do przyspieszenia prac nad nową ustawą.

Marcin Waszak

Mozolne prace legislacyjne

Sam proces przygotowania nowego prawa zaczął się dopiero na jesieni 2021 r., kiedy Ministerstwo Rodziny i Polityki Społecznej opublikowało pierwszy projekt ustawy o ochronie osób zgłaszających naruszenia prawa. Potem był etap konsultacji publicznych i kolejne trzy wersje projektu opublikowane w 2022 r., z których ostatni z datą 22 lipca. W międzyczasie odbyły się też uzgodnienia międzyresortowe i poznaliśmy protokół rozbieżności. Bardzo możliwe, że to właśnie w tabeli uwag nieuwzględnionych znaleźć można przyczyny, dla których prace po stronie rządu jeszcze się nie zakończyły.

Faktem jest, że po wakacjach zapadła cisza na temat dalszych losów projektu. Rządowy proces legislacyjny zatrzymał się na etapie uzgodnień z Komitetem do Spraw Europejskich. Co istotne, każdy kolejny projekt zawierał coraz mniej zmian w stosunku do poprzedniego, a projekt ostatni w zestawieniu z poprzednim różnił się wyłącznie kosmetycznymi, językowymi poprawkami. W znakomitej większości składał się z przepisów wynikających wprost z wytycznych Dyrektywy UE, miejscami cytując ją słowo w słowo. Na tej podstawie można przypuszczać, że przyszła ustawa nie będzie daleko odbiegać od obecnego kształtu projektu, choć oczywiście podczas prac nad nią w Sejmie i w Senacie sporo jeszcze może się wydarzyć. Dlaczego proces ten do tej pory toczy się tak wolno, gdzie leży pies pogrzebany?

Co wyhamowuje ustawę?

Stawiam tezę, że gdyby ustawa o sygnalistach miała dotyczyć wyłącznie podmiotów sektora prywatnego, przepisy dawno już weszłyby w życie. Najważniejsze dylematy rządu zdają się dotyczyć tego jak ma działać system ochrony sygnalistów oparty o jednostki sektora finansów publicznych i z czego będzie finansowany. Z projektu ustawy wciąż wyziera potężna luka w postaci braku listy organów publicznych właściwych do przyjmowania zgłoszeń zewnętrznych i podejmowania na ich podstawie działań następczych. Będzie to powodować dezorientację tak sygnalistów jak i samych organów publicznych, niepewnych czy i w jakim zakresie mają prowadzić zewnętrzne kanały zgłaszania.

Dodatkowo Ministerstwo Spraw Wewnętrznych i Administracji nie wycofało się ze swojego postulatu, żeby organ właściwy do zajmowania się zgłoszeniami sygnalistów ustanowić jeden w postaci Prokuratury zamiast rozproszonego systemu organów publicznych. Przystanie na postulat MSWiA to powrót do modelu zgłaszania ujętego w projekcie ustawy o jawności życia publicznego, powszechnie krytykowanego za to, że ochronę sygnalisty uzależnia od arbitralnych decyzji prokuratora. Być może jednak propozycja ta jest wciąż dyskutowana i nie przypadkiem projekt milczy o tym, którym organom publicznym nada kompetencje do zajmowania się sprawami sygnalistów. Wyjątkiem jest tutaj Rzecznik Praw Obywatelskich, któremu została przydzielona rola centralnego organu zajmującego się gromadzeniem i weryfikacją zgłoszeń zewnętrznych. RPO pośredniczyłby w przekazywaniu informacji między sygnalistą a organem, w którego kompetencjach leży zbadanie naruszenia. Dla samego RPO to rola problematyczna, wykraczająca poza ustawowo przypisane mu działania, ale też niosąca za sobą duże obciążenia finansowe. Tymczasem ze strony Ministerstwa Finansów słychać pohukiwania, że skutki finansowe przyszłej ustawy nie zostały dokładnie policzone a liczba zgłoszeń i czasochłonność ich obsługi może okazać się zupełnie inna od przewidywanej. Dlatego biorąc pod uwagę kryzys gospodarczy spowodowany pandemią Covid-19 i wojną w Ukrainie, sugeruje, aby na początek Biuro RPO wygospodarowało środki na ten cel w ramach istniejącego już budżetu. Wreszcie wciąż możliwy jest wariant polegający na stworzeniu nowej instytucji, która przejmie zadania RPO i innych organów publicznych w zakresie obsługi zgłoszeń zewnętrznych. Jest to rozwiązanie obecne w kilku europejskich krajach, np. na Słowacji, jednak niosące ze sobą jeszcze większe wyzwania finansowo-kadrowe aniżeli poszerzenie kompetencji RPO. Nie bez znaczenia jest to, że powołanie dedykowanej instytucji zanim jeszcze wdroży zewnętrzne kanały zgłaszania wymaga dodatkowego czasu, który już dawno się skończył.

Póki co najtrudniejsze dla rządu okazują się decyzje dotyczące kilku elementów ustawy o sygnalistach, co do których Dyrektywa UE nie narzuca jednego rozwiązania. W interesie polskiego państwa, ale też organizacji czekających na wytyczne jak i kiedy procedury zgłoszeń wdrożyć, powinny zostać podjęte niezwłocznie.