Kluczowe terminy dotyczące zarządzania sztuczną inteligencją

 

Dziedzina sztucznej inteligencji szybko ewoluuje w różnych sektorach i branżach, pozostawiając specjalistów ds. technologicznych i zarządzania bez wspólnej terminologii używanej w zarządzaniu sztuczną inteligencją.

Nawet wyszukiwanie definicji “sztucznej inteligencji” zwraca szereg definicji i przykładów. Od filmowych, takich jak HAL 9000 z “2001: Odysei kosmicznej”, przez kreatywne, takie jak Midjourney i sztuka generatywna DALL-E, po powszechne, takie jak autokorekta wiadomości e-mail i mapy mobilne, przypadki użycia i zastosowania sztucznej inteligencji wciąż rosną i rozszerzają się na wszystkie aspekty życia.

Dzięki zgodzie Międzynarodowego Stowarzyszenia Specjalistów ds. Prywatności (IAPP) udostępniamy wszystkim osobom zainteresowanym rozwojem swoich kompetencji w obszarze sztucznej inteligencji Kluczowe terminy dotyczące zarządzania sztuczną inteligencją” opracowane przez IAPP. Niniejszy glosariusz pierwotnie ukazał się w Centrum Zasobów IAPP i został udostępniony za ich zgodą.

Tłumaczenie zostało wykonane przez Langas Regtech zostało opublikowane w 20 lipca 2023 roku.

 

Niniejszy glosariusz, opracowany w oparciu o liczne materiały, ma na celu zapewnienie zwięzłych, ale zniuansowanych definicji i wyjaśnień niektórych z najpopularniejszych terminów związanych obecnie ze sztuczną inteligencją.

Accountability / Rozliczalność

The obligation and responsibility of the creators, operators and regulators of an AI system to ensure the system operates in a manner that is ethical, fair, transparent and compliant with applicable rules and regulations (see fairness and transparency).

Accountability ensures that actions, decisions and outcomes of an AI system can be traced back to the entity responsible for it.

Obowiązek i odpowiedzialność twórców, operatorów i organów regulacyjnych systemu sztucznej inteligencji w celu zapewnienia, że system działa w sposób etyczny, uczciwy, przejrzysty i zgodny z obowiązującymi zasadami i przepisami (zob. uczciwość i przejrzystość).

Rozliczalność zapewnia, że działania, decyzje i wyniki systemu sztucznej inteligencji można prześledzić wstecz do podmiotu za nie odpowiedzialnego.

 

Active learning / Aktywne uczenie

A subfield of AI and machine learning where an algorithm can select some of the data it learns from. Instead of learning from all the data it is given, an active learning model requests additional data points that will help it learn the best.

→ Also called query learning

Poddziedzina sztucznej inteligencji i uczenia maszynowego, w której algorytm może wybrać część danych, z których się uczy. Zamiast uczyć się na podstawie wszystkich podanych danych, model aktywnego uczenia się żąda dodatkowych próbek danych, które pomogą mu uczyć się najlepiej.

→ Nazywane również uczeniem z zapytań

 

AI governance / Zarządzanie Sztuczną Inteligencją

A system of policies, practices and processes organizations implement to manage and oversee their use of AI technology and associated risks to ensure the AI aligns with an organization’s objectives, is developed and used responsibly and ethically, and complies with applicable legal requirements. System zasad, praktyk i procesów wdrażanych przez organizacje w celu zarządzania i nadzorowania wykorzystania technologii opartych na sztucznej inteligencji i związanego z tym ryzyka, aby zapewnić, że sztuczna inteligencja jest zgodna z celami organizacji, jest rozwijana i wykorzystywana w sposób odpowiedzialny i etyczny oraz jest zgodna z obowiązującymi wymogami prawnymi.

 

Algorithm / Algorytm

 

A computational procedure or set of instructions and rules designed to perform a specific task, solve a particular problem or produce a machine learning or AI model

(see machine learning model)

Procedura obliczeniowa lub zestaw instrukcji i reguł zaprojektowanych w celu wykonania określonego zadania, rozwiązania określonego problemu lub stworzenia modelu uczenia maszynowego lub sztucznej inteligencji

(zob. model uczenia maszynowego).

 

Artificial general intelligence / Ogólna sztuczna inteligencja

 

AI that is considered to have human-level intelligence and strong generalization capability to achieve goals and carry out a variety of tasks in different contexts and environments.

AGI is still considered a theoretical field of research and contrasted with “narrow” AI, which is used for specific tasks or problems.

→ Acronym: AGI

Sztuczna inteligencja, która jest uważana za posiadającą inteligencję na poziomie ludzkim i silną zdolność uogólniania do osiągania celów i wykonywania różnorodnych zadań w różnych kontekstach i środowiskach.

Ogólna sztuczna inteligencja (spotyka się też określenie “silna” – tłum.) jest nadal nadal uważana za teoretyczny obszar badań i przeciwstawiana “wąskiej” (lub “słabej” – tłum.) sztucznej inteligencji, która jest wykorzystywana do konkretnych zadań lub problemów. do konkretnych zadań lub problemów.

→ Akronim: AGI

 

Artificial intelligence / Sztuczna inteligencja

 

Artificial intelligence is a broad term used to describe an engineered system where machines learn from experience, adjusting to new inputs (see input data) and potentially performing tasks previously done by humans. More specifically, it is a field of computer science dedicated to simulating intelligent behavior in computers.

It may include automated decision-making.

→ Acronym: AI

Sztuczna inteligencja to szeroki termin używany do opisania systemu inżynieryjnego, w którym maszyny uczą się na podstawie doświadczenia, dostosowując się do nowych danych wejściowych i potencjalnie wykonując zadania wcześniej wykonywane przez ludzi. Mówiąc dokładniej, jest to dziedzina informatyki poświęcona symulowaniu inteligentnych zachowań w komputerach.

Może obejmować zautomatyzowane podejmowanie decyzji.

→ Akronim: AI

 

Automated decision-making / Zautomatyzowane podejmowanie decyzji

 

The process of making a decision by technological means without human involvement Proces podejmowania decyzji za pomocą środków technologicznych bez udziału człowieka.

 

Bias / Stronniczość

 

There are several types of bias within the AI field.

  • Computational bias is a systematic error or deviation from the true value of a prediction that originates from a model’s assumptions or the data itself (see input data).
  • Cognitive bias refers to inaccurate individual judgment or distorted thinking, while societal bias leads to systemic prejudice, favoritism, and/or discrimination in favor of or against an individual or group.

Bias can impact outcomes and pose a risk to individual rights and liberties.

W dziedzinie sztucznej inteligencji istnieje kilka rodzajów stronniczości (uprzedzeń):

  • Stronniczość obliczeniowa to systematyczny błąd lub odchylenie od prawdziwej wartości prognozy, które wynika z założeń modelu lub samych danych (patrz dane wejściowe).
  • Stronniczość poznawcza odnosi się do niedokładnej indywidualnej oceny lub zniekształconego myślenia, podczas gdy stronniczość społeczna prowadzi do systemowych uprzedzeń, faworyzowania i/lub dyskryminacji na korzyść lub przeciwko jednostce lub grupie.

Stronniczość może wpływać na wyniki i stanowić zagrożenie dla praw i wolności jednostki.

 

Bootstrap aggregating / Agregacją metodą bootstrap

 

A machine learning method that aggregates multiple versions of a model (see machine learning model) trained on random subsets of a data set. This method aims to make a model more stable and accurate.

→ Sometimes referred to as bagging

Metoda uczenia maszynowego, która agreguje wiele wersji modelu (zob. model uczenia maszynowego) wytrenowanych na losowych podzbiorach danych. Metoda ta ma na celu uczynienie modelu bardziej stabilnym i dokładnym.

→ Czasami określana jako bagging

 

Chatbot / Czatbot

 

A form of AI designed to simulate human-like conversations and interactions that uses natural language processing to understand and respond to text or other media.

Because chatbots are often used for customer service and other personal help applications, chatbots often ingest users’ personal information.

Forma sztucznej inteligencji zaprojektowana do symulowania rozmów i interakcji podobnych do ludzkich, która wykorzystuje przetwarzanie języka naturalnego do rozumienia i reagowania na tekst lub inne media.

Ponieważ chatboty są często wykorzystywane do obsługi klienta i innych aplikacji pomocy osobistej, często gromadzą one dane osobowe użytkowników.

 

Classification model (Classifiers) / Model klasyfikacyjny (klasyfikatory)

 

A type of model (see machine learning model) used in machine learning that is designed to take input data and sort it into different categories or classes. Rodzaj modelu (patrz model uczenia maszynowego) wykorzystywany w uczeniu maszynowym, który jest przeznaczony do sortowania na różne kategorie lub klasy danych wejściowych.

 

Clustering (or clustering algorithms) / Klastrowanie (lub algorytmy klastrowania)

 

An unsupervised machine learning method where patterns in the data are identified and evaluated, and data points are grouped accordingly into clusters based on their similarity. Metoda maszynowego uczenia nienadzorowanego, w której wzorce w danych są identyfikowane i oceniane, a próbki danych są odpowiednio grupowane w klastry na podstawie ich podobieństwa.

 

Computer vision / Widzenie komupterowe

 

A field of AI that enables computers to process and analyze images, videos and other visual inputs. Dziedzina sztucznej inteligencji, która umożliwia komputerom przetwarzanie i analizowanie obrazów, filmów i innych danych wizualnych.

 

Conformity assesment / Ocena zgodności

 

An analysis, often performed by a third-party body, on an AI system to determine whether requirements, such as establishing a risk management system, data governance, record-keeping, transparency and cybersecurity practices have been met Analiza, często przeprowadzana przez organ zewnętrzny, dotycząca systemu sztucznej inteligencji w celu ustalenia, czy spełniono wymagania, takie jak ustanowienie systemu zarządzania ryzykiem, zarządzanie danymi, prowadzenie dokumentacji, przejrzystość i praktyki w zakresie cyberbezpieczeństwa

 

Contestability / Możliwość sprzeciwu

 

The principle of ensuring that AI systems and their decision-making processes can be questioned or challenged. This ability to contest or challenge the outcomes, outputs and/or actions of AI systems can help promote transparency and accountability within AI governance.

Zasada zapewnienia możliwości kwestionowania lub podważania systemów sztucznej inteligencji i ich procesów decyzyjnych. Zdolność do kwestionowania lub podważania wyników, rezultatów i/lub działań systemów AI może pomóc w promowaniu przejrzystości i odpowiedzialności w ramach zarządzania AI.

 

Corpus / Korpus

 

A large collection of texts or data that a computer uses to find patterns, make predictions or generate specific outcomes.

The corpus may include structured or unstructured data and cover a specific topic or a variety of topics.

Duży zbiór tekstów lub danych wykorzystywanych do znajdowania wzorców, tworzenia prognoz lub generowania określonych wyników.

Korpus może zawierać ustrukturyzowane lub nieustrukturyzowane dane i obejmować określony temat lub różne tematy

 

Decision tree / Drzewo decyzyjne

 

A type of supervised learning model used in machine learning (see also machine learning model) that represents decisions and their potential consequences in a branching structure. Przykład modelu uczenia nadzorowanego (patrz model uczenia maszynowego), który reprezentuje decyzje i ich potencjalne konsekwencje w strukturze rozgałęzionej/drzewiastej.

 

Deep learning / Uczenie głębokie

 

A subfield of AI and machine learning that uses artificial neural networks. Deep learning is especially useful in fields where raw data needs to be processed, like image recognition, natural language processing and speech recognition. Poddziedzina sztucznej inteligencji i uczenia maszynowego, która wykorzystuje sztuczne sieci neuronowe.

Uczenie głębokie jest szczególnie przydatne w dziedzinach, w których konieczne jest przetwarzanie surowych danych, takich jak rozpoznawanie obrazów, przetwarzanie języka naturalnego i rozpoznawanie mowy.

 

Discriminative model / Model dyskryminatywny

 

A type of model (see also machine learning model) used in machine learning that directly maps input features to class labels and analyzes for patterns that can help distinguish between different classes.

It is often used for text classification tasks, like identifying the language of a piece of text. Examples are traditional neural networks, decision trees and random forest.

Typ modelu (patrz model uczenia maszynowego) wykorzystywany w uczeniu maszynowym, który bezpośrednio mapuje cechy wejściowe na etykiety klas i analizuje wzorce, które mogą pomóc w rozróżnieniu różnych klas.

Jest często używany do zadań klasyfikacji tekstu, takich jak identyfikacja języka fragmentu tekstu. Przykładami są tradycyjne sieci neuronowe, drzewa decyzyjne i lasy losowe.

 

Entropy / Entropia

 

The measure of unpredictability or randomness in a set of data used in machine learning.

A higher entropy signifies greater uncertainty in predicting outcomes.

Miara nieprzewidywalności lub losowości w zestawie danych wykorzystywanych w uczeniu maszynowym.

Wyższa entropia oznacza większą niepewność w przewidywaniu wyników.

 

Expert system / System ekspercki

 

A form of AI that draws inferences from a knowledge base to replicate the decision-making abilities of a human expert within a specific field, like a medical diagnosis. Forma sztucznej inteligencji, która korzysta z reguł i informacji stworzonych przez ekspertów dziedzinowych zapisanych w bazie wiedzy w celu odtworzenia zdolności decyzyjnych ludzkiego eksperta w określonej dziedzinie, takiej jak diagnoza medyczna.

 

Explainability / Wyjaśnialność (XAI)

 

The ability to describe or provide sufficient information about how an AI system generates a specific output or arrives at a decision in a specific context to a predetermined addressee. XAI is important in maintaining transparency and trust in AI.
Zdolność do opisania lub dostarczenia wystarczających informacji o tym, w jaki sposób system sztucznej inteligencji generuje określone dane wyjściowe lub podejmuje decyzję w określonym kontekście dla z góry określonego adresata. XAI jest ważne dla utrzymania przejrzystości i zaufania do sztucznej inteligencji.

 

Exploratory data analysis / Eksploracyjna analiza danych

 

Data discovery process techniques that take place before training a machine learning model in order to gain preliminary insights into a data set, such as identifying patterns, outliers, and anomalies and finding relationships among variables.
Techniki procesu odkrywania danych, które mają miejsce przed uczeniem modelu uczenia maszynowego w celu uzyskania wstępnego wglądu w zestaw danych, takich jak identyfikacja wzorców, wartości odstających i anomalii oraz znajdowanie relacji między zmiennymi.

 

Fairness / Niedyskryminacja

 

An attribute of an AI system that ensures equal and unbiased treatment of individuals or groups in its decisions and actions in a consistent, accurate manner.

It means the AI system’s decisions should not be affected by certain sensitive attributes like race, gender or religion.

Cecha systemu sztucznej inteligencji, która zapewnia równe i bezstronne traktowanie osób lub grup w swoich decyzjach i działaniach w spójny, dokładny sposób.

Oznacza to, że na decyzje systemu sztucznej inteligencji nie powinny mieć wpływu pewne wrażliwe cechy, takie jak rasa, płeć lub religia.

 

Federated learning / Uczenie rozproszone

 

A machine learning method that allows models (see also machine learning model) to be trained on the local data of multiple edge devices or servers.

Only the updates of the local model, not the training data itself, are sent to a central location where they get aggregated into a global model — a process that is iterated until the global model is fully trained.

Metoda uczenia maszynowego, która umożliwia trenowanie modeli (patrz  model uczenia maszynowego) na danych lokalnych wielu urządzeń końcowych lub serwerów.

Tylko aktualizacje modelu lokalnego, a nie same dane szkoleniowe, są wysyłane do centralnej lokalizacji, gdzie są agregowane w model globalny – proces ten jest powtarzany, dopóki model globalny nie zostanie w pełni przeszkolony.

 

Foundation model / Model bazowy

 

A large-scale, pretrained model for AI capabilities, such as language (see also large language model), vision, robotics, reasoning, search or human interaction, that can function as the base for other applications.

The model is trained on extensive and diverse data sets.

Wieloskalowy, wstępnie wytrenowany model dla możliwości sztucznej inteligencji, takich jak język (patrz także duży model językowy), wizja, robotyka, rozumowanie, wyszukiwanie lub interakcja międzyludzka, który może funkcjonować jako baza dla innych aplikacji.

Model jest trenowany na obszernych i zróżnicowanych zestawach danych.

 

Generalization / Uogólnianie

 

The ability of a model (see machine learning model) to understand the underlying patterns and trends in its training data and apply what it has learned to make predictions or decisions about new, unseen data. Zdolność modelu (patrz model uczenia maszynowego) do zrozumienia podstawowych wzorców i trendów w danych szkoleniowych i zastosowania tego, czego się nauczył, do przewidywania lub podejmowania decyzji dotyczących nowych, niewidocznych danych.

 

Generative AI / Generatywna Sztuczna Inteligencja

 

A field of AI that uses machine learning models trained on large data sets to create new content, such as written text, code, images, music, simulations and videos.

These models are capable of generating novel outputs based on input data or user prompts.

Dziedzina sztucznej inteligencji, która wykorzystuje modele uczenia maszynowego wyszkolone na dużych zbiorach danych do tworzenia nowych treści, takich jak tekst pisany, kod, obrazy, muzyka, symulacje i filmy.

Modele te są w stanie generować nowe wyniki w oparciu o dane wejściowe lub podpowiedzi użytkownika.

 

Greedy algorithms / Zachłanne algorytmy

 

A type of algorithm that makes the optimal choice to achieve an immediate objective at a particular step or decision point, based on the available information and without regard for the longer-term optimal solution. Rodzaj algorytmu, który dokonuje optymalnego wyboru na danym etapie lub w danym punkcie decyzyjnym, w celu osiągnięcia natychmiastowego celu, w oparciu jedynie o dostępne informacje i bez względu na długoterminowe optymalne rozwiązanie.

 

Hallucinations / Halucynacje

 

Instances where a generative AI model creates content that either contradicts the source or creates factually incorrect output under the appearance of fact. Przypadki, w których model generatywny sztucznej inteligencji tworzy treści, które są sprzeczne ze źródłem lub tworzą niepoprawne dane wyjściowe pod pozorem faktów.

 

Inference / Predykcja

 

A type of machine learning process where a trained model (see also machine learning model) is used to make predictions or decisions based on input data. Rodzaj procesu uczenia maszynowego, w którym wyszkolony model (patrz także model uczenia maszynowego) jest wykorzystywany do przewidywania lub podejmowania decyzji na podstawie danych wejściowych.

 

Input data / Dane wejściowe

 

Data provided to or directly acquired by a learning algorithm or model (see machine learning model) for the purpose of producing an output.

It forms the basis upon which the machine learning model will learn, make predictions and/or carry out tasks.

Dane dostarczane lub bezpośrednio pozyskiwane przez algorytm lub model uczący się (zob. model uczenia maszynowego) w celu uzyskania danych wyjściowych.

Stanowią one podstawę, na której model będzie się uczył, tworzył prognozy i/lub wykonywał zadania.

 

Large language model / Duży model językowy (LLM)

 

A form of AI that utilizes deep learning algorithms to create models (see also machine learning model) trained on massive text data sets to analyze and learn patterns and relationships among characters, words and phrases.

There are generally two types of LLMs: generative models that make text predictions based on the probabilities of word sequences learned from its training data (see also generative AI) and discriminative models that make classification predictions based on probabilities of data features and weights learned from its training data (see also discriminative model). The term “large” generally refers to the model’s capacity measured by the number of parameters.

Forma sztucznej inteligencji, która wykorzystuje algorytmy głębokiego uczenia do tworzenia modeli (patrz także model uczenia maszynowego) szkolonych na ogromnych zbiorach danych tekstowych w celu analizowania i uczenia się wzorców i relacji między znakami, słowami i frazami.

Zasadniczo istnieją dwa rodzaje LLM: modele generatywne, które przewidują tekst na podstawie prawdopodobieństw sekwencji słów wyuczonych z danych szkoleniowych (patrz także generatywna sztuczna inteligencja) oraz modele dyskryminatywne, które przewidują klasyfikację na podstawie prawdopodobieństw cech danych i wag wyuczonych z danych szkoleniowych (patrz także model dyskryminacyjny). Termin “duży” ogólnie odnosi się do pojemności modelu mierzonej liczbą parametrów.

 

Machine learning / Uczenie maszynowe (ML)

 

A subfield of AI involving algorithms that enable computer systems to iteratively learn from and then make decisions, inferences or predictions based on data (see input data). These algorithms build a model from training data to perform a specific task on new data without being explicitly programmed to do so.

Machine learning implements various algorithms that learn and improve by experience in a problem-solving process that includes data cleansing, feature selection, training, testing and validation.

Companies and government agencies deploy machine learning algorithms for tasks such as fraud detection, recommender systems, customer inquiries, natural language processing, health care, or transport and logistics.

Poddziedzina sztucznej inteligencji obejmująca algorytmy, które umożliwiają systemom komputerowym iteracyjne uczenie się, a następnie podejmowanie decyzji, wnioskowanie lub przewidywanie na podstawie danych (patrz dane wejściowe). Algorytmy te budują model na podstawie danych szkoleniowych, aby wykonać określone zadanie na nowych danych bez konieczności ich wyraźnego zaprogramowania.

Uczenie maszynowe wdraża różne algorytmy, które uczą się i doskonalą dzięki doświadczeniu w procesie rozwiązywania problemów, który obejmuje czyszczenie danych, wybór funkcji, szkolenie, testowanie i walidację.

Firmy i agencje rządowe wdrażają algorytmy uczenia maszynowego do zadań takich jak wykrywanie oszustw, systemy rekomendacji, zapytania klientów, przetwarzanie języka naturalnego, opieka zdrowotna lub transport i logistyka.

 

Machine learning model / Model uczenia maszynowego

 

A learned representation of underlying patterns and relationships in data, created by applying an AI algorithm to a training data set.

The model can then be used to make predictions or perform tasks on new, unseen data.

Wyuczona reprezentacja podstawowych wzorców i relacji w danych, utworzona przez zastosowanie algorytmu sztucznej inteligencji do zestawu danych szkoleniowych.

Model ten można następnie wykorzystać do prognozowania lub wykonywania zadań na nowych, niewidzianych przez model danych.

 

Multimodal models / Modele wielomodalne

 

A type of model used in machine learning (see machine learning model) that can process more than one type of input or output data, or ‘modality,’ at the same time.

For example, a multi-modal model can take both an image and text caption as input and then produce a unimodal output in the form of a score indicating how well the text caption describes the image. T

hese models are highly versatile and useful in a variety of tasks, like image captioning and speech recognition.

Rodzaj modelu używanego w uczeniu maszynowym (patrz model uczenia maszynowego), który może przetwarzać więcej niż jeden typ danych wejściowych lub wyjściowych, lub “modalność”, w tym samym czasie.

Na przykład model wielomodalny może przyjmować zarówno obraz, jak i opis tekstowy jako dane wejściowe, a następnie generować jednomodalne dane wyjściowe w postaci wyniku wskazującego, jak dobrze tekst opisuje obraz.

Modele te są bardzo wszechstronne i przydatne w różnych zadaniach, takich jak opisywanie obrazów i rozpoznawanie mowy.

 

Natural language processing / Przetwarzanie języka naturalnego

 

A subfield of AI that helps computers understand, interpret and manipulate human language by transforming information into content. It enables machines to read text or spoken language, interpret its meaning, measure sentiment, and determine which parts are important for understanding. Poddziedzina sztucznej inteligencji, która pomaga komputerom rozumieć, interpretować i manipulować ludzkim językiem poprzez przekształcanie informacji w treść. Umożliwia maszynom czytanie tekstu lub języka mówionego, interpretowanie jego znaczenia, mierzenie wydźwięku i określanie, które części są ważne dla zrozumienia.

 

Neural networks / Sieci neuronowe

 

A type of model (see  machine learning model) used in machine learning that mimics the way neurons in the brain interact with multiple processing layers, including at least one hidden layer.

This layered approach enables neural networks to model complex nonlinear relationships and patterns within data. Artificial neural networks have a range of applications, such as image recognition and medical diagnosis.

Typ modelu (zob. model uczenia maszynowego) wykorzystywany w uczeniu maszynowym, który naśladuje sposób interakcji neuronów w mózgu z wieloma warstwami przetwarzania, w tym co najmniej jedną warstwą ukrytą.

To warstwowe podejście umożliwia sieciom neuronowym modelowanie złożonych nieliniowych relacji i wzorców w danych. Sztuczne sieci neuronowe mają szereg zastosowań, takich jak rozpoznawanie obrazów i diagnostyka medyczna.

 

Overfitting / Przeuczenie

 

A concept in machine learning in which a model (see machine learning model) becomes too specific to the training data and cannot generalize to unseen data, which means it can fail to make accurate predictions on new data sets. Koncepcja w uczeniu maszynowym, w której model (patrz model uczenia maszynowego) staje się zbyt specyficzny dla danych szkoleniowych i nie może uogólniać się na niewidziane dane, co oznacza, że może nie być w stanie dokonywać dokładnych prognoz na nowych zestawach danych.

 

Oversight / Nadzór

 

The process of effectively monitoring and supervising an AI system to minimize risks, ensure regulatory compliance and uphold responsible practices.

Oversight is important for effective AI governance, and mechanisms may include certification processes, conformity assessments and regulatory authorities responsible for enforcement.

Proces skutecznego monitorowania i nadzorowania systemu sztucznej inteligencji w celu zminimalizowania ryzyka, zapewnienia zgodności z przepisami i utrzymania odpowiedzialnych praktyk.

Nadzór jest ważny dla skutecznego zarządzania sztuczną inteligencją, a mechanizmy mogą obejmować procesy certyfikacji, oceny zgodności i organy regulacyjne odpowiedzialne za egzekwowanie przepisów.

 

Post processing / Przetwarzanie końcowe

 

Steps performed after a machine learning model has been run to adjust the output of that model.

This can include adjusting a model’s outputs and/or using a holdout data set – data not used in the training of the model – to create a function that is run on the model’s predictions to improve fairness or meet business requirements.

Kroki wykonywane po uruchomieniu modelu uczenia maszynowego w celu dostosowania danych wyjściowych tego modelu.

Może to obejmować dostosowanie danych wyjściowych modelu i/lub użycie zestawu danych wstrzymanych – danych niewykorzystanych w szkoleniu modelu – w celu utworzenia funkcji, która jest uruchamiana na prognozach modelu w celu poprawy uczciwości lub spełnienia wymagań biznesowych.

 

Preprocessing / Przetwarzanie wstępne

 

Steps taken to prepare data for a machine learning model, which can include cleaning the data, handling missing values, normalization, feature extraction and encoding categorical variables.

Data preprocessing can play a crucial role in improving data quality, mitigating bias, addressing algorithmic fairness concerns, and enhancing the performance and reliability of machine learning algorithms.

Kroki podejmowane w celu przygotowania danych dla modelu uczenia maszynowego, które mogą obejmować czyszczenie danych, obsługę brakujących wartości, normalizację, ekstrakcję cech i kodowanie zmiennych kategorycznych.

Wstępne przetwarzanie danych może odgrywać kluczową rolę w poprawie jakości danych, łagodzeniu stronniczości, rozwiązywaniu problemów związanych z uczciwością algorytmów oraz zwiększaniu wydajności i niezawodności algorytmów uczenia maszynowego.

 

Random forest / Las losowy

 

A supervised machine learning (see  supervised learning) algorithm that builds multiple decision trees and merges them together to get a more accurate and stable prediction. Each decision tree is built with a random subset of the training data (see also bootstrap aggregating), hence the name “random forest.”

Random forests are helpful to use with data sets that are missing values or very complex.

Algorytm nadzorowanego uczenia maszynowego (zob.  uczenie nadzorowane), który buduje wiele drzew decyzyjnych i łączy je ze sobą, aby uzyskać dokładniejszą i stabilniejszą prognozę. Każde drzewo decyzyjne jest budowane z losowego podzbioru danych treningowych (patrz także agregacja bootstrap), stąd nazwa “las losowy”.

Lasy losowe są pomocne w przypadku zestawów danych, w których brakuje wartości lub które są bardzo złożone.

 

Reinforcement learning / Uczenie ze wzmocnieniem

 

A machine learning method that trains a model to optimize its actions within a given environment to achieve a specific goal, guided by feedback mechanisms of rewards and penalties. This training is often conducted through trial-and-error interactions or simulated experiences that do not require external data.

For example, an algorithm can be trained to earn a high score in a video game by having its efforts evaluated and rated according to success toward the goal.

Metoda uczenia maszynowego, która trenuje model w celu optymalizacji jego działań w danym środowisku, aby osiągnąć określony cel, kierując się mechanizmami sprzężenia zwrotnego nagród i kar. Trening ten jest często przeprowadzany metodą prób i błędów lub symulowanych doświadczeń, które nie wymagają zewnętrznych danych.

Przykładowo, algorytm można wytrenować tak, by osiągał wysokie wyniki w grach wideo, oceniając jego wysiłki na podstawie sukcesów w dążeniu do celu.

 

Reliability / Niezawodność

 

An attribute of an AI system that ensures it behaves as expected and performs its intended function consistently and accurately, even with new data that it has not been trained on. Cecha systemu sztucznej inteligencji, który zapewnia, że zachowuje się on zgodnie z oczekiwaniami i wykonuje swoją zamierzoną funkcję konsekwentnie i dokładnie, nawet z nowymi danymi, na których nie został przeszkolony.

 

Robotics / Robotyka

 

A multidisciplinary field that encompasses the design, construction, operation and programming of robots. Robotics allow AI systems and software to interact with the physical world. Multidyscyplinarna dziedzina obejmująca projektowanie, budowę, obsługę i programowanie robotów. Robotyka umożliwia systemom sztucznej inteligencji i oprogramowaniu interakcję ze światem fizycznym.

 

Robustness / Solidność

 

An attribute of an AI system that ensures a resilient system that maintains its functionality and performs accurately in a variety of environments and circumstances, even when faced with changed inputs or an adversarial attack. Atrybut systemu sztucznej inteligencji, który zapewnia odporność systemu, który zachowuje swoją funkcjonalność i działa dokładnie w różnych środowiskach i okolicznościach, nawet w obliczu zmienionych danych wejściowych lub ataku przeciwnika.

 

Safety / Bezpieczeństwo

 

The development of AI systems that are designed to minimize potential harm to individuals, society, property and the environment.

Rozwój systemów sztucznej inteligencji, które są zaprojektowane tak, aby zminimalizować potencjalne szkody dla osób, społeczeństwa, mienia i środowiska.

 

Supervised learning / Uczenie nadzorowane

 

A subset of machine learning where the model (see also machine learning model) is trained on input data with known desired outputs. These two groups of data are sometimes called predictors and targets, or independent and dependent variables, respectively.

This type of learning is useful for training an AI to group data into specific categories or making predictions by understanding the relationship between two variables.

Podzbiór uczenia maszynowego, w którym model (patrz także model uczenia maszynowego) jest trenowany na danych wejściowych ze znanymi pożądanymi wynikami. Te dwie grupy danych są czasami nazywane odpowiednio predyktorami i celami lub zmiennymi niezależnymi i zależnymi.

Ten rodzaj uczenia jest przydatny do szkolenia sztucznej inteligencji w celu grupowania danych w określone kategorie lub dokonywania prognoz poprzez zrozumienie związku między dwiema zmiennymi.

 

Synthetic data / Dane syntetyczne

 

Data generated by a system or model (see  machine learning model) that can mimic and resemble the structure and statistical properties of real data.

It is often used for testing or training machine learning models, particularly in cases where real-world data is limited, unavailable or too sensitive to use.

Dane generowane przez system lub model (zob. model uczenia maszynowego), które mogą naśladować i przypominać strukturę i właściwości statystyczne rzeczywistych danych.

Są one często wykorzystywane do testowania lub szkolenia modeli uczenia maszynowego, szczególnie w przypadkach, gdy dane rzeczywiste są ograniczone, niedostępne lub zbyt wrażliwe, aby je wykorzystać.

 

Testing data / Dane testowe

 

A subset of the data set used to provide an unbiased evaluation of a final model (see machine learning model).

It is used to test the performance of the machine learning model with new data at the very end of the model development process.

Podzbiór zestawu danych wykorzystywany do zapewnienia bezstronnej oceny ostatecznego modelu (patrz model uczenia maszynowego).

Służy do testowania wydajności modelu uczenia maszynowego z nowymi danymi na samym końcu procesu opracowywania modelu.

 

Training data / Dane treningowe

 

A subset of the data set that is used to train a model (see also machine learning model) until it can accurately predict outcomes, find patterns or identify structures within the training data.

Podzbiór zestawu danych, który jest używany do trenowania modelu (patrz także model uczenia maszynowego), dopóki nie będzie on w stanie dokładnie przewidywać wyników, znajdować wzorców lub identyfikować struktur w danych szkoleniowych.

 

Transfer learning model / Transferowy model uczenia

 

A type of model (see also machine learning model) used in machine learning in which an algorithm learns to perform one task, such as recognizing cats, and then uses that learned knowledge as a basis when learning a different but related task, such as recognizing dogs. Rodzaj modelu (zob. także model uczenia maszynowego) stosowany w uczeniu maszynowym, w którym algorytm uczy się wykonywać jedno zadanie, takie jak rozpoznawanie kotów, a następnie wykorzystuje tę wyuczoną wiedzę jako podstawę podczas uczenia się innego, ale powiązanego zadania, takiego jak rozpoznawanie psów.

 

Transparency / Przejrzystość

 

The extent to which information regarding an AI system is made available to stakeholders, including if one is used and an explanation of how it works.

It implies openness, comprehensibility and accountability in the way AI algorithms function and make decisions.

Zakres, w jakim informacje dotyczące systemu sztucznej inteligencji są udostępniane zainteresowanym stronom, w tym informacje o tym, czy jest on używany i wyjaśnienie jego działania.

Oznacza to otwartość, zrozumiałość i odpowiedzialność w sposobie działania i podejmowania decyzji przez algorytmy sztucznej inteligencji.

 

Trustworthy AI / Wiarygodna sztuczna inteligencja

 

In most cases used interchangeably with the terms responsible AI and ethical AI, which all refer to principle-based AI development and governance (see also AI governance), including the principles of security, safety, transparency, explainability, accountability, privacy, nondiscrimination/nonbias, among others.

W większości przypadków używane zamiennie z terminami odpowiedzialna sztuczna inteligencja i etyczna sztuczna inteligencja, które odnoszą się do rozwoju i zarządzania sztuczną inteligencją w oparciu o zasady (patrz także zarządzanie sztuczną inteligencją), w tym między innymi zasady bezpieczeństwa, przejrzystości, wyjaśnialności, odpowiedzialności, prywatności, niedyskryminacji / braku uprzedzeń.

 

Turing test / Test Turinga

 

A test of a machine’s ability to exhibit intelligent behavior equivalent to, or indistinguishable from, that of a human. Alan Turing (1912-1954) originally thought of the test to be an AI’s ability to converse through a written text. Test zdolności maszyny do wykazywania inteligentnego zachowania równoważnego lub nieodróżnialnego od ludzkiego. Alan Turing (1912-1954) pierwotnie uważał, że testem jest zdolność sztucznej inteligencji do konwersacji za pomocą tekstu pisanego.

 

Underfitting / Niedouczenie

 

A concept in machine learning in which a model (see machine learning model) fails to fully capture the complexity of the training data. This may result in poor predictive ability and/or inaccurate outputs.

Factors leading to underfitting may include too few model parameters or epochs, having too high a regularization rate, or using an inappropriate or insufficient set of features in the training data.

Koncepcja w uczeniu maszynowym, w której model (patrz model uczenia maszynowego) nie jest w stanie w pełni uchwycić złożoności danych szkoleniowych. Może to skutkować słabą zdolnością predykcyjną i/lub niedokładnymi wynikami.

Czynniki prowadzące do niedouczenia mogą obejmować zbyt małą liczbę parametrów modelu lub epok, zbyt wysoki współczynnik regularyzacji lub użycie niewłaściwego lub niewystarczającego zestawu funkcji w danych szkoleniowych.

 

Unsupervised learning / Uczenie nienadzorowane

 

A subset of machine learning where the model is trained by looking for patterns in an unclassified data set with minimal human supervision. The AI is provided with preexisting data sets and then analyzes those data sets for patterns.

This type of learning is useful for training an AI for techniques such as clustering data (outlier detection, etc.) and dimensionality reduction (feature learning, principal component analysis, etc.).

Podzbiór uczenia maszynowego, w którym model jest trenowany poprzez wyszukiwanie wzorców w niesklasyfikowanym zestawie danych przy minimalnym nadzorze człowieka. Sztuczna inteligencja otrzymuje wcześniej istniejące zestawy danych, a następnie analizuje je w poszukiwaniu wzorców.

Ten rodzaj uczenia się jest przydatny do szkolenia sztucznej inteligencji w zakresie technik takich jak grupowanie danych (wykrywanie wartości odstających itp.) i redukcja wymiarowości (uczenie się cech, analiza głównych składowych itp.).

 

Validation data / Dane walidujące

 

A subset of the data set used to assess the performance of the model (see machine learning model) during the training phase.

Validation data is used to fine-tune the parameters of a model and prevent overfitting before the final evaluation using the test data set.

Podzbiór zbioru danych wykorzystywany do oceny wydajności modelu (patrz model uczenia maszynowego) podczas fazy uczenia.

Dane walidujące są wykorzystywane do dostrajania parametrów modelu i zapobiegania nadmiernemu dopasowaniu przed ostateczną oceną przy użyciu zestawu danych testowych.

 

Variables / Zmienne

 

In the context of machine learning, a variable is a measurable attribute, characteristic or unit that can take on different values. Variables can be numerical/quantitative or categorical/qualitative.

W kontekście uczenia maszynowego zmienna jest mierzalnym atrybutem, cechą lub jednostką, która może przyjmować różne wartości. Zmienne mogą być liczbowe/ilościowe lub kategoryczne/jakościowe.

 

Variance / Wariancja

 

A statistical measure that reflects how far a set of numbers are spread out from their average value in a data set. A high variance indicates that the data points are spread widely around the mean. A low variance indicates the data points are close to the mean. In machine learning, higher variance can lead to overfitting.

The trade-off between variance and bias is a fundamental concept in machine learning. Model complexity tends to reduce bias but increase variance. Decreasing complexity reduces variance but increases bias.

Miara statystyczna, która odzwierciedla, jak daleko zestaw liczb jest rozłożony od ich średniej wartości w zestawie danych. Wysoka wariancja wskazuje, że punkty danych są szeroko rozrzucone wokół średniej. Niska wariancja wskazuje, że punkty danych znajdują się blisko średniej. W uczeniu maszynowym wyższa wariancja może prowadzić do nadmiernego dopasowania.

Kompromis między wariancją a stronniczością jest podstawową koncepcją w uczeniu maszynowym. Złożoność modelu ma tendencję do zmniejszania stronniczości, ale zwiększa wariancję. Zmniejszenie złożoności zmniejsza wariancję, ale zwiększa stronniczość modelu.

 

Powyższe tłumaczenie zweryfikował Maciej Biesek – Data Scientist zajmujący się problematyką przetwarzania języka naturalnego, uczenia maszynowego i uczenia głębokiego. Pasjonat rozwoju sztucznej inteligencji, mentor i nauczyciel technik programowania i wykorzystywania uczenia maszynowego do rozwiązywania realnych problemów.

Dziękujemy!

Key Terms for AI Governance produced by the International Association of Privacy Professionals originally appeared in the IAPP Resource Center. It is reprinted with permission.

The translation has not been provided by the IAPP and was published on 20/07/2023.

Skuteczności szkoleń prawnych

Przed ostatnie kilka lat miałem okazję z bliska obserwować dwa systemy kształcenia prawnego: rynkowe szkolenia nieformalne, prowadzone przez ekspertów zajmujących się poszczególnymi tematami (np. prawo budowlane, prawo dla działów zakupów, szkolenia compliance czy AML) oraz zintegrowane szkolenie dla prawników, czyli np. aplikację radcowską prowadzoną przez Izby Radców Prawnych.

Przyglądając się tym dwóm całkowicie różnym systemom kształcenia chciałbym podzielić się swoimi doświadczeniami i podpowiedziami dotyczącymi pomiaru efektywności szkoleń prawnych.

Dlaczego uważam, że to jest ważne?

Szkolenia prawne nieformalne, czyli prowadzone poza systemem uniwersyteckim czy aplikacją zawodową, są jednym z największych fragmentów rynku edukacji B2B w Polsce. 

Prawo zmienia się nieustannie (czy to poprzez nowe akty prawne, czy to przez zmieniającą się interpretację, linię orzeczniczą lub wreszcie – jak np. w przypadku AI – przez zmieniające się warunki stosowania poszczególnych rozwiązań prawnych). Ponadto prawo jest taką dziedziną, którą warto co jakiś czas po prostu przypomnieć, choćby ze względu na rotację pracowników. I wreszcie – konsekwencje wynikające z braku zapewnienia compliance czyli zgodności działania z prawem, regulacjami wewnętrznymi czy etyką bywają po prostu bardzo kosztowne, narażając firmy na kary, nieefektywność działań lub szkody wizerunkowe.

Ze względu na wielopoziomowe skutki niskich kompetencji prawnych w firmach, pomiar efektywności tych szkoleń stanowi duże wyzwanie (oczywiście, jeżeli ktoś ma ochotę tę efektywność mierzyć). Ponadto pomiar skuteczności szkoleń prawnych ma, moim zdaniem, kluczowe znaczenie dla określenia kondycji i skuteczności programu compliance firmy.

Proponuję poniżej 5 wskaźników ilościowych oraz 5 wskaźników jakościowych, które można wziąć pod uwagę podczas pomiaru skuteczności programu zgodności. Zawsze warto zastosować przynajmniej po jednym z każdego typu wskaźników dla oceny jakości szkolenia. Pozwoli to na kompleksową ocenę skuteczności szkolenia prawnego. Połączenie to pozwala na identyfikację obszarów do poprawy a także mocnych stron programu szkoleniowego.

Wskaźniki ilościowe

Wskaźnik ukończenia

Wskaźnik ukończenia, czyli odsetek pracowników, którzy ukończyli szkolenie, to wbrew pozorom nie jest oczywisty wskaźnik. Szczególnie dobrze widać to w przypadku wieloetapowych szkoleń online (elearningowych lub mieszanych). Jest to wskaźnik pokazujący ile osób, spośród tych, które rozpoczęły szkolenie, je ukończyło. To samo zjawisko można zmierzyć stosując wskaźnik porzucenia (dropout rate), czyli badając jaka część uczestników porzuciła szkolenie w trakcie kursu.

prawne

Wysoki wskaźnik ukończenia (lud odpowiednio: niski wskaźnik porzucenia) wskazuje, że szkolenie jest subiektywnie postrzegane jako wartościowe lub/i ważne dla uczestników oraz że są oni zaangażowani / zmotywowani do podnoszenia kwalifikacji.

Z drugiej strony niski wskaźnik ukończenia szkolenia sugeruje, że szkolenie może nie odpowiadać potrzebom lub zainteresowaniom pracowników, może nie być prezentowane przystępnym językiem lub angażującej formie lub też szkolenie jest zbyt trudne merytoryczne.

Szczególnie w przypadku szkoleń dla nie-prawników prowadzonych przez prawników-procesualistów te problemy występują szczególnie często. Przyzwyczajenie do rozmowy wyłącznie „miedzy nami prawnikami”, prowadzonej bardzo specyficznym, często sformalizowanym językiem, powoduje, że często trudno jest im przekazać swoją olbrzymią wiedzę i  doświadczenie uczestnikom szkolenia.

Moim zadaniem jako L&D jest przejście z ekspertem przez szkolenie i podpowiedzenie mu w jaki sposób przedstawić trudne zagadnienie w taki sposób, aby było to jak najefektywniejsze. Takie działanie bardzo poprawia sytuację w przypadku, gdy wskaźnik ukończenia jest niski.

Warto przy tym zwrócić uwagę, że ze względów kulturowych wskaźnik ukończenia przy szkoleniach na żywo (stacjonarnych lub online) jest nieadekwatny: uczestnicy często czują się zobowiązani zostać na szkoleniu, nawet gdy niewiele z niego wynoszą. „Nie wypada” im z niego wyjść. Podejście to też zmienia się wraz z pokoleniem – „Z”tki mają mniejsze opory przed „głosowaniem nogami” gdy szkolenie im nie odpowiada.

Przy kursach e-learningowych lub blended-learningowych najłatwiej jest śledzić ten wskaźnik w systemie typu LMS.

Case study

Firma ubezpieczeniowa zdecydowała się przeprowadzić program szkolenia e-learningowego dotyczącego ochrony danych osobowych i zgodności z przepisami dotyczącymi prywatności dla swoich agentów. Program obejmujący wykłady e-learningowe, mikrotesty, handouty oraz case’y zajmował łącznie 9 godzin roboczych. Dostęp do szkolenia przydzielono na 30 dni 400 pracownikom i monitorowano wskaźnik ukończenia w czasie. Po zakończeniu programu szkoleniowego okazało się, że

  • 18% pracowników ukończyło całe szkolenie w pierwszym tygodniu;
  • dalsze 60% pracowników ukończyło szkolenie w drugim tygodniu, realizując je z mniejszą intensywnością niż pierwsza grupa;
  • dalsze 10% pracowników ukończyło szkolenie dopiero w czwartym tygodniu, wyraźnie starając się zmieścić w czasie.

Szkolenia nie ukończyło 8% pracowników spośród tych, którzy je rozpoczęli (4% w ogóle nie rozpoczęło kursu).

Analiza wyników wykazała, że wysoki wskaźnik ukończenia był związany z krótkimi materiałami szkoleniowymi (tzw. pigułkami wiedzy), interaktywnymi ćwiczeniami i odpowiednim czasem przeznaczonym na szkolenie. Uczestnikom nie była w żadnym momencie podana informacja o negatywnych konsekwencjach nieukończenia szkolenia, jednak doświadczenia wskazują, że wizja egzekucji wpłynęłaby na te 4%, które w ogóle nie przystąpiło do procesu rozwojowego, w niewielkim zaś stopniu oddziaływałaby na 8% „uciekinierów”.

Wskaźnik utrzymania wiedzy

Wskaźnik utrzymania (retencji) wiedzy to odsetek pracowników, którzy są w stanie przypomnieć sobie i zastosować materiał szkoleniowy po pewnym czasie. Wskaźnik ten pomaga określić długoterminową skuteczność programu szkoleniowego.

Jeśli wskaźnik retencji jest wysoki, sugeruje to, że szkolenie skutecznie przekazuje i wzmacnia kluczowe koncepcje, natomiast szczegóły wciąż mogą „umykać”.

Jeśli wskaźnik retencji jest niski, może to wskazywać, że materiał szkoleniowy (nie koniecznie samo szkolenie) nie jest wystarczająco użyteczny lub że format wymaga zmiany w celu poprawy retencji.

Poprawa wskaźnika retencji jest możliwa na wiele sposobów, z czego jeden jest szczególnie skuteczny – wykorzystanie pracowników, którzy ukończyli szkolenie do dzielenia się wiedzą ze współpracownikami (poprowadzenie szkolenia wewnętrznego lub chociaż dłuższa prezentacja podczas spotkania wewnętrznego).

Konfucjusz powiedział „„Powiedz mi, a zapomnę, pokaż mi, a zapamiętam, pozwól mi zrobić, a zrozumiem.”  Owo „zrobić” to nie tylko zastosowanie wiedzy w praktyce, to także przekazanie wiedzy dalej. Każdy, kto kiedykolwiek udzielał korepetycji świetnie wie o co chodzi, prawda?

Jak mierzyć?

  • Najprościej – udostępnij quiz z wymaganym poziomem zdawalności 70% w ramach kursu, choć nie koniecznie od razu po jego zakończeniu. Zadbaj o motywację do jego wypełnienia (np. uzależnij przekazanie certyfikatu od ukończenia quizu).

Moim zdaniem najlepiej jest udostępnić quiz tydzień lub dwa po szkoleniu: wówczas rzeczywiście zmierzymy jaka część kompetencji „została”, a jaka ulotniła się wraz z emocjami wywołanymi przez szkolenie. Stosunkowo wysoki wymagany próg zdawalności powoduje, że uczestnicy przed jego wykonaniem odświeżą i poukładają sobie wiedzę, co – przy drugim podejściu po samym szkoleniu – także wzmocni efekt uczenia się.

Case study

Firma logistyczna skierowała 5 swoich logistyków na szkolenie dotyczące przepisów Incoterms. Tydzień po zakończeniu szkolenia przeprowadzono quiz, który wymagał opanowania materiału na poziomie 80% lub lepszym – w jego wyniku 4 osoby od razu uzyskała certyfikat, zaś jedna musiała przystąpić do egzaminu ponownie. Na razie zatem retencja wiedzy – 100%. Po upływie kolejnych trzech miesięcy od szkolenia dział HR przeprowadził krótką ankietę wśród uczestników szkolenia, aby sprawdzić, jak dobrze pamiętają i stosują zdobytą wiedzę. Ankieta składała się z krótkiego opisu stanu faktycznego, do którego zadano 4 pytania typu „jak byś się zachował?”. Okazało się, że 3 pracowników osiągnęło wymagany poziom opanowania w teście (75% poprawnych odpowiedzi) będąc w stanie skutecznie przypomnieć sobie i zastosować materiał ze szkolenia w codziennej pracy. Ciekawostką było to, że osoba która musiała dwukrotnie podjeść do egzaminu po szkoleniu miała najlepsze wyniki z ankiecie po 3 miesiącach.

Takie wyniki wskazują, że szkolenie zapewniło zadowalający poziom retencji wiedzy, choć istniało pole do poprawy. Jak poprawić retencję wiedzy? – odsyłam do artykułu „Jaki jest cel zarządzania wiedzą w organizacji biznesowej?

Poprawa wydajności

Poprawa wydajności mierzy, w jaki sposób szkolenie wpłynęło na codzienną pracę uczestników lub całego działu lub organizacji. To jest tak naprawdę ów „święty graal” szkolenia – próba odpowiedzi na pytanie czy szkolenia przyniosło pożądaną zmianę w firmie, nie tylko u pracownika.

Można to ustalić na podstawie ocen przed i po szkoleniu, a także na podstawie informacji zwrotnych od menedżerów lub innych pracowników. Jeśli szkolenie doprowadziło do wymiernej poprawy wydajności, takiej jak zwiększona efektywność, zmniejszenie liczby błędów lub poprawa zadowolenia klientów, jest to dobry znak, że szkolenie było skuteczne.

Problemem są oczywiście w zobiektywizowane wskaźniki. Niekiedy można je dość prosto ustalić (np. procent postępowań reklamacyjnych zgłoszonych przed klientów do organów kontrolnych lub do sądu, które się „ostały”, czyli których poprawność została potwierdzona przez niezależny organ). Czasem poziom kompetencji prawnych przekłada się na większy spokój i pewność tego, co się robi, co jest słabo mierzalne, ale bardzo wyraźnie wyczuwalne. Jest też jeszcze ważny, choć rzadko eksponowany czynnik – szkolenia prawne budują wewnętrzny wizerunek firmy wśród pracowników jako firmy dbającej o compliance, w tym zgodność z prawem, dobrymi obyczajami a także etyką, mimo, że szkolenia tego bezpośrednio nie dotyczą. Buduje się trwałe skojarzenie: firma dba o znajomość prawa – firma stara się działać zgodnie z prawem – firma stara się działać etycznie – pracuję w firmie działającej etycznie i zgodnie z prawem. A taki wizerunek jest nie do przecenienia.

Jak mierzyć

  • Przeprowadź badanie wskaźników charakterystycznych dla zagadnienia, wynikających z Twojej oceny problemu, przed szkoleniem oraz 6 miesięcy po szkoleniu
  • Przeprowadź ankietę wśród kierowników zespołów, HR i liderów działów prawnych

Case study

Pewna kancelaria prawna zdecydowała się przeprowadzić szkolenie z negocjacji dla swoich prawników. Przed szkoleniem zbadano 6ciomesięczną efektywność prowadzonych przez nich negocjacji i porównano je z wynikami negocjacji z okresu 6 miesięcy po szkoleniu, dbając o porównywalność spraw.

Dodatkowo, po zakończeniu szkolenia poproszono szefów praktyk o ocenę wydajności prawników po szkoleniu. Okazało się, że skuteczność prawników, którzy ukończyli szkolenie, była znacznie wyższa od umiejętności negocjacyjnych pozostałych pracowników, co było widoczne w takich wskaźnikach jak np. liczba sporów rozwiązanych na etapie przedsądowym.

Zwrot z inwestycji

Zwrot z inwestycji (ROI) to wskaźnik finansowy, który pomaga określić, czy koszt szkolenia jest uzasadniony korzyściami, jakie zapewnia. ROI można mierzyć na różne sposoby, w tym zwiększone przychody, zmniejszone koszty lub lepszą retencję pracowników. Dodatni ROI wskazuje, że szkolenie jest opłacalną inwestycją, podczas gdy ujemny ROI sugeruje, że szkolenie wymaga ponownej oceny lub modyfikacji.

Jak mierzyć

  • Z góry określ cele szkolenia z zakresu prawa.
  • Śledzenie kosztów programu szkoleniowego.
  • Zmierz wpływ programu szkoleniowego poprzez ocenę, ankietę lub utratę przychodów na wydatki związane z nieprzestrzeganiem przepisów.
  • Oblicz ROI za pomocą poniższego wzoru: ROI = (zysk z inwestycji – koszt inwestycji) / koszt inwestycji.

Case study

Firma prawnicza ABC zdecydowała się przeprowadzić szkolenie z obsługi klienta dla swoich prawników, aby poprawić jakość obsługi klienta i zwiększyć zadowolenie klientów. Przed szkoleniem firma określiła cele, takie jak zwiększenie liczby pozytywnych opinii klientów i zmniejszenie reklamacji. Po zakończeniu szkolenia firma zbierała dane dotyczące liczby pozytywnych opinii klientów, reklamacji i innych mierników satysfakcji klientów.

Następnie obliczono ROI, porównując uzyskane korzyści finansowe (np. wzrost przychodów, zmniejszenie kosztów reklamacji) do kosztów inwestycji w szkolenie. Dodatni ROI wskazywał na to, że szkolenie przyniosło firmie wymierne korzyści finansowe.

Zadowolenie pracowników

Zadowolenie pracowników mierzy, jak personel postrzega program szkoleniowy. Można to ustalić za pomocą ankiet, grup fokusowych lub wywiadów indywidualnych. Jeśli pracownicy uznają szkolenie za angażujące, pouczające i istotne, jest bardziej prawdopodobne, że docenią i zastosują zdobyte umiejętności i wiedzę. Jeśli pracownicy są niezadowoleni ze szkolenia, może być konieczne zrewidowanie treści, formatu lub metody dostarczania, aby lepiej zaspokoić ich potrzeby. Nasza zdolność do integracji formularzy i ankiet z naszymi usługami szkoleniowymi umożliwiła naszym klientom obsługę swoich pracowników i dostawców!

Jak mierzyć

  • Tu narzędzi jest mnóstwo, jednak najczęściej stosuje się ankietę wśród wszystkich pracowników

Case study

Firma energetyczna przeprowadziła ankietę wśród swoich pracowników działów prawnych, biura zarządu, compliance i innych zajmujących się tematyką prawną (a w tego typu spółkach to niemal połowa firmy) dotyczącą programu szkoleń prawnych, które oferuje swoim pracownikom. Ankietę zaprojektowano w taki sposób, aby ocenić, jak pracownicy postrzegają jakość i użyteczność szkoleń. Zadano pytania dotyczące angażującego sposobu dostarczania materiałów, zrozumiałości treści szkoleniowych oraz przydatności zdobytej wiedzy w codziennej pracy. Wyniki ankiety wykazały, że 80% pracowników było zadowolonych z programu szkoleń, co sugeruje, że szkolenia były (subiektywnie) wartościowe, a zdobyte umiejętności były praktyczne i stosowalne w pracy.

Podejście jakościowe

Testy i egzaminy

Jednym z najbardziej tradycyjnych sposobów pomiaru skuteczności szkoleń jest przeprowadzenie testów kompetencyjnych in/out lub egzaminów. Można przygotować pytania, które sprawdzą wiedzę uczestników na temat zagadnień prawnych, procedur lub przepisów. Testy i egzaminy umożliwiają jednoznaczne ocenienie stopnia przyswojenia wiedzy i zrozumienia mechanizmów, które są kluczowe w danej dziedzinie prawa.

Niezależna certyfikacja, czyli potwierdzenie kwalifikacji przez zewnętrzny egzamin, ma pozytywny wpływ zarówno na obiektywną, jak i subiektywną ocenę wartości szkolenia. Dlaczego?

  1. Obiektywna ocena wartości
    Niezależna certyfikacja może dostarczyć obiektywny sposób mierzenia i porównywania umiejętności i wiedzy uczestników szkolenia. Egzamin, który jest opracowany przez niezależne ciało certyfikujące lub instytucję, zapewnia standardy, których trzeba się trzymać. To daje pewność, że uczestnicy muszą wykazać się określonym poziomem kompetencji, aby uzyskać certyfikat. Obiektywna ocena wartości szkolenia opiera się na faktycznych wynikach uczestników na egzaminie, co może być istotnym wskaźnikiem dla pracodawców lub innych zainteresowanych stron.
  2. Wiarygodność
    Certyfikat dodaje wiarygodności samemu szkoleniu. Potwierdzenie kwalifikacji przez zewnętrzną instytucję certyfikującą może świadczyć o wysokim standardzie szkolenia i potwierdzać, że uczestnicy posiadają określone umiejętności i wiedzę. To może przekonać pracodawców, klientów lub innych interesariuszy, że szkolenie było wartościowe i uczestnicy mają rzeczywiste umiejętności.
  3. Porównywalność
    Dzięki niezależnej certyfikacji można porównywać umiejętności i kwalifikacje uczestników szkolenia. Jeśli różni uczestnicy zdobyli ten sam certyfikat, oznacza to, że musieli wykazać się podobnym poziomem wiedzy i umiejętności. To ułatwia pracodawcom lub innym zainteresowanym stronom dokonanie porównań między różnymi kandydatami lub pracownikami, a także ocenę, czy dany kandydat spełnia wymagania danej funkcji.
  4. Motywacja uczestników
    Możliwość zdobycia niezależnego certyfikatu może stanowić motywację dla uczestników szkolenia. Wiedząc, że istnieje możliwość potwierdzenia swoich umiejętności poprzez zewnętrzny egzamin, uczestnicy mogą być bardziej zaangażowani i skoncentrowani na nauce. To może prowadzić do lepszych wyników i większego zaangażowania w proces szkoleniowy.

Niezależna certyfikacja ma zdecydowanie pozytywny wpływ na ocenę wartości szkolenia, zarówno obiektywnie, jak i subiektywnie. Dostarcza ona mierzalne wskaźniki kompetencji i wiarygodności, co może pomóc w ocenie wartości szkolenia przez różne zainteresowane strony. Jednak certyfikacja w skrajnych może rozleniwiać dostawców szkoleń. Przykładem może być tu właśnie aplikacja prawnicza kończąca się egzaminem zawodowym. Izby starają się dostarczać kursy jak najwyższej jakości, ale motywacja uczestników do samego udziału w aplikacji jak i do nauki wynika z wizji trudnego egzaminu państwowego, od którego zależy ich przyszłość zawodowa.

Analiza case study

Wykorzystanie case study to skuteczny sposób oceny praktycznego zastosowania wiedzy prawnej. Można poprosić uczestników szkolenia o rozwiązanie rzeczywistych przypadków lub sytuacji, w których muszą zastosować zdobytą wiedzę w praktyce. Analiza case study pozwala na mierzenie umiejętności praktycznego myślenia i rozwiązywania problemów, które są ważne w dziedzinie prawa.

Właśnie w formie case study (lub bardziej po polsku – kazusów) prowadzone są egzaminy prawnicze. W dużym uproszczeniu – na podstawie podanego stanu faktycznego należy zadziałać jak prawnik, angażując wszystkie swoje kwalifikacje – zarówno wiedzę, jak umiejętność jej zastosowania, kompetencje językowe, umiejętność opanowania emocji, zarządzanie czasem… Wadą takiego systemu weryfikacji wiedzy jest pracochłonność procesu walidacji (sprawdzenia kwalifikacji), jednak ta metoda jest moim zdaniem najdoskonalsza. Stosuje się ją zresztą w wielu innych wypadkach, jak np. przy egzaminach certyfikowanych przez Stowarzyszenie Compliance Polska z zakresu compliance i AML.

Oceny prowadzącego

Bezpośrednie opinie od uczestników szkoleń na temat prowadzącego są również ważne dla oceny jakości szkoleń. 
Po zakończeniu szkolenia najczęściej poprosi się uczestników o wypełnienie ankiety oceniającej prowadzącego. Pytania mogą dotyczyć kompetencji prowadzącego, jego zdolności do przekazania wiedzy, zrozumiałości prezentacji i interakcji z uczestnikami.

Warto taką ocenę zrobić po szkoleniu, a nie na jego zakończenie – wówczas ankieta staje się realnym narzędziem oceny, a nie plebiscytem popularności eksperta.

Obserwacja zastosowania w praktyce

Innym sposobem oceny skuteczności szkoleń z tematyki prawo jest obserwacja praktycznej aplikacji zdobytej wiedzy. Można poprosić uczestników o przedstawienie przykładów lub symulacje praktycznych sytuacji, w których muszą wykorzystać zdobytą wiedzę. Obserwacja praktycznej aplikacji wiedzy umożliwia ocenę umiejętności uczestników w realnym środowisku pracy.

Analiza wskaźników biznesowych

W przypadku szkoleń prawnych istnieją również wskaźniki biznesowe, które mogą być użyteczne do pomiaru skuteczności. Na przykład, można zbadać:

  • czy zmniejszyła się liczba naruszeń prawnych w organizacji?
  • czy poprawiła się efektywność działu reklamacji?
  • czy ograniczyły się koszty związane z naruszeniami prawnymi?

Analiza takich wskaźników może wskazywać na skuteczność szkoleń i ich wpływ na organizację. Oczywiście dobór wskaźników oznacza, że wcześniej (przed szkoleniem) statystyki też były prowadzone, a nie jest to standard.

Podsumowanie

Mierzenie skuteczności programów szkoleń prawnych wymaga połączenia wskaźników jakościowych i ilościowych. Ilościowe robią wszyscy – jakościowe mało kto.

Przyczyny są przynajmniej dwie – jedna oczywista, druga mniej.

  • Pierwszą jest koszt, a w zasadzie brak powszechnego przekonania, że badanie skuteczności szkolenia jest na tyle ważne, że warto za nie zapłacić. Skoro klienci szkoleń mają tu podejście „za darmo to uczciwa cena” to trudno się dziwić firmom szkoleniowym, że robią niezbędne minimum, czyli przede wszystkim badanie ankietowe zadowolenia uczestników.
  • Druga – organizacje kierujące pracowników na szkolenia rzadko stosują jakościowe narzędzia badania efektywności pracy pracowników zajmujących się prawem. Uważa się, że to taka tajemna, nieuchwytna dziedzina, której nie godzi się badać nam, maluczkim (w sensie – nie prawnikom). Podobnie jak kiedyś było z medycyną, prawda?

Śledzenie wskaźników ukończenia, utrzymania wiedzy, poprawy wydajności, zwrotu z inwestycji i zadowolenia pracowników pozwala dostawcom szkoleń prawnych identyfikować obszary wymagające poprawy i upewnić się, że ich programy szkoleniowe spełniają potrzeby zarówno pracowników, jak i ich klientów (choćby wewnętrznych).

Początek trilogu o AIA

W połowie czerwca 2023. Parlament Europejski zatwierdził swój mandat negocjacyjny („Stanowisko PE”) w sprawie wniosku UE dotyczącego rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (“Akt o sztucznej inteligencji” czyli “AIA”). Głosowanie w PE oznacza, że instytucje UE mogą teraz rozpocząć negocjacje trójstronne (Rada zatwierdziła swój mandat negocjacyjny w grudniu 2022 r.). Ostateczna wersja AI Act spodziewana jest przed końcem 2023 roku.

Wydanie stanowiska Parlamentu Europejskiego rozpoczyna trilog.

Trilog to etap uzgodnieniowy, w którym Parlament, Rada i Komisja Europejska podejmują negocjacje w celu osiągnięcia porozumienia w sprawie treści końcowego aktu prawodawczego (w tym wypadku Artificial Intelligence Act – AIA). Negocjacje odbywają się na podstawie stanowiska Parlamentu oraz opinii i sugestii Rady. Podczas trilogu przedstawiciele Parlamentu, Rady i Komisji będą spotykać się, aby omówić różnice i próbować znaleźć kompromisowe rozwiązania.

Po zakończeniu trilogu, jeśli Parlament, Rada i Komisja osiągną porozumienie, następuje procedura formalna, w której stanowisko Parlamentu i Rady zostaje poddane ostatecznej procedurze przyjęcia. W przypadku przyjęcia aktu prawodawczego przez obie instytucje, staje się on prawnie wiążący dla państw członkowskich i jest implementowany w prawodawstwie krajowym.

W sprawie AIA, Parlament Europejski zaproponował szereg istotnych poprawek do pierwotnego tekstu Komisji, który pochodzi z 2021 roku.

Poniżej przedstawiamy niektóre z kluczowych zmian wprowadzonych przez PE:

Zmiany w kluczowych definicjach

PE wprowadził szereg istotnych zmian w definicjach stosowanych w ustawie o sztucznej inteligencji (art. 3). Zgodnie ze stanowiskiem PE:

  • Definicja „systemu AI” została dostosowana do definicji systemu AI OECD. System sztucznej inteligencji jest teraz definiowany jako „system oparty na maszynach, który jest zaprojektowany do działania na różnych poziomach autonomii i który może, w celach jawnych lub ukrytych, generować dane wyjściowe, takie jak prognozy, zalecenia lub decyzje, które wpływają na środowisko fizyczne lub wirtualne”.
  • Użytkownicy systemów AI są teraz nazywani „podmiotami wdrażającymi”.

Tekst PE zawiera ponadto szereg nowych definicji, w tym:

  • „Osoby dotknięte”, czyli „każda osoba fizyczna lub grupa osób, które podlegają systemowi AI lub na które system AI ma inny wpływ”.
  • „Model podstawowy”, który oznacza „model sztucznej inteligencji, który jest szkolony na szerokich danych na dużą skalę, jest zaprojektowany pod kątem ogólności wyników i może być dostosowany do szerokiego zakresu charakterystycznych zadań”. Dostawcy modeli podstawowych podlegają obecnie szeregowi szczegółowych obowiązków wynikających z ustawy o sztucznej inteligencji.
  • „System sztucznej inteligencji ogólnego przeznaczenia”, który jest „systemem sztucznej inteligencji, który może być używany i dostosowywany do szerokiego zakresu zastosowań, dla których nie został celowo i specjalnie zaprojektowany”.

Ogólne zasady mające zastosowanie do systemów AI

Stanowisko PE ustanawia zestaw sześciu podstawowych zasad, które mają zastosowanie do wszystkich systemów sztucznej inteligencji regulowanych przez AIA. Zasady te to:

  • ludzka odpowiedzialność i nadzór;
  • odporność techniczna i bezpieczeństwo;
  • prywatność i zarządzanie danymi;
  • przejrzystość;
  • różnorodność, niedyskryminacja i sprawiedliwość; oraz
  • dobrostan społeczny i środowiskowy.

Klasyfikacja systemów AI

PE zaproponował istotne zmiany w wykazie zakazanych praktyk/systemów AI.

Nowe zakazy obejmują: (1) biometryczne systemy kategoryzacji, które kategoryzują osoby fizyczne zgodnie z wrażliwymi lub chronionymi atrybutami lub cechami lub w oparciu o wnioskowanie o tych atrybutach lub cechach; oraz (2) systemy AI, które tworzą lub rozszerzają bazy danych rozpoznawania twarzy poprzez nieukierunkowane pobieranie obrazów twarzy z Internetu lub nagrań CCTV.

Ponadto Parlament Europejski rozszerzył listę systemów i aplikacji AI, które należy uznać za obarczone wysokim ryzykiem. Lista systemów wysokiego ryzyka w stanowisku PE obejmuje na przykład niektóre systemy sztucznej inteligencji wykorzystywane przez duże platformy mediów społecznościowych do rekomendowania treści użytkownikom.

Zgodnie z zasadami zaproponowanymi przez PE, dostawcy niektórych systemów AI mogą obalić domniemanie, że system powinien być uznany za system AI wysokiego ryzyka. Wymagałoby to złożenia zawiadomienia do organu nadzorczego lub urzędu ds. sztucznej inteligencji (tego ostatniego, jeśli system sztucznej inteligencji ma być używany w więcej niż jednym państwie członkowskim), które dokonają przeglądu i odpowiedzą w ciągu trzech miesięcy, aby wyjaśnić, czy uważają system sztucznej inteligencji za obarczony wysokim ryzykiem.

Stanowisko PE nakłada ponadto szczególne wymogi na generatywne systemy sztucznej inteligencji (jak na przykład popularny ChatGPT), takie jak obowiązek ujawnienia, że treści zostały wygenerowane przez sztuczną inteligencję, zaprojektowanie systemu sztucznej inteligencji w sposób uniemożliwiający generowanie nielegalnych treści oraz publikowanie podsumowań danych chronionych prawem autorskim wykorzystywanych do szkolenia.

Korekty obowiązków w kontekście systemów AI wysokiego ryzyka

PE wprowadza również znaczące zmiany w obowiązkach dostawców systemów sztucznej inteligencji wysokiego ryzyka, wymagając od nich np:

  • Zapewnienia, że osoby fizyczne odpowiedzialne za ludzki nadzór nad systemami AI wysokiego ryzyka są w szczególności świadome ryzyka automatyzacji lub tendencyjności systemowych potwierdzeń.
  • Dostarczania specyfikacji danych wejściowych lub wszelkich innych istotnych informacji w zakresie wykorzystywanych zbiorów danych, w tym ich ograniczeń i założeń, z uwzględnieniem zamierzonego celu oraz przewidywalnego i racjonalnie przewidywalnego niewłaściwego użycia systemu AI.
  • Upewnienie się, że system sztucznej inteligencji wysokiego ryzyka spełnia wymogi dostępności.

Ponadto obowiązki podmiotów wdrażających systemy sztucznej inteligencji wysokiego ryzyka zostały znacznie rozszerzone i obecnie obejmują:

  • W przypadku niektórych systemów AI – informowanie osób fizycznych o tym, że podlegają one korzystaniu z systemów AI wysokiego ryzyka oraz że mają prawo do uzyskania wyjaśnień na temat wyników działania systemu.
  • Przed oddaniem do użytku lub użyciem systemu sztucznej inteligencji wysokiego ryzyka w miejscu pracy podmioty wdrażające konsultują się z przedstawicielami pracowników i informują pracowników, że będą podlegać systemowi.
  • Przeprowadzić ocenę wpływu na prawa podstawowe (patrz poniżej).

Obowiązek przeprowadzenia oceny skutków w zakresie praw podstawowych.

Jak wspomniano powyżej, przed użyciem systemu sztucznej inteligencji wysokiego ryzyka niektóre podmioty wdrażające będą zobowiązane do przeprowadzenia oceny wpływu na prawa podstawowe. Ocena ta powinna obejmować co najmniej następujące elementy:

  • jasny zarys celu, w którym system będzie używany;
  • jasny zarys zamierzonego zakresu geograficznego i czasowego korzystania z systemu;
  • kategorie osób fizycznych i grup, na które może mieć wpływ korzystanie z systemu;
  • weryfikację, czy korzystanie z systemu jest zgodne z odpowiednimi przepisami unijnymi i krajowymi dotyczącymi praw podstawowych;
  • racjonalnie przewidywalny wpływ korzystania z systemu sztucznej inteligencji wysokiego ryzyka na prawa podstawowe;
  • szczególne ryzyko szkody, które może mieć wpływ na osoby zmarginalizowane lub grupy szczególnie wrażliwe;
  • racjonalnie przewidywalny negatywny wpływ korzystania z systemu na środowisko;
  • szczegółowy plan, w jaki sposób zidentyfikowane szkody i negatywny wpływ na prawa podstawowe zostaną złagodzone; oraz
  • system zarządzania, który wdroży podmiot wdrażający, w tym nadzór nad ludźmi, rozpatrywanie skarg i dochodzenie roszczeń.

W procesie przygotowywania oceny skutków w zakresie praw podstawowych od podmiotów wdrażających może być wymagane nawiązanie współpracy z organami nadzorczymi i zewnętrznymi zainteresowanymi stronami, takimi jak agencje ochrony konsumentów i agencje ochrony danych.

Wyłączenie niektórych nieuczciwych warunków umownych w umowach AI z MŚP lub startupami

Stanowisko PE wprowadza nowy przepis ograniczający prawo kontrahenta do jednostronnego narzucania pewnych warunków umownych związanych z dostawą narzędzi, usług, komponentów lub procesów, które są wykorzystywane lub zintegrowane z systemem sztucznej inteligencji wysokiego ryzyka, lub środków zaradczych w przypadku naruszenia lub rozwiązania zobowiązań związanych z tymi systemami w umowach z MŚP lub startupami.

Przykłady niedozwolonych postanowień obejmują warunki umowne, które:

  • wyłączają lub ograniczają odpowiedzialność strony, która jednostronnie narzuciła warunek, za działania umyślne lub rażące niedbalstwo;
  • wyłączają środki zaradcze przysługujące stronie, na którą jednostronnie narzucono warunek, w przypadku niewykonania zobowiązań umownych lub odpowiedzialności strony, która jednostronnie narzuciła warunek, w przypadku naruszenia tych zobowiązań; oraz
  • przyznają stronie, która jednostronnie narzuciła warunek, wyłączne prawo do ustalenia, czy dostarczona dokumentacja techniczna i informacje są zgodne z umową lub do interpretacji jakiegokolwiek warunku umowy.

Środki wspierające innowacje

Rozdział V projektu AIA, który zawiera środki wspierające innowacje (w tym tzw. sandboxy dotyczące regulacji AI), został w stanowisku PE rozszerzony i wyjaśniony. Jeden z nowych przepisów wymaga od państw członkowskich UE promowania badań i rozwoju rozwiązań AI, które wspierają wyniki korzystne społecznie i środowiskowo, takie jak

  • rozwiązania zwiększające dostępność dla osób niepełnosprawnych;
  • zwalczanie nierówności społeczno-ekonomicznych oraz
  • osiąganie celów w zakresie zrównoważonego rozwoju i ochrony środowiska.

Grzywny

Stanowisko PE znacząco zmienia grzywny, które mogą być nakładane na mocy ustawy o sztucznej inteligencji. PE proponuje, aby:

  • Nieprzestrzeganie przepisów dotyczących zakazanych praktyk związanych z AI podlegało karom administracyjnym wysokości do 40 000 000 EUR lub, jeżeli sprawca jest przedsiębiorstwem, w wysokości do 7% jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
  • Nieprzestrzeganie zasad określonych w art. 10 (dane i zarządzanie danymi) i art. 13 (przejrzystość i dostarczanie informacji użytkownikom) podlegało karze administracyjnej wysokości do 20 000 000 EUR lub, jeżeli sprawcą jest spółka, do 4% jej całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
  • Nieprzestrzeganie innych wymogów i obowiązków wynikających z ustawy o sztucznej inteligencji podlegało administracyjnej karze pieniężnej wysokości do 10 000 000 EUR lub, jeżeli sprawcą jest spółka, do 2% jej całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
  • Dostarczenie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym i właściwym organom krajowym w odpowiedzi na wniosek podlegało administracyjnej karze pieniężnej do 5 000 000 EUR lub, jeżeli sprawcą jest spółka, do 1% jej całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.

Należy również zauważyć, że w stanowisku PE proponuje się, aby kary (w tym grzywny) wynikające z ustawy o sztucznej inteligencji, a także związane z nimi koszty postępowania sądowego i roszczenia odszkodowawcze, nie mogły podlegać klauzulom umownym ani innym formom umów o podziale obciążeń między dostawcami a dystrybutorami, importerami, podmiotami wdrażającymi lub innymi stronami trzecimi.

Wzmocnione środki ochrony prawnej

W AIA wprowadzono nowy rozdział dotyczący środków zaradczych dostępnych dla osób poszkodowanych w obliczu potencjalnych naruszeń zasad wynikających z ustawy o sztucznej inteligencji. Szczególnie istotne jest wprowadzenie podobnego do RODO prawa do złożenia skargi do organu nadzorczego.

Światowe organy nadzoru badają ChatGPT

Europejska Rada Ochrony Danych powołała grupę roboczą ds. ChatGPT w celu monitorowania i zbadania kwestii jego zgodności z unijnymi regulacjami dotyczącymi ochrony danych osobowych przy m.in. generowaniu tekstów i rozmów z ludźmi.

Głównym celem grupy ds. ChatGPT jest opracowanie wytycznych dotyczących ochrony danych osobowych w związku z wykorzystaniem systemów sztucznej inteligencji do generowania tekstów i rozmów. Grupa będzie badać różne aspekty związane z ochroną danych, takie jak przetwarzanie danych osobowych, prawa użytkowników, bezpieczeństwo i odpowiedzialność za szkody wynikające z wykorzystania ChatGPT.

W skład grupy ds. ChatGPT wchodzą eksperci ds. ochrony danych osobowych, przedstawiciele różnych organów nadzorczych oraz innych zainteresowanych stron. Grupa ta będzie działać we współpracy z innymi organami i grupami roboczymi Europejskiej Rady Ochrony Danych Unii Europejskiej aby zapewnić koordynację działań i osiągnięcie celów wyznaczonych przez Radę.

Zagrożenia związane z wykorzystaniem ChatGPT do generowania tekstów i rozmów zostały zidentyfikowane przez Europejską Radę Ochrony Danych Unii Europejskiej  i mogą obejmować:

  • Naruszenie prywatności i ochrony danych osobowych: ChatGPT może zbierać i przetwarzać dane osobowe użytkowników, takie jak informacje o preferencjach, zachowaniach i intencjach. W związku z tym istnieje ryzyko naruszenia prywatności i ochrony danych osobowych.
  • Ryzyko dyskryminacji i uprzedzeń: ChatGPT może wprowadzać błędne założenia i uprzedzenia, na przykład w zakresie płci, rasy, orientacji seksualnej czy wyznania, co może prowadzić do dyskryminacji.
  • Ryzyko dezinformacji i fałszywych informacji: ChatGPT może generować nieprawdziwe lub mylące informacje, co może prowadzić do dezinformacji i manipulacji opinii publicznej.
  • Bezpieczeństwo cybernetyczne: ChatGPT może być podatny na ataki cybernetyczne, które mogą prowadzić do naruszenia bezpieczeństwa danych i prywatności użytkowników.
  • Odpowiedzialność za decyzje podejmowane przez ChatGPT: ChatGPT może podejmować decyzje, na przykład w zakresie rekomendacji produktów lub usług, co może prowadzić do odpowiedzialności prawnej za szkody wynikające z tych decyzji.

Organy publiczne na całym świecie zajmujące się ochroną danych osobowych i prywatności podejmują działania w sprawie ChatGPT.

Na poziomie europejskim, już w 2020 roku Europejska Rada Ochrony Danych Unii Europejskiej wydała wytyczne dotyczące wykorzystania sztucznej inteligencji, w tym systemów generujących teksty i rozmowy, z uwzględnieniem kwestii ochrony prywatności i danych osobowych. EDPB również powołała grupę roboczą ds. ChatGPT, o której powyżej mowa, aby badać zagadnienia związane z ochroną danych w kontekście tego systemu.

Na poziomie krajowym, w wielu krajach istnieją organy i agencje ds. ochrony prywatności, które także podejmują działania w kwestii ChatGPT. Na przykład w Stanach Zjednoczonych Federalna Komisja Handlu (Federal Trade Commission, FTC) wydała wezwanie do złożenia raportów od dziewięciu firm, które oferują narzędzia oparte o działanie sztucznej inteligencji, w tym ChatGPT, celem zbadania kwestii związanych z prywatnością i bezpieczeństwem.

Polska

W Polsce organem odpowiedzialnym za ochronę danych osobowych jest Urząd Ochrony Danych Osobowych (UODO). Zgodnie z informacjami dostępnymi na stronie internetowej UODO, w 2021 roku urząd ten wydał rekomendacje dotyczące wykorzystania sztucznej inteligencji, w tym ChatGPT, z uwzględnieniem kwestii ochrony prywatności i danych osobowych. Urząd Ochrony Danych Osobowych wystąpił ostatnio do włoskiej agencji ochrony danych (Garante per la protezione dei dati personali) w sprawie ChatGPT. UODO chce zbadać, czy ChatGPT przestrzega europejskiej regulacji o ochronie prywatności, a także potencjalne ryzyko naruszania prywatności użytkowników.

UODO nie otrzymał do tej pory (kwiecień 2023) skarg dotyczących korzystania z ChatGPT i nie przeprowadził kontroli w związku z jego funkcjonowaniem, ale bada sprawę. Urząd liczy na uregulowanie kwestii sztucznej inteligencji na poziomie unijnym i organizuje inicjatywy edukacyjne oraz naukowe w celu lepszego zrozumienia wspomnianej technologii, a także, potencjalnych zagrożeń. UODO poprosił także włoską agencję ochrony danych o udostępnienie informacji dotyczących wykorzystania ChatGPT przez instytucje publiczne i prywatne we Włoszech.

Włochy

We Włoszech organem odpowiedzialnym za ochronę danych osobowych jest Garante per la protezione dei dati personali, czyli urząd ochrony danych osobowych. Garante zajmuje się ochroną danych osobowych oraz podejmuje działania w zakresie regulacji i nadzoru w tym obszarze.

W kontekście ChatGPT, Garante wskazuje na zagrożenia związane z wykorzystaniem sztucznej inteligencji, w tym systemów generujących teksty i rozmowy, pod kątem prywatności i ochrony danych. W związku z tym, Garante opublikował wytyczne dotyczące wykorzystania sztucznej inteligencji w grudniu 2020 roku, w których dostrzegł konieczność ochrony danych osobowych i prywatności użytkowników oraz wskazał, że przed wdrożeniem takich systemów należy dokładnie zbadać ich wpływ na prywatność i ochronę danych.

Ponadto, we wrześniu 2021 roku Garante wszczął postępowanie wyjaśniające w sprawie wykorzystania przez Facebook systemu sztucznej inteligencji w tzw. smart glasses, który może naruszać prywatność i ochronę danych osobowych użytkowników. Postępowanie to ma na celu zbadać, czy Facebook przestrzega przepisów dotyczących ochrony danych osobowych i czy jego system respektuje prywatność użytkowników. Warto również dodać, że we Włoszech tematem zajmuje się również krajowe centrum ds. cyberbezpieczeństwa (Centro Nazionale Cyber ​​Difesa), które monitoruje zagrożenia związane z bezpieczeństwem cybernetycznym, w tym zagrożenia wynikające z wykorzystania sztucznej inteligencji.

Niemcy

W Niemczech organem nadzorującym ochronę danych osobowych jest Federalny Komisarz do spraw Ochrony Danych i Wolności Informacyjnej (BfDI). BfDI jest niezależnym organem nadzorczym, który zajmuje się ochroną danych osobowych, a także promuje świadomość w zakresie prywatności i bezpieczeństwa danych dla wszystkich organów publicznych rządu federalnego.

W kontekście ChatGPT, BfDI wskazuje na konieczność ochrony danych osobowych użytkowników oraz na zagrożenia związane z wykorzystaniem sztucznej inteligencji, w tym systemów generujących teksty i rozmowy. W związku z tym, BfDI opublikował wytyczne dotyczące wykorzystania sztucznej inteligencji w maju 2021 roku, w których zwrócił uwagę na konieczność przestrzegania przepisów dotyczących ochrony danych osobowych oraz na potrzebę wyjaśnialności w stosowaniu sztucznej inteligencji.

BfDI również podejmuje konkretne działania w sprawie ChatGPT. W 2021 roku, BfDI wszczął postępowanie przeciwko platformie Clubhouse, która wykorzystuje system generowania tekstów w celu automatycznego generowania transkrypcji rozmów. Postępowanie to ma na celu zbadać, czy Clubhouse przestrzega przepisów dotyczących ochrony danych osobowych oraz czy jego system generowania tekstów respektuje prywatność użytkowników. Ponadto, w Niemczech istnieje również Federalne Biuro ds. Bezpieczeństwa Sieci Informacyjnych (BSI), które jest odpowiedzialne za monitorowanie i przeciwdziałanie zagrożeniom związanym z bezpieczeństwem cybernetycznym, w tym zagrożenia wynikające z wykorzystania sztucznej inteligencji.

Francja

W kontekście ChatGPT, władze francuskie podjęły kilka działań dotyczących ochrony prywatności i danych osobowych użytkowników. Jeden z organów zajmujących się ochroną danych w Francji to Komisja ds. Informacji i Wolności (Commission nationale de l’informatique et des libertés, CNIL). W maju 2021 roku, CNIL opublikowała swoje wytyczne dotyczące sztucznej inteligencji, w których podkreśla konieczność ochrony prywatności i danych osobowych użytkowników, a także na potrzebę przejrzystości i odpowiedzialności w stosowaniu sztucznej inteligencji.

Ponadto, w lipcu 2021 roku CNIL wszczęła postępowanie przeciwko platformie do nauki języków, Duolingo, która wykorzystuje system generowania tekstu, w tym ChatGPT, do automatycznego tłumaczenia tekstów użytkowników. Postępowanie to ma na celu zbadać, czy Duolingo przestrzega przepisów dotyczących ochrony danych osobowych i prywatności użytkowników, a także czy jego system generowania tekstu respektuje prywatność użytkowników. W tym samym okresie francuski organ nadzorczy ochrony danych osobowych wydał również decyzję nakładającą na Google karę w wysokości 500 milionów euro za naruszanie przepisów dotyczących prywatności i danych osobowych użytkowników w związku z wykorzystaniem plików cookie.

W sierpniu 2021 roku, francuski rząd przedstawił projekt ustawy dotyczącej sztucznej inteligencji, który ma na celu regulację stosowania sztucznej inteligencji i ochronę danych użytkowników. Projekt ustawy zakłada, że systemy oparte na sztucznej inteligencji, w tym ChatGPT, będą musiały być transparentne i odpowiedzialne, a także przestrzegać przepisów dotyczących ochrony danych osobowych użytkowników.

Co dalej?

Jako model językowy, ChatGPT nie jest bezpośrednio regulowany przez Europejską Radę Ochrony Danych ale może podlegać przepisom dotyczącym ochrony danych osobowych. W związku z tym, kolejne kroki Rady wobec ChatGPT mogą obejmować:

  1. Monitorowanie działań ChatGPT w odniesieniu do ochrony danych osobowych, aby upewnić się, że model spełnia wymogi regulacyjne.
  2. Przeprowadzanie audytów bezpieczeństwa w celu upewnienia się, że ChatGPT przestrzega wymogów dotyczących bezpieczeństwa i prywatności danych.
  3. Współpraca z dostawcami technologii i twórcami modelu, aby zapewnić zgodność z regulacjami dotyczącymi ochrony danych.
  4. Podejmowanie działań w przypadku naruszenia prywatności lub bezpieczeństwa danych przez ChatGPT, w tym na przykład nałożenie kar lub innych sankcji.
  5. Przeprowadzanie badań dotyczących wpływu modeli językowych na prywatność i bezpieczeństwo danych, w tym na przykład badania dotyczące wykorzystania danych wrażliwych lub kwestii związanych z identyfikacją osobistą.
  6. Opracowywanie i aktualizowanie wytycznych dotyczących prywatności i bezpieczeństwa danych dla modeli językowych, takich jak ChatGPT, aby pomóc w zapewnieniu zgodności z regulacjami dotyczącymi ochrony danych i prywatności.

Odpowiedzialność Rady Nadzorczej za wdrożenie i utrzymanie systemu compliance

Jak obecnie, po nowelizacji Kodeksu spółek handlowych, wygląda odpowiedzialność Rady Nadzorczej za wdrożenie i utrzymanie systemu compliance? A jak się do tego ma projekt nowelizacji ustawy o odpowiedzialności podmiotów zbiorowych za czyny zabronione pod groźbą kary?

Do zakresu działania rady nadzorczej z istoty tego organu należy prowadzenie stałego nadzoru i kontroli działalności spółki, mając przede wszystkim na względzie interes spółki. Obowiązek ten sam w sobie stanowi pewien zalążek systemu compliance i pozycjonuje radę nadzorczą jako organ, który nadaje ton działaniom w tym zakresie.

Ogólnie rzecz ujmując, system compliance w spółce ma zapewniać zgodność działalności spółki z szeroko rozumianymi regulacjami prawnymi i ograniczać sytuacje wystąpienia nieprawidłowości. Jednak o ile system compliance występuje stosunkowo często w przypadku spółek publicznych w związku z Dobrymi Praktykami Spółek Notowanych na GPW 2021, o tyle w spółkach nieposiadających statusu spółek publicznych występuje on stosukowo rzadko i postrzegany jest jako element kosztowny oraz hamujący biznes. Jednak wbrew pozorom system ten bardzo często istotnie przyczynia się do ograniczenia strat w sytuacji, w której w ramach przedsiębiorstwa wystąpi delikt administracyjny czy nawet przestępstwo.

Nowelizacja KSH wprowadziła w tym zakresie istotną zmianę polegającą zasadniczo na obowiązku posiadania systemu compliance przez praktycznie każdą spółkę akcyjną, a przynajmniej na corocznej ocenie tego, czy taki system powinien być w spółce wdrożony. Rada nadzorcza w swoich rocznych sprawozdaniach musi bowiem ujmować ocenę sytuacji spółki z uwzględnieniem adekwatności i skuteczności systemu compliance.

Obowiązkiem rady nadzorczej jest zatem weryfikować, czy system compliance jest adekwatny, bądź też wymaga zmian i wzmocnienia jego roli z uwagi na np. wielkość spółki, jej obroty, narażenie na wystąpienie nieprawidłowości.

Zmiana ta ma również istotne znaczenie z dwóch powodów.

Po pierwsze, w ostatnich dwóch latach Komisja Nadzoru Finansowego („KNF”) rozpoczęła intensywne nakładanie administracyjnych kar pieniężnych na członków rad nadzorczych. W toku takich postępowań KNF ocenia należytą staranność członków tych organów
w sprawowanych przez nich obowiązkach. Ocena ta ma charakter indywidualny i dokonywana jest w perspektywie zidentyfikowanego w ramach działalności spółki naruszenia np. obowiązków sprawozdawczych. Brak oceny systemów compliance przez radę nadzorczą czy też brak rekomendacji ich wdrożenia, pomimo istnienia obiektywnie takiej potrzeby, z pewnością zostanie uznany za działanie niestaranne.

Po drugie, zmiana ta ma również istotne znaczenie w perspektywie projektowanej nowelizacji ustawy o odpowiedzialności podmiotów zbiorowych za czyny zabronione pod groźbą kary. Przesłanką odpowiedzialności podmiotu zbiorowego na gruncie projektowanej nowelizacji będzie m.in. wystąpienie takiej nieprawidłowości w organizacji działalności podmiotu zbiorowego, która ułatwiła lub umożliwiła popełnienie czynu zabronionego. Za taką nieprawidłowość projekt ustawy uznaje m.in. brak wyznaczenia osoby lub komórki organizacyjnej nadzorującej przestrzeganie przepisów regulujących działalność podmiotu zbiorowego – innymi słowy komórki compliance. Z kolei przesłanką wyłączającą odpowiedzialność podmiotu zbiorowego ma być dochowanie należytej staranności przez wszystkie organy tej spółki, a więc np. radę nadzorczą. Skoro tak, to brak przyjęcia systemu compliance, pomimo corocznej oceny i obiektywnej potrzeby jego wdrożenia, istotnie zwiększy ryzyko odpowiedzialności spółki na gruncie projektowanej nowelizacji.

To wszystko powoduje, że system compliance przestaje być jedynie dobrą praktyką, a staje się powoli wymogiem bezwzględnie obowiązujących przepisów prawa.

Czekając na ustawę o sygnalistach

W grudniu mija rok, od kiedy Dyrektywa (UE) 2019/1937 w sprawie ochrony osób zgłaszających naruszenia prawa Unii powinna zostać zaimplementowana przez państwa członkowskie. Polska wciąż jest w grupie krajów, które nie wprowadziły odpowiednich przepisów chroniących sygnalistów.

Komisja Europejska w 2022 r. dwukrotnie upominała już spóźnialskie państwa, wzywając do pełnej transpozycji i udzielenia odpowiedzi na temat przyczyn zaniechań. Dalsza zwłoka grozi wniesieniem sprawy do Trybunału Sprawiedliwości Unii Europejskiej i nałożeniem kar finansowych. Istnieje duża szansa, że zdyscyplinuje to rząd do przyspieszenia prac nad nową ustawą.

Marcin Waszak

Mozolne prace legislacyjne

Sam proces przygotowania nowego prawa zaczął się dopiero na jesieni 2021 r., kiedy Ministerstwo Rodziny i Polityki Społecznej opublikowało pierwszy projekt ustawy o ochronie osób zgłaszających naruszenia prawa. Potem był etap konsultacji publicznych i kolejne trzy wersje projektu opublikowane w 2022 r., z których ostatni z datą 22 lipca. W międzyczasie odbyły się też uzgodnienia międzyresortowe i poznaliśmy protokół rozbieżności. Bardzo możliwe, że to właśnie w tabeli uwag nieuwzględnionych znaleźć można przyczyny, dla których prace po stronie rządu jeszcze się nie zakończyły.

Faktem jest, że po wakacjach zapadła cisza na temat dalszych losów projektu. Rządowy proces legislacyjny zatrzymał się na etapie uzgodnień z Komitetem do Spraw Europejskich. Co istotne, każdy kolejny projekt zawierał coraz mniej zmian w stosunku do poprzedniego, a projekt ostatni w zestawieniu z poprzednim różnił się wyłącznie kosmetycznymi, językowymi poprawkami. W znakomitej większości składał się z przepisów wynikających wprost z wytycznych Dyrektywy UE, miejscami cytując ją słowo w słowo. Na tej podstawie można przypuszczać, że przyszła ustawa nie będzie daleko odbiegać od obecnego kształtu projektu, choć oczywiście podczas prac nad nią w Sejmie i w Senacie sporo jeszcze może się wydarzyć. Dlaczego proces ten do tej pory toczy się tak wolno, gdzie leży pies pogrzebany?

Co wyhamowuje ustawę?

Stawiam tezę, że gdyby ustawa o sygnalistach miała dotyczyć wyłącznie podmiotów sektora prywatnego, przepisy dawno już weszłyby w życie. Najważniejsze dylematy rządu zdają się dotyczyć tego jak ma działać system ochrony sygnalistów oparty o jednostki sektora finansów publicznych i z czego będzie finansowany. Z projektu ustawy wciąż wyziera potężna luka w postaci braku listy organów publicznych właściwych do przyjmowania zgłoszeń zewnętrznych i podejmowania na ich podstawie działań następczych. Będzie to powodować dezorientację tak sygnalistów jak i samych organów publicznych, niepewnych czy i w jakim zakresie mają prowadzić zewnętrzne kanały zgłaszania.

Dodatkowo Ministerstwo Spraw Wewnętrznych i Administracji nie wycofało się ze swojego postulatu, żeby organ właściwy do zajmowania się zgłoszeniami sygnalistów ustanowić jeden w postaci Prokuratury zamiast rozproszonego systemu organów publicznych. Przystanie na postulat MSWiA to powrót do modelu zgłaszania ujętego w projekcie ustawy o jawności życia publicznego, powszechnie krytykowanego za to, że ochronę sygnalisty uzależnia od arbitralnych decyzji prokuratora. Być może jednak propozycja ta jest wciąż dyskutowana i nie przypadkiem projekt milczy o tym, którym organom publicznym nada kompetencje do zajmowania się sprawami sygnalistów. Wyjątkiem jest tutaj Rzecznik Praw Obywatelskich, któremu została przydzielona rola centralnego organu zajmującego się gromadzeniem i weryfikacją zgłoszeń zewnętrznych. RPO pośredniczyłby w przekazywaniu informacji między sygnalistą a organem, w którego kompetencjach leży zbadanie naruszenia. Dla samego RPO to rola problematyczna, wykraczająca poza ustawowo przypisane mu działania, ale też niosąca za sobą duże obciążenia finansowe. Tymczasem ze strony Ministerstwa Finansów słychać pohukiwania, że skutki finansowe przyszłej ustawy nie zostały dokładnie policzone a liczba zgłoszeń i czasochłonność ich obsługi może okazać się zupełnie inna od przewidywanej. Dlatego biorąc pod uwagę kryzys gospodarczy spowodowany pandemią Covid-19 i wojną w Ukrainie, sugeruje, aby na początek Biuro RPO wygospodarowało środki na ten cel w ramach istniejącego już budżetu. Wreszcie wciąż możliwy jest wariant polegający na stworzeniu nowej instytucji, która przejmie zadania RPO i innych organów publicznych w zakresie obsługi zgłoszeń zewnętrznych. Jest to rozwiązanie obecne w kilku europejskich krajach, np. na Słowacji, jednak niosące ze sobą jeszcze większe wyzwania finansowo-kadrowe aniżeli poszerzenie kompetencji RPO. Nie bez znaczenia jest to, że powołanie dedykowanej instytucji zanim jeszcze wdroży zewnętrzne kanały zgłaszania wymaga dodatkowego czasu, który już dawno się skończył.

Póki co najtrudniejsze dla rządu okazują się decyzje dotyczące kilku elementów ustawy o sygnalistach, co do których Dyrektywa UE nie narzuca jednego rozwiązania. W interesie polskiego państwa, ale też organizacji czekających na wytyczne jak i kiedy procedury zgłoszeń wdrożyć, powinny zostać podjęte niezwłocznie.

Protokół w spółkach kapitałowych po nowelizacji KSH

Reforma Kodeksu Spółek Handlowych, która weszła w życie 13 października 2022, istotnie zmieniła protokół dotyczący uchwał podejmowanych przez zarząd bądź radę nadzorczą w spółkach z o.o. i spółkach akcyjnych.

Protokół: zakres i obowiązek sporządzania

W odniesieniu do spółki akcyjnej dotychczas istniał artykuł 376 KSH, który stanowił, że uchwały zarządu są protokołowane, zaś protokoły powinny zawierać porządek obrad, imiona i nazwiska uczestników itd. Po nowelizacji artykuł 376 dotyczący spółki akcyjnej został znacznie rozbudowany i pojawiają się w nim nowe wymagane elementy protokołu z posiedzenia zarządu.

Jednak bardziej radykalne zmiany zaszły w regulacjach dotyczących spółki z o.o. Pojawia się bowiem nowy przepis tj. artykuł 2081 KSH, który obliguje spółki z o.o. do sporządzania protokołów na okoliczność podjęcia uchwał. W stanie prawnym obowiązującym do 13 października 2022 w spółce z o.o. nie było obowiązku przygotowania protokołów z posiedzeń zarządu, w związku z tym w bardzo wielu spółkach z o.o. istniała praktyka przygotowywania wyłącznie uchwał. Oczywiście w spółkach o charakterze korporacyjnym, które przyjęły regulaminy zarządu (także nieobligatoryjne), często uregulowani kwestie sporządzania protokołów, natomiast taki dokument nie był obligatoryjny z punktu widzenia KSH.

Po nowelizacji KSH nadal nie obowiązku przyjęcia w spółce z o.o. regulaminu zarządu, ale pojawia się obligatoryjny protokół z podjęcia uchwał przez zarząd. Przepisy dotyczące protokołowania uchwał zarządu w spółce z o.o. (art. 2081) są identyczne jak przepisy dotyczące spółki akcyjnej (art. 376).

W obu spółkach po nowelizacji de facto zostają zrównane regulacje dotyczące rady nadzorczej. W obu spółkach rady nadzorcze nie mają swoich odrębnych regulacji w  podniesieniu do protokołu. Uchwały rady nadzorczej mają być protokołowane, a do protokołów rady nadzorczej stosuje się odpowiednio przepisy dotyczące protokołu uchwał zarządu. Wobec tego po nowelizacji protokoły są wszędzie takie same: identyczne są w zarządach oraz obu radach nadzorczych obu typów spółek (w sp. z o.o. i w s.a.).

Romana Pietruk

Protokół: treść po nowelizacji

Po nowelizacji KSH uchwały zarządu są protokołowane. Natomiast w dotychczas obowiązujących regulaminach rad nadzorczych najczęściej zawarta jest informacja, że przebieg posiedzenia rady nadzorczej jest protokołowany. Po nowelizacji znika z kodeksu informacja, że przebieg posiedzenia jest protokołowany, tylko wszędzie kładziony jest nacisk na protokołowanie uchwał. Nie ma zatem już obowiązku opisywania całego przebiegu posiedzenia: kto co powiedział, jak się ustosunkowano itd. Oczywiście w protokole powinny się znaleźć zdania odrębne, o czym więcej niżej.

Oczywiście, jeżeli spółka sobie życzy opisywania w protokole dodatkowo przebiegu posiedzenia, to jest ona do tego uprawniona, jednak jeżeli chcemy mieć bardzo krótki protokół, w którym są zawarte tylko uchwały, to też możemy to uczynić w oparciu o nowe przepisy.

Bardzo często dokumenty korporacyjne spółek stawiają o wiele więcej wymagań wobec protokołów, niż przepisy prawa powszechnego. Z ciekawostek: przepisy dotyczące protokołu (ani art. 2081 ani art. 376 KSH) nie wymagają nawet daty podjęcia uchwały, choć oczywiście zgodnie z ratio legis te daty w protokołach są umieszczane.

Protokołowanie uchwał podjętych w trybie obiegowym

Obowiązek protokołowania dotyczy także uchwał podejmowanych w trybie obiegowym, ponieważ celem nie jest protokołowanie przebiegu posiedzenia, lecz protokołowanie uchwał.

Należy tu wskazać na pewne praktyki, które w spółkach występują. Oczywiście możemy sporządzać protokół na każdą uchwały podjętą poza posiedzeniem (czyli zgodnie z trybem wprowadzonym do KSH w ramach „Tarczy 1”), ale bardzo wiele spółek jednak wskazuje, że to jest działanie zbędne. Część spółek przyjmuje praktykę, zgodnie z którą uchwały podjęte pomiędzy posiedzeniami (obiegowo) są dołączane do protokołu z najbliższego posiedzenia.

Jeżeli czytać literalnie KSH to można by uznać, że taka praktyka nie jest zgodna z wytycznymi, jednak nie widzę obszaru zaskarżenia takiego działania, jeżeli bowiem istnieje protokół, istnieje uchwała, jest zawarta w niej informacja kiedy uchwała została podjęta, to taki tryb protokołowania jest moim zdaniem poprawny.

Bardzo często dylematy dotyczą też tego, czy należy wskazywać w protokole w jakim trybie były podejmowane uchwały oraz czy w protokole obowiązkowo zaznaczać, że jeden z członków zarządu uczestniczył w posiedzeniu przy użyciu środków bezpośredniego porozumiewania się na odległość. W przepisach dotyczących protokołu (art 2081 ani art. 376) takiego wymogu nie ma. Jest wymagane w protokole podanie wyraźnej informacji w jaki sposób można uczestniczyć w posiedzeniu organu, natomiast wszelkie dodatkowe elementy traktuje się jako wewnętrzne zobowiązanie spółki co do formy sporządzenia tego dokumentu. Brak jednoznacznego wskazania który z członków organu w jaki sposób uczestniczył w posiedzeniu nie stanowi naruszenia zasad sporządzenia protokołu.

Zakres protokołu

Protokół powinien zawierać:

  • porządek obrad (o ile odbyło się posiedzenie, ponieważ poza posiedzeniem porządku obrad nie ma, zaś pierwsze zdanie nowego przepisu brzmi „uchwały są protokołowane” a nie „posiedzenie jest protokołowane”);
  • imiona nazwiska obecnych członków zarządu (bądź odpowiednio rady nadzorczej). Bardzo często pojawia się zarzut braku sporządzenia listy obecności, jednak lista obecności pojawia się jako wymóg w odniesieniu do zgromadzeniu wspólników lub walnego zgromadzeniu, natomiast w odniesieniu do zarządu czy rady nadzorczej nie ma przepisu zobowiązującego do sporządzania odręcznych listy obecności (oczywiście listy obecności mogą być sporządzone w ramach dobrych praktyk). Umieszczamy jedynie informację w protokole o tym kto był obecny;
  • liczba głosów oddana na poszczególne uchwały. Mamy trzy rodzaje głosów: za, przeciw i wstrzymujący się. Co do zasady uchwały podejmuje się bezwzględną większością głosów, ale bardzo często statut lub umowa spółki może stanowić inaczej (czyli zamiast bezwzględnej większości głosów może być zwykła większość głosów);

zmiany

  • w protokole zaznacza się zdanie odrębne zgłoszone przez poszczególnych członków zarządu (bądź członków rady nadzorczej) wraz z jego ewentualnym umotywowaniem. Umotywowanie nie jest obligatoryjne: członek zarządu / rady nadzorczej, który został przegłosowany, zgłasza zdanie odrębne i na tym poprzestaje, bądź może zgłosić zdanie odrębne i wskazać swoje motywy;
  • po nowelizacji protokół podpisuje co najmniej członek zarządu prowadzący posiedzenie lub członek zarządu zarządzający głosowanie. Zazwyczaj tych funkcji się nie rozdziela: prezesa zarządu / przewodniczący rady nadzorczej prowadzi posiedzenie i to on zazwyczaj zarządza głosowanie. Oczywiście to nowe rozwiązanie związane jest z możliwością odbywania posiedzeń przy użyciu środków bezpośredniego porozumiewania się na odległość, ponieważ dotychczas w spółce akcyjnej (przed nowelizacją) istniał pewien paradoks: można było uczestniczyć w posiedzeniu zarządu przy użyciu bezpośredniego porozumiewania się na odległość, przy czym art. 376 wskazywał, że protokół podpisują obecni członkowie zarządu. Członek organu uczestniczący w posiedzeniu zdalnie też był obecny (np. brał udział w głosowaniach), ale oczywiście tego protokołu nie mógł podpisać. Zatem obecnie prezes zarządu / przewodniczący rady nadzorczej może prowadzić posiedzenie, ale nie musi w nim uczestniczyć stacjonarnie, ponieważ protokół może podpisać członek zarządu jedynie zarządzający głosowania, zatem pełniący de facto funkcję „techniczną” w posiedzeniu.

W obu spółkach ustawodawczą używa „lub” i „co najmniej”, czyli wskazuje minimalne grono osób, które muszą podpisać protokół. Użycie spójnika „lub” oznacza, że protokół może podpisać tylko prowadzący posiedzenie lub tylko zarządzający głosowanie albo obie te osoby.

Bardzo ciekawa jest końcówka przepisu, szczególnie w kontekście spółki z o.o.. Owo zdanie, na które należy zwrócić uwagę, mówi „chyba, że umowa / chyba że statut spółki lub regulamin zarządu stanowi inaczej”. Oznacza to, że jeżeli chodzi o protokół, odmiennie możemy uregulować w regulaminie, statucie bądź umowie spółki tylko i wyłącznie kwestie podpisania protokołów. Innych rzeczy my nie możemy odmiennie uregulować, a w spółce z o.o. jest to jest jedyny przepis, gdzie w ogóle KSH wymienia w spółce z o.o. regulamin zarządu.

A zatem po nowelizacji KSH:

  • w spółce z o.o. regulamin jest nieobligatoryjny,
  • regulamin może być uchwalony, ale nie wiadomo kto go uchwala ponieważ KSH tego nie reguluje,
  • jeżeli regulamin będzie, to możemy w tym regulaminie odmiennie uregulować kwestie podpisywania protokołu.

Generalnie rzecz biorąc wszyscy komentatorzy przed i po nowelizacji KSH stoją na stanowisko, że regulamin zarządu, ewentualnie umowa Spółki, może regulować dodatkowe elementy, które powinny się znaleźć w protokole zarządu bądź też w protokole rady nadzorczej.

Po nowelizacji KSH wprowadzono obowiązek sporządzania protokołów z posiedzeń zarządu zarówno w spółkach akcyjnych, jak i w spółkach z ograniczoną odpowiedzialnością. W przypadku spółek z o.o., przepis artykułu 208(1) KSH wprowadza obowiązek protokołowania uchwał zarządu, co dotychczas nie było obligatoryjne. Protokoły zawierają porządek obrad, imiona i nazwiska członków zarządu, liczbę głosów oddanych na uchwały oraz ewentualne zdania odrębne zgłoszone przez członków zarządu. Protokół powinien być podpisany przez co najmniej jednego członka zarządu prowadzącego posiedzenie lub zarządzającego głosowanie. W przypadku spółek z o.o., regulamin zarządu jest nieobligatoryjny, ale może uregulować kwestie dotyczące podpisywania protokołów. Przepisy nie określają innych elementów protokołu, które mogą być regulowane przez regulamin lub umowę spółki.

Na czym polegają zmiany w Kodeksie pracy od 1 sierpnia 2022, które wynikają z implementacji prawa unijnego?

W wyniku zmian w Kodeksie pracy pracownicy zatrudnieni na umowę o pracę zyskają nowe prawa, a pracodawcy dodatkowe obowiązki.

Przykładem ważniejszych zmian jest wprowadzenie obowiązku podawania przez pracodawcę realnego i rzeczywistego uzasadnienie wypowiedzenia umowy na czas określony.

Ponadto reforma zakazuje pracodawcy zakazywania pracownikowi jednoczesnej pracy w innej firmie, chyba że pracownika obowiązuje zakaz konkurencji. Inne zmiany to dodatkowy urlop opiekuńczy w wymiarze 5 dni w roku nad osobami pozostającymi pod opieką pracownika.

Pracownik posiadający dziecko do lat 8 będzie mógł skorzystać z elastycznej organizacji czasu pracy oraz 2 dni, albo 16 godzin zwolnienia z pracy w razie pilnej sprawy rodzinnej. 

mec. Monika Drab

Co jeszcze zmieni się od 1 sierpnia 2022 w Kodeksie pracy?

Reforma wprowadza także:

  • Nowości w uprawnieniach urlopowych pracowników,
  • Nowości w obowiązkach informacyjnych pracodawców,
  • Nowe zasady zawierania umów na okres próbny.

Kary dla pracodawców od 1 sierpnia 2022

Reforma generalnie wzmacnia pozycję pracownika. Przejawem tego jest regulacja nakazująca pracodawcy wyjaśnienie pisemnie każdej swojej decyzji dotyczącej relacji z pracownikiem (np. odmowa skierowania go na szkolenie). Kary za niespełnienie tego wymogu wynoszą od tysiąca do 30 tysięcy złotych. Będą one mogły zostać nałożone w formie mandatu przez inspektora pracy.

W Kodeksie pracy pojawią się nowe punkty, dzięki którym pracownicy zyskają nowe uprawnienia, zaś pracodawcy – nowe obowiązki.

Zmiany te to:

  1. Obowiązek poinformowania pracownika o warunkach zatrudnienia i o zmianie warunków tegoż zatrudnienia na piśmie w terminie 7 dni od dopuszczenia go do pracy. Niepoinformowanie pracownika terminowo będzie stanowiło wykroczenie.
  2. Pracodawca będzie miał obowiązek udzielić odpowiedzi z uzasadnieniem na specjalny wniosek pracownika. Mowa o sytuacji, w której zatrudniona osoba na co najmniej 6 miesięcy, będzie mogła złożyć wniosek do pracodawcy o zmianę rodzaju umowy o pracę (na czas nieokreślony lub w pełnym wymiarze godzin) lub o zmianę rodzaju pracy.
  3. Pracodawca naruszający przepisy o elastycznej organizacji pracy pracownika, który opiekuje się dzieckiem do 8. roku życia, będzie popełniać wykroczenie. Pracownicy będą mogli złożyć specjalny wniosek o elastyczną organizację pracy na co najmniej 14 dni przed planowanym jej rozpoczęciem.
  4. Pracownikom będzie przysługiwać urlop opiekuńczy (5 dni w roku kalendarzowym), który ma na celu zapewnienie opieki osobistej bądź wsparcia członkowi rodziny lub osobie zamieszkującej w tym samym gospodarstwie domowym. Dotyczy to sytuacji, kiedy osoba ta wymaga opieki bądź znaczącego wsparcia ze względów medycznych.
  5. Pracownikowi przysługiwać będzie zwolnienie od pracy (2 dni lub 16 godzin w roku kalendarzowym) spowodowane siłą wyższą, wypadkiem (jeśli niezbędna będzie natychmiastowa obecność osoby) lub w pilnych sprawach rodzinnych. Pracodawca, który będzie naruszał te przepisy, będzie popełniać wykroczenie.
  6. Na podstawie wniosku złożonego przez osobę zatrudnioną, przepisy umożliwiają udzielenie jej urlopu opiekuńczego. Wniosek musi zostać złożony na 3 dni przed rozpoczęciem korzystania z urlopu.

W przypadku podpunktu 5 i 6 pracodawca popełni wykroczenie, jeśli będzie prowadził przygotowania dążące do zamiaru rozwiązania stosunku pracy od dnia złożenia wniosku o urlop bądź elastyczną organizację pracy.

 

Nowe obowiązki Rady Nadzorczej w zakresie compliance po reformie KSH

Kto odpowiada za Compliance w spółce, organizacji, jednostce samorządu terytorialnego? Wszyscy. A Rada Nadzorcza w szczególności.

Oczywiście każdy interesariusz – od najwyższego kierownictwa do szeregowego pracownika, a nawet współpracownika – odpowiada za bycie compliant w swoim zakresie. Na każdym ciąży obowiązek dbania o to, by organizacja działała zgodnie z prawem, zasadami etyki i zobowiązaniami.

Także wspólnicy lub akcjonariusze odpowiadają do pewnego stopnia za system Compliance. Nie odpowiadają oni co prawda za zobowiązania spółki ani nie prowadzą jej spraw. Mają oni jednak instrumenty prawne i faktyczne by „wymusić” w spółkach kapitałowych wdrożenie i utrzymanie systemów compliance. I jest to w ich bezpośrednimi interesie, gdyż za brak lub pozorność systemów compliance mogą zapłacić m.in. utratą lub uszczerbkiem na reputacji oraz spadkiem wartości posiadanych udziałów/akcji. Wystarczy przytoczyć wpływ afer Enron czy problemy udziałowców zaangażowanych ostatnio, choćby pośrednio, w rosyjskie inwestycje.

Reforma KSH wzmacnia rolę i odpowiedzialności członków Rady Nadzorczej za funkcjonowanie systemu compliance w spółce.

Rada Nadzorcza, po reformie KSH, ma obowiązek w zakresie compliance. Odpowiada za monitorowanie zgodności działań przedsiębiorstwa z obowiązującymi przepisami prawnymi, kodeksami etycznymi oraz standardami wewnętrznymi. Do jej zadań należy również wprowadzenie i utrzymanie odpowiednich systemów kontroli wewnętrznej oraz monitorowanie ryzyka związanego z naruszeniem przepisów. Rada Nadzorcza ma obowiązek regularnego raportowania i informowania zarządu o wszelkich uchybieniach.

Po wejściu w życie reformy KSH (od 13.10.2022 r.) rada nadzorcza spółki akcyjnej będzie zobowiązana do przygotowania corocznego sprawozdania rady nadzorczej (zmieniono art. 382 § 3 oraz dodano nowy art. 382 § 31) zawierającego:

  • ocenę rocznych sprawozdań finansowych, w zakresie ich zgodności z księgami, dokumentami i ze stanem faktycznym,
  • ocenę wniosków zarządu dotyczących podziału zysku albo pokrycia straty,
  • ocenę sytuacji spółki, z uwzględnieniem adekwatności i skuteczności stosowanych w spółce systemów kontroli wewnętrznej, zarządzania ryzykiem, zapewniania zgodności działalności z normami lub mającymi zastosowanie praktykami oraz audytu wewnętrznego.

Ponadto osoba kierująca komórką do spraw zgodności powinna:

  1. mieć zapewniony bezpośredni kontakt z radą nadzorczą,
  2. uczestniczyć w posiedzeniach rady nadzorczej, w przypadku gdy przedmiotem posiedzenia są zagadnienia związane z zapewnianiem zgodności lub zarządzaniem ryzykiem.

A co, jak nie działa?

Członkom Rady Nadzorczej w podmiotach, które nie wdrożą skutecznego systemu compliance grozi odpowiedzialność karna a także odpowiedzialność cywilna i dyscyplinarna. W przypadku działań niezgodnych z prawem lub podejmowanych z nienależytą starannością jak również jawnych zaniechań, członkowie rady nadzorczej mogą zostać pociągnięci do odpowiedzialności. Przykładami działań na szkodę spółki popełnianymi przez członków tego organu jest m.in. niegospodarność, przestępstwo ogłaszania fałszywych danych (art. 587 KSH), jak również naruszenia dotyczące sprawozdań finansowych. Za szkody wyrządzone spółce członkowie rady nadzorczej mogą zostać ukarani karami takimi jak grzywna, a nawet ograniczenie albo pozbawienie wolności.

Samo powołanie osoby odpowiedzialnej za system compliance nie zwalnia też rady nadzorczej z odpowiedzialności. Wdrożenie i utrzymanie systemu compliance to obowiązek zarządu, jednak nadzór nad nim to obowiązek Rady Nadzorczej, który w dodatku po reformie zostaje wzmocniony przez włączenie nowych obowiązków sprawozdawczych Rady opierających się na informacjach płynących z tego obszaru biznesu.

Członek zarządu spółki kapitałowej odpowiada subsydiarnie w oparciu o przepisy Ordynacji Podatkowej

Członek zarządu spółek kapitałowych (również były) odpowiada za zobowiązania podatkowe spółki całym swoim majątkiem (także spółki w organizacji) w sytuacji, gdy egzekucja tychże danin okazała się bezskuteczna w całości lub w części (por. art. 116 Ordynacji Podatkowej). Jest to tzw. odpowiedzialność subsydiarna.

Oczywiście członek zarządu takiego podmiotu jest w stanie uwolnić się od tejże odpowiedzialności poprzez wykazanie, że we właściwym terminie (przewidzianym przepisami prawa upadłościowego i restrukturyzacyjnego) zgłoszono wniosek o ogłoszenie upadłości lub w tym czasie zostało otwarte postępowanie restrukturyzacyjne albo zatwierdzono układ w postępowaniu o zatwierdzenie układu lub niezgłoszenie wniosku o ogłoszenie upadłości nastąpiło bez jego winy. Dodatkowo członek zarządu spółki kapitałowej może uwolnić się również od odpowiedzialności subsydiarnej za zobowiązania podatkowe spółki jeśli wskaże, że istnieje majątek spółki pozwalający na zaspokojenie zaległości podatkowych spółki w całości lub znacznej części.

Wyznaczając zaś sam okres odpowiedzialności subsydiarnej członka zarządu spółki kapitałowej, wskazać należy, że obejmuje on zarówno te zobowiązania podatkowe, które powstały w okresie pełnienia przez niego obowiązku członka zarządu, jak również te, których termin płatności upływał po tym okresie.

mec. Piotr Fojtik

Dwa podejścia

Odpowiedzialność subsydiarna, z uwagi na swoje doniosłe skutki także w sferze majątku prywatnego, była przedmiotem wielu postępowań prowadzonych przez sądy administracyjne. Wypracowane na tej kanwie linie orzecznicze pozwalają na wskazanie dwóch aspektów:

Pierwszy z nich – adresowany do pociągniętych do odpowiedzialności subsydiarnej członków zarządu – przerzuca na nich obowiązek wykazania wystąpienia przesłanek wyłączających swoją odpowiedzialność. W praktyce stanowisko to jest wysoce niekorzystne dla osoby pociągniętej do odpowiedzialności subsydiarnej, bowiem w dużej mierze organy podatkowe poprzestają jedynie na czynieniu ustaleń nakierunkowanych na wykazanie, iż w okresie pełnienia obowiązków członka zarządu przez taką osobę wystąpiły przesłanki do ogłoszenia przez zarządzaną spółkę kapitałową upadłości.

 Co istotne, wewnętrzne regulacje organów podatkowych, podparte nielicznymi orzeczeniami sądów administracyjnych, przyznają uprawnienie do badania sytuacji majątkowej spółki – pod kątem wystąpienia tychże przesłanek – samemu organowi, z pominięciem udziału biegłego rewidenta.

Rodzi to wyjątkowo niebezpieczną sytuację: oto organ podatkowy (powołany m.in. w celu ustalenia, a następnie wyegzekwowania zaległości podatkowych) decyduje samodzielnie, czy w przypadku danego podmiotu doszło do materializacji przesłanek do ogłoszenia przez niego upadłości i to często w oparciu o ustalone przez siebie kryteria, różne od stosowanych przez wydziały upadłościowe sądów powszechnych. Jakkolwiek nie można mówić o istnieniu znanej chociażby z procedury cywilnej zasady „równości broni” w postępowaniu na podstawie przepisów ustawy Ordynacja Podatkowa, tym niemniej konsekwencją powyższego jest stworzenie jeszcze większej „dysproporcji sił” w starciu podatnika z organami podatkowymi.

A można inaczej

Niejako w opozycji do powyższej linii orzeczniczej, pozostaje druga, która jednak stara się nałożyć na organy podatkowe obowiązek badania także przesłanek wyłączających zastosowanie reżimu odpowiedzialności subsydiarnej członka zarządu spółki kapitałowej. Jak wspomniano powyżej, w praktyce organy podatkowe często jako podstawę wydawanych przez siebie decyzji wskazują poczynione przez siebie ustalenia, a mające na celu wykazanie, iż zachodzą przesłanki do ogłoszenia upadłości danego podmiotu. Kwestie związane z potencjalnym wystąpieniem przesłanek wyłączających odpowiedzialność subsydiarną badają pobieżnie, przyznając niejako koronną wartość dowodową poczynionym przez siebie ustaleniom (głównie w materii związanej z wystąpieniem przesłanek do ogłoszenia upadłości). To na członku zarządu spółki kapitałowej spoczywać będzie ciężar wykazania, iż nie wystąpiły przesłanki do wszczęcia postępowania upadłościowego, czy że w jego działaniu brak jest zawinienia.

Podkreślić należy, że wg organów podatkowych członek zarządu winien antycypować przyszłość do tego stopnia, że do jego obowiązków należy zabezpieczyć materiał dowodowy także na potrzeby przyszłych postępowań. Do dowodów tych zaliczyć można kopie faktur, zaświadczenia z urzędów o barku zalegania z daninami publicznymi, wyciągi z kont wskazujące na posiadanie środków finansowych, a obrazujących dobrą sytuację majątkową spółki. Co więcej, przy przekazaniu dokumentacji spółki nowemu zarządowi, poprzedni członek zarządu sporządzając protokół wydania dokumentów winien to zrobić w sposób drobiazgowy opisując każdy z przekazanych dokumentów oraz posiadać jego kopie.

Jako szczególnie niebezpieczną praktykę organów podatkowych w tego typu sprawach, ocenić należy brak zawiadamiania poprzednich członków zarządu o toczących się postępowaniach kontrolnych, które w praktyce pozbawiają byłego członka zarządu statusu strony. Wpływa to na brak dostępu materiałów postępowania, brak możliwości wypowiedzenia się co do zgromadzonego materiału dowodowego, a finalnie braku możliwości zaskarżenia wyników tych postępowań.

Powyższy artykuł powstał we współpracy z mec. Adamem Maciejko